綿陽遠(yuǎn)騰建設(shè)網(wǎng)站電商推廣方案
目錄
- 一、網(wǎng)址
- 二、重要時(shí)間點(diǎn)
- 三、論文篇幅要求
- 四、征稿主題
- 五、論文格式相關(guān)要求
- 六、論文模板修改成投稿模式
- 上述參考
- 七、模板使用相關(guān)
- 八、關(guān)于圖片方面的問題
- 九、Review and Rebuttal
- 十、ACM MM2022相關(guān)論文參考
- arxiv上 ACM MM2022 論文匯總
一、網(wǎng)址
-
ACM MM2023 主頁:
- https://www.acmmm2023.org/
-
Call for Papers:
- https://www.acmmm2023.org/cfp/
-
論文模板:
- https://www.acm.org/publications/proceedings-template
二、重要時(shí)間點(diǎn)
- 論文摘要截止日期
- Paper abstract deadline (firm deadline, no extension): 23 April 2023
- 論文提交截止日期
- Paper submission deadline (firm deadline, no extension): 30 April 2023
- Regular Paper Reviews To Author: 2 July 2023
- Regular Paper Rebuttal Deadline: 6 July 2023
- Notification: 25 July 2023
- Camera-ready Submission: 10 August 2023
- Conference dates: October 28, 2023 – November 3, 2023
三、論文篇幅要求
-
會(huì)議 6至8頁不等長(zhǎng)度的研究論文
- 以及參考頁的額外頁面;即參考頁不計(jì)入6至8頁的頁數(shù)限制。
-
The conference invites research papers of varying length from 6 to 8 pages, plus additional pages for the reference pages; i.e., the reference page(s) are not counted towards the page limit of 6 to 8 pages.
- Please note that there is no longer a distinction between long and short papers, but the authors may themselves decide on the appropriate length of the paper.
- All papers will undergo the same review process and review period.
Length:
- As stated in the CfP, submitted papers may be 6 to 8 pages.
- Up to two additional pages may be added for references.
- The reference pages must only contain references.
- Overlength papers will be rejected without review. Optionally, you may upload supplementary material that complements your submission (100Mb limit).
四、征稿主題
- Theme: Engaging users with multimedia
- Emotional and Social Signals
- Multimedia Search and Recommendation
- Summarization, Analytics, and Storytelling
- 主題: 用多媒體吸引用戶
- 情感和社會(huì)信號(hào)
- 多媒體搜索和推薦
- 總結(jié)、分析和講故事
- Theme: Experience
- Interactions and Quality of Experience
- Social-good, fairness and transparency
- Metaverse, Art and Culture
- Multimedia Applications
- 主題: 經(jīng)驗(yàn)
- 互動(dòng)和體驗(yàn)質(zhì)量
- 社會(huì)公益、公平透明
- 元宇宙、藝術(shù)與文化
- 多媒體應(yīng)用
- Theme: Multimedia systems
- Systems and Middleware
- Transport and Delivery
- Data Systems Management and Indexing
- 主題: 多媒體系統(tǒng)
- 系統(tǒng)和中間件
- 運(yùn)輸及交付
- 數(shù)據(jù)系統(tǒng)管理和索引
- Theme: Understanding multimedia content、
- Multimodal Fusion and Embedding
- Vision and Language
- Media Interpretation
- 主題: 理解多媒體內(nèi)容,
- 多模態(tài)融合和嵌入
- 視覺和語言
- 媒體解說
-
多模態(tài)融合和嵌入
- 在現(xiàn)實(shí)世界中,有些問題只能通過多種媒介和/或模式的組合來解決。
- 本主題尋求如何嵌入和融合多視角媒體信息的新見解和解決方案,以解決新問題和創(chuàng)新應(yīng)用。
-
視覺和語言
- 最近的研究以不同的方式推動(dòng)了視覺和語言的融合,例如字幕、問答和多模式聊天機(jī)器人。
- 該領(lǐng)域?qū)で笮碌慕鉀Q方案和結(jié)果,這些解決方案和結(jié)果特定于結(jié)合或彌合視覺和語言的問題。
-
媒體解讀
- 該領(lǐng)域?qū)で笠匀魏涡问?strong>對(duì)媒體相關(guān)信息進(jìn)行新穎處理,從而產(chǎn)生解釋多媒體內(nèi)容的新方法。
- 示例包括處理圖像、視頻、音頻、音樂、語言、語音或其他感官模式,以進(jìn)行解釋、知識(shí)發(fā)現(xiàn)和理解。
五、論文格式相關(guān)要求
提交的論文(.pdf格式)必須使用 ACM 文章模板。
Please remember to add Concepts and Keywords
- 模板下載:
- https://www.acm.org/publications/proceedings-template
Please use the template in traditional double-column format to prepare your submissions.
- For example, word users may use Word Interim Template, and latex users may use sample-sigconf template.
- 請(qǐng)使用傳統(tǒng)雙欄格式的模板來準(zhǔn)備您的提交。比如word用戶可以使用Word Interim Template,latex用戶可以使用sample-sigconf模板。
“雙盲”:
- 提交的論文必須符合“雙盲”評(píng)審政策。這意味著作者不應(yīng)該知道他們論文的審稿人的名字,審稿人也不應(yīng)該知道作者的名字。請(qǐng)以保護(hù)作者匿名的方式準(zhǔn)備您的論文。
- 不要把作者的名字放在標(biāo)題下面
- 在提及作者的早期出版物時(shí),避免使用諸如“我們以前的工作”之類的短語。
- 刪除致謝中可能識(shí)別作者身份的信息(例如,同事和資助 ID)。
- 檢查補(bǔ)充材料(例如,視頻剪輯中的標(biāo)題或補(bǔ)充文件)以獲取可能識(shí)別作者身份的信息。
- 避免提供指向可識(shí)別作者身份的網(wǎng)站的鏈接。
沒有適當(dāng)盲法的論文將被直接拒絕而不經(jīng)審查。
六、論文模板修改成投稿模式
-
論文模板下載:
- https://www.acm.org/publications/proceedings-template
- https://www.acm.org/publications/proceedings-template
-
壓縮包解壓
acmart-primary.zip
-
選擇模板
- 壓縮包里的
samples
文件夾里包含ACM 的一系列模板 sample-authordraft.tex
或者sample-sigconf.tex
均可
- 壓縮包里的
-
修改模板
- 首先將
\documentclass[sigconf,authordraft]{acmart}
- 改成
\documentclass[sigconf,review,anonymous]{acmart}
- 改成
- 然后將
%%\acmSubmissionID{123-A56-BU3}
這個(gè)注釋打開- 并修改為自己注冊(cè)的號(hào)碼
\acmSubmissionID{123}
- 基礎(chǔ)匿名版本就得到啦
- 并修改為自己注冊(cè)的號(hào)碼
- 首先將
-
微調(diào)
-
圖片中紅色框出的是模板里自帶的,投稿情況下可以保留也可以刪除
-
官網(wǎng)沒有對(duì)此的明確說明,但大家是默認(rèn)刪除是可以的
-
刪除1,在tex添加以下語句
\renewcommand\footnotetextcopyrightpermission[1]{}
-
如果不刪除1,想要保留
- 請(qǐng)修改tex里為當(dāng)年的MM信息
- 比如2022年的如下:
-
\setcopyright{acmcopyright}
\copyrightyear{2022}
\acmYear{2022}
\acmDOI{XXXXXXX.XXXXXXX}%% These commands are for a PROCEEDINGS abstract or paper.
\acmConference[MM '22]{Proceedings of the 30th ACM International Conference on Multimedia}{October 10--14, 2022}{Portugal, Lisbon}
\acmBooktitle{Proceedings of the 30th ACM International Conference on Multimedia (MM '22), October 10--14, 2022, Portugal, Lisbon}
\acmPrice{15.00}
\acmISBN{978-1-4503-XXXX-X/18/06}
-
DOI信息
- 記得摘要截止提交后,會(huì)郵件發(fā)給作者,加上就行
-
刪除2
- 很easy
- 添加如下語句就可以
\settopmatter{printacmref=false} %remove ACM reference format
上述參考
https://zhuanlan.zhihu.com/p/491172953
七、模板使用相關(guān)
模板的使用
- 投稿是ACM 下的 multi mudie 會(huì)議 , 使用sample-sigconf模板。
- 新建一個(gè)文件夾將
acmart-master
中acmart.cls
、acmart.bib
、ACM-Reference-Format.bst
及samples文件夾下sigconf
拷入,編譯即可。 - 報(bào)錯(cuò)是因?yàn)闆]有考入sample下的圖片
sample-franklin.png
。 - 另外。Texstudio的編譯改為
Xelatex
。 - 之后,復(fù)制粘貼就行。
- 新建一個(gè)文件夾將
公式的編輯
-
公式分為兩種:行內(nèi)和行間。
- https://blog.csdn.net/beta_2187/article/details/79980281
- 這篇博客對(duì)公式插入做了整理。
-
下面是對(duì)sample-sigconf模板的總結(jié)。
- 首先說需要注意的問題.
- 1 數(shù)學(xué)公式中有時(shí)候會(huì)出現(xiàn)文字(中文或英文),
- 需要將文字用命令 \text{…} 包起來.
- 如果將文字不加處理, 直接寫到公式里面會(huì)出現(xiàn)如下問題:https://blog.csdn.net/beta_2187/article/details/79980281
- 2 上下標(biāo)
\max_{k=1,2,…,K}
上下結(jié)構(gòu)max_{k=1,2,…,K}
左右結(jié)構(gòu)
- 3 數(shù)學(xué)希臘字符
- https://jingyan.baidu.com/article/4b52d702df537efc5c774bc9.html
-
公式
- 行內(nèi)公式
- 方法:
$…$
來表達(dá). $前后一般要有空格, 除非公式后面有標(biāo)點(diǎn)符號(hào).
- 方法:
- 行間公式
- 行間公式有編號(hào)與不變號(hào)
- 編號(hào)公式
- 單行
- 單行編號(hào)
- 單行不編號(hào)
- 多行
- 多行不編號(hào)
- 多行編號(hào)
- 參考博客:https://blog.csdn.net/beta_2187/article/details/79980281
- 單行
- 行內(nèi)公式
-
圖片插入
- 這里只說明組合圖
- 在原模板中加入
\usepackage{subfigure}
- 上下組合圖
- 左右組合圖
- 在原模板中加入
- 這里只說明組合圖
-
插入表格
- 合并列
\multicolumn{2}{c}{CityPersons}
- 注一下, 這里的 分列都是通過合并操作完成的
- 合并列
八、關(guān)于圖片方面的問題
經(jīng)常在word中畫圖的同學(xué),得先先在電腦里面安裝好一個(gè)Adobe acrobat professional
-
將word畫布里面的圖復(fù)制出來,放到一個(gè)新建的word文件里
- 這一步很關(guān)鍵,不然雖然能夠導(dǎo)出正確的pdf,但是用pdf生成eps時(shí)會(huì)出錯(cuò)。
-
將新建的word文件里的圖選擇另存為pdf格式
-
然后用
Adobe acrobat professional
打開生成好的pdf圖,選擇工具里面的高級(jí)編輯工具,將圖片周圍空白的地方裁減掉 -
然后另存為eps格式。
-
注意,保存圖片的時(shí)候一直報(bào)錯(cuò),異常和內(nèi)存不夠。
- 換了
smart pdf
就解決了。https://smallpdf.com/cn/pdf-converter
- 換了
九、Review and Rebuttal
每份提交將由至少三名審稿人審閱。
收到評(píng)論后,作者可以選擇提交反駁,以在提交系統(tǒng)的界面中以純文本形式處理評(píng)論者的評(píng)論。
- 對(duì)此有 5000 個(gè)字符的限制。
- 請(qǐng)注意,作者反駁是可選的,它旨在為您提供反駁事實(shí)錯(cuò)誤或提供審稿人要求的額外信息的機(jī)會(huì)。
- 它無意添加原始提交中未包含且審閱者未要求的新貢獻(xiàn)(定理、算法、實(shí)驗(yàn))。
- 作者可以選擇聯(lián)系作者的代言人,其職責(zé)是傾聽作者的意見,并在評(píng)論質(zhì)量明顯低于平均水平時(shí)為他們提供幫助。作者代言人獨(dú)立于技術(shù)計(jì)劃委員會(huì)運(yùn)作。
十、ACM MM2022相關(guān)論文參考
-
師廣琛同學(xué)論文被ACM MM(CCF-A)錄用
- https://zhuanlan.zhihu.com/p/549247763
- ACM Multimedia 2022 (CCF-A,多媒體領(lǐng)域頂會(huì))
- 《Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update and Hyper-class Representation》
- 師廣琛:河海大學(xué)碩士
-
ACM MM 2022 中科院信工所第三研究室部分錄取論文詳解
- https://zhuanlan.zhihu.com/p/537521485
- 《Camera-specific Informative Data Augmentation Module for Unbalanced Person Re-identification》
- 行人重識(shí)別任務(wù)致力于在無重疊的攝像頭網(wǎng)絡(luò)中檢索出目標(biāo)人物,并返回相應(yīng)排序結(jié)果。
- 《Efficient Hash Code Expansion by Recycling Old Bits》
- 哈希技術(shù)因其優(yōu)越的存儲(chǔ)和計(jì)算效率被廣泛應(yīng)用于多媒體大數(shù)據(jù)檢索中,近年來,得益于深度學(xué)習(xí)技術(shù)的不斷發(fā)展,深度哈希方法受到廣泛關(guān)注。
- 《Attack is the Best Defense: Towards Preemptive-Protection Person Re-Identification》
- 行人重識(shí)別旨在跨多個(gè)攝像機(jī)視圖檢索同一個(gè)人的圖像。盡管它在監(jiān)控和公共安全方面很受歡迎,但身份信息的泄露仍然存在風(fēng)險(xiǎn)。
- 《Multimodal Hate Speech Detection via Cross-Domain Knowledge Transfer》
- 提出一種基于跨領(lǐng)域知識(shí)遷移(CDKT)的多模態(tài)仇恨言論檢測(cè)框架,該框架遵循“主-輔任務(wù)” 的設(shè)計(jì)思路,包括三個(gè)核心組成:語義自適應(yīng)模塊、定義自適應(yīng)模塊、領(lǐng)域自適應(yīng)模塊,同時(shí)擬合主任務(wù)和輔助任務(wù)之間的語義、定義和領(lǐng)域差異。
- 《Detach and Attach: Stylized Image Captioning without Paired Stylized Dataset》
- 風(fēng)格化圖像標(biāo)題生成旨在生成同時(shí)具有準(zhǔn)確圖像內(nèi)容和風(fēng)格特征(例如積極、消極等)的標(biāo)題。然而,大規(guī)模的平行圖像-風(fēng)格化標(biāo)題數(shù)據(jù)集需要花費(fèi)大量資源。因此,如何在沒有成對(duì)的風(fēng)格化圖像標(biāo)題數(shù)據(jù)集的情況下生成風(fēng)格化標(biāo)題是一個(gè)挑戰(zhàn)。
- 《TPSNet: Reverse Thinking of Thin Plate Splines for Arbitrary Shape Scene Text Representation》
- 任意形狀的場(chǎng)景文本的檢測(cè)和識(shí)別是當(dāng)前OCR研究的重點(diǎn)之一。雖然目前已有一些方法可以取得不錯(cuò)的效果,但是這些方法所采用的文本形狀表示方法并不夠理想。
- 《TextBlock: Towards Scene Text Spotting without Fine-grained Detection》
- 年來,場(chǎng)景文本定位與識(shí)別的系統(tǒng)取得了很大的成功?,F(xiàn)有的工作大多數(shù)遵循著單詞/字符級(jí)別細(xì)粒度和單個(gè)實(shí)例識(shí)別的框架,這種框架過分強(qiáng)調(diào)了檢測(cè)器的作用,同時(shí)忽略了豐富的上下文信息在識(shí)別中的作用。
- 《MaMiCo: Macro-to-Micro Semantic Correspondence for Self-supervised Video Representation Learning》
- 早期的視頻自監(jiān)督學(xué)習(xí)通過手工設(shè)計(jì)的代理任務(wù),利用數(shù)據(jù)本身的變換產(chǎn)生的偽標(biāo)簽進(jìn)行預(yù)訓(xùn)練;近期得益于圖像對(duì)比學(xué)習(xí)框架的巨大進(jìn)展,對(duì)比學(xué)習(xí)在視頻自監(jiān)督學(xué)習(xí)領(lǐng)域同樣取得了成功。然而,現(xiàn)有的工作一方面需要更多的視頻幀來提取視頻級(jí)別的信息,造成巨量的計(jì)算開銷,另一方面忽略了細(xì)粒度的像素級(jí)別特征建模。
-
ACM MM 2022 | 騰訊優(yōu)圖11篇論文入選,含盲超分辨率算法、視頻場(chǎng)景分割分類等研究方向
- https://zhuanlan.zhihu.com/p/543066761
-
網(wǎng)易伏羲4篇論文入選ACM MM2022,再創(chuàng)游戲AI領(lǐng)域佳績(jī)
- https://zhuanlan.zhihu.com/p/556988297
-
【ACMMM 2022】PMN論文解讀與復(fù)現(xiàn)
- https://zhuanlan.zhihu.com/p/544592330
- 本文是入選ACM MM 2022 Best Paper Runner-up Award的工作。
- 本工作基于噪聲建模和配對(duì)真實(shí)數(shù)據(jù)提出了一種用于Raw單幀去噪的新訓(xùn)練方法。本工作核心在于改造數(shù)據(jù)而與神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)無關(guān),因此適用于各類去噪算法
-
ACM MM 2022 | 內(nèi)容和梯度引導(dǎo)的模型驅(qū)動(dòng)單圖像反射移除網(wǎng)絡(luò)
- https://zhuanlan.zhihu.com/p/561593611
- 深圳大學(xué)計(jì)算機(jī)與軟件學(xué)院
- 該工作針對(duì)單圖像反射移除任務(wù)提出了一個(gè)內(nèi)容和梯度引導(dǎo)的深度展開網(wǎng)絡(luò)。該方法結(jié)合了模型驅(qū)動(dòng)和數(shù)據(jù)驅(qū)動(dòng)的優(yōu)點(diǎn),不僅能夠保持較好的反射移除性能,而且具備良好的可解釋性。
-
ACM MM’2022 | 首個(gè)針對(duì)跨語言跨模態(tài)檢索的噪聲魯棒研究工作
- https://zhuanlan.zhihu.com/p/561151473‘
- 雖然目前傳統(tǒng)的跨模態(tài)檢索工作已取得了巨大的進(jìn)展,但由于缺少低資源語言的標(biāo)注數(shù)據(jù),這些工作通常關(guān)注于高資源語言(比如英語),因此極大地限制了低資源語言在該領(lǐng)域的發(fā)展。
-
[論文閱讀] ACM 2022 best paper: Search-oriented Micro-video Captioning
- https://zhuanlan.zhihu.com/p/573669606
- 聶禮強(qiáng)團(tuán)隊(duì)與快手合作,斬獲ACM MM 2022最佳論文獎(jiǎng)
- https://mp.weixin.qq.com/s/dkKOmwta1olBAlrsSwUhOg
arxiv上 ACM MM2022 論文匯總
-
網(wǎng)址
- https://arxiv.org/search/?query=ACMMM2022&searchtype=all&abstracts=show&order=-announced_date_first&size=50
-
ACMMM2022