イベント企画
トップコンファレンス3-2 画像工学
9月3日15:30-17:30
第5イベント会場

座長:志水 信哉(NTT)

15:30-15:50 講演(1) 高速で編集可能な顔のパーソナライゼーションのためのFace2Diffusion
塩原 楓(東京大学)
【原発表の書誌情報】Kaede Shiohara and Toshihiko Yamasaki, "Face2diffusion for Fast and Editable Face Personalization", Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024
【概要】本研究では、事前学習されたテキストから画像生成モデルに特定の顔を挿入する「顔のパーソナライゼーション」において、従来手法の課題である「本人らしさ」と「編集のしやすさ」の両立に取り組みます。提案手法Face2Diffusionではレイアウト・表情・背景の3つの情報をアイデンティティ情報と分離する仕組みを導入することにより、既存法に比べて本人らしさと入力テキストへの整合性のバランスを大きく向上します。
【略歴】2025年3月 東京大学大学院情報理工学系研究科 博士後期課程修了.同年4月より同研究科 特任研究員.コンピュータビジョン及び機械学習の研究に従事.
15:50-16:10 講演(2) 協調学習によるオンライン連続学習における可塑性の向上
Wang Maorong(東京大学 大学院情報理工学系研究科電子情報学専攻山崎研究室 博士課程学生)
【原発表の書誌情報】Wang, M., Michel, N., Xiao, L. and Yamasaki, T.:
Improving plasticity in online continual learning via collaborative learning,
Proc. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),
pp. 23460-23469 (2024).
【概要】Online Continual Learning (CL) tackles the problem of incrementally learning new classification tasks from a continuous stream of data, where each training sample is observed only once. While most prior work focuses on alleviating Catastrophic Forgetting (i.e., maintaining model stability), we argue that enhancing the model’s ability to acquire new knowledge (i.e., model plasticity) is an equally critical challenge. Although replay-based methods are widely used to address forgetting, they often fall short in promoting plasticity. To address this limitation, we propose Collaborative Continual Learning (CCL), a framework that enhances the model’s ability to acquire new concepts through collaborative learning. We also introduce Distillation Chain (DC), a collaborative distillation approach that further improves training effectiveness. We attach CCL-DC to several representative online CL approaches. Extensive experiments show that CCL-DC can constantly improve the model plasticity and yields substantial improvements in overall performance, even when the baseline CL models are well-trained with the state-of-the-art online CL methods.
【略歴】Maorong Wang received his M.S. in Electrical Engineering from Northwestern University in 2020. He is currently working towards a Ph.D. degree at the University of Tokyo. His research interests mainly include Continual Learning, Knowledge Distillation, and Representation Learning.
16:10-16:30 講演(3) Noise2Noise2MMSE推定を用いたUHDカメラ用低遅延ノイズ低減手法のハードウェア化
菊地 幸大(日本放送協会 放送技術研究所)
【原発表の書誌情報】K. Kiuchi, K. Tomioka, A. Honji, T. Usui, K. Kitamura and K. Hirakawa, "Hardware Implementation of Low-Latency Image Denoising With Noise2Noise-Extended Learning for Ultra-High Definition Cameras," in IEEE Consumer Electronics Magazine, vol. 14, no. 3, pp. 105-112, May 2025, doi: 10.1109/MCE.2024.3451208.
【概要】高解像度かつ小型なイメージセンサーの普及により、リアルタイムノイズ低減技術への需要が増加している。本論文では、Noise2Noise2MMSE推定とHaarウェーブレット縮退を組み合わせた、ロバストかつ低遅延なノイズ低減手法を提案する。提案手法をFPGAに実装し、4K60fps映像を1ms未満の遅延で処理可能であることを確認した。
【略歴】2011年 千葉大学大学院工学研究科修士課程修了。同年に日本放送協会に入社。新潟放送局での勤務を経て、2013年より現所属。次世代の高精細映像取得に向けたイメージセンサーやカメラシステムの研究に従事。
16:30-16:50 講演(4) ニューラル表面再構成のためのシード点を考慮した学習可能な点群サンプリング
松崎 康平(株式会社KDDI総合研究所 コアリサーチャー)
【原発表の書誌情報】K. Matsuzaki and K. Nonaka, "Learnable Point Cloud Sampling Considering Seed Point for Neural Surface Reconstruction," in IEEE Access, vol. 12, pp. 190945-190958, 2024, doi: 10.1109/ACCESS.2024.3518620.
【概要】本研究では大規模シーンに対するニューラルネットワークを用いた表面再構成のための点群サンプリング手法を提案する.評価実験の結果,提案手法はメモリ使用量の増加を抑制しつつ,再構成精度を改善することが確認された.
【略歴】2010年に東北大学工学部電気情報・物理工学科を卒業.2012年に同大学大学院情報科学研究科修士課程を修了.同年KDDI株式会社に入社.2013年に現株式会社KDDI総合研究所に出向.2021年に名古屋大学大学院情報学研究科博士課程を修了.コンピュータビジョン,点群処理に関する研究に従事.博士(情報学).
16:50-17:10 講演(5) IRSを用いる通信システムにおける深層学習によるCSI予測のためのアクティブ素子配置
土屋 文彦(東京理科大学 大学院工学研究科情報工学専攻藤沢研究室)
【原発表の書誌情報】Y. Tsuchiya, N. Suga, K. Uruma and M. Fujisawa, "Active Element Arrangement for Deep Learning-Based CSI Prediction in IRS-Assisted Systems," in IEEE Access, vol. 13, pp. 2829-2843, 2025.
【概要】IRSは無線伝搬を制御可能な素子を面的に配置した反射体であり,この制御に各素子を経由する伝搬路を推定することが求められる.本研究では,これを欠損画像の復元問題とみなし深層学習を用いる場合における効果的な素子配置の検討を行った.
【略歴】2023年3月東京理科大学工学研究科情報工学専攻修士課程を修了.2023年4月より同大学博士課程に在籍.2023年より次世代研究者挑戦的研究プログラム (JST Spring).無線通信,画像処理に関する研究に従事.
17:10-17:30 講演(6) 意味ガイド付き画像圧縮による超低ビットレートにおける高い知覚品質の実現
【原発表の書誌情報】S. Iwai, T. Miyazaki, S. Omachi, "Semantically-Guided Image Compression for Enhanced Perceptual Quality at Extremely Low Bitrates," IEEE Access, 2024
【概要】本研究では、意味情報を活用した超低ビットレートの画像符号化手法を提案します。意味情報の活用により、デコーダは入力画像の意味クラスに整合するテクスチャを高い知覚品質で復元できることを示します。