トップコンファレンス4-1 機械学習
2023/9/7 9:30-12:00
第4イベント会場
9:30-9:50 講演(1) 【タイトル邦題】 汎化改善のための特徴抽出器の事後学習
田中 正行(東京工業大学 工学院システム制御系 教授)
【原発表の書誌情報】 Ikuro Sato, Ryota Yamada, Masayuki Tanaka, Nakamasa Inoue, and Rei Kawakami, “PoF: Post-Training of Feature Extractor for Improving Generalization,” International Conference on Machine Learning (ICML), 19221-19230, 2022.
【概要】 深層学習において,局所解近傍の曲率と汎化能力の間に関係があることが指摘されている.本論文で我々は,より平坦な損失形状を持つ解を探索できる,特徴抽出器の事後学習方法を提案した.Sharpness-Aware Minimizationと呼ばれる既存の学習方法に比較して,高い汎化能力が得られることを画像データセットを用いた実験により確認した.
【略歴】 2003年東京工業大学にて博士(工学)取得。同年アジレントテクノロジー(株)入社。
2004年より東京工業大学研究員、2008年より同大学准教授。
2017年より産業技術総合研究所主任研究員。2020年より東京工業大学准教授。
2023年より同大学教授。画像処理や機械学習に関する研究に従事。
9:50-10:10 講演(2) 【タイトル邦題】 固定逆伝播重みを用いたDifference Target Propagation
澁谷 辰吉(東京工業大学 大学院情報理工学院情報工学系知能情報コース佐藤研究室 修士)
【原発表の書誌情報】 Tatsukichi Shibuya, Nakamasa Inoue, Rei Kawakami, Ikuro Sato. FIxed-Weight Difference Target Propagation. In Proceedings of the AAAI Conference on Artificial Intelligence, volume 37, nomber 8, pages 9811-9819, 2023.
【概要】 本研究は,神経科学的に妥当なNNsの学習アルゴリズムDifference Target Propagationにおいて固定逆伝播重みを用いる手法を提案し,学習の安定化・高速化を実現する.提案手法は複数のデータセットにおいて一貫して従来手法以上の汎化性能を示し,従来信じられていたネットワークの協調的な学習が必須でないことを示した.
【略歴】 2019年東京工業大学情報理工学院入学.
2022年東京工業大学情報理工学院情報工学系早期卒業.
同年東京工業大学情報理工学院情報工学系知能情報コース修士課程入学.
現在,同学の佐藤研究室(DENSO IT LAB 認識・学習アルゴリズム共同研究講座)にてニューラルネットワークの学習アルゴリズムに関する研究を行っている.
10:10-10:30 講演(3) 【タイトル邦題】 現代的ホップフィールド模型の学習と部分的忘却
太田 敏博(株式会社サイバーエージェント AI事業本部 AI Lab リサーチサイエンティスト)
【原発表の書誌情報】 Toshihiro Ota, Ikuro Sato, Rei Kawakami, Masayuki Tanaka and Nakamasa Inoue, "Learning with Partial Forgetting in Modern Hopfield Networks," Proceedings of The 26th International Conference on Artificial Intelligence and Statistics, PMLR 206:6661-6673, 2023.
【概要】 近年の脳科学研究の智見により、記憶の部分的・一時的な忘却が人間の知的活動においてしばしば重要な役割を果たすことが知られている。一方機械学習分野においては古くから連想記憶のモデルとしてホップフィールド模型が提案されており、現代的なホップフィールド模型では注意機構をも内包することが明らかとなってきた。そのような発展を受け本研究では、現代的ホップフィールド模型の記憶ニューロンに対する部分忘却付き学習 (Learning with Partial Forgetting, LwPF) を提案し従来の Transformer モデル群の性能向上を志向した。提案法の有効性を多様なタスクにおいて評価し、LwPF が既存の Transformer モデル群の性能を向上させる実験的証左を得た。
【略歴】 2021年大阪大学大学院理学研究科博士後期課程修了。博士(理学)。東京大学大学院数理科学研究科、東京工業大学情報理工学院にて数理物理学、機械学習等の研究に従事。2022年12月よりサイバーエージェント AI 事業本部 AI Lab にて機械学習、深層学習に関する研究に取り組む。
10:30-10:50 講演(4) 【タイトル邦題】 Bit枝刈り:疎なかけ掛け算を用いない内積
関川 雄介(デンソーアイティーラボラトリ 研究開発グループ シニアリサーチャー)
【原発表の書誌情報】 Bit-Pruning: A Sparse Multiplication-Less Dot-Product, Yusuke Sekikawa and Shingo Yashima, The Eleventh International Conference on Learning Representations, 2023, https://openreview.net/forum?id=YUDiZcZTI8
【概要】 ニューラルネットワーウは内積の塊である.一般に内積は積和演算で実行されるが特に演算量の消費電力が大きい.
不要な積演算を除去することで演算量を低減するWeight枝刈りがしばしば用いられるが,より”精緻”な枝刈りができないか?と考えた.
積和演算はビット毎の和とシフト演算に分解にできる.このビット毎の和を枝刈りする”精緻”な枝刈り手法”Bit枝刈り法”を提案し,その有効性を検証した.
【略歴】 2004年3月 東京理科大学 基礎工学部 電子応用工学科 卒業。2004年4月 経済産業省 特許庁 入庁.移動体通信の特許審査に従事。2008年4月 (株)オリンパスイメージング入社。カメラファームウェア開発、商品企画に従事。2011年6月 (株)デンソーアイティーラボラトリ入社。2013年8月-2014年5月 MITメディアラボ客員研究員。2020年4月 慶應義塾大学 理工学研究科 後期博士課程 終了。2021年4月- 東京工業大学非常勤講師。主として画像を用いたニューラルネットワークの研究開発に従事。
10:50-11:10 講演(5) 【タイトル邦題】 組合せ半バンディット問題における適応的 best-of-both-worlds 方策
土屋 平(京都大学 大学院情報学研究科システム科学専攻 博士課程)
【原発表の書誌情報】 Tsuchiya, T., Ito, S., Honda, J.: Further Adaptive Best-of-Both-Worlds Algorithm for Combinatorial Semi-Bandits, In Proceedings of 26th International Conference on Artificial Intelligence and Statistics (AISTATS 2023), pp.8117–8144 (2023).
【概要】 バンディット問題では確率的・敵対的設定という大きく異なる理論的枠組みがあるが,近年ではそれらの設定で同時に最適性を達成する方策が盛んに研究されている.本講演では,その背景と著者らの一連の研究を紹介する.
【略歴】 2018年早稲田大学情報理工学科卒業.2020年東京大学複雑理工学専攻修了.現在京都大学システム科学専攻在籍中,日本学術振興会特別研究員 (DC1),JST ACT-X 研究員.
11:10-11:30 講演(6) 【タイトル邦題】 自分の深層ネットワークの性能は良すぎるだろうか? 二値分類におけるベイズ誤差推定の直接的なアプローチ
石田 隆(東京大学/理研 )
【原発表の書誌情報】 T. Ishida, I. Yamane, N. Charoenphakdee, G. Niu, M. Sugiyama. Is the Performance of My Deep Network Too Good to Be True? A Direct Approach to Estimating the Bayes Error in Binary Classification. In Proceedings of Eleventh International Conference on Learning Representations (ICLR2023).
【概要】 Machine learning models have inherent prediction limitations due to uncertainties in the prediction target, characterized as the Bayes error in classification problems. We propose a direct Bayes error estimator that is model-free and instance-free. Our method requires no hyperparameters and has shown more accurate Bayes error estimates than several empirical baselines. Our method's experiments imply that recent deep networks may be nearing the Bayes error limit for some of the benchmark datasets.
【略歴】 2021年東京大学大学院新領域創成科学研究科複雑理工学専攻博士課程修了・博士(科学)。2021年より東京大学大学院講師・理化学研究所革新知能統合研究センター客員研究員。専門は機械学習。2017年度IBISML研究会賞、2019年Google PhD Fellowship、2020年度トヨタ・ドワンゴ高度人工知能人材奨学金、2022年度船井研究奨励賞を受賞。
11:30-11:50 講演(7) 【タイトル邦題】 Neural Tangent Kernelを用いたアンサンブル学習における木構造の分析
加納 龍一(総合研究大学院大学/国立情報学研究所 )
【原発表の書誌情報】 Kanoh, R., Sugiyama, M.: Analyzing Tree Architectures in Ensembles via Neural Tangent Kernel, The Eleventh International Conference on Learning Representations (ICLR 2023)
【概要】 Soft Tree Ensembleの挙動を理論解析するためにNeural Tangent Kernelを活用する手法が研究されてきたが, 既存の理論は完全二分木に対してのみ適用可能であり, 任意の構造をもった木の解析ができなかった. そこで本研究は, Soft Tree Ensembleが誘発するNeural Tangent Kernelに関する理論を任意の二分木構造に対して拡張する.
【略歴】 2016年に東京大学大学院地球惑星科学専攻修士課程修了, 修士(理学). 株式会社ディー・エヌ・エーにてソフトウェアエンジニアとして勤務しながら, 2020年より総合研究大学院大学(国立情報学研究所)博士課程学生. 統計的学習理論の研究に従事.