ZOZO研究所、AIの国際会議「ICLR 2026」で2つの重要な研究を発表

機械学習・深層学習

ZOZOグループの研究開発組織であるZOZO研究所が、機械学習のトップカンファレンス「ICLR 2026」で2本の論文が採択されたことを発表しました。ICLRは、AIの中でも特に機械学習の分野で世界的に権威のある学術会議の一つです。今回の採択は、ZOZO研究所がAI技術の最先端に貢献していることを示しています。

ZOZO研究所、機械学習のトップカンファレンス「ICLR 2026」にて2本の論文採択

複数のAIモデルを上手に組み合わせる新技術「DisTaC」

一つ目の論文は「DisTaC: Conditioning Task Vectors via Distillation for Robust Model Merging」です。この研究は、複数のAIモデルを新しく学習させずに一つにまとめる「モデルマージ」という技術を、もっと実用的にするためのものです。

モデルマージの課題

モデルマージは、さまざまな機能を持つAIを少ないコストで組み合わせられるため、とても期待されています。しかし、これまでの研究では、全てのAIモデルが同じ条件で学習された「理想的な状況」を前提としていることが多く、実際の開発現場で起こりがちな問題には十分に対応できていませんでした。

ZOZO研究所の研究では、現実の世界でモデルマージを使うと性能が大きく下がってしまう原因を二つ見つけました。

  1. AIモデルごとの「知識の強さ」のバラつき:AIモデルが学習された条件が違うと、それぞれのモデルが持つ「知識の強さ」にバラつきが出ます。強い知識を持つモデルが他のモデルの知識を打ち消してしまい、組み合わせた後のAIの性能が下がってしまうのです。
  2. AIの「予測の自信のなさ」:AIが予測をする際に「自信がない(確信度が低い)」状態で統合すると、組み合わせたAIの性能が大きく下がることがわかりました。

DisTaCの仕組みと効果

これらの問題を解決するために、ZOZO研究所は「DisTaC」という新しい調整方法を提案しました。DisTaCは、AIモデルを組み合わせる前に、まだラベルがついていないデータを使って短時間だけ追加学習を行うことで、上記の二つの問題を取り除きます。

具体的には、モデルごとの「知識の強さ」のバラつきをならし、組み合わせる際に悪影響を与える「予測の自信のなさ」を解消します。実験の結果、これまでのモデルマージでは性能が大きく下がっていた場合でも、DisTaCを使うことで性能の低下を抑え、安定したAIの統合ができることが確認されました。

今後の展望

この研究は、モデルマージを現実世界で安定して使うための課題と、その解決策を示しました。今後は、ファッションEC(インターネット通販)で使うAIモデルの開発に、この知見を役立てていく予定です。

論文はこちらからご覧いただけます。
DisTaC: Conditioning Task Vectors via Distillation for Robust Model Merging

AIの公平性を考える:タスク演算の役割

二つ目の論文は「On Fairness of Task Arithmetic: The Role of Task Vectors」です。この研究は、人間のような自然な言葉を理解し、生み出す「大規模言語モデル(LLM)」が、誰もが公平に使えるようにするためのものです。

AIの公平性とは?

AIが社会で広く使われるようになると、その判断が公平であるかどうかは非常に大切な問題になります。例えば、ヘイトスピーチ(憎悪表現)を見つけるAIが、特定のグループに対してだけ厳しく判断してしまうと、それは公平とは言えません。これまでのAIの学習方法では、元のデータや判断基準に偏りがあると、それがAIに残ってしまったり、かえって強めてしまったりする心配がありました。

この研究では、AIモデルの重みの差分である「タスクベクトル」という、特定のタスクの知識を表現するものを利用して、AIの振る舞いを調整する「タスク演算」という方法に注目し、それが公平性にどう影響するかを詳しく調べました。

タスク演算による公平性調整

研究の結果、タスク演算は、AIの性能を大きく落とすことなく、公平性を調整できる有効な方法であることがわかりました。AIモデルの精度を保ちながら、不公平さを抑えられるかを、文章や画像を扱う複数のAIモデルで、ヘイトスピーチ検出や年齢分類などのタスクを使って検証しました。

その結果、タスク演算は、精度を大きく損なわずに、特定のグループ間で生じる判断の偏りを減らせることが確認されました。また、調整の強さを表す係数をうまく設定することで、より公平性を高められることもわかりました。特定のグループの公平性が特に悪かった場合に、そのグループのタスクベクトルをAIに組み込むことで、不公平さを和らげられる場合があることも確認されています。ただし、あるグループの公平性を良くしようとすると、別のグループの公平性が悪くなる可能性もあるため、調整には注意が必要だということも明らかになりました。

今後の展望

この研究は、タスク演算が公平性を意識したAIの調整方法として有効であることを示しました。今後は、より大きなAIモデルや、商用で使われているAPI型のモデルへの応用、そして複数の調整パラメータを使ったより細やかな制御などが考えられます。また、文章を作るような複雑なタスクや、複数の属性が重なる状況での公平性の評価も重要な課題です。ZOZO研究所は、この研究の知見をもとに、ファッションECにおけるAIの導入で、効率性と公平性の両方を実現する実践的なツールの開発を目指しています。

論文はこちらからご覧いただけます。
On Fairness of Task Arithmetic: The Role of Task Vectors

ZOZO研究所について

ZOZO研究所は「ファッションを数値化する」ことを目標に掲げ、ZOZOグループが持つファッションに関するたくさんの情報を使って、ファッションを科学的に解明するための研究開発を行っています。

詳しくは以下のURLをご覧ください。
ZOZO研究所

タイトルとURLをコピーしました