ティーティス合同会社と奈良先端科学技術大学院大学の共同研究論文が、2025年12月23日にインド・ムンバイで開催される国際会議「IJCNLP-AACL 2025」併設ワークショップ「MMLoSo 2025: Multimodal Learning on Sound and Vision」に採択されたことが発表されました。
「International Joint Conference on Natural Language Processing & Asia-Pacific Chapter of the Association for Computational Linguistics(IJCNLP-AACL)」は、自然言語処理という、コンピューターが人間の言葉を理解・生成する技術の分野で非常に権威のある国際会議の一つです。特に、画像や音声といった複数の情報(マルチモーダル)を同時に学習する研究成果が注目される場となっています。

論文の概要:AIで安全運転指導を自動化
今回採択された論文のタイトルは「Toward Automatic Safe Driving Instruction: A Large-Scale Vision Language Model Approach」です。この研究は、ドライバーの安全運転を支援するために「自動運転指導生成」という技術に焦点を当てています。
具体的には、大規模視覚言語モデル(LVLM)という、画像とテキストの両方を一度に理解できるAIの能力を調べ、安全運転指導にどこまで使えるかを検証しました。
研究の背景:進化するAIと安全運転の課題
近年、LVLMは、写真の中の物を認識したり、見たものを言葉で説明したりする能力が非常に高まっています。この技術は、車の運転中に見える道路の状況を自動で要約したり、危険な状況をいち早く見つけたりすることに応用できると期待されています。しかし、実際に安全運転を評価し、指導するためには、車の前方カメラの映像だけでなく、車内のドライバーの様子を映すカメラの映像も合わせてAIが理解する仕組みが必要です。
この研究では、以下の点に取り組みました。
-
車の前方と車内、2つの映像を同時にAIに読み込ませるLVLMモデルを作ること
-
映像から、スマートフォン操作などの危険な運転行動を見つけるAIの能力を評価すること
-
AIを学習させるための大量のデータセットを作り、既存のLVLMと性能を比べること
-
特定の目的に合わせてAIをさらに賢くする「ファインチューニング」という学習方法で、性能が改善されることを示すこと
実験の結果、最初からあるLVLMだけでは安全運転指導の生成には限界があるものの、ファインチューニングを施したLVLMは、非常に正確な安全運転の指示を出せるようになることが分かりました。一方で、ごくわずかな動きや複雑な危険行動の検出には、まだ課題が残ることも確認されており、今後の改良に向けた重要なヒントが得られました。
この研究は、安全運転をサポートするシステムや、物流事業者向けの運転指導AIの開発にとって、とても大切な一歩となります。
今後の展望:ドラレコあとづけAI「アクレス」への応用
ティーティスと奈良先端科学技術大学院大学は、今回の研究成果を基にして、今後も共同研究を続けていく予定です。具体的には、AIのさらなる高精度化と、より軽い処理で動くようにすること、実際の現場でリアルタイムにAIが判断できる仕組みの開発、そして、危険度の高い行動をより細かく分類した学習データの拡充を進めます。
さらに、この技術は、ティーティスが提供する「ドラレコあとづけAI『アクレス』」への応用も検討されており、安全運転支援の技術がさらに進化していくことが期待されます。
参考情報
-
ワークショップ名:MMLoSo 2025 Workshop at IJCNLP-AACL 2025
-
開催日程:2025年12月23日(ムンバイ、インド)
-
ティーティス合同会社:https://www.teatis.jp/
-
所在地:東京都渋谷区道玄坂1丁目10−5 渋谷プレイス3F Orbit Shibuya内
-
代表者:CEO 高頭 博志
-
事業内容:AI映像分析サービス「アクレス」の開発・提供
-

