- NVIDIA、AI活用の手話学習ツール「Signs」発表
- カメラのみで手話動作を認識・指導可能
- 将来的に1000種類対応、データ収集も計画
※ AIによる要約
NVIDIAは2月21日、AIを活用した手話学習ツール「Signs」を発表。
このツールは、学習者に手話の動作を指導するだけでなく、手話ユーザーの動きをデータ化し、収集する機能を備えているとのこと。
Today we unveiled a new #AI platform, Signs, for teaching how to use American Sign Language.
Signs guides ASL learners through the process of forming words, using machine learning and computer vision to assess progress.
Learn more: https://t.co/JpYL1QA2uF pic.twitter.com/WwWGmJAt0f— NVIDIA (@nvidia) February 20, 2025
Signsはアメリカ手話の学習を支援するAIアプリで、画面には手話の手本と手の軌跡が表示されます。学習者はウェブカメラを用いて自身の動きを認識させながら、手本を模倣することで手話を学ぶ仕組み。モーショントラッカーなどの追加デバイスは不要で、通常のカメラのみで使用できる点が特徴。
記事作成時点で、Signsには100種類の手話が登録されています。さらに、将来的には1000種類の手話に対応し、累計40万件のデータを収集することを目指す方針。このデータ収集はボランティアによって行われる予定で、手話の初心者から熟練者まで、幅広いユーザーが参加可能。
現時点では、Signsは手の動きに特化しているが、今後は頭の動きや表情の認識機能の追加を予定。また、地域ごとの手話の違いやスラングにも対応する計画。
NVIDIAによるこの新たなAI活用は、手話学習のハードルを下げるだけでなく、手話データの蓄積にも貢献するでしょう。


