金沢工業大学工学部 松井くにお教授の研究チームが、コード化された点字ブロックをカメラで読み取ると、行き先を音声で案内するという実証実験を金沢駅で実施しました。今回は、AI(人工知能)技術を使った視覚障害者向け歩行サポートシステムの事例をご紹介します。
動画は以下より。
疑似点字ブロックを使用した実験
実験では、25個の点を組み合わせて“コード化した”疑似点字ブロックを使用しています。被験者はスティック型PCを持ち、Webカメラ、骨伝導イヤフォンなどを装着します。カメラで点字ブロックのコードを読み取ると、AI(人工知能)が画像認識し、行き先や施設の情報などを音声で案内します。「右は駅改札方向です。左はバス乗り場方向です」など、被験者が向かってくる方角によって案内の内容も変わります。実験には視覚障害者だけでなく、外国人も参加し、多言語での音声案内も実施。
点のパターンは3000万通り
松井くにお教授は「2進法の25通りなので、点のパターンは3000万通り以上作ることが可能で、GPSでは難しい細かい精度の案内情報を提供できる。点は塗るだけなので、今後は本物の点字ブロックもコード化したい」と話しております。
【考察】視覚障害者が周囲を知る大きな力に
AI(人工知能)の判断で障害物を避けて走行する自動運転車の時代が到来しようとしています。これと同じように、全盲者であっても自力で駅の改札口や階段の位置がわかることができれば、どれだけ生活が楽になるでしょうか。技術の進展で、そんな夢物語が現実のものになろうとしています。
点字ブロックを利用した音声案内システムの実験│AIを利用した音声誘導の実験に参加しましたーYouTube
ledge.ai