JPWO2018025531A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2018025531A1
JPWO2018025531A1 JP2018531770A JP2018531770A JPWO2018025531A1 JP WO2018025531 A1 JPWO2018025531 A1 JP WO2018025531A1 JP 2018531770 A JP2018531770 A JP 2018531770A JP 2018531770 A JP2018531770 A JP 2018531770A JP WO2018025531 A1 JPWO2018025531 A1 JP WO2018025531A1
Authority
JP
Japan
Prior art keywords
unit
person
information processing
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018531770A
Other languages
English (en)
Other versions
JP6948325B2 (ja
Inventor
久美 矢代
久美 矢代
成瀬 哲也
哲也 成瀬
純一 小坂
純一 小坂
鈴木 康方
康方 鈴木
広子 西岡
広子 西岡
均 陸川
均 陸川
浩平 高田
浩平 高田
鈴木 雅彦
雅彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Sony Mobile Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Mobile Communications Inc filed Critical Sony Corp
Publication of JPWO2018025531A1 publication Critical patent/JPWO2018025531A1/ja
Application granted granted Critical
Publication of JP6948325B2 publication Critical patent/JP6948325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Pain & Pain Management (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Vascular Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Rehabilitation Tools (AREA)

Abstract

【課題】視覚を用いずに行動する者が正しい方向に安全に歩行することができるようにする。【解決手段】処理部は、方向決定部と、ガイド情報生成部とを有する。方向決定部は、視覚を用いずに行動する者が歩く方向を決定する。ガイド情報生成部は、決定した方向へ視覚を用いずに行動する者が歩くためのガイド情報を生成する。本技術は、例えば、視覚を用いずに行動する者が使用するスマートフォン等に適用できる。【選択図】図5

Description

本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、視覚を用いずに行動する者が正しい方向に安全に歩行することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
視覚を用いずに行動する視覚障害者は、白杖を用いて、歩道に敷設された点字ブロックなどを頼りに目的地まで歩行する。視覚障害者の目的地までの移動を補助する誘導システムは、これまでにも開発されている(例えば、特許文献1参照)。
特開平8−66441号公報
しかしながら、視覚障害者にとって、例えば、音響信号やエスコートゾーンのない4車線以上の広い横断歩道や、点字ブロックがなく、広く平坦な路面を歩行する際に、正しい方向が把握しづらいため、正しい方向に向かって歩いているかわからないという不安があり、このような不安を解決できるものがなかった。
本技術は、このような状況に鑑みてなされたものであり、視覚を用いずに行動する者が正しい方向に安全に歩行することができるようにするものである。
本技術の一側面の情報処理装置は、視覚を用いずに行動する者が歩く方向を決定する方向決定部と、決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する第1のガイド情報生成部とを備える。
本技術の一側面の情報処理方法は、情報処理装置が、視覚を用いずに行動する者が歩く方向を決定し、決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成するステップを含む。
本技術の一側面のプログラムは、コンピュータを、視覚を用いずに行動する者が歩く方向を決定する方向決定部と、決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成するガイド情報生成部として機能させるためのものである。
本技術の一側面においては、視覚を用いずに行動する者が歩く方向が決定され、決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報が生成される。
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術の一側面によれば、視覚を用いずに行動する者が正しい方向に安全に歩行することができるようになる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の視覚障害者歩行支援システムの概要を説明する図である。 第1の視覚障害者歩行支援システムを実現する情報処理装置の構成例を示すブロック図である。 情報処理装置が行う横断方向決定処理の基本原理を説明する図である。 視覚障害者による第1の視覚障害者歩行支援システムの使用例を示す図である。 第1の視覚障害者歩行支援システムにおける処理部の機能ブロック図である。 Ref画像登録処理を説明するフローチャートである。 図6のステップS5とS6の処理例を示す図である。 横断歩道ガイド処理を説明するフローチャートである。 図8のステップS26の方向検出処理の詳細なフローチャートである。 ステップS60の処理例を示す図である。 PDR演算部の出力を説明する図である。 Ref画像の変形例を示す図である。 探索領域の変形例を示す図である。 マッチング処理の変形例を示す図である。 方向検出処理の変形例を示す図である。 方向検出処理の変形例を示す図である。 方向検出処理の変形例を示す図である。 横断歩道ガイド処理の変形例を示す図である。 全経路ガイド機能の概要を説明する図である。 ガイド情報として障害物情報を録音する例を示す図である。 ガイド情報として横断歩道の手がかりを録音する例を示す図である。 全経路ガイド機能を実行する場合の情報処理装置の構成例を示すブロック図である。 全経路ガイド機能を実行する場合の処理部の機能ブロック図である。 全経路ガイド機能の音声登録処理を説明するフローチャートである。 全経路ガイド機能の通過点ガイド再生処理を説明するフローチャートである。 追加の全経路ガイド機能を説明する図である。 第2の視覚障害者歩行支援システムの概要を説明する図である。 第2の視覚障害者歩行支援システムの構成例を示すブロック図である。 第2の視覚障害者歩行支援システムにおける処理部の機能ブロック図である。 登録モード時のドローンの画像送信処理を説明するフローチャートである。 登録モード時の情報処理装置の画像受信処理を説明するフローチャートである。 ガイドモード時のドローンの画像送信処理を説明するフローチャートである。 ガイドモード時の情報処理装置の画像受信処理を説明するフローチャートである。 第2の視覚障害者歩行支援システムの変形例を示す図である。 マーカの他の例を示す図である。 スマートフォンカバーの外観例を説明する図である。 スマートフォンカバーと連携する情報処理装置のUI操作に関するブロック図である。 カバークローズ検出処理を説明するフローチャートである。 カバーオープン検出処理を説明するフローチャートである。 図38のステップS205の登録アプリ実行操作検出処理を説明するフローチャートである。 グリッドモードの他の表示例を示す図である。 図41のグリッドモード時の登録アプリ実行操作検出処理を説明するフローチャートである。 スマートフォンカバーの小窓に貼り付けられるシールの他の例を示す図である。 グリッドモードの他の表示例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。1.第1の視覚障害者歩行支援システム
1.1 第1の視覚障害者歩行支援システムの概要
1.2 情報処理装置の構成例
1.3 横断方向決定処理の基本原理
1.4 スマートフォンを用いた使用例
1.5 処理部の機能ブロック図
1.6 Ref画像登録処理
1.7 横断歩道ガイド処理
1.8 Ref画像登録処理及び横断歩道ガイド処理の変形例2.全経路ガイド機能
2.1 全経路ガイド機能の概要
2.2 情報処理装置の構成例
2.3 処理部の機能ブロック図
2.4 音声登録処理
2.5 通過点ガイド再生処理3.第2の視覚障害者歩行支援システム
3.1 第2の視覚障害者歩行支援システムの概要
3.2 第2の視覚障害者歩行支援システムの構成例
3.3 処理部の機能ブロック図
3.4 登録モード時のドローンの画像送信処理
3.5 登録モード時の情報処理装置の画像受信処理
3.6 ガイドモード時のドローンの画像送信処理
3.7 ガイドモード時の情報処理装置の画像受信処理
3.8 第2の視覚障害者歩行支援システムの変形例4.スマートフォンカバー
4.1 スマートフォンカバーの外観例
4.2 ブロック図
4.3 カバークローズ検出処理
4.4 カバーオープン検出処理
4.5 登録アプリ実行操作検出処理

4.6 登録アプリ実行操作検出処理の他の例
4.7 小窓に貼り付けられるシールの他の例
4.8 小窓に割り当てられるUIアプリ配置の他の例5.情報処理装置のハードウェア構成例
<1.第1の視覚障害者歩行支援システム>
<1.1 第1の視覚障害者歩行支援システムの概要>
初めに、図1を参照して、本開示の第1の視覚障害者歩行支援システムの概要について説明する。
本開示の第1の視覚障害者歩行支援システムは、視覚障害者(視覚を用いずに行動する者)の横断歩道の歩行を支援する2種類の歩行支援処理を少なくとも備える。
1つの歩行支援処理は、図1の左に示されるように、視覚障害者が横断歩道を渡る際に、正しい横断方向を視覚障害者が向くように、歩く方向を決定する横断方向決定処理である。横断方向決定処理は、渡るべき横断歩道の手前の位置(以下、横断ポイントという。)で、例えば、「右」、「左」のように視覚障害者に知らせることによって、正しい横断方向を視覚障害者が向くように支援する。
もう1つの歩行支援処理は、図1の右に示されるように、上述の横断方向決定処理によって視覚障害者が正しい横断方向を向いた後、視覚障害者が横断歩道を歩いている最中に、正しい横断方向へ歩くためのガイド情報を生成するガイド情報生成処理である。ガイド情報生成処理は、例えば、「右」、「左」のように視覚障害者に知らせることによって、視覚障害者が正しい横断方向から逸れずに、横断歩道を渡るように支援する。
以下、本開示の第1の視覚障害者歩行支援システムの詳細について説明する。
<1.2 情報処理装置の構成例>
図2は、本開示の第1の視覚障害者歩行支援システムを実現する情報処理装置の構成例を示すブロック図である。
図2の情報処理装置1は、例えば、スマートフォンなどの携帯端末で構成することができ、カメラ11、方向センサ12、GPS(Global Positioning System)センサ13、操作部14、記憶部15、処理部16、及び出力部17を有する。
カメラ11は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサまたはCCD(Charge Coupled Device)などの撮像素子で構成され、横断歩道などの被写体を撮影し、その結果得られる画像を処理部16に供給する。
方向センサ12は、情報処理装置1が向いている方向及び動いた方向を検出するセンサであり、検出結果を処理部16に供給する。方向センサ12は、例えば、ジャイロセンサ(角速度センサ)、加速度センサ、慣性センサ、地磁気センサなどのうち、1つまたは2つ以上を有する。方向センサ12が検出できる方向は、地磁気センサのように絶対的な方向でもよいし、所定の方向を基準とした相対的な方向でもよい。
GPSセンサ13は、自身の位置を示す緯度経度のデータを、一定時間間隔(たとえば、15秒間隔)で順次取得し、処理部16に供給する。
操作部14は、例えば、操作ボタン、タッチセンサなどで構成され、ユーザの操作を検出し、検出した操作に対応する操作信号を処理部16に供給する。なお、操作部14は、
例えば、Bluetooth(登録商標)などの近距離無線通信機能と操作ボタンを備えるリストバンド型のリモートコントローラなどで構成される外部の入力装置14Aと、近距離無線通信により連携して動作することも可能である。
記憶部15は、例えば、HDD(Hard Disk Drive)や半導体メモリなどで構成され、処理部16で実行されるプログラムや、カメラ11や方向センサ12などの各部が動作するために必要な各種のデータを記憶する。また、記憶部15は、カメラ11で撮影した画像なども記憶する。
処理部16は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などで構成され、記憶部15から読み出された所定のプログラムを実行することによって、上述した横断方向決定処理及びガイド情報生成処理を実行する。
出力部17は、処理部16からの制御に基づき、映像、音、力(振動、動き)などを出力する。出力部17は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの映像出力部、スピーカなどの音声出力部、力、振動、動きなどを出力するハプティクス出力部などで構成される。
なお、出力部17は、Bluetooth(登録商標)などの近距離無線通信機能と操作ボタンとを備えるイヤホンやヘッドセットなどで構成される外部の出力装置17Aと、近距離無線通信により連携して動作することも可能である。
<1.3 横断方向決定処理の基本原理>
図3を参照して、情報処理装置1が行う横断方向決定処理の基本原理について説明する。
視覚障害者は、出発地から所定の目的地までの移動経路を歩行する際に、最初に同行援護者とともに歩行し、移動経路に存在する各横断歩道において、渡りたい正しい方向の静止画像を撮影し、情報処理装置1に登録する。情報処理装置1は、撮影された静止画像とともに、GPSセンサ13で取得された撮影地点の位置情報を記憶する。情報処理装置1に登録された静止画像は、2回目以降の移動時に参照されるリファレンス画像(以下、Ref画像という。)となる。同行援護者は晴眼者であるため、Ref画像が、横断歩道の正しい方向が撮影されている画像であるかを確認することができる。
そして、視覚障害者が、2回目以降、出発地から所定の目的地まで単独で歩行する際、移動経路に存在する各横断歩道において、情報処理装置1は、Ref画像を基に、横断方向の渡るべき正しい方向をガイドする。具体的には、情報処理装置1は、歩行中に撮影した静止画像(以下、現画像という。)とRef画像とのマッチング処理を行うことにより、横断方向の渡るべき正しい方向を決定し、視覚障害者にガイドする。
以上の横断方向決定処理によって横断方向の渡るべき正しい方向が決定された後、次のガイド情報生成処理では、その正しい横断方向を基準方向として、横断歩道を歩いている最中のガイド情報が生成され、視覚障害者に通知される。
<1.4 スマートフォンを用いた使用例>
図4は、情報処理装置1としてスマートフォンを用いた場合の、視覚障害者による第1の視覚障害者歩行支援システムの使用例を示している。
情報処理装置1としてのスマートフォン31が、ネックストラップ32とチェストストラップ33とによって、視覚障害者に装着されている。スマートフォン31は、カメラ3
4の撮影方向が進行方向を向くように配置されている。
視覚障害者の耳には、入力装置14A及び出力装置17Aとしてのワイヤレスイヤホン41が装着されている。ワイヤレスイヤホン41は、例えばBluetooth(登録商標)などの近距離無線通信によってスマートフォン31からの音声信号を受信し、音として出力する。本実施の形態では、「右」、「左」のような音声アナウンスが出力される。
また、ワイヤレスイヤホン41は、操作ボタン42を備え、視覚障害者による操作ボタン42の押下を検出し、押下の操作信号をスマートフォン31に供給する。視覚障害者は、右手で白杖43を持ち、左手でワイヤレスイヤホン41の操作ボタン42を操作することができる。
<1.5 処理部の機能ブロック図>
図5は、情報処理装置1の処理部16の機能ブロック図である。
処理部16は、横断方向決定処理とガイド情報生成処理を実行するために、登録モードとガイドモードの2つの動作モードを備える。
登録モードは、初回歩行時にRef画像を登録する際に実行される動作モードである。処理部16は、登録モード時に実行する実行モジュールとして、Ref画像登録部51を有する。Ref画像登録部51は、同行援護者の操作によってカメラ11で撮影されたRef画像を取得し、記憶部15に登録する。
一方、ガイドモードは、2回目以降の歩行時に実行される動作モードである。処理部16は、ガイドモード時に実行する実行モジュールとして、方向決定部61とガイド情報生成部62を有する。
方向決定部61は、視覚障害者が横断歩道を渡る前に、初回歩行時に登録されたRef画像に基づいて、正しい横断方向を決定する。
ガイド情報生成部62は、横断歩道を横断中に正しい方向から逸れないように視覚障害者にガイド情報を生成して出力する。より具体的には、ガイド情報生成部62は、方向決定部61によって決定された横断方向を基準方向に設定し、視覚障害者が横断歩道を横断している際の基準方向からのずれ量を算出し、算出したずれ量に基づいてガイド情報を生成し、視覚障害者に通知する。ガイド情報生成部62は、方向センサ12が出力するセンサ信号を用いて、歩行者自律航法(PDR: pedestrian dead reckoning)に基づいて横断歩道前の基準位置(横断ポイント)からの相対位置を計算するPDR演算部63を有する。
処理部16が、CPU等の演算処理装置が所定のプログラムを実行することによって実現される場合、処理部16全体が1つのアプリケーションプログラム(以下、単にアプリという。)で構成されてもよいし、登録モードとガイドモードがそれぞれ別のアプリで構成されてもよい。あるいはまた、Ref画像登録部51、方向決定部61、及び、ガイド情報生成部62のそれぞれが、別のアプリで構成されてもよい。
本実施の形態では、登録モードとガイドモードがそれぞれ別のアプリで構成されているとして説明する。例えば、操作部14としてのタッチパネルディスプレイを操作して、登録アプリを実行する操作が行われると、Ref画像登録部51が起動され、ガイドアプリを実行する操作が行われると、方向決定部61及びガイド情報生成部62が起動される。
<1.6 Ref画像登録処理>
次に、図6のフローチャートを参照して、登録モードにおいてRef画像登録部51により実行されるRef画像登録処理について説明する。この処理は、例えば、視覚障害者が同行援護者を伴って出発地から所定の目的地までの移動を開始するタイミングにおいて登録アプリを実行したときに開始される。
初めに、ステップS1において、Ref画像登録部51は、出発地からの経過時間(所要時間)を計測するための時計カウントを開始する。
視覚障害者は、同行援護者とともに所定の目的地までの移動経路を歩行する。同行援護者は、移動経路に存在する横断歩道に到着したとき、情報処理装置1において、渡りたい正しい方向の静止画像を撮影する操作を行う。
ステップS2において、Ref画像登録部51は、同行援護者による撮影操作を検出したかを判定し、撮影操作を検出したと判定されるまで、ステップS2の処理を繰り返す。
そして、ステップS2で、撮影操作を検出したと判定された場合、処理はステップS3に進み、Ref画像登録部51は、カメラ11を制御して撮影させる。カメラ11は、Ref画像登録部51の制御に従い、渡りたい方向の静止画像を撮影する。撮影により得られた静止画像は、Ref画像として、Ref画像登録部51に供給される。
続いて、ステップS4において、Ref画像登録部51は、現在の位置情報と時刻情報を取得する。即ち、Ref画像登録部51は、GPSセンサ13から供給される現在の緯度経度を示す位置情報と、ステップS1においてカウントを開始してからの経過時間を、現在の位置情報及び時刻情報として取得する。
ステップS5において、Ref画像登録部51は、カメラ11から供給されたRef画像に対して、ガイドモード時に撮影される現画像とマッチング処理を行う領域であるマッチング領域を設定する。
ステップS6において、Ref画像登録部51は、Ref画像に設定されたマッチング領域の画像の特徴点を抽出する。
図7は、ステップS5とS6の処理例を示す図である。
図7では、カメラ11から供給されたRef画像81に対してマッチング領域82が設定されている。また、マッチング領域82の画像に対して抽出された5個の特徴点PA1乃至PA5が示されている。
マッチング領域82は、Ref画像登録部51が所定の条件に基づいて自動で設定してもよいし、同行援護者の操作に基づいて設定してもよい。
例えば、Ref画像登録部51が自動でマッチング領域82を設定する場合、例えば、下側半分は横断歩道が映り込むことが多いので、上側半分で、かつ、左右方向については中央部分の全体の1/2幅の領域、などのように、Ref画像81の全体における所定位置がマッチング領域82に決定される。あるいはまた、Ref画像81に含まれる信号機や横断歩道の位置を基準に所定の領域をマッチング領域82に決定してもよい。
一方、同行援護者の操作に基づいてマッチング領域82を設定する場合には、例えば、Ref画像登録部51は、マッチング領域82を規定するウインドウをRef画像81に重畳させて、同行援護者にウインドウを操作してもらい、決定することができる。
また、マッチング領域82の画像に対する特徴点の抽出には、例えば、AKAZEやORBなどの局所特徴量を用いた抽出アルゴリズムを採用することができる。特徴点抽出処理は、OpenCV(Open Source Computer Vision Library)で提供されている。実際の特徴点抽出処理では、特徴点が多数検出されるが、図7の例では、図が煩雑になるのを防ぐため、5個の特徴点PA1乃至PA5だけが示されている。
図6に戻り、ステップS7において、Ref画像登録部51は、カメラ11から供給されたRef画像と、マッチング領域情報、特徴点情報、位置情報、及び、時刻情報とを対応付けて記憶部15に記憶させる。マッチング領域情報は、Ref画像内のマッチング領域を示す情報であり、例えば、マッチング領域の四隅の座標である。特徴点情報は、マッチング領域で検出された各特徴点の位置を示す情報である。位置情報と時刻情報は、ステップS4で取得されたRef画像が撮影された位置と時刻を示す情報である。
ステップS8において、Ref画像登録部51は、登録モードを終了するかを判定する。例えば、視覚障害者と同行援護者が目的地へ到着した場合、同行援護者が登録アプリを終了する操作を行うと、登録モードを終了すると判定される。
ステップS8で、登録モードをまだ終了しないと判定された場合、処理はステップS2に戻り、上述したステップS2乃至S8の処理が繰り返される。これにより、移動経路に存在する横断歩道(横断ポイント)に到着したとき、同行援護者の操作によって撮影されたRef画像が記憶部15に記憶されるとともに、Ref画像が撮影されたときの位置や時刻、及び、Ref画像のマッチング領域と特徴点に関する情報が、記憶部15に記憶される。
ステップS8で、登録モードを終了すると判定された場合、Ref画像登録処理が終了する。
以上のRef画像登録処理によれば、出発地から目的地までの移動経路に存在する横断歩道の横断ポイントごとに、Ref画像が、そのRef画像のマッチング領域情報及び特徴点情報と、位置情報及び時刻情報とともに、記憶部15に記憶される。
<1.7 横断歩道ガイド処理>
次に、図8のフローチャートを参照して、ガイドモードにおいて方向決定部61とガイド情報生成部62によって実行される横断歩道ガイド処理について説明する。この処理は、例えば、登録モードで登録した移動経路を視覚障害者が単独で歩行する場合に、出発地において移動を開始するタイミングでガイドアプリを実行したときに開始される。方向決定部61とガイド情報生成部62は、必要な情報を必要なタイミングで互いにやりとりして実行することができる。
初めに、ステップS21において、方向決定部61は、出発地からの経過時間(所要時間)を計測するための時計カウントを開始する。
ステップS22において、方向決定部61は、GPSセンサ13から現在の位置情報を取得し、取得された現在の位置情報と出発地からの経過時間とに基づいて、記憶部15にRef画像が登録されている横断ポイントに近づいたかを判定する。より具体的には、方向決定部61は、記憶部15に記憶されているRef画像に対応づけて記憶されている位置情報及び時刻情報と、現在の位置情報と経過時間とを比較して、現在の位置情報から所定範囲内の位置が対応付けられたRef画像が記憶部15に登録されているかを判定する。GPSセンサ13の位置精度にもよるが、例えば、横断ポイントの50乃至100m以内に視覚障害者が到着すると、横断ポイントに近づいたと判定される。横断ポイントは、基本的には位
置情報によって検索され、時刻情報は参考とされる。
ステップS22で、横断ポイントに近づいたと判定されるまで、ステップS22の処理が繰り返される。
そして、ステップS22で、横断ポイントが近づいたと判定された場合、処理はステップS23に進み、方向決定部61は、例えば、「この付近で登録した横断歩道があります」の音声メッセージを出力部17に出力させ、登録した横断ポイントが近いことを視覚障害者に通知する。
ステップS24において、方向決定部61は、横断ポイントに対応するRef画像を記憶部15から読み出す。
視覚障害者は、横断歩道の手前まで移動したとき、操作部14の操作ボタン、または、ワイヤレスイヤホン41の操作ボタン42を押下する。
ステップS25において、方向決定部61は、視覚障害者によるボタン操作を検出したかを判定し、ボタン操作を検出したと判定するまで、待機する。
そして、ステップS25で、ボタン操作を検出したと判定された場合、処理はステップS26に進み、方向決定部61は、方向検出処理を実行する。方向決定処理は、現在位置で静止画像(現画像)を撮影し、撮影された現画像から、Ref画像の特徴点と対応する特徴点を抽出し、対応する特徴点どうしをマッチングしたマッチング結果に基づいて方向を検出する処理である。
図9は、図8のステップS26の方向検出処理の詳細なフローチャートである。
方向検出処理では、初めに、ステップS51において、方向決定部61は、カメラ11を制御して、静止画像を撮影させる。カメラ11は、方向決定部61の制御に従い、静止画像を撮影する。ステップS51で撮影された静止画像が、移動中の現画像となる。
ステップS52において、方向決定部61は、撮影により得られた現画像に対して、Ref画像登録処理で実行したときと同じ特徴抽出アルゴリズムを用いて、特徴点を抽出する。
ステップS53において、方向決定部61は、現画像に対して抽出された特徴点と、横断ポイントに対応するRef画像の特徴点情報とを用いて、対応する特徴点を検出する特徴点マッチングを行う。例えば、Ref画像の特徴点に対して、ハミング距離などの特徴点距離が最も近い特徴点が、現画像の対応する特徴点として検出される。
ステップS54において、方向決定部61は、現画像でマッチングされた特徴点の個数が所定数以上であるかを判定する。
ステップS54で、マッチングされた特徴点の個数が所定数以上ではないと判定された場合、正確な方向判定ができないと判定され、処理は後述するステップS59のエラー通知処理に進む。
一方、ステップS54で、マッチングされた特徴点の個数が所定数以上であると判定された場合、処理はステップS55に進み、方向決定部61は、検出された特徴点のなかから、誤対応点を除去する。例えば、Ref画像の特徴点と、対応する現画像の特徴点を結ぶ 移動ベクトルを、現画像の全ての特徴点について平均した平均ベクトルと一定以上離れた移動ベクトルを有する特徴点が、誤対応点として除去される。
ステップS56において、方向決定部61は、誤対応点が除去された後の特徴点を用いて、Ref画像を現画像に射影変換する射影変換行列を演算する。4つ以上の特徴点があれば、射影変換行列は計算することができる。射影変換行列の計算に用いる特徴点には、交通信号(歩行者用、車両用)の画像部分を優先して使用することができる。交通信号(歩行者用、車両用)は輝度情報をもとに昼夜問わず検知ができるため、ロバストな射影推定が可能となる。1枚の画像の中に、交通信号が4つ以上映っていれば、局所特徴量によって検出された特徴点を用いずに、交通信号の移動ベクトルのみで射影変換行列を計算することができる。交通信号に限らず、例えば、看板や交通標識等を使ってもよい。
ステップS57において、方向決定部61は、Ref画像のマッチング領域情報を、求められた射影変換行列を用いて変換し、Ref画像のマッチング領域を現画像に射影した射影枠の四隅の頂点座標を演算する。
ステップS58において、方向決定部61は、射影枠の各辺の内積を計算することにより、求められた射影枠が四角形に近い形状であるかを判定する。
ステップS58で、射影枠が四角形に近い形状ではないと判定された場合、処理はステップS59に進み、方向決定部61は、正確な方向判定ができないと判断し、例えば「方向が検知できません」などの音声メッセージを出力部17に出力させ、方向検知エラーであることを視覚障害者に通知する。
ステップS59の後、処理はステップS51に戻り、上述したステップS51乃至S58の処理が繰り返される。したがって、方向検出ができない場合には、再度、静止画像の撮影がやり直される。
一方、ステップS58で、射影枠が四角形に近い形状であると判定された場合、処理はステップS60に進み、方向決定部61は、撮影された現画像を用いて、視覚障害者の向いている方向を推定する。
図10は、ステップS60で実行される、視覚障害者の向いている方向を推定する処理の例を示している。
現画像101が撮影されて特徴点が抽出され、抽出された特徴点が、現在位置に対応するRef画像81の特徴点とマッチングされて、現画像101に対して射影枠102が算出されている。
射影枠102の中心方向104が、視覚障害者の渡るべき方向として推定される。渡るべき方向は、カメラ11の視野範囲と画素数との関係から1画素あたりの角度が計算できるため、視覚障害者が装着しているカメラ11の撮影中心103と射影枠102の中心方向104との水平方向の画素数に基づく角度として算出することができる。より正確に角度を算出するためには、カメラのレンズ歪みなどのキャリブレーション情報も考慮して、渡るべき方向を推定してもよい。
ステップS60の視覚障害者の向いている方向を推定する処理が終了すると、図9のステップS26における方向検出処理は終了となり、図8に戻って、処理がステップS27に進む。
図8のステップS27において、方向決定部61は、方向検出処理で推定された結果に基づいて、視覚障害者が正しい方向を向いているかを判定する。例えば、方向検出処理で推定された角度が所定の範囲内である場合に、正しい方向を向いていると判定される。
ステップS27で、視覚障害者が正しい方向を向いていないと判定された場合、処理はステップS28に進み、方向決定部61は、例えば、「右、右、ちょっと右、・・・」や「左、左、ちょっと左、・・・」の音声メッセージを出力部17に出力させ、修正方向を音声で視覚障害者に通知する。
ステップS28の後、処理はステップS26に戻り、再度、方向検出処理が実行される。従って、音声メッセージにしたがって視覚障害者が体の向きを変えた方向に対して、再度、新しい現画像が撮影されて、視覚障害者の向いている方向が検出される。
現画像の撮影は例えば1秒に1枚程度の間隔で行うことができるが、その都度、「左、左、・・・」の音声メッセージを出力するのは難しい。そのため、方向決定部61は、「左」や「右」の音声メッセージは複数枚ごとに1回の割合で出力させ、音声メッセージと同時に、正しい方向を向いている場合には「ピッ、ピッ、ピッ、」と高音の電子音を出力させ、違う方向を向いている場合は、「ポッ、ポッ、ポッ、」と低音の電子音を出力させることができる。
ステップS27で、視覚障害者が正しい方向を向いていると判定された場合、処理はステップS29に進み、方向決定部61は、例えば、「ピンポーン」の電子音とともに、「正しい方向です」の音声メッセージを出力部17に出力させ、正しい方向であることを視覚障害者に通知する。また、ステップS29において、方向決定部61は、出力部17を介して、正しい横断方向を決定する処理は終了し、横断歩道の歩行中のずれをガイドする横断モードが開始されることを音声で通知する。
ステップS30において、ガイド情報生成部62は、1回以上繰り返し実行されたステップS26の方向検出処理のうち、正しい方向を向いていると判定された最後の現画像の射影枠102の中心方向104を、視覚障害者の進行方向であるとして、PDR演算部63に対して横断方向の進行方向を設定する。即ち、視覚障害者が実際に向いている体の向きは、Ref画像の正しい横断方向とは、厳密には異なるので、ガイド情報生成部62は、視覚障害者が実際に向いている方向ではなく、Ref画像に基づいて、正しい進行方向を設定する。PDR演算部63では、方向センサ12が出力するセンサ信号を用いて横断ポイントからの相対位置を計算する際の位置及び方向が、初期化される。
ステップS31において、ガイド情報生成部62は、カメラ11に撮影を行わせ、撮影された画像に基づいて、歩行者用信号の色を認識する信号認識処理を実行する。
ステップS32において、ガイド情報生成部62は、信号認識処理の結果から、歩行者用信号の色が赤から青へ変化したかを判定する。ステップS32で、赤から青へ変化したと判定されない場合、処理はステップS31に戻り、ステップS31及びS32の処理が繰り返される。正しい横断方向を決定した時点で歩行者用信号が既に青になっている場合も想定されるが、赤になるまでの時間が短い場合もあり得る。そこで、ステップS32の処理は、歩行者用信号が赤から青へ変化したタイミングを検出し、横断時間を最大限に確保できるようにしている。
ステップS32で、歩行者用信号の色が赤から青へ変化したと判定された場合、ステップS33において、ガイド情報生成部62は、「青になりました。渡れる状態です。」の音声メッセージを出力部17に出力させ、横断してよい旨を視覚障害者に通知する。
ステップS34において、PDR演算部63は、横断ポイントからの位置及び方位を算出し、ガイド情報生成部62は、PDR演算部63によって算出された位置及び方位を取得する。
PDR演算部63は、図11に示されるように、横断ポイントOを基準として横断方向への移動距離Y、横断方向に対して垂直な方向への移動距離X、横断方向からの角度ずれ量Dを算出して、ガイド情報生成部62に出力する。垂直な方向への移動距離Xは、いわば横方向の位置ずれであり、横断方向からの角度ずれ量Dは、いわば体の向きのずれであるので、以下、横方向の位置ずれX、体の向きのずれDと称する。
ステップS35において、ガイド情報生成部62は、位置または方位が所定以上ずれているかを判定する。
具体的には、ガイド情報生成部62は、PDR演算部63から供給された、横方向の位置ずれXと、体の向きのずれDを用いて、パラメータP=aX+kD(a,kは所定の定数)を算出し、算出されたパラメータPが所定の閾値以上であるか否かに基づいて、位置または方位が所定以上ずれているかを判定する。
ステップS35で、位置または方位が所定以上ずれていないと判定された場合、処理はステップS34に戻り、上述したステップS34及びS35の処理が繰り返される。
一方、ステップS35で、位置または方位が所定以上ずれていると判定された場合、処理はステップS36に進み、ガイド情報生成部62は、「右」や「左」の音声メッセージを出力部17に出力させ、修正方向を視覚障害者に通知する。
ステップS37で、ガイド情報生成部62は、視覚障害者が横断歩道を渡り終わったときのボタン操作を検出したかを判定する。視覚障害者が横断歩道を渡り終わったとき、操作部14の操作ボタン、または、ワイヤレスイヤホン41の操作ボタン42を押下する。
ステップS37で、横断歩道を渡り終わったときのボタン操作をまだ検出していないと判定された場合、処理はステップS34に戻り、上述したステップS34乃至S37の処理が繰り返される。
したがって、ステップS34乃至S37の処理によれば、視覚障害者が横断歩道を歩行中に、正しい方向を歩いている場合には、音声メッセージは出力されず、進行方向が一定以上に逸れた場合には、「右」や「左」の音声メッセージが出力される。なお、正しい方向を歩いている場合にも、方向を検出中であることを視覚障害者に通知して安心感を与えるために、「ピッ、ピッ、」と一定間隔で電子音を出力してもよい。
ステップS37で、視覚障害者が横断歩道を渡り終わったときのボタン操作を検出したと判定された場合、ステップS38において、ガイド情報生成部62は、出力部17を介して、横断モードが終了されることを音声で通知する。
ステップS39において、ガイド情報生成部62は、ガイドモードを終了するかを判定する。例えば、視覚障害者が目的地へ到着した場合、視覚障害者がガイドアプリを終了する操作を行うと、ガイドモードを終了すると判定される。
ステップS39で、ガイドモードを終了しないと判定された場合、処理はステップS22に戻り、上述した処理が繰り返される。即ち、Ref画像が登録されている次の横断ポイ ントが近くにあるか否かが監視され、検出された次の横断ポイントに対して、ステップS23以降の処理が実行される。
一方、ステップS39で、ガイドモードを終了すると判定された場合、横断歩道ガイド処理が終了する。
以上の横断歩道ガイド処理によれば、Ref画像が登録されている各横断歩道(横断ポイント)において、予め記憶されているRef画像と、現時点で撮影された静止画像(現画像)とをマッチングしたマッチング結果に基づいて、正しい横断方向を決定する方向検出処理が、Ref画像登録部51によって行われる。また、横断歩道を歩行中に、進行方向が横断方向と一定以上ずれた場合に修正方向を視覚障害者に通知する処理が、ガイド情報生成部62によって実行される。その結果、正しい方向に安全に横断歩道を歩行することができる。
<1.8 Ref画像登録処理及び横断歩道ガイド処理の変形例>
上述したRef画像登録処理及び横断歩道ガイド処理の変形例について説明する。
横断ポイントにおいて視覚障害者が正しい方向を向いているか否かを判定する際に、方向センサ12で検出される視覚障害者の姿勢情報を参考にしてもよい。この場合、Ref画像の登録時にも、Ref画像を撮影したときの方向センサ12で検出された方位情報が、姿勢情報として、Ref画像とともに記憶部15に記憶される。
上述したRef画像登録処理において、Ref画像とともに記憶する時刻情報は、出発地点からの経過時間としたが、毎日同じ時刻に出発するような場合には、経過時間ではなく、24時間制の絶対時刻としてもよい。
上述した横断歩道ガイド処理では、横断歩道を歩行中の視覚障害者のずれ量を、パラメータP=aX+kDを算出することで、横方向の位置ずれXと体の向きのずれDを区別せずに判定したが、横方向の位置ずれXと体の向きのずれDのそれぞれに対して閾値を設け、別々に判定してもよい。この場合、ガイド情報生成部62は、修正方向を視覚障害者に通知する電子音は、横方向の位置ずれXと体の向きのずれDそれぞれで異なるようにすることができる。例えば、横方向の位置ずれXについては、位置ずれXが大きければ電子音が遅いピッチで鳴り、位置ずれXが小さければ電子音が速いピッチで鳴る。体の向きのずれDについては、正しい方向を向くと電子音が低音で鳴り、外れた方向を向くと電子音が高音で鳴る。
上述したRef画像登録処理において、記憶部15に登録するRef画像として、左右方向に撮影範囲の広いパノラマ画像を撮影し、登録してもよい。これにより、図12に示されるように、横断歩道に対して大きく斜めの方向を向いた場合であっても、マッチングが取りやすくなる。また、この場合も、パノラマ画像を撮影時の方位情報を姿勢情報として付加して記憶してもよい。さらに、パノラマ画像に代えて、パンさせながら撮影した動画像を、Ref画像としてもよい。
上述した横断歩道ガイド処理において、Ref画像の特徴点に対応する特徴点を検出する特徴点マッチングを行う場合の現画像の探索領域は、現画像の全範囲としたが、探索領域を現画像の一部の領域とし、さらに、図13に示されるように、歩行者用信号の色が青のときと赤のときとで変化させてもよい。
歩行者用信号が青のときには、現画像には横断する歩行者が映りやすい。一方、歩行車用信号が赤のときには、横断歩道を横切る車両が映りやすい。そのため、これらの歩行者や車両を排除するために、方向決定部61は、図13に示されるように、道路が占める部
分が多い現画像の下側の領域を探索領域から除外するとともに、歩行者用信号の色が青のときと赤のときとで異なる領域を設定することができる。歩行者用信号の色が赤のときの現画像については、特徴点抽出やマッチング処理自体を停止してもよい。
登録モードでRef画像を登録したときの時刻と、ガイドモードで現画像を撮影するときの時刻が異なると、太陽光による影に違いが出てしまい、局所特徴量のマッチングが取れない場合もあり得る。そのような場合には、図14に示されるように、画像を二値化することで影を除外してから、マッチング処理を行うことも可能である。図14の例では、破線で示される道路に大きく映る影が除外され、影の位置による影響を排除することができる。
上述した方向検出処理では、撮影された現画像の水平方向の画素数から、視覚障害者が向いている方向が検出された。この方向は、現画像を中心としたいわば相対的な方位による方向の検出であるが、基準座標(例えば、磁方位基準)での絶対的な方位による方向で、視覚障害者が向いている方向を検出することも可能である。
基準座標での推定方位は、図15に示されるように、カメラ座標基準の方位(画像中心を基準とした方位)と、撮影時のカメラ方位(静止画像を撮影したときのカメラ11の方位)との加算で算出することができる。
また、上述した方向検出処理では、1枚の現画像を撮影するごとに、特徴点を抽出し、視覚障害者が向いている方向を推定し、ガイド情報として音声出力するようにしたが、図16に示されるように、複数枚の現画像それぞれで検出された結果から、視覚障害者が向いている方向を総合的に判定し、最終的な方向を推定してもよい。
換言すれば、方向決定部61は、図9の方向検出処理を複数回(複数枚)繰り返し、それぞれで検出された複数の方向情報を統合することで、視覚障害者が向いている方向の1回の検出結果とする。
例えば、方向決定部61は、複数の現画像それぞれで検出された複数の方向情報の平均値を算出し、その結果得られた方向を、視覚障害者が向いている方向とすることができる。
あるいはまた、複数の現画像それぞれで検出された複数の方向に対して所定の重み付け平均化処理を行って最終的な方向を検出してもよい。
例えば、現画像の射影枠が画像中心に近いほど精度が高いので、複数の現画像のうち、射影枠の位置が画像中心に近い現画像ほど重みを大きくして、複数の現画像それぞれで検出された複数の方向を統合した方向を決定することができる。
例えば、インライア(Inlier)マッチ量に基づいて複数の現画像の重み付けをしてもよい。即ち、複数の現画像のうち、射影変換行列の計算に使用された特徴点の個数が多い現画像ほど重みを大きくして、複数の現画像それぞれで検出された複数の方向を統合した方向を決定することができる。
あるいはまた、射影枠の幾何情報に応じて複数の現画像の重み付けをしてもよい。複数の現画像のうち、射影枠の形状が四角形状に近い現画像ほど重みを大きくして、複数の現画像それぞれで検出された複数の方向を統合した方向を決定することができる。
あるいはまた、歩行者用信号の色が青の現画像が、車両の映り込みが少なく正確な方位
が検出できると考えられるので、現画像に映る歩行者用信号の色が青である現画像の重みを大きくし、歩行者用信号の色が赤である現画像の重みを小さくして、複数の現画像それぞれで検出された複数の方向を統合した方向を決定することができる。
また、図17に示されるように、複数の現画像それぞれで検出された複数の方向を統合して最終的に方向を決定する場合には、検出された複数の方向の偏差を計算し、偏差が所定の閾値以上である場合には、検出エラーとして、修正方向をアナウンスする音声メッセージを出力しないようにしてもよい。また、検出エラーと判断した場合には、「静止してください」の音声メッセージを出力して、偏差が所定の閾値以下となるまで待機してもらったり、統合する現画像の枚数を増やしてもよい。これにより、推定精度を向上させるとともに、精度の低い場合には、修正方向のアナウンスを出力しないので、危険を防止することができる。
上述した横断歩道ガイド処理において、図18に示されるように、横断歩道を歩行中に、ガイド情報生成部62が、視覚障害者が横断ポイントから歩いた歩数をカウントし、例えば、「あと20歩です」や「あと1mです」のように、横断歩道を渡りきるまでの残りの距離情報を、音声メッセージで出力させるようにしてもよい。横断歩道全体の距離についての情報は、登録モードで横断歩道を渡るときに自動で歩数をカウントしたり、横断歩道を渡った後に、同行援護者に歩数を入力してもらうようにすればよい。あるいはまた、Ref画像を横断歩道全体が映るように撮影して、Ref画像に含まれる横断歩道の縞模様の数から、横断歩道全体の距離を推定して記憶しておくことも可能である。
<2.全経路ガイド機能>
<2.1 全経路ガイド機能の概要>
次に、情報処理装置1が、上述した横断歩道の歩行ガイド機能の他にさらに備える全経路ガイド機能について説明する。
上述した横断歩道の歩行ガイド機能は、出発地から所定の目的地までの移動経路のうち、横断歩道のみに着目したガイド機能であるが、横断歩道以外の移動経路については、情報処理装置1は、以下で説明する全経路ガイド機能を提供することができる。
図19は、全経路ガイド機能の概要を説明する図である。
視覚障害者は、1回目に目的地までの移動を行う際、出発地から所定の目的地までの移動経路のうち、主要な通過点で、歩行の参考になるような通過点に関するガイド情報を、自分自身の音声で通過点ごとに録音しておく。
情報処理装置1は、通過点ごとに、視覚障害者が発した音声と、その録音が行われた場所(緯度経度)を示す位置情報と時刻情報を記憶部15に記憶する。そして、情報処理装置1は、2回目以降の目的地までの移動において、通過点ごとに、ガイド情報としての録音された音声を再生(出力)する。1回目の移動時のガイド情報の録音は、登録モードで実行される。2回目以降の録音された音声の再生はガイドモードで実行される。
図19には、出発地及び目的地と、5個の通過点に対して、ガイド情報が登録されている例が示されている。
まず、出発地Startにおいて、視覚障害者は、全経路ガイド機能のガイドモードの実行を開始すると、情報処理装置1は、視覚障害者によって出発地Startで予め録音された「ここは出発地点です。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した通過点AP1の近くまで移動すると、情報処理装置1は、視覚障害者によって通過点AP1で予め録音された「ここはコンビニです。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した通過点AP2の近くまで移動すると、情報処理装置1は、視覚障害者によって通過点AP2で予め録音された「横断歩道手前。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した通過点AP3の近くまで移動すると、情報処理装置1は、視覚障害者によって通過点AP3で予め録音された「横断歩道終了。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した通過点AP4の近くまで移動すると、情報処理装置1は、視覚障害者によって通過点AP4で予め録音された「大通りから右折。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した通過点AP5の近くまで移動すると、情報処理装置1は、視覚障害者によって通過点AP5で予め録音された「左折し真っ直ぐ。」の音声メッセージを出力する。
次に、視覚障害者が、次に音声を録音した目的地Goalの近くまで移動すると、情報処理装置1は、視覚障害者によって目的地Goalで予め録音された「目的地です。」の音声メッセージを出力する。
また、情報処理装置1は、各通過点において、音声メッセージに対応付けて記憶された位置情報に基づいて、次の通過点の概略の方向を、録音音声とともに音声出力してもよい。
例えば、出発地Startにおいて、次の通過点AP1までの方角は45°の方向となるので、「ここは出発地点です。」の音声メッセージとともに、「次は、45°の方向です。」の音声メッセージを出力してもよい。その他の通過点においても同様である。
視覚障害者は、初回歩行時に、例えば、移動経路の各地点における音や匂いの特徴、歩道の混雑状況、路面の特徴、分岐点で道に迷わないための手掛かりとなる情報(左折、直進、右折など)、曜日ごとの状況の違いなど、自分で気づいた情報を、音声メッセージとして録音する。
図20は、ガイド情報として障害物情報を録音する例を示している。
視覚障害者は、初回歩行時に、例えば、通過点AP1に対して、「ドラッグストアの商品が歩道にはみ出しているので、歩道右側の障害物に注意、できるだけ歩道左端を歩行する。」の音声を情報処理装置1に録音する。視覚障害者は、2回目以降の歩行において、この音声メッセージが再生されることにより、右側の障害物を注意して、歩道左端を歩くことができる。
図21は、ガイド情報として横断歩道の手がかりを録音する例を示している。
視覚障害者は、初回歩行時に、例えば、通過点AP2に対して、「50m範囲内に横断歩道があります。歩道右側を進むとマンホールの蓋があるので、その先の点字ブロックの5歩先が、横断歩道です。」の音声を情報処理装置1に録音する。視覚障害者は、2回目以
降の歩行において、この音声メッセージが再生されることにより、マンホールの蓋と点字ブロックを基準にして横断歩道に容易に到達することができる。
なお、本実施の形態では、視覚障害者自身が、各通過点での音声メッセージの録音(吹き込み)を行うものとして説明するが、同行援護者が行ってもよい。
<2.2 情報処理装置の構成例>
図22は、上述した全経路ガイド機能を実行する場合の情報処理装置の構成例を示すブロック図である。
なお、図22において、図2と対応する部分については同一の符号を付してあり、その説明は適宜省略する。図23以降についても同様である。
情報処理装置1は、図2に示した構成に、マイクロホン121をさらに追加することで、全経路ガイド機能を実行することができる。
マイクロホン121は、視覚障害者が発した声を集音して、音声信号として処理部16に供給する。
<2.3 処理部の機能ブロック図>
図23は、上述した全経路ガイド機能を実行する場合の処理部16の機能ブロック図である。
処理部16は、登録モードとして、上述したRef画像登録部51に加えて、音声登録部141を備える。
また、処理部16は、ガイドモードとして、上述した方向決定部61とガイド情報生成部62に加えて、通過点通知部142を備える。
音声登録部141は、1回目に目的地までの移動を行う際に、通過点ごとに視覚障害者によって行われる録音操作に従って、マイクロホン121から供給される音声信号を、所定のファイルフォーマットに変換し、記憶部15に記憶させる。また、音声登録部141は、視覚障害者が発した音声(のデータ)を記憶部15に記憶する際、その通過点の位置情報及び時刻情報を、音声に対応付けて記憶部15に記憶させる。
通過点通知部142は、2回目以降の目的地までの移動の際に、通過点に近づいたか否かを判定し、通過点に近づいたと判定された場合、通過点に対応して記憶されている音声(のデータ)を記憶部15から取得し、出力部17に出力させる。
なお、全経路ガイド機能では、出発地と目的地に対する処理も、通過点に対する処理と変わらないため、出発地と目的地も通過点の1つとして認識して処理を行うものとする。
登録モードとガイドモードがそれぞれ1個のアプリで構成されてもよいし、音声登録部141と通過点通知部142が、それぞれ1個のアプリで構成されてもよい。換言すれば、上述した横断歩道の歩行ガイド機能のアプリと全経路ガイド機能のアプリは、1つのアプリで構成されてもよいし、異なるアプリでも良い。個々のアプリをどのような機能単位で構成するかは任意である。
<2.4 音声登録処理>
図24のフローチャートを参照して、登録モードにおいて音声登録部141によって実
行される音声登録処理について説明する。この処理は、例えば、視覚障害者が同行援護者を伴って出発地から所定の目的地までの移動を開始するタイミングにおいて登録アプリを実行したときに開始される。
初めに、ステップS71において、音声登録部141は、出発地からの経過時間(所要時間)を計測するための時計カウントを開始する。
視覚障害者は、歩行の参考になるようなガイド情報を録音しておきたい場合に、通過点に関するガイド情報の録音を行うための操作(以下、通過点登録操作という。)を行う。通過点登録操作は、例えば、ワイヤレスイヤホン41の操作ボタン42の押下である。
ステップS72において、音声登録部141は、操作部14からの操作信号に基づいて、通過点登録操作を検出したかを判定し、通過点登録操作を検出したと判定されるまで待機する。
ステップS72で、通過点登録操作を検出したと判定された場合、処理はステップS73に進み、音声登録部141は、通過点の位置情報及び時刻情報として、現在の位置情報と時刻情報を取得する。即ち、音声登録部141は、GPSセンサ13から供給される現在の緯度経度を示す位置情報と、ステップS71においてカウントを開始してからの経過時間を、通過点の位置情報及び時刻情報として取得する。
ステップS74において、音声登録部141は、マイクロホン121から供給される、視覚障害者が発した音声を録音する(記憶部15に記憶させる)。
ステップS75において、音声登録部141は、録音した音声に対応付けて、ステップS73で取得した通過点の位置情報及び時刻情報を記憶部15に記憶させる。
ステップS76において、音声登録部141は、視覚障害者に録音した内容を確認させるため、録音した音声を再生する。即ち、音声登録部141は、記憶部15に記憶した音声のデータに対応する音声信号を出力部17としてのスピーカまたはイヤホンに出力する。
ステップS77において、音声登録部141は、登録モードを終了するかを判定する。例えば、視覚障害者と同行援護者が目的地へ到着した場合、視覚障害者が登録アプリを終了する操作を行うと、登録モードを終了すると判定される。
ステップS77で、登録モードをまだ終了しないと判定された場合、処理はステップS72に戻り、上述したステップS72乃至S77の処理が繰り返される。これにより、通過点登録操作が行われるごとに、通過点の位置情報及び時刻情報と音声が、記憶部15に記憶される。
一方、ステップS77で、登録モードを終了すると判定された場合、音声登録処理が終了する。
<2.5 通過点ガイド再生処理>
次に、図25のフローチャートを参照して、ガイドモードにおいて通過点通知部142によって実行される通過点ガイド再生処理について説明する。この処理は、例えば、登録モードで登録した移動経路を単独で歩行する場合に、出発地において移動を開始するタイミングでガイドアプリを実行したときに開始される。
初めに、ステップS81において、通過点通知部142は、出発地からの経過時間(所要時間)を計測するための時計カウントを開始する。
ステップS82において、通過点通知部142は、GPSセンサ13から現在の位置情報を取得し、取得された現在の位置情報と出発地からの経過時間とに基づいて、記憶部15に音声が登録されている通過点に近づいたかを判定する。より具体的には、通過点通知部142は、記憶部15に記憶されている音声に対応づけて記憶されている通過点の位置情報及び時刻情報と、現在の位置情報と経過時間とを比較して、現在の位置情報から所定範囲内の位置に対応付けられた音声が記憶部15に登録されているかを判定する。GPSセンサ13の位置精度にもよるが、例えば、通過点の50乃至100m以内に視覚障害者が到着すると、通過点に近づいたと判定される。通過点は、基本的には位置情報によって検索され、時刻情報は参考とされる。
ステップS82で、通過点に近づいたと判定されるまで、ステップS82の処理が繰り返される。
そして、ステップS82で、通過点に近づいたと判定された場合、処理はステップS83に進み、通過点通知部142は、現在値に近い通過点(位置情報)に対応付けて記憶されている音声を再生する。即ち、通過点通知部142は、現在値に近い通過点(位置情報)に対応付けて記憶されている音声のデータを記憶部15から取得し、出力部17に出力させる。
ステップS84において、音声登録部141は、ガイドモードを終了するかを判定する。例えば、視覚障害者が目的地へ到着した場合、視覚障害者がガイドアプリを終了する操作を行うと、ガイドモードを終了すると判定される。
ステップS84で、ガイドモードをまだ終了しないと判定された場合、処理はステップS82に戻り、上述したステップS82乃至S84の処理が繰り返される。これにより、視覚障害者が通過点を通るごとに、通過点に対応するガイド情報としての音声メッセージが出力される。
一方、ステップS84で、ガイドモードを終了すると判定された場合、通過点ガイド再生処理が終了する。
以上のように、情報処理装置1の全経路ガイド機能によれば、移動経路の主要な通過点について、視覚障害者自身が自分の声で録音したガイド情報を実際に歩行した際に再生することで、安全な歩行を支援することができる。
なお、情報処理装置1は、上述した全経路ガイド機能(第1の全経路ガイド機能)に加えて、図26に示す全経路ガイド機能(第2の全経路ガイド機能)をさらに備えることができる。
図26に示される全経路ガイド機能は、視覚障害者自身が設定した通過点ではなく、GPSセンサ13からの位置情報を基に、目的地までの方角と距離を、一定時間間隔で、音声で出力する機能である。
図26の例では、30分ごとに、その時点における目的地の方角(「3時の方向」、「12時の方向」など)と、目的地までの距離(「10kmです」、「8kmです」など)の音声が情報処理装置1から出力されている。
<3.第2の視覚障害者歩行支援システム>
<3.1 第2の視覚障害者歩行支援システムの概要>
次に、本開示の第2の視覚障害者歩行支援システムについて説明する。
上述した第1の視覚障害者歩行支援システムは、情報処理装置1の単体で実現できるシステムであったが、第2の視覚障害者歩行支援システムは、いわゆるドローンと呼ばれる無人航空機を用いた視覚障害者歩行支援システムである。
図27を参照して、第2の視覚障害者歩行支援システムの概要について説明する。
視覚障害者は、誤認識低減のためのマーカ161として2次元コードが記された帽子(不図示)等を着用して、移動経路を歩行する。ドローン171は、マーカ161を検出して、視覚障害者の真上に移動し、真下を撮影する。
ドローン171が撮影した画像は、情報処理装置1へ転送され、情報処理装置1は、事前に撮影されたRef画像と、ドローン171から転送されてきた画像とを比較して、正しい位置とのずれを検出して、視覚障害者に正しい位置を音声で知らせる。
このドローンを用いた第2の視覚障害者歩行支援システムは、例えば、視覚障害者が横断歩道を歩行する際の正確な横断ポイントへの誘導に利用することができる。
<3.2 第2の視覚障害者歩行支援システムの構成例>
図28は、第2の視覚障害者歩行支援システムの構成例を示すブロック図である。
第2の視覚障害者歩行支援システムは、ドローン171と情報処理装置1とで構成される。
ドローン171は、カメラ181、記憶部182、移動部183、制御部184、及び近距離無線通信部185を備え、視覚障害者を追尾する。
カメラ181は、例えば、CMOSセンサまたはCCDなどの撮像素子で構成され、横断歩道などの被写体を撮影し、その結果得られる画像を制御部184に供給する。
記憶部182は、例えば、HDDや半導体メモリなどで構成され、制御部184で実行されるプログラムや、カメラ181や移動部183などの各部が動作するために必要な各種のデータを記憶する。また、記憶部182は、視覚障害者が装着するマーカ161を認識するためのマーカ情報なども記憶する。
移動部183は、ドローン171自身を上下左右に移動させるための移動手段であり、例えば、4つの回転翼で構成される。移動部183は、制御部184の制御に従い、ドローン171自身を移動させる。
制御部184は、例えば、CPUやMPUなどで構成され、記憶部182から読み出された所定のプログラムを実行することによって、上述したカメラ181による撮影や自身の移動を制御する。
近距離無線通信部185は、例えばBluetooth(登録商標)や無線LAN(Local Area Network)などの通信デバイスで構成され、制御部184の制御に従い、撮影画像などのデータを情報処理装置1に送信する。
情報処理装置1は、上述したカメラ11、操作部14、記憶部15、処理部16、及び出力部17に加え、さらに近距離無線通信部191を備える。
近距離無線通信部191は、ドローン171の近距離無線通信部185と対応する通信デバイスであって、例えばBluetooth(登録商標)や無線LANなどの通信デバイスで構成される。近距離無線通信部191は、処理部16の制御に従い、撮影画像などのデータを受信し、処理部16に供給する。
<3.3 処理部の機能ブロック図>
図29は、第2の視覚障害者歩行支援システムにおける情報処理装置1の処理部16の機能ブロック図である。
処理部16は、登録モードとして、Ref画像登録部211を備える。
Ref画像登録部211は、登録モードにおいて、正しい場所から撮影した登録地点(例えば、横断ポイント)の画像を、ドローン171から近距離無線通信部191を介して取得する。そして、Ref画像登録部211は、ドローン171から取得した登録地点の撮影画像を、Ref画像として記憶部15に登録する(記憶させる)。
Ref画像登録部211は、上述したRef画像登録部51と一体に組み込まれてもよいし、別々であってもよい。
また、処理部16は、ガイドモードとして、ガイド情報生成部212を備える。ガイド情報生成部212は、視覚障害者とドローン171との位置関係を認識し、視覚障害者を正しい位置へガイドするガイド情報を生成する。
より具体的には、ガイド情報生成部212は、ガイドモードにおいてドローン171から送信されてくる現在地の画像(以下、現在地画像という。)を、近距離無線通信部191を介して取得する。そして、ガイド情報生成部212は、ドローン171から取得した現在地画像を、記憶部15に記憶しているRef画像と比較して、正しい位置に対するユーザの位置ずれを検出する。さらに、ガイド情報生成部212は、検出した位置ずれに基づいて、視覚障害者を正しい位置へガイドするガイド情報としての修正方向を生成し、出力部17から音声で出力させる。
ガイド情報生成部212は、上述した方向決定部61またはガイド情報生成部62の一方または両方と一体に組み込まれてもよいし、別々であってもよい。
<3.4 登録モード時のドローンの画像送信処理>
次に、図30のフローチャートを参照して、登録モードにおいてドローン171によって実行される画像送信処理について説明する。
初めに、ステップS101において、制御部184は、移動部183を制御して、所定の登録地点へ移動する。登録地点としてどの場所へ移動するかは、例えば、近距離無線通信部185を介して遠隔操作により指示されてもよいし、予め複数の登録地点を登録しておいて、その地点の一つを選択して自律的に移動してもよい。
登録地点へ移動した後、ステップS102において、制御部184は、カメラ181を制御して、登録地点を撮影させる。カメラ181は、制御部184の制御に従い、登録地点を撮影する。
ステップS103において、制御部184は、撮影した画像を、近距離無線通信部185を介してRef画像として情報処理装置1に送信する。
ステップS104において、制御部184は、登録モードを終了するかを判定する。例えば、予め登録された全ての登録地点の撮影が終了したと判定された場合、登録モードを終了すると判定される。
ステップS104で、登録モードをまだ終了しないと判定された場合、処理はステップS101に戻り、上述したステップS101乃至S104の処理が繰り返される。これにより、複数の登録地点について、Ref画像が撮影され、情報処理装置1に送信される。
<3.5 登録モード時の情報処理装置の画像受信処理>
次に、図31のフローチャートを参照して、登録モードにおいて情報処理装置1よって実行される画像受信処理について説明する。この処理は、例えば、登録モードにおいてRef画像登録部211のアプリが実行されたときに開始される。
初めに、ステップS121において、Ref画像登録部211は、ドローン171から近距離無線通信部191を介してRef画像が送信されてきたかを判定し、Ref画像が送信されてきたと判定されるまで待機する。
そして、ステップS121で、Ref画像が送信されてきたと判定された場合、処理はステップS122に進み、Ref画像登録部211は、送信されてきたRef画像を取得し、記憶部15に記憶させる。
ステップS123において、Ref画像登録部211は、登録モードを終了するかを判定する。例えば、Ref画像登録部211のアプリを終了する操作が行われた場合、登録モードを終了すると判定される。
ステップS123で、登録モードをまだ終了しないと判定された場合、処理はステップS121に戻り、上述したステップS121乃至S123の処理が繰り返される。これにより、複数の登録地点に関するRef画像が取得され、記憶部15に記憶される。
<3.6 ガイドモード時のドローンの画像送信処理>
次に、図32のフローチャートを参照して、ガイドモードにおいてドローン171によって実行される画像送信処理について説明する。
初めに、ステップS141において、制御部184は、カメラ181によって撮影された画像から視覚障害者が付けているマーカ161を検出し、検出されたマーカ161が自分自身の真下の位置になるように移動部183に移動させる。
マーカ161の真下に移動した後、ステップS142において、制御部184は、カメラ181を制御して、真下を撮影させる。カメラ181は、制御部184の制御に従い、真下を撮影する。
ステップS143において、制御部184は、撮影した画像を、近距離無線通信部185を介して、視覚障害者の現在地を示す現在地画像として情報処理装置1に送信する。
ステップS144において、制御部184は、ガイドモードを終了するかを判定する。例えば、近距離無線通信により、情報処理装置1からガイドモードの終了が通知されたとき、登録モードを終了すると判定される。
ステップS144で、ガイドモードをまだ終了しないと判定された場合、処理はステップS141に戻り、上述したステップS141乃至S144の処理が繰り返される。これにより、移動する視覚障害者を追尾して、視覚障害者の真上から撮影した画像が、現在地画像として、定期的に情報処理装置1に送信される。
<3.7 ガイドモード時の情報処理装置の画像受信処理>
次に、図33のフローチャートを参照して、ガイドモードにおいて情報処理装置1よって実行される画像受信処理について説明する。この処理は、例えば、ガイドモードにおいてガイド情報生成部212のアプリが実行されたときに開始される。
初めに、ステップS161において、ガイド情報生成部212は、ドローン171から近距離無線通信部191を介して現在地画像が送信されてきたかを判定し、現在地画像が送信されてきたと判定されるまで待機する。
そして、ステップS161で、現在地画像が送信されてきたと判定された場合、処理はステップS162に進み、ガイド情報生成部212は、送信されてきた現在地画像を取得する。
ステップS163において、ガイド情報生成部212は、取得した現在地画像と、記憶部15に記憶されているRef画像とを比較して、視覚障害者の登録地点からの位置のずれを検出する。例えば、ガイド情報生成部212は、Ref画像の中心部の領域を、現在地画像のなかからパターンマッチングにより検出し、検出された位置と画像中心との位置のずれを検出する。
ステップS164において、ガイド情報生成部212は、検出された位置のずれが予め定めた所定の範囲内であるかを判定し、所定の範囲内であると判定した場合、処理はステップS161に戻される。
一方、ステップS164で、検出された位置のずれが予め定めた所定の範囲内ではないと判定された場合、処理はステップS165に進み、ガイド情報生成部212は、ガイド情報である「右」や「左」の音声メッセージを出力部17に出力させ、修正方向を視覚障害者に通知する。
ステップS166において、ガイド情報生成部212は、ガイドモードを終了するかを判定する。例えば、ガイド情報生成部212のアプリを終了する操作が行われた場合、ガイドモードを終了すると判定される。
ステップS166で、ガイドモードをまだ終了しないと判定された場合、処理はステップS161に戻り、上述したステップS161乃至S166の処理が繰り返される。これにより、複数の登録地点それぞれに関する現在地画像が取得され、Ref画像と比較されて、ガイド情報が視覚障害者に通知される。
以上説明した第2の視覚障害者歩行支援システムによれば、ドローン171が撮影した画像に基づいて、視覚障害者の現在の位置を検出するとともに、正しい位置のずれを算出して、視覚障害者にガイド情報として通知することができる。
<3.8 第2の視覚障害者歩行支援システムの変形例>
なお、上述した第2の視覚障害者歩行支援システムの実施の形態では、図34の上段に示されるように、ドローン171が視覚障害者の真上に移動して、カメラ181が真下の
視覚障害者を撮影するようにした。
しかしながら、図34の下段に示されるように、ドローン171が正しい位置を移動しながら、視覚障害者をカメラ181の視野内に捉えて、撮像された現在地画像の画像中心からのずれとして、視覚障害者の位置のずれを検出してもよい。
また、ドローン171が正しい位置を移動している場合、視覚障害者が装着している情報処理装置1のカメラ11がドローン171を撮影して検出し、ドローン171の検出位置に基づいて、視覚障害者の位置のずれを検出してもよい。
図35は、誤認識低減のためのマーカ161の他の例を示している。
上述した例では、マーカ161として2次元コードを採用したが、図35上段に示されるように、マーカ161を、赤外光を発する赤外線LEDとして、ドローン171のカメラ181を赤外線カメラとしてもよい。
また、図35中段に示されるように、ドローン171が赤外線LEDを備えて赤外光を発し、ドローン171のカメラ181を赤外線カメラとして、視覚障害者が装着するマーカ161を、赤外線反射板としてもよい。
あるいはまた、図35下段に示されるように、ドローン171が赤外線LEDを備えて赤外光を発し、ドローン171のカメラ181を赤外線カメラとして、視覚障害者の位置を画像認識によって検出してもよい。
また、ドローン171が備えるカメラ181は、ストラクチャライトカメラ(structured light camera)、ToF(Time-of-Flight)カメラ、ステレオカメラなどの奥行き方向が検出できるカメラであってもよい。
上述した例では、登録モードで事前に撮影したRef画像を基に、視覚障害者の現在地の位置ずれを検出するようにしたが、地図情報と現在地画像を比較することによって、現在地の位置ずれを検出してもよい。
上述した例では、ドローン171が撮影した画像を全て情報処理装置1に転送し、情報処理装置1側で、視覚障害者の現在地の位置ずれを検出するようにしたが、ドローン171が撮影した画像を記憶部182に記憶しておき、ガイドモードでは、ドローン171が、現在地画像との比較によって位置ずれを検出し、検出結果を表すずれ情報のみを情報処理装置1に送信するようにしてもよい。
<4.スマートフォンカバーの外観例>
<4.1 スマートフォンカバーの外観例>
次に、スマートフォンカバーの実施の形態について説明する。
タッチパネルを搭載したスマートフォンは、画面の視覚情報を前提に設計されており、操作画面もフラットであることから、視覚障害者にとっては、画面上のどこに操作ボタン等が配置されているかを認識することが難しく、操作に困難を強いるものであった。
そこで、以下では、視覚障害者に好適なスマートフォンに変化させるスマートフォンカバーの実施の形態について説明する。
図36は、スマートフォンカバーの外観例を説明する図である。
図36に示されるスマートフォンカバー231は、スマートフォン31のディスプレイ35を保護する前面カバー241と、ディスプレイ35側と反対側の面を保護する背面カバー242を有する。
前面カバー241には、ディスプレイ35の所定の領域を視覚障害者がタッチ操作できるようにした、プラスチック等の透過素材で形成された小窓251が配置されている。小窓251には、その開口領域を3x3に9分割した9個の分割領域のうちの中央の分割領域に、基準位置を表す突起252が形成されたシール253が貼り付けられている。
また、小窓251が配置された領域と異なる前面カバー241の所定の領域には、磁石254がカバー内に埋設されている。
一方、背面カバー242には、NFC(Near Field Communication)通信を行うICチップとアンテナで構成されるNFCタグ255がカバー内に埋設されている。
スマートフォンカバー231がスマートフォン31に装着されると、スマートフォン31が、前面カバー241に埋設された磁石254を検出することにより、スマートフォンカバー231の装着を検出する。
スマートフォン31は、スマートフォンカバー231の装着を検出した場合、前面カバー241の小窓251の開口領域のみを操作領域とした視覚障害者専用のユーザインターフェース(以下、グリッドモードと称する。)に操作モードを切り替える。
グリッドモードでは、前面カバー241の小窓251の9個の各分割領域に対応するディスプレイ35の領域に、3x3の配置で9個のUIボタンが配置される。UIボタンは、スマートフォン31の各種機能を実行するアプリに対応する。視覚障害者は、9個のUIボタンそれぞれにどのようなアプリが割り当てられているかを認識しており、小窓251に張り付けられたシール253の突起252を基準位置として9個の分割領域を容易に認識して、所望のUIボタンを選択して、アプリを起動させることができる。
また、グリッドモードでは、所定のUIボタンがタッチされたときに、タッチされたアプリまたは機能を音声で読み上げる音声読み上げ機能が有効となる。
なお、本実施の形態では、突起252が形成されたシール253を小窓251に貼り付けることによって突起252を形成しているが、突起252は、小窓251に直接成形されていてもよい。
<4.2 ブロック図>
図37は、スマートフォンカバー231と、スマートフォン31としての情報処理装置1のUI操作に関するブロック図である。
なお、図37の情報処理装置1の構成では、スマートフォンカバー231に連携した処理を行うために最低限必要な構成についてのみ示している。従って、スマートフォン31としての情報処理装置1が、上述した横断歩道の歩行ガイド機能やその他の機能も備える場合には、情報処理装置1は、その機能を実行するために必要な構成も併せて備えている。
スマートフォンカバー231は、磁石254とNFCタグ255を備える。
情報処理装置1は、操作部14、記憶部15、処理部16、及び、出力部17に加えて、磁力検出部271とNFC通信部272を備える。
NFCタグ255は、ISO/IEC 18092またはISO/IEC 14443による近接通信を行う通信デバイスである。NFCタグ255は、UIボタンの配置(座標位置)を示すUIボタン座標情報と、3x3の9個の分割領域に配置されるUIボタンを規定するUIボタン規定情報とを含むUI配置情報を内部メモリに記憶する。また、NFCタグ255は、自身(リーダライタにとっての各NFCタグ)を識別するNFCタグ識別情報も内部メモリに記憶する。
NFCタグ255は、情報処理装置1のNFC通信部272が近接された場合、UI配置情報を近接通信によりNFC通信部272に送信する。
磁力検出部271は、磁石254を検出することにより、スマートフォンカバー231の前面カバー241が閉じられたかどうかを検出し、検出結果を処理部16に供給する。
NFC通信部272は、NFCタグ255と、ISO/IEC 18092またはISO/IEC 14443による近接通信を行うリーダライタとなるNFCデバイスであり、NFCタグ255に対して電磁波を供給することにより電源を供給するとともに、NFCタグ255に記憶されているUI配置情報を取得(受信)し、処理部16に供給する。
NFC通信部272は、近接されたNFCタグ255を検出した場合、NFCタグ識別情報を取得する。この取得されたNFCタグ識別情報により、スマートフォンカバー231の種類を識別することができる。
処理部16は、磁力検出部271からスマートフォンカバー231の前面カバー241が閉じられたことが供給された場合、NFC通信部272に対して、スマートフォンカバー231のNFCタグ255から、UI配置情報を取得させる。そして、処理部16は、NFC通信部272が取得したUI配置情報に従って、出力部17の一部であるディスプレイの表示を、スマートフォンカバー231の小窓251の開口領域に対応したグリッドモードに切り替える。従って、処理部16は、前面カバー241が閉じられたかどうかに応じてディスプレイの表示を切り替える表示制御部として機能する。
また、出力部17のディスプレイがLCDである場合、処理部16は、視覚障害者専用のグリッドモードにしたとき、消費電力低減のために、バックライトを消灯させるように設定することもできる。
<4.3 カバークローズ検出処理>
次に、図38のフローチャートを参照して、スマートフォン31としての情報処理装置1が、前面カバー241が閉じられたことを検出して所定の処理を実行する処理であるカバークローズ検出処理について説明する。この処理は、例えば、情報処理装置1が電源オンされたときに開始される。
初めに、ステップS201において、処理部16は、磁力検出部271の検出結果に基づいて、前面カバー241が閉じられたかどうかを判定し、前面カバー241が閉じられたと判定されるまで待機する。
そして、ステップS201で、前面カバー241が閉じられたと判定された場合、処理はステップS202に進み、処理部16は、NFC通信部272に対して、装着されているスマートフォンカバー231のNFCタグ255を検出させる。
ステップS203において、NFC通信部272は、処理部16の制御に従い、NFCタグ255を検出して、NFCタグ255から、UI配置情報を取得する。取得されたUI配置情報は、処理部16に供給される。
ステップS204において、処理部16は、取得したUI配置情報に従って、出力部17の一部であるディスプレイの表示を、スマートフォンカバー231の小窓251の開口領域に対応したグリッドモードに切り替える。グリッドモードでは、スマートフォンカバー231から取得したUI配置情報に従って、前面カバー241の小窓251の開口領域に対応するディスプレイ35の領域に、UIボタン規定情報で定義された9個のUIボタンが配置される。
ステップS205において、処理部16は、グリッドモードで配置したUIボタンに割り当てられたアプリ(以下、登録アプリと称する。)のいずれかを実行させる操作がされたか否かを検出する登録アプリ実行操作検出処理を実行する。この処理の詳細は、図40等を参照して後述するが、この処理により、登録アプリの実行操作の有無が判定される。
ステップS206において、処理部16は、登録アプリ実行操作検出処理の結果、登録アプリの実行操作が検出されたかを判定する。
ステップS206で、登録アプリの実行操作が検出されていないと判定された場合、処理はステップS205に戻され、再度、登録アプリ実行操作検出処理が実行される。即ち、処理部16は、登録アプリの実行操作が検出されたと判定されるまで、待機する。
そして、ステップS206で、登録アプリの実行操作が検出されたと判定された場合、処理はステップS207に進み、処理部16は、実行操作が検出された登録アプリを起動する。起動された登録アプリは、カバークローズ検出処理と並列に実行される。
ステップS207で、登録アプリが起動された後、処理はステップS205に戻され、再度、登録アプリ実行操作検出処理が実行される。従って、処理部16は、再び、登録アプリの実行操作が検出されたと判定されるまで、待機する。
<4.4 カバーオープン検出処理>
次に、図39のフローチャートを参照して、スマートフォン31としての情報処理装置1が、前面カバー241が開けられたことを検出して所定の処理を実行する処理であるカバーオープン検出処理について説明する。この処理は、例えば、図38のカバークローズ検出処理が実行されたときに開始され、カバークローズ検出処理と並行して実行される。
初めに、ステップS221において、処理部16は、磁力検出部271の検出結果に基づいて、前面カバー241が開けられたかどうかを判定し、前面カバー241が開けられたと判定されるまで待機する。
そして、ステップS221で、前面カバー241が開けられたと判定された場合、処理はステップS222に進み、処理部16は、ディスプレイのグリッドモードを終了し、カバーオープン検出処理を終了する。
以上のカバークローズ検出処理及びカバーオープン検出処理によれば、情報処理装置1は、スマートフォンカバー231の前面カバー241が閉じられたことを検出して、視覚障害者が操作しやすいグリッドモードを自動で開始し、前面カバー241の開放を検出すると、グリッドモードを自動で終了する。これにより、必要なUIボタンを、ユーザが設定することなく自動で割り当て、視覚障害者が簡単にアプリを起動したり、操作することが できるようになる。また、前面カバー241が閉じられたことを検出した場合に、横断歩道ガイド処理や通過点ガイド再生処理を実行するガイドアプリを起動させてもよい。
<4.5 登録アプリ実行操作検出処理>
次に、図40のフローチャートを参照して、図38のステップS205で実行される登録アプリ実行操作検出処理の詳細について説明する。
初めに、ステップS241において、処理部16は、グリッドモードで配置した所定のUIボタンがタッチされたかを判定し、所定のUIボタンがタッチされたと判定されるまで待機する。
ステップS241で、所定のUIボタンがタッチされたと判定された場合、処理はステップS242に進み、処理部16は、出力部17の一部であるスピーカを制御して、タッチされたUIボタンに割り当てられた登録アプリを読み上げる。
ステップS243において、処理部16は、UIボタンがタッチされてからの時間をカウントするためのタイマーを起動する。
ステップS244において、処理部16は、ステップS241でタッチが検出されたUIボタンがタッチされたままであるかを判定する。
ステップS244で、UIボタンがタッチされたままであると判定された場合、処理はステップS245に進み、所定の時間が経過したかが判定される。そして、ステップS245で、所定の時間がまだ経過していないと判定された場合、処理はステップS244に戻される。従って、ステップS244では、予め定められた所定時間の間、ステップS241でタッチが検出されたUIボタンがタッチされたままであるかが判定される。
ステップS244で、所定時間を待たずに、タッチされたUIボタンがタッチされなくなったと判定された場合、処理はステップS246に進み、処理部16は、ステップS243で起動したタイマーを終了する。
そして、ステップS247において、処理部16は、登録アプリの実行操作無し、と判定して、登録アプリ実行操作検出処理を終了し、処理を図38のカバークローズ検出処理に戻す。
一方、ステップS245で、ステップS241でタッチが検出されたUIボタンがタッチされたまま、所定の時間が経過したと判定された場合、処理はステップS248に進み、処理部16は、登録アプリの実行操作有り、と判定して、登録アプリ実行操作検出処理を終了し、処理を図38のカバークローズ検出処理に戻す。
以上の登録アプリ実行操作検出処理によれば、所定のUIボタンが単にタッチされるだけでなく、タッチされた状態が所定の時間継続した場合に、視覚障害者によって視覚登録アプリの実行操作が行われたと判定される。これにより、視覚障害者によるタッチ操作の誤操作を防止することができる。
なお、上述したような、いわゆる長押し操作の代わりに、ダブルタップ操作が検出された場合に、視覚登録アプリの実行操作が行われたと判定してもよい。この場合でも、視覚障害者によるタッチ操作の誤操作を防止することができる。
<4.6 登録アプリ実行操作検出処理の他の例>

視覚障害者によるタッチ操作の誤操作を防止する登録アプリ実行操作検出処理の他の例について説明する。
図41は、グリッドモード時の他の表示例を示す図である。
上述した例では、グリッドモードが開始されたとき、前面カバー241の小窓251の開口領域に表示される3x3の9個の分割領域それぞれに登録アプリが割り当てられていた。次の例では、図41に示されるように、小窓251の開口領域に対応して3x4の12個の分割領域が形成され、10個の分割領域には登録アプリが割り当てられているが、残りの2個(例えば、図41の例では左下隅と右下隅の位置)の分割領域には、「戻る」ボタンと「決定」ボタンが割り当てられている。このように、小窓251の開口領域に対して、3x3の9個の分割領域を配置してもよいし、3x4の12個の分割領域を配置してもよい。
図42は、グリッドモードのときに図41に示した表示となる場合の登録アプリ実行操作検出処理のフローチャートを示している。
初めに、ステップS261において、処理部16は、グリッドモードで配置した所定のUIボタンがタッチされたかを判定し、所定のUIボタンがタッチされたと判定されるまで待機する。
ステップS261で、所定のUIボタンがタッチされたと判定された場合、処理はステップS262に進み、処理部16は、タッチされたUIボタンが「決定」ボタンであるかを判定する。
ステップS262で、タッチされたUIボタンが「決定」ボタンではないと判定された場合、処理はステップS263に進み、処理部16は、出力部17の一部であるスピーカを制御して、タッチされたUIボタンに割り当てられた登録アプリを読み上げる。
さらに、ステップS264において、処理部16は、タッチされたUIボタンの登録アプリを、起動アプリ候補に登録する。仮に、登録アプリが割り当てられたUIボタンが繰り返しタッチされた場合には、登録された起動アプリ候補が上書きされ、最後にタッチされた登録アプリの情報のみが起動アプリ候補として記憶される。ステップS264の後、処理はステップS261に戻される。
一方、ステップS262で、タッチされたUIボタンが「決定」ボタンであると判定された場合、処理はステップS265に進み、処理部16は、起動アプリ候補が登録されているかを判定する。
ステップS265で、起動アプリ候補が登録されていないと判定された場合、処理はステップS266に進み、処理部16は、登録アプリの実行操作無し、と判定して、登録アプリ実行操作検出処理を終了し、処理を図38のカバークローズ検出処理に戻す。
一方、ステップS265で、起動アプリ候補が登録されていると判定された場合、処理はステップS267に進み、処理部16は、登録アプリの実行操作有り、と判定して、登録アプリ実行操作検出処理を終了し、処理を図38のカバークローズ検出処理に戻す。図38のステップS207では、登録された起動アプリ候補が起動される。
情報処理装置1において、グリッドモードの分割領域の一つに決定ボタンを配置するようにした場合には、以上の登録アプリ実行操作検出処理を実行することによって、視覚障
害者によるタッチ操作の誤操作を防止して、所望の登録アプリを起動させることができる。
<4.7 小窓に貼り付けられるシールの他の例>
図36に示したスマートフォンカバー231では、3x3の9個のUIボタンの配置を視覚障害者が認識するために、前面カバー241の小窓251の中央部分に、突起252を有するシール253が貼り付けられていた。
その他に、例えば、図43に示されるように、小窓251の9個の分割領域それぞれに点字シール281を貼り付けてもよい。点字シール281の点字は、9個の分割領域の位置を表してもよいし、登録アプリの内容を表してもよい。また、透過素材で形成された小窓251に直接凹凸の升目を形成して9個の分割領域が認識できるようにしてもよい。
<4.8 小窓に割り当てられるUIアプリ配置の他の例>
図36に示したスマートフォンカバー231では、情報処理装置1は、スマートフォンカバー231の小窓251の開口領域に対して、3x3の9個のUIアプリを割り当てるようにしたが、図44に示されるように、2x2の4個のUIアプリを割り当てるようにしてもよい。あるいはまた、その他の任意の個数のUIアプリを割り当ててもよい。
また、スマートフォンカバー231ごとに、NFCタグ255に記憶されるUI配置情報は異なるようにすることができる。これによって、スマートフォンカバー231を付け替えることによって、登録アプリを変えることができる。例えば、仕事用のスマートフォンカバー231と、旅行用のスマートフォンカバー231とを付け替えることによって、利用頻度の異なるアプリを変えることができる。スマートフォンカバー231の識別は、NFCタグ識別情報で行うことができる。
情報処理装置1の処理部16は、スマートフォンカバー231のNFCタグ255から取得したUI配置情報に含まれるUIボタン座標情報とUIボタン規定情報のうち、UIボタン規定情報については採用せず、視覚障害者自身が情報処理装置1において設定したUIボタン規定情報を採用してもよい。
即ち、情報処理装置1のユーザである視覚障害者自身が、例えば、9個の各分割領域にどのようなアプリを割り当てるかを情報処理装置1で設定し、処理部16は、その設定に従って、UIボタンを配置してもよい。換言すれば、スマートフォンカバー231のNFCタグ255から取得されたUIボタン規定情報は、デフォルトのUIボタン規定情報として取得されるが、ユーザ自身によって設定されたUIボタン規定情報が存在する場合には、そちらが優先的に利用される。
また、処理部16は、NFC通信部272を制御して、情報処理装置1のユーザが設定したUIボタン規定情報を、近接通信によってNFCタグ255に送信し、NFCタグ255に記憶されているUIボタン規定情報を上書きできるようにしてもよい。
<5.情報処理装置のハードウェア構成例>
次に、図45を参照して、情報処理装置1のハードウェア構成について説明する。
図45は、情報処理装置1のハードウェア構成例を示すブロック図である。
情報処理装置1は、CPU(Central Processing unit)301、ROM(Read Only Memory)303、およびRAM(Random Access Memory)305を含む。また、情報処理装置1は、ホストバス307、ブリッジ309、外部バス311、インターフェー
ス313、入力装置315、出力装置317、ストレージ装置319、ドライブ321、接続ポート323、通信装置325を含んでもよい。さらに、情報処理装置1は、撮像装置333、およびセンサ335を含んでもよい。情報処理装置1は、CPU301に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
CPU301は、演算処理装置および制御装置として機能し、ROM303、RAM305、ストレージ装置319、またはリムーバブル記録媒体327に記録された各種プログラムに従って、情報処理装置1内の動作全般またはその一部を制御する。ROM303は、CPU301が使用するプログラムや演算パラメータなどを記憶する。RAM305は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU301、ROM303、およびRAM305は、CPUバスなどの内部バスにより構成されるホストバス307により相互に接続されている。さらに、ホストバス307は、ブリッジ309を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス311に接続されている。
入力装置315は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置315は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置1の操作に対応した携帯電話などの外部接続機器329であってもよい。入力装置315は、ユーザが入力した情報に基づいて入力信号を生成してCPU301に出力する入力制御回路を含む。ユーザは、この入力装置315を操作することによって、情報処理装置1に対して各種のデータを入力したり処理動作を指示したりする。
出力装置317は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置317は、例えば、LCD(Liquid
Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置317は、情報処理装置1の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、または振動などとして出力する。
ストレージ装置319は、情報処理装置1の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置319は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置319は、例えばCPU301が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ321は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体327のためのリーダライタであり、情報処理装置1に内蔵、あるいは外付けされる。ドライブ321は、装着されているリムーバブル記録媒体327に記録されている情報を読み出して、RAM305に出力する。また、ドライブ321は、装着されているリムーバブル記録媒体327に記録を書き込む。
接続ポート323は、機器を情報処理装置1に接続するためのポートである。接続ポート323は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート323は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート323に外部接続機器329を接続することで、情報処理装置1と外部接続機器329との間で各種のデータが交換され
うる。
通信装置325は、例えば、通信ネットワーク331に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置325は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置325は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置325は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置325に接続される通信ネットワーク331は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
撮像装置333は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサまたはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置333は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ335は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロホン)などの各種のセンサである。センサ335は、例えば情報処理装置1の筐体の姿勢など、情報処理装置1自体の状態に関する情報や、情報処理装置1の周辺の明るさや騒音など、情報処理装置1の周辺環境に関する情報を取得する。また、センサ335は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
以上、情報処理装置1のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム(視覚障害者歩行支援システム)、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用するこ
とができる。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
視覚を用いずに行動する者が歩く方向を決定する方向決定部と、
決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する第1のガイド情報生成部と
を備える情報処理装置。
(2)
前記方向決定部は、予め記憶されているリファレンス画像と、現時点で撮影された静止画像とをマッチングしたマッチング結果に基づいて、前記視覚を用いずに行動する者が歩く方向を決定する
前記(1)に記載の情報処理装置。
(3)
前記方向決定部は、前記リファレンス画像の特徴点と対応する特徴点を前記静止画像から抽出し、対応する特徴点どうしをマッチングしたマッチング結果に基づいて、前記視覚を用いずに行動する者が歩く方向を決定する
前記(2)に記載の情報処理装置。
(4)
前記方向決定部は、対応する特徴点どうしをマッチングする前記静止画像の領域を、前記静止画像に映る信号の色で変化させる
前記(3)に記載の情報処理装置。
(5)
前記方向決定部は、前記静止画像を二値化してから、前記リファレンス画像と前記静止画像とをマッチングする
前記(2)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記方向決定部は、前記静止画像内の方位と、前記静止画像を撮影したときの撮影部の方位との演算により、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
前記(2)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記方向決定部は、複数の前記静止画像それぞれで推定された方向情報を統合して、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記方向決定部は、複数の前記静止画像それぞれで推定された方向を重み付け平均化して、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
前記(7)に記載の情報処理装置。
(9)
前記リファレンス画像を登録する登録部をさらに備える
前記(2)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記第1のガイド情報生成部は、歩行者自律航法に基づいて、前記決定された方向からのずれ量を演算する演算部を有し、
前記演算部は、前記決定された方向からの横方向のずれ量と、前記決定された方向に対する体の向きのずれを算出する
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記方向決定部は、横断歩道の手前で、前記視覚を用いずに行動する者が歩く方向を決定し、
前記第1のガイド情報生成部は、横断歩道を歩行中に、決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
生成した前記ガイド情報を出力する出力部をさらに備え、
前記ガイド情報は、音声メッセージまたは電子音である
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記視覚を用いずに行動する者が歩く通過点に関するガイド情報を生成する第2のガイド情報生成部をさらに備える
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記第2のガイド情報生成部は、現在地に近い通過点に対応づけて記憶されている音声を、前記通過点に関するガイド情報として生成する
前記(13)に記載の情報処理装置。
(15)
前記視覚を用いずに行動する者と、その者を追尾する無人航空機との位置関係を認識し、前記視覚を用いずに行動する者を正しい位置へガイドするガイド情報を生成する第3のガイド情報生成部をさらに備える
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
無人航空機が撮影した画像と、前記視覚を用いずに行動する者の現在地を撮影した現在地画像とを比較して、前記視覚を用いずに行動する者を正しい位置へガイドするガイド情報を生成する第3のガイド情報生成部をさらに備える
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(17)
前記情報処理装置は、スマートフォンであり、
スマートフォンカバーが閉じられたかどうかを検出する検出部と、
前記スマートフォンカバーが閉じられた場合に、ディスプレイの表示を切り替える表示制御部と
をさらに備える
前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
前記スマートフォンカバーと近接通信を行う近接通信部をさらに備え、

前記表示制御部は、前記スマートフォンカバーが閉じられた場合に、近接通信により取得した情報に基づいて、ディスプレイの表示を切り替える
前記(17)に記載の情報処理装置。
(19)
情報処理装置が、
視覚を用いずに行動する者が歩く方向を決定し、
決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する
ステップを含む情報処理方法。
(20)
コンピュータを、
視覚を用いずに行動する者が歩く方向を決定する方向決定部と、
決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成するガイド情報生成部
として機能させるためのプログラム。
1 情報処理装置, 11 カメラ, 12 方向センサ, 13 GPSセンサ, 14 操作部, 15 記憶部, 16 処理部, 17 出力部, 51 Ref画像登録部, 61 方向決定部, 62 ガイド情報生成部, 63 PDR演算部, 121
マイクロホン, 141 音声登録部, 142 通過点通知部, 191 近距離無線通信部, 211 Ref画像登録部, 212 ガイド情報生成部, 231 スマートフォンカバー, 241 前面カバー, 254 磁石, 255 NFCタグ, 271 磁力検出部, 272 NFC通信部, 301 CPU, 303 ROM, 305 RAM, 315 入力装置, 317 出力装置, 319 ストレージ装置, 333 撮像装置, 335 センサ

Claims (20)

  1. 視覚を用いずに行動する者が歩く方向を決定する方向決定部と、
    決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する第1のガイド情報生成部と
    を備える情報処理装置。
  2. 前記方向決定部は、予め記憶されているリファレンス画像と、現時点で撮影された静止画像とをマッチングしたマッチング結果に基づいて、前記視覚を用いずに行動する者が歩く方向を決定する
    請求項1に記載の情報処理装置。
  3. 前記方向決定部は、前記リファレンス画像の特徴点と対応する特徴点を前記静止画像から抽出し、対応する特徴点どうしをマッチングしたマッチング結果に基づいて、前記視覚を用いずに行動する者が歩く方向を決定する
    請求項2に記載の情報処理装置。
  4. 前記方向決定部は、対応する特徴点どうしをマッチングする前記静止画像の領域を、前記静止画像に映る信号の色で変化させる
    請求項3に記載の情報処理装置。
  5. 前記方向決定部は、前記静止画像を二値化してから、前記リファレンス画像と前記静止画像とをマッチングする
    請求項2に記載の情報処理装置。
  6. 前記方向決定部は、前記静止画像内の方位と、前記静止画像を撮影したときの撮影部の方位との演算により、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
    請求項2に記載の情報処理装置。
  7. 前記方向決定部は、複数の前記静止画像それぞれで推定された方向情報を統合して、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
    請求項2に記載の情報処理装置。
  8. 前記方向決定部は、複数の前記静止画像それぞれで推定された方向を重み付け平均化して、前記視覚を用いずに行動する者が向いている方向を推定して、前記視覚を用いずに行動する者が歩く方向を決定する
    請求項7に記載の情報処理装置。
  9. 前記リファレンス画像を登録する登録部をさらに備える
    請求項2に記載の情報処理装置。
  10. 前記第1のガイド情報生成部は、歩行者自律航法に基づいて、前記決定された方向からのずれ量を演算する演算部を有し、
    前記演算部は、前記決定された方向からの横方向のずれ量と、前記決定された方向に対する体の向きのずれを算出する
    請求項1に記載の情報処理装置。
  11. 前記方向決定部は、横断歩道の手前で、前記視覚を用いずに行動する者が歩く方向を決
    定し、
    前記第1のガイド情報生成部は、横断歩道を歩行中に、決定された方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する
    請求項1に記載の情報処理装置。
  12. 生成した前記ガイド情報を出力する出力部をさらに備え、
    前記ガイド情報は、音声メッセージまたは電子音である
    請求項1に記載の情報処理装置。
  13. 前記視覚を用いずに行動する者が歩く通過点に関するガイド情報を生成する第2のガイド情報生成部をさらに備える
    請求項1に記載の情報処理装置。
  14. 前記第2のガイド情報生成部は、現在地に近い通過点に対応づけて記憶されている音声を、前記通過点に関するガイド情報として生成する
    請求項13に記載の情報処理装置。
  15. 前記視覚を用いずに行動する者と、その者を追尾する無人航空機との位置関係を認識し、前記視覚を用いずに行動する者を正しい位置へガイドするガイド情報を生成する第3のガイド情報生成部をさらに備える
    請求項1に記載の情報処理装置。
  16. 無人航空機が撮影した画像と、前記視覚を用いずに行動する者の現在地を撮影した現在地画像とを比較して、前記視覚を用いずに行動する者を正しい位置へガイドするガイド情報を生成する第3のガイド情報生成部をさらに備える
    請求項1に記載の情報処理装置。
  17. 前記情報処理装置は、スマートフォンであり、
    スマートフォンカバーが閉じられたかどうかを検出する検出部と、
    前記スマートフォンカバーが閉じられた場合に、ディスプレイの表示を切り替える表示制御部と
    をさらに備える
    請求項1に記載の情報処理装置。
  18. 前記スマートフォンカバーと近接通信を行う近接通信部をさらに備え、
    前記表示制御部は、前記スマートフォンカバーが閉じられた場合に、近接通信により取得した情報に基づいて、ディスプレイの表示を切り替える
    請求項17に記載の情報処理装置。
  19. 情報処理装置が、
    視覚を用いずに行動する者が歩く方向を決定し、
    決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成する
    ステップを含む情報処理方法。
  20. コンピュータを、
    視覚を用いずに行動する者が歩く方向を決定する方向決定部と、
    決定した方向へ前記視覚を用いずに行動する者が歩くためのガイド情報を生成するガイド情報生成部
    として機能させるためのプログラム。
JP2018531770A 2016-08-05 2017-06-23 情報処理装置、情報処理方法、およびプログラム Active JP6948325B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016154480 2016-08-05
JP2016154480 2016-08-05
PCT/JP2017/023239 WO2018025531A1 (ja) 2016-08-05 2017-06-23 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018025531A1 true JPWO2018025531A1 (ja) 2019-05-30
JP6948325B2 JP6948325B2 (ja) 2021-10-13

Family

ID=61073858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018531770A Active JP6948325B2 (ja) 2016-08-05 2017-06-23 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (2) US10765588B2 (ja)
JP (1) JP6948325B2 (ja)
WO (1) WO2018025531A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908316B2 (en) 2021-08-31 2024-02-20 Toyota Jidosha Kabushiki Kaisha Walking information provision system
US11938083B2 (en) 2021-05-13 2024-03-26 Toyota Jidosha Kabushiki Kaisha Walking support system

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10827949B2 (en) 2016-04-06 2020-11-10 Cianna Medical, Inc. Reflector markers and systems and methods for identifying and locating them
WO2018025531A1 (ja) * 2016-08-05 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6869841B2 (ja) * 2017-07-20 2021-05-12 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
US10909372B2 (en) * 2018-05-28 2021-02-02 Microsoft Technology Licensing, Llc Assistive device for the visually-impaired
US11883150B2 (en) 2018-09-06 2024-01-30 Cianna Medical, Inc. Systems for identifying and locating reflectors using orthogonal sequences of reflector switching
US10639228B1 (en) * 2019-02-26 2020-05-05 Stria Labs, Inc. Wearable computing system for assisting a visually impaired user
AT522549B1 (de) * 2019-04-18 2022-09-15 Dreamwaves Gmbh Verfahren zum Leiten von Verkehrsteilnehmern
JP7342947B2 (ja) * 2019-06-12 2023-09-12 日本電信電話株式会社 方向提示装置
JP7303522B2 (ja) * 2019-08-01 2023-07-05 株式会社Nttドコモ 歩行制御装置
KR102240820B1 (ko) * 2020-04-22 2021-04-15 김명란 스마트기기 수납용 서적
JP2021174467A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 情報処理装置
CN112135026B (zh) * 2020-09-23 2022-02-25 北京一华明升科技有限公司 基于激光方向传感器和人工智能云台的识路装置及方法
JP7415909B2 (ja) 2020-12-15 2024-01-17 トヨタ自動車株式会社 歩行支援システム
JP2022107967A (ja) 2021-01-12 2022-07-25 トヨタ自動車株式会社 歩行支援システム
JP2022112897A (ja) 2021-01-22 2022-08-03 トヨタ自動車株式会社 情報処理装置及び情報処理方法
JP2022172511A (ja) 2021-05-06 2022-11-17 トヨタ自動車株式会社 歩行支援システム
CN114973028B (zh) * 2022-05-17 2023-02-03 中国电子科技集团公司第十研究所 一种航拍视频图像实时变化检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251596A (ja) * 2005-03-14 2006-09-21 Kyoto Institute Of Technology 視覚障害者支援装置
US20130250078A1 (en) * 2012-03-26 2013-09-26 Technology Dynamics Inc. Visual aid
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
US9170117B1 (en) * 2014-08-21 2015-10-27 International Business Machines Corporation Unmanned aerial vehicle navigation assistance

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2914424B2 (ja) 1994-08-29 1999-06-28 ソニー株式会社 誘導システム
WO2003069542A1 (en) * 2002-02-18 2003-08-21 Precise Biometrics Ab Method and device for recording fingerprint data
JP2006127055A (ja) * 2004-10-27 2006-05-18 Denso Corp 車両用情報提示装置
JP4632793B2 (ja) * 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
US20060183516A1 (en) * 2005-02-16 2006-08-17 Ham Byung I Light therapy element incorporated mobile communication device
JP4513740B2 (ja) * 2005-12-28 2010-07-28 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
JP2008117206A (ja) * 2006-11-06 2008-05-22 Seiwa Electric Mfg Co Ltd 受信器
JP2008177206A (ja) 2007-01-16 2008-07-31 Dainippon Screen Mfg Co Ltd 基板保持装置、表面形状測定装置および応力測定装置
US8532328B2 (en) * 2007-08-16 2013-09-10 The Boeing Company Methods and apparatus for planetary navigation
CA2707912C (en) * 2007-12-03 2016-01-05 Shimane Prefectural Government Image recognition device and image recognition method
JP5127928B2 (ja) * 2008-09-03 2013-01-23 三菱電機株式会社 車両用撮影システム
JPWO2011068184A1 (ja) * 2009-12-03 2013-04-18 独立行政法人産業技術総合研究所 移動体の測位装置
US8366054B2 (en) * 2009-12-17 2013-02-05 The United States Of America As Represented By The Secretary Of The Navy Hand launchable unmanned aerial vehicle
AU2011229916B2 (en) * 2010-03-25 2016-05-12 Reza Taghavi Tactile communication device for the neck
KR101641513B1 (ko) * 2010-10-22 2016-07-21 엘지전자 주식회사 이동 단말기의 영상 촬영 장치 및 그 방법
GB2485390A (en) * 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
WO2012068280A1 (en) * 2010-11-16 2012-05-24 Echo-Sense Inc. Remote guidance system
CA2769788C (en) * 2011-03-23 2019-08-13 Trusted Positioning Inc. Methods of attitude and misalignment estimation for constraint free portable navigation
KR20120140486A (ko) * 2011-06-21 2012-12-31 삼성전자주식회사 휴대용 단말기에서 보행 안내 서비스를 제공하기 위한 장치 및 방법
JP2013038623A (ja) * 2011-08-09 2013-02-21 Sony Corp 画像符号化装置と画像符号化方法およびプログラム
US8917902B2 (en) * 2011-08-24 2014-12-23 The Nielsen Company (Us), Llc Image overlaying and comparison for inventory display auditing
US9155675B2 (en) * 2011-10-12 2015-10-13 Board Of Trustees Of The University Of Arkansas Portable robotic device
TWI538668B (zh) * 2012-03-27 2016-06-21 鴻海精密工業股份有限公司 電子導盲裝置
US9420286B2 (en) * 2012-06-15 2016-08-16 Qualcomm Incorporated Temporal motion vector prediction in HEVC and its extensions
US9154888B2 (en) * 2012-06-26 2015-10-06 Eastern Ontario Audiology Consultants System and method for hearing aid appraisal and selection
WO2014039552A1 (en) * 2012-09-04 2014-03-13 Sensor Platforms, Inc. System and method for estimating the direction of motion of an entity associated with a device
US9411824B2 (en) * 2012-10-26 2016-08-09 Lida Huang Method and apparatus for image retrieval
ITTO20121070A1 (it) * 2012-12-13 2014-06-14 Istituto Superiore Mario Boella Sul Le Tecnologie Sistema di comunicazione senza fili a corto raggio comprendente un sensore a corto raggio di comunicazione e un terminale mobile avente funzionalita' migliorate, e relativo metodo
US9723251B2 (en) * 2013-04-23 2017-08-01 Jaacob I. SLOTKY Technique for image acquisition and management
US20150095071A1 (en) * 2013-09-29 2015-04-02 Donan Engineering Co., Inc. Systems and Methods for Identifying a Subrogation Opportunity for a Potential Subrogation Claim
US9686471B2 (en) * 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US10024679B2 (en) * 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9915545B2 (en) * 2014-01-14 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9629774B2 (en) * 2014-01-14 2017-04-25 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
KR102161059B1 (ko) * 2014-03-04 2020-10-20 삼성전자주식회사 모바일 전자장치, 그를 위한 액세서리 디바이스 및 그 액세서리 디바이스를 구비한 전자장치
CN106415205B (zh) * 2014-04-28 2019-09-17 英特尔公司 用于确定用户位置的朝向估计
US20150324646A1 (en) * 2014-05-08 2015-11-12 Brown University Navigation methods and apparatus for the visually impaired
CN106462775A (zh) * 2014-05-09 2017-02-22 Fio公司 离散边缘分组模板匹配系统、方法和计算机可读媒体
JP2015213620A (ja) * 2014-05-09 2015-12-03 享司 大塚 歩行補助器具
KR102293482B1 (ko) * 2014-05-30 2021-08-26 삼성전자주식회사 전자 장치 및 전자 장치에서의 사용자 인터페이스 방법과 전자 장치의 커버
TW201603791A (zh) * 2014-07-31 2016-02-01 Richplay Information Co Ltd 導盲行動裝置定位系統及其運作方法
US9838846B1 (en) * 2014-08-01 2017-12-05 Google Llc Extraction of walking direction from device orientation and reconstruction of device orientation during optimization of walking direction
EP2992778A3 (en) * 2014-09-08 2016-04-27 Utility Associates, Inc. Video recording device holster
JP2016067855A (ja) * 2014-09-22 2016-05-09 達鋭 橋本 視覚障害者用歩行案内装置
US9305353B1 (en) * 2014-09-23 2016-04-05 Qualcomm Incorporated Landmark based positioning
US10404950B2 (en) * 2014-11-04 2019-09-03 iMerciv Inc. Apparatus and method for detecting objects
KR102335738B1 (ko) * 2014-12-10 2021-12-06 삼성전자주식회사 디바이스의 회전각 결정 방법 및 이를 위한 장치
US9536452B2 (en) * 2015-05-13 2017-01-03 Abl Ip Holding Llc System and method to assist users having reduced visual capability utilizing lighting device provided information
US9677888B2 (en) * 2015-06-11 2017-06-13 SenionLab AB Determining sensor orientation in indoor navigation
US20180185232A1 (en) * 2015-06-19 2018-07-05 Ashkon Namdar Wearable navigation system for blind or visually impaired persons with wireless assistance
US10198802B2 (en) * 2015-07-01 2019-02-05 Hitachi Kokusai Electric Inc. Monitoring system, photography-side device, and verification-side device
WO2017013863A1 (ja) * 2015-07-17 2017-01-26 日本電気株式会社 照射システム、照射方法およびプログラム記憶媒体
US10912281B2 (en) * 2016-02-24 2021-02-09 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for communicating with a guide animal
US10667981B2 (en) * 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US10188580B2 (en) * 2016-05-09 2019-01-29 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environment information using an unmanned vehicle
US10091414B2 (en) * 2016-06-24 2018-10-02 International Business Machines Corporation Methods and systems to obtain desired self-pictures with an image capture device
US20180012377A1 (en) * 2016-07-08 2018-01-11 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of calibrating vision-assist devices
US20180017393A1 (en) * 2016-07-14 2018-01-18 Robert Willson Handicap assist apparatus
EP3491811A2 (en) * 2016-08-01 2019-06-05 Zone V Ltd Smartphone accessory for visually impaired or elderly users
WO2018025531A1 (ja) * 2016-08-05 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251596A (ja) * 2005-03-14 2006-09-21 Kyoto Institute Of Technology 視覚障害者支援装置
US20130250078A1 (en) * 2012-03-26 2013-09-26 Technology Dynamics Inc. Visual aid
JP2014137752A (ja) * 2013-01-17 2014-07-28 Jb Craft:Kk 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム
US9170117B1 (en) * 2014-08-21 2015-10-27 International Business Machines Corporation Unmanned aerial vehicle navigation assistance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11938083B2 (en) 2021-05-13 2024-03-26 Toyota Jidosha Kabushiki Kaisha Walking support system
US11908316B2 (en) 2021-08-31 2024-02-20 Toyota Jidosha Kabushiki Kaisha Walking information provision system

Also Published As

Publication number Publication date
US11744766B2 (en) 2023-09-05
US20190307632A1 (en) 2019-10-10
US10765588B2 (en) 2020-09-08
JP6948325B2 (ja) 2021-10-13
US20200368098A1 (en) 2020-11-26
WO2018025531A1 (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
US11744766B2 (en) Information processing apparatus and information processing method
US11340072B2 (en) Information processing apparatus, information processing method, and recording medium
Langlois et al. Indoor localization with smartphones: Harnessing the sensor suite in your pocket
US9084068B2 (en) Sensor-based placement of sound in video recording
CN110431378B (zh) 相对于自主车辆和乘客的位置信令
TW201007200A (en) Automatic ultrasonic and computer-vision navigation device and method using the same
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11181376B2 (en) Information processing device and information processing method
KR101796276B1 (ko) 시각장애인을 위한 보행 안내 장치 및 시스템
CN109059929B (zh) 导航方法、装置、穿戴式设备及存储介质
Khairnar et al. Partha: A visually impaired assistance system
CN110686694A (zh) 导航方法、装置、可穿戴电子设备及计算机可读存储介质
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
US20170256181A1 (en) Vision-assist systems for orientation and mobility training
WO2020258935A1 (zh) 定位方法及装置、电子设备和存储介质
US20210154827A1 (en) System and Method for Assisting a Visually Impaired Individual
Somyat et al. NavTU: android navigation app for Thai people with visual impairments
JP6822571B2 (ja) 端末装置、危険予測方法、プログラム
KR20130031423A (ko) 시각장애인을 위한 움직임센서 및 근접센서를 이용하여 촉각신호로 변환되는 시스템
KR20210071584A (ko) 위성 항법 시스템 측정 위치의 보정을 통해 위치를 판단하는 위치 측정 방법, 위치 측정 장치 및 이를 수행하는 전자 기기
Botezatu et al. Development of a versatile assistive system for the visually impaired based on sensor fusion
KR101358064B1 (ko) 사용자 이미지를 이용한 원격 제어 방법 및 시스템
JP2022186346A (ja) 遠隔支援装置、遠隔支援方法、遠隔支援プログラム及び遠隔支援システム
JP2020161938A (ja) 処理装置、サーバ装置、路側機、電子機器及び車両
Sykes et al. Conscious GPS: a system to aid the visually impaired to navigate public transportation

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R150 Certificate of patent or registration of utility model

Ref document number: 6948325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150