JP6500139B1 - Visual support device - Google Patents

Visual support device Download PDF

Info

Publication number
JP6500139B1
JP6500139B1 JP2018036321A JP2018036321A JP6500139B1 JP 6500139 B1 JP6500139 B1 JP 6500139B1 JP 2018036321 A JP2018036321 A JP 2018036321A JP 2018036321 A JP2018036321 A JP 2018036321A JP 6500139 B1 JP6500139 B1 JP 6500139B1
Authority
JP
Japan
Prior art keywords
user
information
unit
notification
support information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018036321A
Other languages
Japanese (ja)
Other versions
JP2019152953A (en
Inventor
和夫 金子
和夫 金子
Original Assignee
和夫 金子
和夫 金子
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 和夫 金子, 和夫 金子 filed Critical 和夫 金子
Priority to JP2018036321A priority Critical patent/JP6500139B1/en
Application granted granted Critical
Publication of JP6500139B1 publication Critical patent/JP6500139B1/en
Publication of JP2019152953A publication Critical patent/JP2019152953A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】個々のユーザの事情を踏まえた支援情報の通知を行う
【解決手段】視覚支援装置(100)は、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部(130)と、前記ユーザが視認している場景を表す画像データを取得する撮像部(110)と、前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部(120)と、該生成された支援情報を通知する通知部(140)とを有する
【選択図】図3
[PROBLEMS] To provide support information notification in consideration of the circumstances of individual users. SOLUTION: A visual support device (100) has conditions specific to a user regarding notification of support information for supporting user's visual recognition. Based on the storage unit (130) stored, the imaging unit (110) that acquires image data representing the scene that the user is viewing, the image data acquired by the imaging unit, and the conditions, 3 includes a generation unit (120) that generates support information and a notification unit (140) that notifies the generated support information.

Description

本発明は、視覚を補助する装置に関する。   The present invention relates to an apparatus for assisting vision.

目の不自由な人に対して、カメラによって場景を認識して障害物の存在を検知すると、音声等によってリアルタイムに知らせることで、行動を支援する視覚補助装置が知られている(特許文献1)。   There is known a visual assistance device that assists a visually impaired person in real time by voice or the like when the presence of an obstacle is detected by recognizing a scene with a camera (Patent Document 1). ).

特開2000−325389号公報JP 2000-325389 A

例えば、上述のような視覚補助装置を用いて危険物を複数検出した場合、それら全てを一度に通知するとユーザが戸惑う場合がある。また、ユーザの障害の程度、今いる場所がユーザにとってよく分かっているのかどうかなど、ユーザの状況や事情によっては、通知が必要ではないということある。そのような場合にまで逐一通知を行うと、ユーザが煩わしいと感じることもある。このように、従来の技術においては、通知が画一的であり、支援情報の通知に際し、個々のユーザの事情が考慮されなかった。
本発明は、個々のユーザの事情を踏まえた支援情報の通知を行うことを目的とする。
For example, when a plurality of dangerous objects are detected using the visual assistance device as described above, the user may be confused if all of them are notified at once. Further, depending on the situation and circumstances of the user, such as the extent of the user's failure and whether the user is familiar with the current location, notification may not be necessary. If notifications are made one by one in such a case, the user may feel annoying. As described above, in the conventional technique, the notification is uniform, and the circumstances of individual users are not taken into consideration when the support information is notified.
An object of this invention is to notify the support information based on the situation of each user.

本発明は、一の態様において、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、前記ユーザが視認している場景を表す画像データを取得する撮像部と、前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、該生成された支援情報を前記ユーザに通知する通知部と、前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得する手段とを備え、前記生成部は、前記取得したリアクション情報にさらに基づいて、前記支援情報を生成する視覚支援装置を提供する。 In one aspect, the present invention relates to a storage unit that stores a condition specific to a user regarding notification of support information for supporting the user's visual recognition, and image data representing a scene that the user is viewing. An imaging unit to be acquired, a generation unit that generates support information based on the image data acquired by the imaging unit and the condition, a notification unit that notifies the user of the generated support information , Means for acquiring reaction information representing a reaction of the user made in response to the notification of support information, and the generation unit further includes a visual support device that generates the support information based on the acquired reaction information. provide.

本発明によれば、個々のユーザの状況に適合する支援情報が通知される。   According to the present invention, support information suitable for each user's situation is notified.

視覚支援装置100の外観図。1 is an external view of a visual assistance device 100. FIG. 視覚支援装置100のハードウェア構成を示す図。The figure which shows the hardware constitutions of the vision assistance apparatus 100. FIG. 視覚支援装置100の機能ブロック図。The functional block diagram of the vision assistance apparatus 100. FIG. 条件テーブルT1に記憶される情報の例を示す図。The figure which shows the example of the information memorize | stored in condition table T1. 補正テーブルT2に記憶される情報の例を示す図。The figure which shows the example of the information memorize | stored in the correction table T2. 100の動作の一例を示す図。The figure which shows an example of 100 operation | movement. 画像に基づいて生成される通知の例を示す図。The figure which shows the example of the notification produced | generated based on an image. 画像に基づいて生成される通知の例を示す図。The figure which shows the example of the notification produced | generated based on an image. 第2実施例に係る機能ブロック図。The functional block diagram which concerns on 2nd Example. 共有情報テーブルT4に記憶される情報の例を示す図。The figure which shows the example of the information memorize | stored in shared information table T4. 第2実施例に係る動作例を示す図。The figure which shows the operation example which concerns on 2nd Example.

<実施例1>
図1は視覚支援装置100の外観の一例である。
視覚支援装置100は、通常のメガネのようにユーザが装着するものであって、フレーム20と、投影装置21と、マイク24と、スピーカ25と、カメラ22と、投影面23と、スイッチ26とを含む。ここで、フレーム20や投影面23の形状や機能は任意であって、通常のメガネの機能を有していてもよい。例えば、投影面23は通常のメガネレンズとして機能してもよいし、そうでなくてもよい。投影装置21、カメラ22、投影面23、スピーカ25は、フレーム20に内蔵された電源(図示せず)から供給される電力によって動作する。スイッチ26はユーザによって操作される。また、フレーム20には、制御部のほか、後述の各種機能を実現するためのユニット(図示せず)が内蔵されている。なお、視覚支援装置100には電源を設けず、別途設けられユーザによって携行されるバッテリユニットから給電を行ってもよい。
<Example 1>
FIG. 1 is an example of the appearance of the visual assistance device 100.
The visual assistance device 100 is worn by the user like normal glasses, and includes a frame 20, a projection device 21, a microphone 24, a speaker 25, a camera 22, a projection surface 23, and a switch 26. including. Here, the shape and function of the frame 20 and the projection surface 23 are arbitrary, and may have the function of normal glasses. For example, the projection surface 23 may or may not function as a normal eyeglass lens. The projection device 21, the camera 22, the projection surface 23, and the speaker 25 are operated by electric power supplied from a power source (not shown) built in the frame 20. The switch 26 is operated by the user. In addition to the control unit, the frame 20 incorporates a unit (not shown) for realizing various functions described below. Note that the vision support apparatus 100 may not be provided with a power source, and may be supplied with power from a battery unit that is provided separately and carried by the user.

図2Aは視覚支援装置100のハードウェア構成の一例を示す図である。
視覚支援装置100は、プロセッサ201、メモリ202、カメラ22、マイク204、操作スイッチ205、センサ206、計時装置207、投影装置208、スピーカ25、および振動モータ210を含む。プロセッサ201は、1以上の汎用または専用プロセッサであって、例えば、CPU、音声処理プロセッサ、および画像処理プロセッサを含む。メモリ202は、半導体メモリ等の記憶デバイスである。カメラ22は、レンズや受光素子などの光学素子や、フォーカスや露出などの撮影制御回路等からなる撮像機構である。なお、カメラ22を複数設けてもよい。例えば、視覚支援装置100は、通常のメガネとメガネを頭に巻き付けて固定するためのベルト部とを備え、図1のように前方を撮像するためのカメラに加え、後方を撮像するためのカメラを、ベルト上における後頭部に相当する位置に設ける。このように、通常の視野よりも広い範囲(理想的には周囲360度)の場景を取得することで、後方や横方向から無音の電気自動車や自転車等が接近してくる場合であっても、ユーザに通知することができる。マイク204は、コンデンサマイクや信号処理回路からなる集音機構である。操作スイッチ205は、ユーザによって操作されるスイッチである。
FIG. 2A is a diagram illustrating an example of a hardware configuration of the vision support apparatus 100.
The visual assistance device 100 includes a processor 201, a memory 202, a camera 22, a microphone 204, an operation switch 205, a sensor 206, a timing device 207, a projection device 208, a speaker 25, and a vibration motor 210. The processor 201 is one or more general-purpose or dedicated processors, and includes, for example, a CPU, a sound processor, and an image processor. The memory 202 is a storage device such as a semiconductor memory. The camera 22 is an image pickup mechanism including an optical element such as a lens and a light receiving element, a photographing control circuit such as a focus and exposure. A plurality of cameras 22 may be provided. For example, the visual assistance device 100 includes normal glasses and a belt unit for winding and fixing the glasses around the head, and in addition to a camera for imaging the front as shown in FIG. 1, a camera for imaging the rear At a position corresponding to the back of the head on the belt. In this way, even when silent electric vehicles or bicycles approach from behind or from the side by acquiring a scene in a wider range (ideally 360 degrees around) than the normal field of view. , Can notify the user. The microphone 204 is a sound collection mechanism including a capacitor microphone and a signal processing circuit. The operation switch 205 is a switch operated by the user.

センサ206は、加速度センサ、方位センサ、照度センサなど、視覚支援装置100の状態や視覚支援装置100の周囲の環境を検出するための1以上のセンサである。計時装置207はタイマなどの計時手段である。投影装置208は、半導体レーザ等や駆動回路等からなり、投影面23に文字や画像を投影する機構である。スピーカ25は、スピーカであって、ユーザに情報を音声によって通知する。振動モータ210は、小型モータなどのバイブレータであって、支援情報の通知手段として機能する。通信部211はWiFi等の無線通信モジュールであって、外部の装置との間でデータの送受信を行う。位置取得部212は、GPS受信モジュールなど、視覚支援装置100の位置を計測するための機構である。   The sensor 206 is one or more sensors for detecting the state of the visual assistance device 100 and the environment around the visual assistance device 100, such as an acceleration sensor, an orientation sensor, and an illuminance sensor. The time measuring device 207 is a time measuring means such as a timer. The projection device 208 includes a semiconductor laser, a drive circuit, and the like, and is a mechanism that projects characters and images onto the projection surface 23. The speaker 25 is a speaker and notifies the user of information by voice. The vibration motor 210 is a vibrator such as a small motor, and functions as support information notification means. The communication unit 211 is a wireless communication module such as WiFi, and transmits and receives data to and from an external device. The position acquisition unit 212 is a mechanism for measuring the position of the visual assistance device 100 such as a GPS reception module.

図2Bは視覚支援装置100の機能ブロック図である。
視覚支援装置100は、通知部140と、反応取得部150と、音声入力部160と、生成部120と、モード切替部170と、記憶部130と、生成部120と、撮像部110とを含む。
FIG. 2B is a functional block diagram of the visual assistance device 100.
The visual assistance device 100 includes a notification unit 140, a reaction acquisition unit 150, a voice input unit 160, a generation unit 120, a mode switching unit 170, a storage unit 130, a generation unit 120, and an imaging unit 110. .

撮像部110はカメラ22によって実現され、ユーザが視認している場景を表す画像データを、所定のフレームレートで断続的に取得する。なお、カメラの特性や人間の目の機構や各ユーザの視覚能力によって、厳密にいえば、取得した映像がユーザが視認している世界と同一ではないが、取得した画像データ一般的に視覚能力を有する人間が認識しているであろう場景を反映しているといえる。   The imaging unit 110 is realized by the camera 22 and intermittently acquires image data representing a scene viewed by the user at a predetermined frame rate. Strictly speaking, the acquired image is not the same as the world that the user is viewing, depending on the camera characteristics, the human eye mechanism, and the visual ability of each user. It can be said that it reflects the scene that humans who have

モード切替部170は、操作スイッチ205によって実現され、支援情報に関する条件の切替えを受付ける。例えば、生成部120において予め動作モードを複数登録しておき
、ユーザはモード切替部170を用いて動作モードの指定ないし指定の変更を行う。動作モードとは、支援情報の通知に関する制御の態様を指定するものであって、例えば、支援情報を通知する頻度や通知内容の量によって規定される。よって、動作モードに応じて、生成部120にて生成される支援情報に関する制御内容が異なることになる。例えば、通知頻度が「高」、「中」、「小」の3つの動作モードを予め設定しておき、適用したい一つのモードをユーザに指定させることが考えられる。あるいは、ユーザが屋内にいる場合に通知制御パラメータが最適化された「屋内モード」、ユーザの夜間での移動において通知制御パラメータが最適化された「夜間モード」といって、現在の位置や時刻その他のユーザの置かれている状況に応じて動作モードを切替えることができてもよい。なお、条件の切替えは使用中いつでも行うことができる。
The mode switching unit 170 is realized by the operation switch 205 and accepts switching of conditions related to support information. For example, a plurality of operation modes are registered in advance in the generation unit 120, and the user uses the mode switching unit 170 to specify or change the operation mode. The operation mode designates a mode of control related to notification of support information, and is defined by, for example, the frequency of notification of support information and the amount of notification content. Therefore, the control content regarding the support information generated by the generation unit 120 differs depending on the operation mode. For example, it is conceivable that three operation modes of “high”, “medium”, and “small” are set in advance and the user designates one mode to be applied. Alternatively, the “indoor mode” in which the notification control parameter is optimized when the user is indoors, and the “night mode” in which the notification control parameter is optimized when the user moves at night, the current position and time It may be possible to switch the operation mode according to the situation where other users are placed. The condition can be switched at any time during use.

音声入力部160はマイク204によって実現され、ユーザの声や周囲の音を取得する。   The voice input unit 160 is realized by the microphone 204 and acquires a user's voice and surrounding sounds.

反応取得部150は、マイク204、操作スイッチ205、およびセンサ206のうちいずれか一つ以上によって実現され、支援情報の通知に対するユーザの反応を表すリアクション情報を取得する。また、反応取得部150は、現在のユーザの動作の状態を取得する。動作の状態とは、例えば、ユーザが歩行などの動作を行っている最中なのか否か、あるいは体勢(着席している、横になっているなど)の情報を含む。   The reaction acquisition unit 150 is realized by any one or more of the microphone 204, the operation switch 205, and the sensor 206, and acquires reaction information indicating a user's reaction to the notification of support information. In addition, the reaction acquisition unit 150 acquires the current user operation state. The motion state includes, for example, information on whether or not the user is performing a motion such as walking or the posture (sitting, lying down, etc.).

位置特定部190は位置取得部212によって実現され、視覚支援装置100の位置を特定する。なお、記憶部130に地図情報や施設についての情報を記憶しておき、位置特定部190は、現在位置に基づいて、ユーザが現在おかれている状況(屋外にいるのか屋内にいるのか、屋外の場合は登録された施設内部にいるのか道路上にいるのか、屋内の場合はオフィスや自宅などの登録された施設)にいるのか否か、を特定してもよい。   The position specifying unit 190 is realized by the position acquisition unit 212, and specifies the position of the visual assistance device 100. Note that map information and facility information are stored in the storage unit 130, and the position specifying unit 190 is based on the current position in a situation where the user is currently located (whether the user is outdoors or indoors, outdoor In the case of, it may be specified whether the user is in a registered facility or on a road, and if indoors, the user is in a registered facility such as an office or home.

計時部180は計時装置207によって実現され、現在時刻を取得する。   The timer unit 180 is realized by the timer device 207 and acquires the current time.

生成部120は、計時部180および位置特定部190から取得した情報に基づいて、撮像部110にて画像が取得されたときにおける、所定のエリア(例えば予め登録された施設内)における滞在時間を算出してもよい。生成部120は、さらに反応取得部150から取得した情報に基づいてユーザの行動を決定してもよい。ユーザの行動とは、例えば、横になって休息しているのか、歩行中なのか、運動中なのかといった情報である。こうして、位置や場所や行動などの情報はユーザ固有情報T3に蓄積される。   Based on the information acquired from the timing unit 180 and the position specifying unit 190, the generation unit 120 calculates the stay time in a predetermined area (for example, in a pre-registered facility) when an image is acquired by the imaging unit 110. It may be calculated. The generation unit 120 may further determine the user's action based on the information acquired from the reaction acquisition unit 150. The user's action is, for example, information on whether lying down, resting, walking, or exercising. Thus, information such as position, place, and behavior is accumulated in the user specific information T3.

通知部140は、音声出力部141と表示部142と振動発生部143とを含み、生成部120の制御の下、生成部120にて生成された支援情報をユーザに通知する。
音声出力部141はスピーカ25によって実現され、支援情報を音声によって通知する。具体的には、支援情報がテキストデータとして生成され、このテキストデータを音声合成処理によって読み上げる。
表示部142は投影装置208によって実現され、支援情報を映像によって通知する。振動発生部143は振動モータ210によって実現され、支援情報を振動によって通知する。
なお、音声出力部141、表示部142、振動発生部143のいずれか一つまたは2つを省略してもよい。例えば、全盲のユーザを想定しているのであれば、表示部142の機能を省略してもよい。
The notification unit 140 includes an audio output unit 141, a display unit 142, and a vibration generation unit 143, and notifies the user of support information generated by the generation unit 120 under the control of the generation unit 120.
The voice output unit 141 is realized by the speaker 25 and notifies the support information by voice. Specifically, support information is generated as text data, and this text data is read out by speech synthesis processing.
The display unit 142 is realized by the projection device 208 and notifies the support information by a video. The vibration generating unit 143 is realized by the vibration motor 210 and notifies support information by vibration.
Note that one or two of the audio output unit 141, the display unit 142, and the vibration generation unit 143 may be omitted. For example, if a blind user is assumed, the function of the display unit 142 may be omitted.

記憶部130はメモリ202によって実現され、OSなど生成部120を制御するためのプログラムが記憶されるほか、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される。具体的には、条件テーブルT1、補正テーブル
T2、およびユーザ固有情報T3が格納され、これらに各ユーザに応じた情報が記憶される。
The storage unit 130 is realized by the memory 202, stores a program for controlling the generation unit 120 such as an OS, and stores conditions specific to the user regarding notification of support information for supporting the user's visual recognition. The Specifically, a condition table T1, a correction table T2, and user-specific information T3 are stored, and information corresponding to each user is stored therein.

ユーザ固有情報T3には、各ユーザに固有の情報が記憶される。ユーザ固有の情報には、例えば、ユーザと所定の関係を有する人物(たとえば親族や友人)を特定するための情報(顔画像や顔の特徴量など)が含まれる。また、ユーザの身体能力に関する情報など、ユーザ自身の状態に関する情報が記憶されてもよい。具体的には、ユーザの体調、身体能力(視力、近視、遠視、老眼、障害の内容・程度、聴力、味覚、触覚、嗅覚、障害、運動能力など)である。また、ユーザ固有情報T3にはユーザの行動履歴(歩行経路、滞在場所、滞在時間など)が含まれていてもよい。このユーザの行動履歴には、通知を受け取ったユーザの反応を表す情報が含まれていてもよい。   Information unique to each user is stored in the user-specific information T3. The user-specific information includes, for example, information (such as a face image or facial feature amount) for specifying a person (eg, a relative or friend) having a predetermined relationship with the user. Further, information related to the user's own state such as information related to the user's physical ability may be stored. Specifically, it is a user's physical condition and physical ability (sight, myopia, hyperopia, presbyopia, content / degree of disability, hearing, taste, touch, smell, disability, motor ability, etc.). Further, the user specific information T3 may include a user's behavior history (walking route, staying place, staying time, etc.). The user's action history may include information indicating the reaction of the user who has received the notification.

図3は条件テーブルT1に記憶される情報の具体例を示す。この例では、通知条件に対応付けて支援情報の通知制御の内容が記述されている。通知条件は、検出内容と状況とに大別される。検出内容とは、画像解析の結果抽出された物体(車、建物、標識などの人工物、人や樹木などの自然物など)の種類である。なお、水たまりがあるという事実、木の枝が目の前に倒れ掛かっているというような事実など、物体の存在以外の事象を示すものであってもよい。以下では、説明の便宜上、画像から抽出されユーザへ通知すべき対象のものを、有体物・無対物を問わず、「対象物」ということにする。同図における詳細とは、当該対象物の詳細な情報を示す。例えば、様態(時間変化)やその物体の属性等の情報である。状況には、例えば画像を取得した時間、場所、撮影場所の明るさなど、画像を取得した時の状況を示す情報が含まれる。   FIG. 3 shows a specific example of information stored in the condition table T1. In this example, the content of notification control of support information is described in association with the notification condition. Notification conditions are roughly classified into detection contents and status. The detected content is the type of an object (artificial object such as a car, a building, a sign, or a natural object such as a person or a tree) extracted as a result of image analysis. It may also indicate an event other than the presence of an object, such as the fact that there is a puddle or the fact that a tree branch is falling down in front of you. Hereinafter, for convenience of explanation, an object to be extracted from an image and to be notified to a user is referred to as “object” regardless of whether it is a tangible object or an objectless object. The details in the figure indicate detailed information of the object. For example, it is information such as an aspect (time change) and an attribute of the object. The situation includes information indicating the situation when the image is acquired, such as the time when the image was acquired, the location, and the brightness of the shooting location.

通知制御内容を構成する要素として、同図の例では、要否、優先度、タイミング、通知方法が含まれる。要否とは、検出した各対象物に対して通知を行うか否かを規定する。優先度とは、通知を行う際の優先度を規定する。一般的に、生命に危険が及ぶ可能性が高い対象物については高い優先度が設定される。タイミングとは、通知の実行および/または終了のタイミングを規定する。通知方法とは、通知部140が有する機能のうちどれを使用するかを規定する。   The elements constituting the notification control contents include necessity, priority, timing, and notification method in the example of FIG. Necessity defines whether or not to notify each detected object. The priority defines the priority at the time of notification. Generally, a high priority is set for an object that is highly likely to be life threatening. Timing defines the timing of execution and / or termination of notification. The notification method defines which function of the notification unit 140 is used.

同図の例では、例えば、車両が検出された場合において、その車両が走行中であるがユーザには向かってきていない状況であり、その検出が屋外で発生したものである場合、その他の状況(時間帯や周囲の明るさ)を問わず通知が必要であり、通知の優先度区分は「2」(2番目に高い)であり、音声、文字および振動という手段を用いて、その対象の車両が検出されている間ずっと通知を出し続ける、という制御内容が規定されている。
通知が必要な対象物を複数検出した場合、優先度がより高い対象物がより優先して通知される。優先して通知されるとは、例えば、より時間的に先に通知する、同時に通知するが他の対象物よりもより注意を引く態様(文字サイズや音量が大きいなど)で表示するという意味である。
In the example of the figure, for example, when a vehicle is detected, the vehicle is running but not facing the user, and when the detection occurs outdoors, other situations Notification is required regardless of (time zone or ambient brightness), and the priority classification of notification is “2” (second highest), and the target of the target is determined by means of voice, text, and vibration. The control content is defined such that notifications continue to be issued while the vehicle is detected.
When a plurality of objects requiring notification are detected, an object with a higher priority is notified with higher priority. “Preferential notification” means, for example, that the notification is given earlier in time, the notification is given at the same time, but it is displayed in a mode that draws more attention than other objects (such as the character size or volume is high). is there.

通知制御内容の一以上の各項目は、ユーザ固有情報T3の内容に基づいて生成され、またはユーザによって書き換えることができるようになっている。この結果、通知制御の内容は、ユーザの好みやユーザの事情などが反映されるようになっている。また、ユーザ固有情報T3の内容が更新されるか通知に対するユーザの反応が得られた後、随時または定期的に、生成部120によって自動的に書き換えてられもよい。この場合、ユーザが視覚支援装置100を使用する期間に応じて内容が変化することになる。   One or more items of the notification control content are generated based on the content of the user specific information T3, or can be rewritten by the user. As a result, the contents of notification control reflect user preferences, user circumstances, and the like. Moreover, after the content of the user specific information T3 is updated or the user's reaction to the notification is obtained, the generation unit 120 may automatically rewrite the content as needed or periodically. In this case, the content changes according to the period during which the user uses the visual assistance device 100.

なお、記憶部130には、ユーザ固有の情報以外の情報が記憶されてもよい。例えば、記憶部130には代表的な障害物の種類(車両、交通標識、段差など)とその危険度(通知の重要度)が登録される。   The storage unit 130 may store information other than user-specific information. For example, typical obstacle types (vehicles, traffic signs, steps, etc.) and their danger levels (importance of notification) are registered in the storage unit 130.

図4は補正テーブルT2に記憶される情報の例を示す。補正テーブルT2には、ユーザの反応(リアクション)と優先度の補正内容とが対応付けて記憶される。生成部120は、補正テーブルT2を参照し、所定のリアクションを検出すると、条件テーブルT1を書き換える。例えば、同図の例では、通知した支援情報の通知に対するユーザの反応として、例えばスイッチ等を操作して通知をOFFにしたという反応が記憶された場合、この支援情報について優先度を一段階下げる。このように優先度を変更する理由は、ユーザの反応には、その通知の要否や重要性に関するユーザの判断が反映されていると推測できるからである。また、ある支援情報の通知に応じてユーザが通知の頻度を変更した場合においても、当該支援情報の優先度を補正する。   FIG. 4 shows an example of information stored in the correction table T2. In the correction table T2, the user's reaction (reaction) and the correction content of the priority are stored in association with each other. The generation unit 120 refers to the correction table T2 and rewrites the condition table T1 when detecting a predetermined reaction. For example, in the example shown in the figure, when a response indicating that the notification is turned off by operating a switch or the like is stored as a response to the notification of the notified support information, the priority of the support information is lowered by one step. . The reason for changing the priority in this way is that it can be assumed that the user's reaction reflects the necessity of the notification and the user's judgment regarding the importance. Even when the user changes the frequency of notification in response to notification of certain support information, the priority of the support information is corrected.

ユーザの反応(立ち止まる、顔の向きを変えるなど)を反応取得部150が検出した場合、その支援情報の対象物に反応しており、ユーザにとってその通知が必要であると可能性が高いと推測されるから、優先度が高くなるように補正する。   When the reaction acquisition unit 150 detects a user's reaction (stops, changes the direction of the face, etc.), it is presumed that the user is responding to the object of the support information and that the user needs to be notified. Therefore, the priority is corrected so as to increase.

このように、支援情報に対するユーザの反応(無反応という反応も含む)に応じて条件テーブルT1の内容を更新することで、次回以降に、同一または似たような状況に遭遇した場合の通知制御内容がよりユーザの意図に沿った妥当なものとなる可能性が高まる。   In this way, by updating the contents of the condition table T1 according to the user's response to the support information (including a response of no response), notification control when the same or similar situation is encountered after the next time The possibility that the contents are more appropriate according to the user's intention is increased.

生成部120は、プロセッサ201によって実現され、撮像部110にて取得された画像データに対して、所定の間隔で画像解析を繰り返し実行し、予め設定された対象物や対象物が存在するか否かを判定する。そして、生成部120は、撮像部110にて取得された画像データと記憶部130に記憶されたユーザに固有の条件とに基づいて、支援情報を生成する。
具体的には、生成部120は、画像解析の結果、1以上の特定の対象物ないし対象物を複数抽出した場合、ユーザ固有情報T3を参照して、各対象物ないし対象物について通知の要否や優先度を決定する。そして、1以上の対象や対象物のなかから1以上の対象物を選択し、該選択された1以上の対象物に関する支援情報を生成する。
The generation unit 120 repeatedly performs image analysis at predetermined intervals on the image data obtained by the processor 201 and acquired by the imaging unit 110, and whether or not a preset target object or target object exists. Determine whether. Then, the generation unit 120 generates support information based on the image data acquired by the imaging unit 110 and the conditions unique to the user stored in the storage unit 130.
Specifically, when a plurality of one or more specific objects or objects are extracted as a result of the image analysis, the generation unit 120 refers to the user specific information T3 and needs to notify each object or object. Determine no or priority. Then, one or more objects are selected from the one or more objects or objects, and support information related to the selected one or more objects is generated.

ここで、抽出されるべき対象物とは、典型的には、車両や歩行者、電柱、街路などの物体、縁石、側溝、路面の凹凸その他の周囲の地形などユーザの移動の障害となりうる物体である。このほか、交通標識、道路に描かれたマーク、横断歩道、踏切、屋外の部屋の間取り等、ユーザの安全な移動(歩行や乗り物運転時)に寄与する対象が含まれていてもよい。   Here, the objects to be extracted are typically objects such as objects such as vehicles, pedestrians, utility poles, streets, curbs, gutters, road surface irregularities, and other surrounding topography. It is. In addition, a target that contributes to the safe movement of the user (when walking or driving a vehicle) such as a traffic sign, a mark drawn on a road, a pedestrian crossing, a railroad crossing, and a floor plan of an outdoor room may be included.

生成部120は、反応取得部150にて取得されたリアクション情報をさらに用いて、支援情報を生成してもよい。また、生成部120は、所定値以上の危険度の障害物が前記画像データから抽出された場合に、支援情報を生成してもよい。また、生成部120は、画像データにおいて人物が検出された場合に、当該人物情報に基づいて支援情報を決定してもよい。   The generation unit 120 may generate support information by further using the reaction information acquired by the reaction acquisition unit 150. In addition, the generation unit 120 may generate support information when an obstacle with a risk level equal to or higher than a predetermined value is extracted from the image data. Further, when a person is detected in the image data, the generation unit 120 may determine support information based on the person information.

前記条件は、前記ユーザの位置に関する情報を用いて規定されてもよい。また、前記条件は、滞在時間に関する情報を用いて規定されてもよい。また、前記条件は、前記ユーザの行動に関する情報を用いて規定されてもよい。   The condition may be defined using information related to the position of the user. In addition, the condition may be defined using information related to stay time. The condition may be defined using information related to the user's behavior.

また、動作モードが指定されている場合は、当該動作モードが規定する条件をさらに加味して、支援情報を生成する。例えば、動作モードとして「通知頻度「低」」が指定され、この動作モードが「優先度が2以下の対象物においては、通知しない」というルールを規定するものであれば、優先度「1」が設定された対象物のみが通知の対象となる。   Further, when the operation mode is designated, the support information is generated in consideration of the conditions specified by the operation mode. For example, if “notification frequency“ low ”” is designated as the operation mode and this operation mode prescribes a rule of “not notify for an object with a priority of 2 or less”, the priority “1”. Only objects for which is set are subject to notification.

制御内容は、図3に示したうに、条件に対応する制御内容を定義したテーブル形式で用意される必要はない。例えば、制御アルゴリズムを機械学習の手法を用いて決定してもよい。
具体的には、抽出された対象物や、画像特徴量等によって表すことができる撮像時の状況(換言するとユーザが遭遇した状況)や、実行された通知に対して得られたユーザの反応を、訓練データとして学習器に入力することによって、通知が必要な対象物と通知が不必要な対象物とを分類する分類器や通知の重要性ないし必要性を決定するための回帰モデル(学習済モデル)を生成する。
As shown in FIG. 3, the control contents need not be prepared in a table format in which the control contents corresponding to the conditions are defined. For example, the control algorithm may be determined using a machine learning technique.
Specifically, the situation at the time of imaging (in other words, the situation encountered by the user) that can be represented by the extracted object, the image feature amount, etc., and the user's reaction obtained for the executed notification are shown. , By inputting it into the learning device as training data, a classifier that classifies the objects that need to be notified and the objects that do not need to be notified, or a regression model to determine the importance or necessity of the notification (learned Model).

ここで、ユーザの反応とは、反応取得部150から供給された、通知に対して振り向いたか否か、通知したにも関わらず直後に躓くなど体のバランスを崩してしまったか否か、通知によって立ち止まったり歩行の進路を変えたりしたか否か、人物の存在を通知した後に発話や挙手を行ったか否か等、ユーザの身体的反応(無反応の場合も含む)など、通知の妥当性やユーザの行動への影響度を推測するために用いられ得る情報である。
なお、ユーザの反応に変えてもしくは加えて、ユーザ情報に含まれるユーザの行動を示す情報(例えば歩行経路や活動の時間帯等)を蓄積しておき、この蓄積したユーザ情報を上記学習器に入力させてもよい。
Here, the user's reaction is whether or not he / she has turned around for the notification supplied from the reaction acquisition unit 150, whether or not he / she has lost the balance of his / her body, such as whispering immediately after the notification. The validity of the notification, such as whether the user has stopped or changed the course of walking, whether the person has spoken or raised a hand after notifying the presence of a person, and the physical response of the user (including the case of no response) This is information that can be used to estimate the degree of influence on the user's behavior.
In addition to or in addition to the user's reaction, information (for example, a walking route or an activity time zone) indicating user behavior included in the user information is accumulated, and the accumulated user information is stored in the learning device. You may enter.

学習モデルを生成する機械学習の手法としては、例えばDeep Neural Network(DNN、深層学習)を用いることができる。具体的には、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)などが適用可能である。   As a machine learning method for generating a learning model, for example, Deep Neural Network (DNN, deep learning) can be used. Specifically, CNN (Conversion Neural Network), RNN (Recurrent Natural Network), etc. are applicable.

学習を行うタイミングについては、視覚支援装置100を使用する前に実行してもよいし、使用後においてユーザが遭遇した状況・対象物や通知に対するユーザの反応についての情報が得られるたびに実行してもよい。
前者の場合、例えば、ユーザが捉える視界を模擬した画像データを用意し、この画像データに対して、通知の要否、通知の優先度、タイミング等の通知に関する条件についての質問をユーザに対して行い、ユーザから得た回答に基づいて学習させることができる。こうして学習済みモデルが生成された後、ユーザに視覚支援装置100使用させる。
後者の場合、視覚支援装置100の使用開始時点においては、未学習状態のアルゴリズムを用いることになるが、ユーザの反応や行動パターンについての情報が蓄積されるにつれ、学習が進むことになる。
The learning timing may be executed before using the visual support device 100, or whenever the user's reaction to the situation / object or notification that the user has encountered after use is obtained. May be.
In the former case, for example, image data simulating the field of view captured by the user is prepared, and the user is asked questions regarding the conditions regarding notification such as necessity of notification, priority of notification, timing, etc. And learning based on answers obtained from the user. After the learned model is generated in this way, the visual assistance device 100 is used by the user.
In the latter case, an unlearned algorithm is used at the start of use of the visual support device 100, but learning progresses as information about user responses and behavior patterns is accumulated.

要するに、視覚支援装置100は、取得した複数の画像データと、各画像データに対応して得られた複数のリアクション情報とに基づいて、支援情報の通知に関する条件を学習する学習器と、取得された画像データに対応する支援情報をこの学習器を用いて生成する機能を有していればよい。   In short, the visual support device 100 is acquired with a learning device that learns conditions regarding notification of support information based on a plurality of acquired image data and a plurality of reaction information obtained corresponding to each image data. It is only necessary to have a function of generating support information corresponding to the image data using the learning device.

また、図2Aで示したハードウェア構成または図2Bで示した機能構成の一部は、視覚支援装置100とは別途設けられた装置によって実現されてもよい。例えば、通知部を視覚支援装置100には設けず、ユーザが携行するスマートフォン等の携帯型情報処理端末が有する通知機能を利用してもよい。具体的には、視覚支援装置100と携帯型情報処理端末と間で無線通信を行い、視覚支援装置100から携帯型情報処理端末に通知の実行要求および通知内容を送信する。   In addition, the hardware configuration illustrated in FIG. 2A or a part of the functional configuration illustrated in FIG. 2B may be realized by an apparatus provided separately from the vision support apparatus 100. For example, the notification function of the portable information processing terminal such as a smartphone carried by the user may be used without providing the notification unit in the visual support device 100. Specifically, wireless communication is performed between the visual assistance device 100 and the portable information processing terminal, and a notification execution request and notification content are transmitted from the visual assistance device 100 to the portable information processing terminal.

また、図2Aおよび図2Bで示したハードウェア構成ないし機能構成に、他の機能を加えてもよい。例えば、視覚支援装置100に移動を案内する機能を設ける。具体的には、記憶部130に地図情報を記憶し、位置取得部212およびセンサ206にてそれぞれ取得された現在位置および向きユーザの向きについての情報と、音声入力部160にて取得
された、移動目的の位置や施設名の情報と、地図情報に基づいて、ユーザが進むべきルートや方角、目的地までの距離といった、ユーザの移動を支援する情報を生成してユーザに通知してもよい。
他の例として、ユーザを認証する機能を設けてもよい。具体的には、視覚支援装置100において声紋や指紋などのユーザ固有の生体情報を取得する手段を設け、予め登録された情報と一致するか判定する。認証を実行するタイミングは、例えば視覚支援装置100の起動時である。
Further, other functions may be added to the hardware configuration or functional configuration shown in FIGS. 2A and 2B. For example, a function for guiding the movement to the visual assistance device 100 is provided. Specifically, the map information is stored in the storage unit 130, the information on the current position and the orientation of the user acquired by the position acquisition unit 212 and the sensor 206, respectively, and the voice input unit 160 acquired. Based on the information on the position and facility name of the movement target and the map information, information that supports the movement of the user such as the route and direction the user should take and the distance to the destination may be generated and notified to the user. .
As another example, a function of authenticating a user may be provided. Specifically, the visual support device 100 is provided with a means for acquiring user-specific biometric information such as a voiceprint or a fingerprint, and determines whether or not the information matches with previously registered information. The timing for executing the authentication is, for example, when the visual assistance device 100 is activated.

図5は、視覚支援装置100の動作の一例を示す。視覚支援装置100は、予め、現在時刻や場所の取得、周囲の状況やユーザの状態についてのセンシング、動作モードの指定の受付けなどを行い、通知条件として規定された情報を決定しておく(S500)。
撮像した画像が所定フレーム分蓄積されると、生成部120は蓄積された画像を解析する(S510)。
生成部120は、解析の結果、対象物を検出した場合、通知要否の判定を行う(S521)。生成部120は、通知が必要であれば(S521;YES)、通知内容を生成する(S522)。ここで、通知対象が複数あった場合は、各通知の順番や態様がさらに決定される。通知部140は、タイミング情報に従って通知を実行する(S530)。タイミング情報が存在しない場合、即座に通知を実行する。
生成部120は、ユーザからのリアクションを取得した場合(S540:YES)、当該リアクションを示す情報を記憶部130に書き込むとともに、必要に応じて当該リアクションの情報に基づいて通知条件を更新する(S550)。なお、通知が不必要な場合(S521;NO)あるいはリアクションが取得されない場合(S540;NO)、S500の処理に戻る。
FIG. 5 shows an example of the operation of the visual assistance device 100. The visual assistance device 100 performs acquisition of the current time and location, sensing of the surrounding situation and the user's state, reception of designation of the operation mode, and the like, and determines information defined as notification conditions (S500). ).
When the captured images are accumulated for a predetermined frame, the generation unit 120 analyzes the accumulated images (S510).
As a result of the analysis, the generation unit 120 determines whether or not notification is necessary when an object is detected (S521). If the notification is necessary (S521; YES), the generation unit 120 generates the notification content (S522). Here, when there are a plurality of notification targets, the order and mode of each notification are further determined. The notification unit 140 executes notification according to the timing information (S530). If there is no timing information, a notification is immediately executed.
When the generation unit 120 obtains a reaction from the user (S540: YES), the generation unit 120 writes information indicating the reaction in the storage unit 130, and updates the notification condition based on the reaction information as necessary (S550). ). If notification is unnecessary (S521; NO) or no reaction is acquired (S540; NO), the process returns to S500.

図6は、取得した画像に基づいて生成される通知の具体例を示す。
いま、D1で示す画像が撮像されたとする。この画像を解析した結果、自動車である対象物OB1、樹木である対象物OB2、障害物の一種である段差として対象物OB3、障害物の一種である看板として対象物OB4の存在が検出されたとする。また、加えて各対象物間の位置関係およびユーザのとの位置関係が特定され、さらに対象物OB1については動く方向が検出されたとする。
いま仮に、ともに視覚支援装置100のユーザであるユーザAとユーザBとが、屋外において、この画像で示される状況に遭遇したとする。この例では、ユーザAに対しては、対象物OB1に対応する支援情報として、向かってくる車に注意喚起を促すメッセージが最初に通知され、続いて、対象物OB3に対応する支援情報として、前方の看板への注意喚起を促すメッセージが通知され、続いて段差への注意喚起を促すメッセージが通知される。
FIG. 6 shows a specific example of the notification generated based on the acquired image.
Assume that an image indicated by D1 is captured. As a result of analyzing this image, the presence of the object OB1 that is a car, the object OB2 that is a tree, the object OB3 as a step that is a kind of obstacle, and the object OB4 as a signboard that is a kind of obstacle is detected. To do. In addition, it is assumed that the positional relationship between the objects and the positional relationship with the user are specified, and that the moving direction of the object OB1 is detected.
Suppose now that user A and user B, who are both users of the visual assistance device 100, encounter the situation shown in this image outdoors. In this example, the user A is first notified of a message that calls attention to the vehicle coming as support information corresponding to the object OB1, and subsequently, as support information corresponding to the object OB3, A message urging attention to the front signboard is notified, and then a message urging attention to the step is notified.

このような通知制御が行われるのは、例えば、ユーザAは視力がかなり悪いという情報がユーザ固有情報T3に書き込まれており、この情報に基づいて、条件テーブルT1において動く物体に対して高い通知優先度が与えられており、静止している障害物は優先度が低いが通知は必要であるという制御内容となっている場合である。また、この例では、対象物OB4が通知要と判定されているにも関わらず通知が実行されていない理由は、例えば、ユーザが混乱しないように、一度に通知できる数の上限が3と設定されており、現状ではユーザの位置から樹木まで遠いためにその優先度は他の3つの対象物よりも低いと判定されているといった場合である。   Such notification control is performed because, for example, information indicating that the user A has considerably poor eyesight is written in the user specific information T3, and based on this information, a high notification is given to the moving object in the condition table T1. This is a case where priority is given and the control content is that a stationary obstacle has a low priority but notification is required. In this example, the reason why the notification is not executed even though it is determined that the object OB4 is required to be notified is that, for example, the upper limit of the number that can be notified at one time is set to 3 so that the user is not confused. This is a case where the priority is determined to be lower than the other three objects because the user is far from the position of the tree at present.

一方、ユーザBに対しては、対象物OB3に対応する支援情報のみが通知されている。このような状況は、例えば、ユーザBは視力には問題ないが歩行に能力に支障があるという情報がユーザ固有情報T3に記憶されており、この結果、歩行に関係する対象物OB3のみが通知要である一方、対象物OB1、対象物OB4、対象物OB2については通知不
要と生成部120において判断されたような場合に生じることが考えられる。
On the other hand, only the support information corresponding to the object OB3 is notified to the user B. In such a situation, for example, information indicating that the user B has no problem with visual acuity but has a problem with walking ability is stored in the user-specific information T3. As a result, only the object OB3 related to walking is notified. On the other hand, it can be considered that the object OB1, the object OB4, and the object OB2 may occur when the generation unit 120 determines that the notification is unnecessary.

図7は、生成される通知の他の例を示す。D2は、ユーザがオフィスなどの屋内の廊下において撮像された場合において取得される画像の例である。いま、ともに視覚支援装置100のユーザであるユーザCとユーザDとがこの状況に遭遇したとする。生成部120は、対象物として対象物OB21、対象物OB22を検出する。加えて、顔認証処理によって、対象物OB21はCの友人として登録されている人物Xであり、対象物OB22はユーザCの友人でもユーザDの友人でもない人物であると判定する。   FIG. 7 shows another example of the generated notification. D2 is an example of an image acquired when the user is captured in an indoor corridor such as an office. Now, it is assumed that user C and user D, who are both users of the visual assistance device 100, have encountered this situation. The generation unit 120 detects the object OB21 and the object OB22 as the objects. In addition, by the face authentication process, it is determined that the object OB21 is a person X registered as a friend of C, and the object OB22 is a person who is neither a friend of the user C nor a friend of the user D.

ユーザCに対しては、知り合いの人物Xの出現が知らされている。これにより、ユーザCはXに挨拶などの応対を行うことができる。このような状況は、例えば、ユーザCは現在の場所については完全に把握しており案内情報は希望していないという事情があり、この事情に沿って、場所に関する支援情報は通知されないないしはその通知の優先度が低くなるような設定となっている場合に現れる。   The user C is informed of the appearance of an acquaintance person X. Thereby, the user C can respond to X with greetings. In such a situation, for example, the user C has a complete understanding of the current location and does not want the guidance information. In accordance with this situation, the support information related to the location is not notified or is notified. Appears when the priority is set to be low.

一方、ユーザDに対しては、まず自分が廊下にいるという状況の説明が行われ、続いて前方から人が向かっているという注意喚起が行われている。このような状況は、例えば、ユーザDにとっては屋内ではまず現在位置の把握が最優先事項であり、このユーザDの要望に沿った設定が記憶部130でなされている場合に生じる。   On the other hand, the user D is first explained about the situation that he / she is in the hallway, and then alerted that the person is heading from the front. Such a situation occurs, for example, when the current position is the highest priority indoors for the user D, and the setting according to the request of the user D is made in the storage unit 130.

あるいは、撮像結果から人物のみを検出する設定を記憶部130に登録しておき、ユーザは待ち合せ場所等において、多数の人のなかから待ち人(予め記憶部130に登録されている)を探したい場合に、モード切替部170を操作してこの設定を有効にするといった視覚支援装置100の使用方法も考えられる。   Alternatively, a setting for detecting only a person from the imaging result is registered in the storage unit 130, and the user wants to search for a waiting person (registered in advance in the storage unit 130) from a large number of people at a meeting place or the like. In addition, a method of using the visual assistance device 100 such as operating the mode switching unit 170 to validate this setting is also conceivable.

このように、仮に同一の状況に遭遇したとしても、支援情報の取捨選択の方法がユーザによって異なり、結果として、ユーザが異なれば提供される支援情報が異なりうる。   As described above, even if the same situation is encountered, the support information selection method varies depending on the user, and as a result, the support information provided may differ depending on the user.

本実施例によれば、ユーザの事情、都合、ニーズ、好み、現在おかれている状況など、ユーザ固有の情報を考慮して、通知の要否、内容、タイミング、順序の少なくともいずれか一つが決定される。この結果、ユーザにとって無駄な通知が行われ、その結果、ユーザが煩わしさを感じる状況が減ることが期待される。また、逆に煩わしさの緩和を追求するあまり、本来必要な通知が行われないとった状況が発生する可能性も低くなる。
また、通知に対するユーザの反応および/またはユーザの行動履歴に基づいて通知制御内容を変化させることができるので、視覚支援装置100を使用すればするほど、ユーザへ提供する支援が最適化される。
According to the present embodiment, in consideration of user-specific information such as user circumstances, convenience, needs, preferences, current situation, at least one of notification necessity, contents, timing, and order is It is determined. As a result, useless notification is performed for the user, and as a result, the situation where the user feels bothersome is expected to be reduced. On the other hand, too much pursuit of annoyance is less likely to cause a situation where a necessary notification is not performed.
Moreover, since the notification control content can be changed based on the user's reaction to the notification and / or the user's action history, the support provided to the user is optimized as the visual assistance device 100 is used.

上記実施例は、本来通常の人が持っている視覚能力が低下したユーザの視覚能力を補い、日常生活を支援することを主な目的とするものであるが、本来持っている視覚能力以上の能力の発揮が求められているような場面に適用してもよい。
例えば、遠方の物体を認識する動作モードを設けておき、遠方の物体を認識が要求される場面に遭遇した場合は、ユーザが当該モードに手動で切替えるか、または画像解析によって知覚には物体が存在しないことを認識した結果、生成部120が自動的に切替えるかすることにより、遠方にある物体を支援情報として通知させる、といった視覚支援装置100の使用方法が考えられる。あるいは、予め目的地を指定した「ナビゲーションモード」と、特定の目的地点が存在せずに自由に散歩をするような「フリーモード」を設けておき、両者のモードにおいて支援情報の内容やタイミング、頻度等を異ならせてもよい。また、「ナビゲーションモード」においては、上述した支援情報の提供に加えて、地図情報と現在位置とに基づいて目的地までのルートを音声によって案内する一方、「フリーモード」においては、上述した支援情報の提供に加え、近くのレストラン情報や公園の存在情
報等、直接歩行には関係ないが、ユーザーの趣味嗜好に即した情報が通知されるように設定することもできる。例えば、飲食店その他の商業施設や公共施設他の情報がユーザーが200メートル以内に近づくと通知される。
その他、特殊な作業や運動などを行う場合など活動シーンに応じた視覚支援情報を提供すべく、視覚支援装置100を使用してもよい。
すなわち、本発明は、いわゆる健常者以外の、あらゆる人間に使用することが可能である。換言すると、本発明における「支援」とは、低下または欠如している視認能力を補うという意味に限定されない。
The above embodiment is mainly intended to supplement the visual ability of a user who has reduced the visual ability originally possessed by a normal person, and to support daily life. You may apply to the scene where the display of ability is required.
For example, when an operation mode for recognizing a distant object is provided, and a scene that requires recognition of a distant object is encountered, the user manually switches to that mode, or the object is not detected for perception by image analysis. As a result of recognizing that it does not exist, a method of using the visual assistance device 100 is conceivable in which the generation unit 120 automatically switches to notify an object located far away as assistance information. Alternatively, a “navigation mode” in which the destination is specified in advance and a “free mode” in which the user walks freely without a specific destination point are provided, and the contents and timing of the support information in both modes, The frequency or the like may be varied. In the “navigation mode”, in addition to providing the support information described above, the route to the destination is guided by voice based on the map information and the current position, while in the “free mode”, the above-described support is provided. In addition to providing information, information such as nearby restaurant information and park presence information, which is not directly related to walking, can be set so that information according to the user's hobbies and preferences is notified. For example, information about restaurants and other commercial facilities and public facilities is notified when the user approaches within 200 meters.
In addition, the visual assistance device 100 may be used to provide visual assistance information corresponding to an activity scene, such as when performing special work or exercise.
That is, the present invention can be used for all humans other than so-called healthy persons. In other words, the “support” in the present invention is not limited to the meaning of compensating for the reduced or lacking visual ability.

視覚支援装置100は、メガネ型のほか、耳に装着するイヤホン型、首からぶら下げるブローチ型、腰に装着するタイプなどであってもよい。すなわち、いわゆる健常者が見ているであろう場景が正確に反映された画像を取得する必要はない。例えばブローチ型では首または胸部から見た視点の画像が取得されることになるが、対象物を検出するという目的においては特段問題がない。また、視覚支援装置100は、あえて通常の視点とは異なる視点からの映像を取得してもよい。例えば、視覚支援装置100をスマートフォンのような携帯情報端末の形状に設計し、視覚支援装置100を手から離れた位置で指示するための器具(いわゆる自撮り棒)を取り付ける。あるいは、この視覚支援装置100を飛行体(ドローン等)に取付け、空中を移動して撮影してもよい。こうすることで、人物や障害物の検出・判定が容易となる場合がある。   In addition to the glasses type, the vision support device 100 may be an earphone type worn on the ear, a broach type hanging from the neck, a type worn on the waist, and the like. That is, there is no need to acquire an image that accurately reflects the scene that a so-called healthy person would see. For example, in the broach type, an image of a viewpoint viewed from the neck or chest is acquired, but there is no particular problem for the purpose of detecting an object. Further, the visual assistance device 100 may intentionally acquire a video from a different viewpoint from the normal viewpoint. For example, the visual support device 100 is designed in the shape of a portable information terminal such as a smartphone, and an instrument (a so-called self-shooting stick) for pointing the visual support device 100 at a position away from the hand is attached. Alternatively, the visual assistance device 100 may be attached to a flying object (such as a drone) and moved in the air to shoot. By doing so, it may be easy to detect and determine a person or an obstacle.

通知方法として、音声による通知と投影面への画像表示とを組み合わせてもよい。例えば、障害物を検出した場合は警告音を鳴らすとともに投影面に警告の内容を表示する。   As a notification method, voice notification and image display on the projection surface may be combined. For example, when an obstacle is detected, a warning sound is emitted and the content of the warning is displayed on the projection plane.

撮影された画像から状況を特定する方法や認識対象について、上記実施例は一例にすぎない。例えば、物体の種類その他の詳細を特定せずに、何らかの障害物であることのみを生成部120が認識してもよい。
また、取得した画像に映っている範囲の全てを対象物の抽出範囲と設定する必要もない。例えば、画像のうち所定のエリア(例えば、画面中央部(視野の中心部)、画面下半分(地面を中心として視野範囲)、あるいは所定の視野角に対応するエリア)内を、対象物を抽出する範囲と設定することが考えられる。具体的には、視野のうち対象物を検出した位置を条件テーブルT1の通知条件に加えておけばよい。
The above embodiment is merely an example of a method for identifying a situation from a photographed image and a recognition target. For example, the generation unit 120 may recognize only that the object is an obstruction without specifying the type of object or other details.
Further, it is not necessary to set the entire range shown in the acquired image as the object extraction range. For example, an object is extracted from a predetermined area (for example, the center of the screen (the center of the field of view), the lower half of the screen (the field of view around the ground), or the area corresponding to the predetermined field of view)) of the image. It is conceivable to set the range. Specifically, the position where the object is detected in the visual field may be added to the notification condition of the condition table T1.

このように対象物の抽出範囲を絞ることで、画像処理の処理速度が向上し、結果として通知のリアルタイム性が向上する。
また、対象物の抽出範囲をユーザが選択できるようにしてもよい。例えば、動作モードに応じて異なる対象物の抽出範囲を規定しておくことが考えられる。例えば多数の人がいる街中にいる場合、検出した全ての人についての情報を通知するとユーザが混乱してしまう虞があるので、街中に出た場合は画面中心付近(ユーザのほほ真正面)を抽出範囲と設定した動作モードに切替える。このように情報を絞ることによって、少なくとも前方から来る人と正面衝突するという事故が起きる可能性は減り、多数の通知によって混乱することが起きる虞も低くなる。
By narrowing down the object extraction range in this way, the processing speed of image processing is improved, and as a result, the real-time property of notification is improved.
In addition, the user may be allowed to select an extraction range of the object. For example, it may be possible to define different object extraction ranges depending on the operation mode. For example, if you are in a city with many people, you may get confused if you notify the information about all detected people, so if you go out in the city, extract the area near the center of the screen (the front of the user) Switch to range and set operation mode. By narrowing down the information in this way, the possibility of an accident of a frontal collision with a person coming from at least the front is reduced, and the possibility of being confused by a large number of notifications is reduced.

場景を示す情報を取得する方法として、上述した可視光画像に替えてもしくは加えて、音波やミリ波その他の電磁波を用いて検知ないし撮像されたデータに基づいて、場景が反映された画像を取得してもよい。例えば、視覚支援装置100に赤外線カメラやミリ波レーダを設け、夜間の場合は、可視光カメラをオフにして赤外線カメラまたはミリ波レーダを起動し、赤外線カメラまたはミリ波レーダによって測定されたデータを画像化する。   As a method of acquiring information indicating a scene, an image reflecting the scene is acquired based on data detected or imaged using sound waves, millimeter waves, or other electromagnetic waves instead of or in addition to the visible light image described above. May be. For example, the visual support device 100 is provided with an infrared camera or millimeter wave radar, and at night, the visible light camera is turned off and the infrared camera or millimeter wave radar is activated, and data measured by the infrared camera or millimeter wave radar is obtained. Make an image.

<実施例2>
ある位置において視覚支援装置100のユーザが実際に遭遇した場景に関する情報であ
って、他のユーザにとってその位置において視覚の支援となる情報(一例としては、各ユーザに通知を行った通知事実やその通知の内容自体)を、複数のユーザで共有してもよい。具体的には、図8に示すように、複数の視覚支援装置100(100-1、100-2、100-3)とサーバ300とを900を介して接続する。
<Example 2>
Information related to the scene that the user of the visual assistance device 100 actually encountered at a certain position, which is information that assists other users with visual assistance at that position (for example, notification facts that have been notified to each user and its information The notification content itself may be shared by a plurality of users. Specifically, as shown in FIG. 8, a plurality of visual assistance devices 100 (100-1, 100-2, 100-3) and a server 300 are connected via 900.

サーバ300は、汎用のサーバであって、記憶部310と通信部320と制御部330を含む。記憶部310はハードディスク等の記憶装置であって、サーバ300の制御プログラムのほか、後述する、視覚支援装置100から収集した共有情報を記憶する。通信部320は、インターネット900を介して各視覚支援装置100と情報の授受を行うためのネットワークインタフェースである。制御部330はプロセッサであって、サーバ300を制御する。   The server 300 is a general-purpose server and includes a storage unit 310, a communication unit 320, and a control unit 330. The storage unit 310 is a storage device such as a hard disk, and stores shared information collected from the vision support device 100, which will be described later, in addition to the control program of the server 300. The communication unit 320 is a network interface for exchanging information with each vision support apparatus 100 via the Internet 900. The control unit 330 is a processor and controls the server 300.

生成部120は、生成された支援情報を通知部140に供給するとともに、当該支援情報他のユーザとの間で共有すべきかを判定する。生成部120は、共有すべきであると判定した支援情報については、該生成された支援情報に基づいて共有情報を生成する。   The generation unit 120 supplies the generated support information to the notification unit 140 and determines whether the support information should be shared with other users. For the support information determined to be shared, the generation unit 120 generates shared information based on the generated support information.

共有情報は、支援情報に基づいて生成されるのではなく、ユーザが内容を決定し、視覚支援装置100に入力してもよい。具体的には、通知を行われたときあるいはユーザによる所定の操作が行われことを契機として、音声入力部160によって録音が開始され、所定の期間内になされたユーザの発話を取得する。生成部120は取得した発話データに対してテキストデータ化するなどの加工処理を施し、サーバ300へ送信する。なお、生成部120は、通知をした際あるいはユーザが所定の行動や発話を行ったことを検出した場合に、「いまの情報を投稿しますか?」といった音声メッセージを通知部140を介して通知して、ユーザに情報の投稿を促すまたは確認を求めるというプロセスを実行してもよい。   The shared information is not generated based on the support information, but may be determined by the user and input to the visual support device 100. Specifically, recording is started by the voice input unit 160 when notification is given or when a predetermined operation is performed by the user, and the user's utterance made within a predetermined period is acquired. The generation unit 120 performs processing such as converting the acquired speech data into text data, and transmits the text data to the server 300. The generation unit 120 sends a voice message such as “Do you want to post the current information?” Via the notification unit 140 when the notification is made or when it is detected that the user has performed a predetermined action or utterance. Notification may be performed to prompt the user to post information or ask for confirmation.

また、共有情報の投稿タイミングに関し、支援情報の通知の受信の有無および通知を受けた位置やタイミングとは関係なく、ユーザが共有すべき情報と考える情報については、任意のタイミングや場所にて受付けてもよい。この場合、共有情報に対応付けるべき位置情報についてもユーザが入力する。ここで、現在の視覚支援装置100の位置とは異なる位置に関する共有情報を入力したい場合は、ユーザは、例えば視覚支援装置100において地図情報の表示や検索するアプリを実行し、地図上の位置を指定することで、該指定された位置に対応する座標を当該アプリから取得する。
生成された共有情報は、位置特定部190にて特定されたそのときの位置とともに、通信部211の機能を用いて、サーバ300へ送信される。
In addition, regarding the posting timing of shared information, regardless of whether or not support information notification is received and the position and timing at which the notification is received, information that is considered to be shared by the user is accepted at any timing or location. May be. In this case, the user inputs position information to be associated with the shared information. Here, when it is desired to input shared information related to a position different from the current position of the visual assistance device 100, the user executes an application for displaying or searching for map information in the visual assistance device 100, for example, and sets the position on the map. By designating, the coordinates corresponding to the designated position are acquired from the application.
The generated shared information is transmitted to the server 300 using the function of the communication unit 211 together with the current position specified by the position specifying unit 190.

図9は、各視覚支援装置100によって登録され、記憶部310に記憶された共有情報テーブルT4の例である。共有情報テーブルT4は、位置情報に対応付けて共有情報が記憶される。位置情報は、緯度経度等の座標形式、行政によって定められる住所の形式、建物のランドマーク情報を用いて記述されてもよい。要するに、位置情報は、視覚支援装置100において、自端末の位置が、位置情報に記憶された位置に相当する位置であるか否かが決定できる形式であればよい。   FIG. 9 is an example of the shared information table T4 registered by each vision support device 100 and stored in the storage unit 310. The shared information table T4 stores shared information in association with the position information. The position information may be described using a coordinate format such as latitude and longitude, an address format determined by the government, and building landmark information. In short, the position information may be in a format that allows the visual support device 100 to determine whether or not the position of the terminal itself is a position corresponding to the position stored in the position information.

共有情報は、障害物の存在や、その障害物の危険性の程度(登録ユーザの主観的情報でも構わない)その他の詳細な情報、障害物に対する対処行動について記述される。条件テーブルT1などを用いて視覚支援装置100が検知できる情報よりも詳細な情報であることが好ましい。例えば、撮像部110による画像解析によって段差が存在することは検知できても、その段差がどの程度危険なものなのか、あるいはどのように行動すればよいのか(迂回すればいいのか、注意して乗り越えるべきなのかなど)についてまでは判定することは困難なことも多いが、他人の実体験に基づく情報を通知することで、よりきめ細か
な支援が可能となる。
The shared information describes the presence of an obstacle, the degree of danger of the obstacle (may be subjective information of the registered user), and other detailed information, and the coping action for the obstacle. It is preferable that the information is more detailed than information that can be detected by the visual assistance device 100 using the condition table T1 or the like. For example, even if it can be detected that there is a step by image analysis by the imaging unit 110, how dangerous the step is, or how to act (be careful about how to detour) It is often difficult to determine whether it should be overcome), but more detailed support is possible by notifying information based on the actual experience of others.

視覚支援装置100は、定期的にまたは視覚支援装置100の位置の変化が所定の基準を満たすと、視覚支援装置100の現在位置をキーとしてサーバ300に照会し、現在位置に対応する共有情報が格納されていないかを確認し、そのような共有情報が格納されている場合はサーバ300から取得する。視覚支援装置100は、取得した共有情報に基づく情報を、音声、文字、および画像の少なくともいずれかの方法でユーザに通知する。ここで、支援情報に危険性の程度に関する情報が含まれている場合は、危険性の程度に応じて表示態様を異ならせてもよい。
なお、共有情報のユーザへの通知のタイミングは、上述した支援情報と別途独立に行ってもよいし、常に支援情報とあわせて通知してもよい。共有情報の通知は支援情報の通知を前提とする場合、支援情報および共有情報に応じて、通知の内容、タイミング、態様を決定してもよい。例えば、その位置においてその支援情報に関連する共有情報が存在した場合に当該支援情報の優先度を上げて通知してもよいし、他の通知すべき支援情報よりも目立つ態様で、通知してもよい。
The visual assistance device 100 makes an inquiry to the server 300 using the current position of the visual assistance device 100 as a key periodically or when the change in the position of the visual assistance device 100 satisfies a predetermined criterion, and shared information corresponding to the current position is obtained. It is confirmed whether it is stored, and if such shared information is stored, it is obtained from the server 300. The visual assistance device 100 notifies the user of information based on the acquired shared information by at least one of voice, text, and image. Here, when the support information includes information on the degree of danger, the display mode may be varied depending on the degree of danger.
Note that the notification timing of the shared information to the user may be performed separately from the above-described support information, or may be notified together with the support information at all times. When notification of shared information is based on notification of support information, the content, timing, and mode of notification may be determined according to the support information and the shared information. For example, when there is shared information related to the support information at that position, the priority of the support information may be raised and notified in a manner that stands out from the other support information to be notified. Also good.

ここで、共有すべき情報は、実行された全ての通知であってもよいし、そのうちの一部であってもよい。共有すべきか否かの判定は、各視覚支援装置100にて行われてもよいし、サーバ300にて行われてもよい。視覚支援装置100にて共有すべきか否かの判定を行う場合、例えば、その通知の優先度が所定値以上である情報のみを共有対象とする。あるいは、情報が通知されたユーザに対し、その情報を共有するかどうかを決定させてもよい。
サーバ300にて共有すべきか否かの判定を行う場合、信頼性担保の観点から、例えば同一ないし関連する情報については所定数以上の視覚支援装置100からの登録があった場合に、共有情報テーブルT4に登録する。また、同一または実質的同一の位置に関連付けれた複数の共有情報を取得した場合、サーバ300は取得した共有情報を編集するあるいは取得したタイミングを用いて、情報の上書きその他の加工編集処理を行ってもよい。また、加工編集の内容、ある位置に対応して受信した共有情報の数、タイミング、頻度等に基づいて、ユーザに通知する内容を変化させてもよい。このように、投稿された情報や投稿者の属性に基づいて、ユーザへ通知される共有情報の内容は動的に変化し得る。
また、共有すべき情報は、ユーザが移動する際における安全性ないし危険性に関係するものである必要は必ずしもなく、場景に対するユーザの感想や印象などの主観的情報を含んでいてもよい。要するに、ある位置における場景に関する場景情報であればよい。換言すると、共有情報は他のユーザによって投稿されたアクティブ・フットプリント(足跡)情報である。
Here, the information to be shared may be all the notifications that have been executed or a part of them. The determination as to whether or not to share may be performed by each visual assistance device 100 or may be performed by the server 300. When the visual support device 100 determines whether or not to share, for example, only information whose notification priority is equal to or higher than a predetermined value is set as a sharing target. Alternatively, the user who is notified of the information may determine whether to share the information.
When determining whether or not to be shared by the server 300, from the viewpoint of ensuring reliability, for example, when there is registration from a predetermined number or more of visual support devices 100 for the same or related information, the shared information table Register at T4. In addition, when a plurality of pieces of shared information associated with the same or substantially the same position are acquired, the server 300 edits the acquired shared information or uses the acquired timing to perform information overwriting or other processing editing processing. May be. Further, the content notified to the user may be changed based on the content of the processing edit, the number of shared information received corresponding to a certain position, timing, frequency, and the like. As described above, the content of the shared information notified to the user can dynamically change based on the posted information and the attribute of the poster.
In addition, the information to be shared does not necessarily have to be related to safety or danger when the user moves, and may include subjective information such as the user's impression and impression of the scene. In short, it may be scene information regarding the scene at a certain position. In other words, the shared information is active footprint information posted by other users.

要するに、各視覚支援装置100は、視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報をサーバ300へ送信する送信部と、サーバ300から、視覚支援装置の位置に対応する前記情報を受信する受信部を備え、サーバ300は、第1の視覚支援装置から、当該第1の視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報を収集する受信部と、第2の視覚支援装置の位置に対応する前記情報を、当該第2の視覚支援装置へ送信する送信部とを有していればよい。   In short, each visual assistance device 100 encounters a user of the visual assistance device at a certain position, and transmits information for assisting the visual recognition of other users at the position to the server 300, and the visual information from the server 300. The server 300 includes a receiving unit that receives the information corresponding to the position of the support device, and the server 300 encounters a user of the first visual support device from a first visual support device at another position, and receives another information at the position. If it has a receiving unit that collects information for assisting the user's visual recognition and a transmission unit that transmits the information corresponding to the position of the second visual assistance device to the second visual assistance device Good.

図10は、本実施例に係る動作例を示す。この例では、視覚支援装置100−1において、支援情報の通知を受けたことを契機として共有情報の登録を実行し、視覚支援装置100−2において、支援情報の通知とは別途独立に、よる共有情報の通知を実行する。   FIG. 10 shows an operation example according to the present embodiment. In this example, the visual support device 100-1 executes registration of shared information upon receiving the support information notification, and the visual support device 100-2 is independent from the support information notification. Execute sharing information notification.

通知部140にて通知が実行された場合(S530)、生成部120は、当該通知された情報に関連した情報を共有情報として登録すべきかを判定する(S601)。登録すべ
きでないと判定した場合、特段処理は行わない。登録すべきと判定した場合、通知した内容と位置情報とをセットにして、登録要求をサーバ300へ送信する(S602)。
サーバ300は、登録要求を受信すると(S603)、共有情報テーブルT4にレコードを追加する。なお、登録要求に係る共有情報と同等の情報が既に登録されていると判断した場合は、その情報が新たに投稿されたという情報のみを記憶してもよい。
When the notification is executed by the notification unit 140 (S530), the generation unit 120 determines whether information related to the notified information should be registered as shared information (S601). If it is determined that it should not be registered, no special processing is performed. When it is determined that registration is to be performed, the notified content and position information are set as a set, and a registration request is transmitted to the server 300 (S602).
When receiving the registration request (S603), the server 300 adds a record to the shared information table T4. When it is determined that information equivalent to the shared information related to the registration request has already been registered, only information that the information has been newly posted may be stored.

視覚支援装置100−2は、定期的に自端末の位置情報をサーバ300へ通知し、現在位置に対応する共有情報がないかを照会する(S604)。現在位置に対応するとは、例えば、共有情報に紐付けられている位置情報が視覚支援装置100−2の現在位置から所定の距離内にある場所を示している場合である。照会を受けた共有情報が存在する場合、サーバ300はその共有情報を視覚支援装置100−2へ送信する(S605)。共有情報を受信した視覚支援装置100−2は、その共有情報を位置に視覚支援装置100−2が位置しているかを判定し、位置していた場合は、該受信した共有情報に基づく情報を生成して、視覚支援装置100−2のユーザへ通知する(S606)。   The visual assistance device 100-2 periodically notifies the server 300 of the position information of the terminal itself, and inquires whether there is shared information corresponding to the current position (S604). Corresponding to the current position is, for example, a case where the position information associated with the shared information indicates a place within a predetermined distance from the current position of the visual assistance device 100-2. If there is shared information that has been inquired, the server 300 transmits the shared information to the vision support apparatus 100-2 (S605). The visual assistance device 100-2 that has received the shared information determines whether the visual assistance device 100-2 is located at the shared information. If the shared information is located, the visual assistance device 100-2 receives the information based on the received shared information. It produces | generates and notifies to the user of the visual assistance apparatus 100-2 (S606).

共有情報に基づく情報とは、共有情報そのものであってもよいし、支援情報を通知している(またはこれから通知しようとしている)場合は、その支援情報と共有情報とに基づいて生成される新たな情報である。あるいは、記憶部130に記憶されているユーザ属性と共有情報とに基づいて情報が生成されてもよい。例えば、共有情報には、段差が存在し、足の不自由なユーザにとっての危険度は「大」という情報が含まれていた場合において、視覚支援装置100−2のユーザの属性に、足が不自由であるという情報が含まれていた場合は、危険な障害物であることが伝わるように、通知の優先度や警告の程度等を決定する。   The information based on the shared information may be the shared information itself, or if the support information has been notified (or is about to be notified), a new information generated based on the support information and the shared information Information. Alternatively, information may be generated based on user attributes and shared information stored in the storage unit 130. For example, when the shared information includes information that there is a step and the risk level for a user with limited mobility is “large”, the user attribute of the visual assistance device 100-2 includes If the information indicating that it is inconvenient is included, the priority of notification, the degree of warning, etc. are determined so that it is transmitted as a dangerous obstacle.

上述したナビゲーションモードにおいて、共有情報が存在する場合、案内情報に共有情報を含ませてもよい。例えば、ナビゲーションモードに設定して、出発する前に目的地をユーザが音声入力すると、視覚支援装置100は、当該目的地までの経路を全体の経路についての情報であって、当該経路上にあるもしくは当該経路に近接する位置に関連付けられた共有情報をサーバ300から取得し、音声によってユーザに提示する。例えば、「家を出て左方向に約100メートル直進した所で信号を左折し、500メートル行った所で駅の階段を上ります。この階段にはフットプリント(共有情報)が有ります。その内容は、縁が滑りやすいから注意」というものです。このように、共有情報を用いて、目的地までの経路や場景についてのイメージを膨らませてもらうことで、視覚が不自由なユーザに対して安心感を与えることができる。   In the navigation mode described above, when shared information exists, the shared information may be included in the guidance information. For example, when the user sets the navigation mode and the user inputs a destination voice before departure, the visual assistance device 100 is the information about the entire route to the destination and is on the route. Alternatively, shared information associated with a position close to the route is acquired from the server 300 and presented to the user by voice. For example, “Leave the house, go straight about 100 meters to the left, turn left at the traffic light, and go up the station stairs after 500 meters. This stairs has a footprint (shared information). The content is "Because the edges are slippery". As described above, by using the shared information to inflate the image about the route to the destination and the scene, it is possible to give a sense of security to visually impaired users.

要するに、本発明に係る情報処理装置において、ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件を記憶しておき、前記ユーザが視認している場景を表す画像データを取得するステップと、該取得された画像データと前記条件とに基づいて支援情報を生成するステップと、該生成された支援情報を通知するステップが実行されればよい。上記各ステップを実行するプログラムは情報処理装置に予め記憶されていてもよいし、ネットワークを介してダウンロードされてもよい。   In short, in the information processing apparatus according to the present invention, conditions specific to the user regarding the notification of the support information for supporting the user's visual recognition are stored, and image data representing the scene being visually recognized by the user is stored. The step of acquiring, the step of generating support information based on the acquired image data and the condition, and the step of notifying the generated support information may be executed. A program for executing the above steps may be stored in advance in the information processing apparatus, or may be downloaded via a network.

100、100−1、100−2、100−3・・・視覚支援装置、20・・・フレーム、21・・・投影装置、22・・・カメラ、23・・・投影面、24・・・マイク、25・・・スピーカ、26・・・スイッチ、140・・・通知部、150・・・反応取得部、160・・・音声入力部、120・・・生成部、170・・・モード切替部、130・・・記憶部、110・・・撮像部、180・・・計時部、190・・・位置特定部、201・・・プロセッサ、202・・・メモリ、204・・・マイク、205・・・操作スイッチ、206・・・センサ、207・・・計時装置、208・・・投影装置、210・・・
振動モータ、211・・・通信部、212・・・位置取得部、141・・・音声出力部、142・・・表示部、143・・・振動発生部、300・・・サーバ、310・・・記憶部、320・・・通信部、330・・・制御部、T1・・・条件テーブル、T2・・・補正テーブル、T3・・・ユーザ固有情報、OB・・・対象物、T4・・・共有情報テーブル
100, 100-1, 100-2, 100-3 ... Vision support device, 20 ... Frame, 21 ... Projection device, 22 ... Camera, 23 ... Projection plane, 24 ... Microphone, 25 ... speaker, 26 ... switch, 140 ... notification unit, 150 ... reaction acquisition unit, 160 ... voice input unit, 120 ... generation unit, 170 ... mode switching , 130 ... storage unit, 110 ... imaging unit, 180 ... timing unit, 190 ... position specifying unit, 201 ... processor, 202 ... memory, 204 ... microphone, 205 ... Operation switch, 206 ... Sensor, 207 ... Time measuring device, 208 ... Projection device, 210 ...
Vibration motor, 211 ... communication unit, 212 ... position acquisition unit, 141 ... sound output unit, 142 ... display unit, 143 ... vibration generation unit, 300 ... server, 310 ... Storage unit 320 ... Communication unit 330 ... Control unit T1 ... Condition table T2 ... Correction table T3 ... User-specific information OB ... Object, T4 -Shared information table

Claims (13)

ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得する手段と
を備え、
前記生成部は、前記取得したリアクション情報にさらに基づいて、前記支援情報を生成する
視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for obtaining reaction information representing a reaction of the user made to the notification of the support information;
With
The generation unit is a visual support device that generates the support information based on the acquired reaction information .
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
現在時刻を取得する手段と
を備え、
前記条件は通知のタイミングに関する情報を用いて規定される、
視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means to get the current time
With
The condition is defined using information about the timing of notification,
Visual support device.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
自装置の位置を取得する手段と
を備え、
前記条件は、前記ユーザの位置に関する情報を用いて規定される、
視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for acquiring the position of the own device;
With
The condition is defined using information about the user's location,
Visual support device.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
前記ユーザの滞在時間を取得する手段と
を備え、
前記条件は、滞在時間に関する情報を用いて規定される、
視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for obtaining a stay time of the user;
With
The condition is defined using information on stay time,
Visual support device.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
前記ユーザの行動を特定する手段と
を備え、
前記条件は、前記ユーザの行動に関する情報を用いて規定される、
視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information ;
Means for identifying the user's behavior;
With
The condition is defined using information about the user's behavior,
Visual support device.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
を備え、
前記条件は、前記ユーザの身体能力に関する情報を用いて規定される、
の視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information;
With
The condition is defined using information on the physical ability of the user.
Visual support device.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶される記憶部と、
前記ユーザが視認している場景を表す画像データを取得する撮像部と、
前記撮像部にて取得された画像データと前記条件とに基づいて、支援情報を生成する生成部と、
該生成された支援情報を前記ユーザに通知する通知部と
前記ユーザによる前記条件の切替えを受付ける切替部と
を備える視覚支援装置。
A storage unit for storing conditions unique to the user regarding notification of support information for supporting the user's visual recognition;
An imaging unit that acquires image data representing a scene that the user is viewing;
A generating unit that generates support information based on the image data acquired by the imaging unit and the condition;
A notification unit for notifying the user of the generated support information;
A switching unit for accepting switching of the condition by the user;
A visual support device comprising:
前記生成部は、前記画像データから検出された複数の対象物のなかから、前記条件に基づいて1以上の対象物を選択し、該選択された1以上の対象物に関する情報を生成する、
請求項1ないし7のいずれか一項に記載の視覚支援装置。
The generating unit selects one or more objects based on the condition from a plurality of objects detected from the image data, and generates information on the selected one or more objects.
The visual assistance device according to claim 1.
前記生成部は、前記撮像部にて取得された画像データに含まれる対象物のうち、前記条件に対応する種類の対象物を表す支援情報を生成する、
請求項に記載の視覚支援装置。
The generation unit generates support information representing an object of a type corresponding to the condition among objects included in the image data acquired by the imaging unit.
The visual assistance device according to claim 8 .
前記記憶部には人物に関する人物情報が登録され、
前記通知部は、前記画像データにおいて人物が検出された場合に、当該人物情報に基づいて前記支援情報を決定する、
請求項1ないしのいずれか一項に記載の視覚支援装置。
Person information about a person is registered in the storage unit,
The notification unit determines the support information based on the person information when a person is detected in the image data;
Vision assistance device according to any one of claims 1 to 9.
位置および当該位置の場景に関する場景情報をサーバへ送信する送信部と、
前記サーバから、前記視覚支援装置の位置に応じた場景情報を受信する受信部と、
を更に備え、
前記通知部は、該受信した場景情報に基づいてユーザに通知を行う
請求項1〜10のいずれか一項に記載の視覚支援装置。
A transmission unit that transmits to the server the scene information about the position and the scene of the position;
A receiving unit that receives scene information according to the position of the visual assistance device from the server;
Further comprising
The notification unit vision assistance device according to any one of claims 1 to 10 for notifying the user based on the received Jokei information.
ユーザの視認を支援するための支援情報の通知に関する、当該ユーザに固有の条件が記憶されたコンピュータに、
前記ユーザが視認している場景を表す画像データを取得するステップと、
該取得された画像データと前記条件とに基づいて、支援情報を生成するステップと
該生成された支援情報を前記ユーザに通知するステップと、
前記支援情報の通知に対してなされた前記ユーザの反応を表すリアクション情報を取得するステップと
を実行させるためのプログラムであって、
前記支援情報を生成するステップにおいて、前記取得したリアクション情報がさらに用いられる、
プログラム。
A computer storing conditions specific to the user regarding notification of support information for supporting the user's visual recognition,
Obtaining image data representing a scene viewed by the user;
Generating support information based on the acquired image data and the condition; notifying the user of the generated support information ;
A step of acquiring reaction information representing a reaction of the user made in response to the notification of the support information ,
In the step of generating the support information, the acquired reaction information is further used.
program.
各々異なるユーザによって使用される、請求項1〜11のいずれか一項に記載の、第1の視覚支援装置および第2の視覚支援装置と、
前記第1の視覚支援装置から、当該第1の視覚支援装置のユーザがある位置において遭遇し、当該位置において他のユーザの視認を支援するための情報を収集する受信部と、
前記第2の視覚支援装置の位置に対応する前記情報を、当該第2の視覚支援装置へ送信する送信部と
を有するサーバと
を備える視覚支援システム
The first visual assistance device and the second visual assistance device according to any one of claims 1 to 11, each used by a different user;
A receiving unit that collects information from the first visual assistance device that the user of the first visual assistance device encounters at a certain position and assists the visual recognition of another user at the position;
Vision assistance system comprising the information corresponding to the position of the second vision assistance device, a server and a transmission unit for transmitting to the second vision assistance device.
JP2018036321A 2018-03-01 2018-03-01 Visual support device Active JP6500139B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018036321A JP6500139B1 (en) 2018-03-01 2018-03-01 Visual support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036321A JP6500139B1 (en) 2018-03-01 2018-03-01 Visual support device

Publications (2)

Publication Number Publication Date
JP6500139B1 true JP6500139B1 (en) 2019-04-10
JP2019152953A JP2019152953A (en) 2019-09-12

Family

ID=66092571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036321A Active JP6500139B1 (en) 2018-03-01 2018-03-01 Visual support device

Country Status (1)

Country Link
JP (1) JP6500139B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259332B1 (en) * 2019-09-06 2021-06-01 인하대학교 산학협력단 Object detection and guidance system for people with visual impairment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6973869B2 (en) * 2020-02-07 2021-12-01 Necプラットフォームズ株式会社 Guidance system, guidance method, program
JP7480627B2 (en) * 2020-08-03 2024-05-10 オムロン株式会社 COMMUNICATION SUPPORT DEVICE, COMMUNICATION SUPPORT METHOD, AND PROGRAM

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319288A (en) * 2000-05-10 2001-11-16 Isamu Miya System for supporting visually handicapped person
GB201103200D0 (en) * 2011-02-24 2011-04-13 Isis Innovation An optical device for the visually impaired
JP2015005166A (en) * 2013-06-21 2015-01-08 株式会社Nttドコモ Carried-around item, information gathering system, and information gathering method
JP2016111393A (en) * 2014-12-02 2016-06-20 ソニー株式会社 Information processing device, information processing method, and computer program
JP6528263B2 (en) * 2015-01-27 2019-06-12 国立大学法人 名古屋工業大学 Head mounted display
JP6011833B1 (en) * 2015-09-14 2016-10-19 パナソニックIpマネジメント株式会社 Wearable camera system and person notification method
JP6585543B2 (en) * 2016-04-26 2019-10-02 トヨタ自動車株式会社 Driver visual information providing device and vehicle driving support system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259332B1 (en) * 2019-09-06 2021-06-01 인하대학교 산학협력단 Object detection and guidance system for people with visual impairment

Also Published As

Publication number Publication date
JP2019152953A (en) 2019-09-12

Similar Documents

Publication Publication Date Title
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
US10248856B2 (en) Smart necklace with stereo vision and onboard processing
US20180172464A1 (en) In-vehicle device and route information presentation system
Manduchi et al. (Computer) vision without sight
EP2842529A1 (en) Audio rendering system categorising geospatial objects
US20120062357A1 (en) Remote guidance system
US20130002452A1 (en) Light-weight, portable, and wireless navigator for determining when a user who is visually-impaired and/or poorly-oriented can safely cross a street, with or without a traffic light, and know his/her exact location at any given time, and given correct and detailed guidance for translocation
CN109646258A (en) A kind of blind-guiding stick, blind guiding system and blind-guiding method
JP6500139B1 (en) Visual support device
US10062302B2 (en) Vision-assist systems for orientation and mobility training
WO2016181670A1 (en) Information processing device, information processing method, and program
JP2005037181A (en) Navigation device, server, navigation system, and navigation method
JP2003050559A (en) Autonomously movable robot
KR101684264B1 (en) Method and program for the alarm of bus arriving by wearable glass device
WO2020188626A1 (en) Vision assistance device
KR101847764B1 (en) Information gathering system for the visually impaired
CN113678141A (en) Stereophonic device for blind and visually impaired persons
KR20190023017A (en) A navigation system for visually impaired person and method for navigating using the same
JP2014020788A (en) Navigation system
Kandoth et al. Dhrishti: a visual aiding system for outdoor environment
JP6559096B2 (en) Information output system and information output method
EP3882894B1 (en) Seeing aid for a visually impaired individual
KR20160053472A (en) System, method and application for confirmation of identity by wearable glass device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180427

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R150 Certificate of patent or registration of utility model

Ref document number: 6500139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250