JP2002065721A - Device and method for supporting environmental recognition for visually handicapped - Google Patents

Device and method for supporting environmental recognition for visually handicapped

Info

Publication number
JP2002065721A
JP2002065721A JP2000259795A JP2000259795A JP2002065721A JP 2002065721 A JP2002065721 A JP 2002065721A JP 2000259795 A JP2000259795 A JP 2000259795A JP 2000259795 A JP2000259795 A JP 2000259795A JP 2002065721 A JP2002065721 A JP 2002065721A
Authority
JP
Japan
Prior art keywords
user
sound
height
stereo
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000259795A
Other languages
Japanese (ja)
Inventor
Hiroyoshi Yamaguchi
博義 山口
Hiroshi Miwa
浩史 三輪
Hideyuki Wakai
秀之 若井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2000259795A priority Critical patent/JP2002065721A/en
Publication of JP2002065721A publication Critical patent/JP2002065721A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To securely inform a visually handicapped of distances to, movement of, etc., various objects existing everywhere in a space spreading three- dimensionally. SOLUTION: A space in front of a user is photographed by a multiple-lens stereo camera 20 mounted on the forehead of the user. A data processor 30 receives the photographed picture, calculates the three-dimensional positions (distance picture) of the objects in the space in front of the user, identifies the objects as the ground surface or various kinds of obstacles on the basis of the distance picture and drives a tactile display device 40 which the user touches with his/her hand and a stereo headphone 50 mounted on both ears of the user by using the result of identification. The device 40 forms a recessed/ projecting picture expressing the position/height of the ground surface or obstacles by many pins 41 which are freely movable back and forth and arranged on a display surface. A stereo headphone 50 generates stereo acoustic which informs the user of the direction and the distance of the ground surface or obstacles with respect to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、視覚障害者が周囲
の環境(例えば、障害物の存在や地面の凹凸など)を認
識することを助けるための装置に関わる。本発明の装置
の用途は、主に視覚障害者の支援であるが、それだけに
限られるわけではない。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for assisting a visually impaired person in recognizing a surrounding environment (for example, the presence of an obstacle or unevenness on the ground). The application of the device of the invention is mainly, but not exclusively, for assisting the visually impaired.

【0002】[0002]

【従来の技術】従来のこの種の装置として、特開平1−
97457号及び特開平7−116208号に記載のも
のがある。特開平1−97457号に記載された装置
は、CCDカメラと触覚表示装置とを組み合わせたもの
である。CCDカメラは、ユーザの前方を撮影して、画
素単位の光強度を表した電気信号を触覚表示装置に出力
する。触覚表示装置は、各画素に対応して2次元配置さ
れた多数の進退自在なピンを表示面に備えたものであ
り、CCDカメラからの各画素の電気信号で各ピンの突
出量を調節することにより、CCDカメラが撮影した画
像の明暗を表した凹凸模様を表示面に形成する。この凹
凸模様をユーザが触ることで、ユーザは自分の前方の様
子を触覚的に認識することができる。
2. Description of the Related Art A conventional apparatus of this type is disclosed in
97457 and JP-A-7-116208. The device described in JP-A-1-97457 is a combination of a CCD camera and a tactile display device. The CCD camera captures an image of the front of the user and outputs an electric signal representing the light intensity of each pixel to the tactile display device. The tactile display device is provided with a large number of movable pins which are two-dimensionally arranged on the display surface corresponding to each pixel, and adjusts the amount of protrusion of each pin by an electric signal of each pixel from the CCD camera. As a result, a concavo-convex pattern representing the brightness of the image captured by the CCD camera is formed on the display surface. When the user touches the uneven pattern, the user can tactilely recognize the state in front of the user.

【0003】特開平7−116208号に記載された装
置は、測距・測温装置と刺激装置とを組み合わせたもの
である。測距装置は、ユーザの位置から一つの指向方向
へ赤外光を発射し、その指向方向に存在する物体からの
反射光を受光して、その受光位置よりその物体までの距
離を測定し、また、物体からの受光した光の波長成分よ
りその物体の温度を測定する。そして、測定された物体
の距離と温度から、物体の危険度が算出される。刺激装
置は、2本かその程度の本数の進退自在なピンを有し、
物体の危険度に応じてピンを突出させることで、物体の
危険度に応じた刺激をユーザに与える。色々な方向の物
体を検出する場合には、測距・測温装置の指向方向は手
動又は自動で変化させられる。例えば、歩行中に足元か
ら遠く前方へと指向方向を変化させていくことで、歩行
方向の近くから遠くまでの物体を検出することができ
る。
The device described in Japanese Patent Application Laid-Open No. Hei 7-116208 is a combination of a distance measuring / temperature measuring device and a stimulating device. The distance measuring device emits infrared light from the position of the user in one directional direction, receives reflected light from an object existing in the directional direction, measures the distance from the light receiving position to the object, Further, the temperature of the object is measured from the wavelength component of the light received from the object. Then, the risk of the object is calculated from the measured distance and temperature of the object. The stimulator has two or so many retractable pins,
By protruding the pin according to the risk of the object, a stimulus corresponding to the risk of the object is given to the user. When detecting objects in various directions, the pointing direction of the distance measuring / temperature measuring device can be changed manually or automatically. For example, an object from near to far in the walking direction can be detected by changing the pointing direction far from the step forward while walking.

【0004】[0004]

【発明が解決しようとする課題】特開平1−97457
号の装置によれば、ユーザは自分の前方をカメラで撮影
した2次元画像を、触覚表示装置の凹凸模様を通じて認
識することができる。しかし、この2次元画像は、カメ
ラの視界に入った様々な物体の明暗を表したものであっ
て、物体までの距離を表したものではない。そのため、
この2次元画像は、ユーザにとって、歩行の安全性など
を判断するのには余り役立たない。
Problems to be Solved by the Invention
According to the device of No. 2, the user can recognize a two-dimensional image obtained by photographing the front of the user with the camera through the uneven pattern of the tactile display device. However, this two-dimensional image represents the brightness of various objects within the field of view of the camera, and does not represent the distance to the objects. for that reason,
This two-dimensional image is not very useful for the user in determining walking safety and the like.

【0005】一方、特開平7−116208号の装置
は、ある指向方向に存在する物体の距離を測定して、そ
の距離に応じた刺激をユーザに与える。それにより、ユ
ーザは、指向方向の安全性を判断することができる。し
かし、この装置が一時に検出できるものは、一つの指向
方向に存在する物体までの距離である。つまり、この装
置は、一つの指向方向に存在する物体の「一点」までの
距離を検出してユーザに教えるだけであり、ユーザ前方
に広がる3次元の空間領域の随所に存在する様々な障害
物(例えば、足元の石ころ、前方の階段、左側の壁、右
方を行く人など)の位置を一時に検出してユーザに教え
るということができない。そのため、ユーザは、歩行の
安全性の判断に必要な領域全体の状況の把握に苦労す
る。また、このこと故に、物体が移動している場合に、
その移動の状況(例えば、右手から正面を横切ろうとし
ているなど)を的確に把握することもユーザにとって難
しい。
On the other hand, the device disclosed in Japanese Patent Application Laid-Open No. Hei 7-116208 measures the distance of an object existing in a certain directional direction, and gives a stimulus to the user according to the distance. Thereby, the user can determine the security of the pointing direction. However, what this device can detect at one time is the distance to an object existing in one direction. In other words, this device only detects the distance to an "one point" of an object existing in one direction and informs the user of the distance, and various obstacles existing everywhere in a three-dimensional spatial region extending in front of the user. It is not possible to detect the position of a stone (eg, a stone at the foot, a stair in front, a wall on the left side, a person going to the right, etc.) at a time and teach the user. For this reason, the user has difficulty grasping the situation of the entire area necessary for determining the safety of walking. Also, because of this, if the object is moving,
It is also difficult for the user to accurately grasp the state of the movement (for example, trying to cross the front from the right hand).

【0006】従って、本発明の目的は、3次元的広がり
をもった空間領域の随所に存在する様々な物体の距離や
動きなどをユーザに的確に知らせることができる装置を
提供することにある。
Accordingly, it is an object of the present invention to provide an apparatus capable of accurately informing a user of distances, movements, and the like of various objects existing everywhere in a spatial region having a three-dimensional spread.

【0007】[0007]

【課題を解決するための手段】本発明に従う視覚障害者
用環境認識支援装置は、ユーザの前方に広がる3次元空
間を監視する空間監視手段と、空間監視手段の出力信号
を用いて、上記3次元空間内で物体が占めている物体領
域の3次元座標を計算する計算手段と、計算手段によっ
て計算された前記物体領域の3次元座標に応じた触覚刺
激又は音響を発生するための駆動信号を出力する駆動手
段と、駆動手段から駆動信号を受けて触覚刺激又は音響
を発生する通知手段とを備える。
An environment recognition support apparatus for a visually impaired person according to the present invention uses a space monitoring means for monitoring a three-dimensional space extending in front of a user and an output signal of the space monitoring means. Calculating means for calculating three-dimensional coordinates of an object area occupied by the object in the three-dimensional space; and a drive signal for generating a tactile stimulus or sound corresponding to the three-dimensional coordinates of the object area calculated by the calculating means. A driving unit that outputs the signal; and a notifying unit that receives a driving signal from the driving unit and generates a tactile stimulus or a sound.

【0008】この視覚障害者用環境認識支援装置は、ユ
ーザの前方に広がる3次元空間を監視して、その3次元
空間内で物体が占めている物体領域の3次元座標を計算
し、その物体領域の3次元座標に応じた触覚刺激又は音
響をユーザに提供する。従来のようにユーザから見て一
つの指向方向に存在する「一点」としての物体を検出す
るのではなく、ユーザから見て「面」として広がった3
次元空間を実質的同時に監視して、その3次元空間の随
所に存在する様々な物体の領域の3次元座標に一挙に把
握して、それに応じた刺激をユーザに与えるので、ユー
ザは周囲に存在する様々な物体の方向や距離を従来より
ずっと容易に把握でき、歩行などの安全性をより容易に
確認できる。
This environment recognition support apparatus for the visually impaired monitors a three-dimensional space extending in front of the user, calculates three-dimensional coordinates of an object area occupied by the object in the three-dimensional space, and calculates the three-dimensional coordinates of the object area. A tactile stimulus or sound corresponding to the three-dimensional coordinates of the region is provided to the user. Instead of detecting an object as a “single point” existing in one directional direction as viewed from the user as in the related art, it has spread as a “plane” as viewed from the user.
The user monitors the three-dimensional space at substantially the same time, grasps the three-dimensional coordinates of various object regions existing throughout the three-dimensional space at a glance, and gives a stimulus to the user accordingly, so that the user is present in the surroundings. The direction and distance of various objects to be performed can be grasped much more easily than before, and safety such as walking can be more easily confirmed.

【0009】好適な実施形態では、通知手段として、ユ
ーザが触れて感知できる凹凸画像を生成する触覚表示装
置が用いられる。この触覚表示装置は、凹凸画像のどの
位置にどの程度の突起又は凹みがあるかによって、3次
元空間内のどの3次元位置に物体が存在するのかを表現
する。
In a preferred embodiment, a tactile display device that generates a concavo-convex image that can be sensed by touching by a user is used as the notification means. This tactile display device expresses at which three-dimensional position in the three-dimensional space the object is present, based on which position of the concavo-convex image and how much protrusion or dent is present.

【0010】好適な実施形態では、通知手段として、ま
た、ユーザが左右の耳で音源の距離と方向を感知できる
ステレオ音響を生成するステレオ音響発生装置が用いら
れる。このステレオ音響発生装置は、物体がユーザから
どの方向にどの程度の距離に存在するかを表現したステ
レオ音響をユーザに提供する。
[0010] In a preferred embodiment, a stereo sound generator that generates stereo sound that allows the user to sense the distance and direction of the sound source with the left and right ears is used as the notification means. This stereo sound generation device provides a user with stereo sound expressing in which direction and how far the object is from the user.

【0011】好適な実施形態では、空間監視手段とし
て、複数の異なる位置から上記3次元空間を撮影する複
数眼のカメラが用いられる。その複数眼のカメラで撮影
された複数枚の画像を用いて、ステレオ視法により、3
次元空間内の物体領域の3次元座標が計算され、それに
応じて上記の凹凸画像やステレオ音響が制御される。複
数眼のカメラを用いることで、自然照明の下で精度良く
物体の3次元座標が計算でき、また、カメラとしてビデ
オカメラを用いれば、移動する物体の3次元位置も実時
間で把握してユーザに感知させることができる。
In a preferred embodiment, a multi-eye camera for photographing the three-dimensional space from a plurality of different positions is used as the space monitoring means. Using a plurality of images taken by the multi-lens camera, stereoscopic viewing
The three-dimensional coordinates of the object region in the three-dimensional space are calculated, and the concavo-convex image and the stereo sound are controlled accordingly. By using a multi-lens camera, the three-dimensional coordinates of an object can be calculated with high accuracy under natural lighting. When a video camera is used as a camera, the user can grasp the three-dimensional position of a moving object in real time. Can be sensed.

【0012】好適な実施形態では、3次元空間内の物体
領域の3次元座標を計算した後、その3次元座標に基づ
いて環境認識という処理が行われて、3次元空間に存在
する個々の物体の種類と3次元座標が識別される。そし
て、識別された物体の種類と3次元座標に応じて上記の
凹凸画像やステレオ音響が制御される。例えば、環境認
識によって、個々の物体が障害物(例えば、人、自動
車、路上の設置物、穴、段差、建物、壁など)であるか
否か(例えば、平らな地面)が識別され、そして、少な
くとも障害物と判断された物体について、その3次元座
標に応じて、その障害物の方向や距離や高さなどをユー
ザに感知させるように凹凸画像やステレオ音響が制御さ
れる。
In a preferred embodiment, after calculating three-dimensional coordinates of an object region in a three-dimensional space, a process called environment recognition is performed based on the three-dimensional coordinates, and individual objects existing in the three-dimensional space are processed. And the three-dimensional coordinates are identified. Then, the above-mentioned uneven image and stereo sound are controlled according to the type of the identified object and the three-dimensional coordinates. For example, the environment recognition identifies whether an individual object is an obstacle (eg, a person, a car, an installation on the street, a hole, a step, a building, a wall, etc.) (eg, flat ground), and For at least an object determined to be an obstacle, the unevenness image and stereo sound are controlled so that the user can sense the direction, distance, height, and the like of the obstacle in accordance with the three-dimensional coordinates.

【0013】[0013]

【発明の実施の形態】図1は、本発明に従う視覚障害者
環境認識支援装置の一実施形態の全体構成を示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an overall configuration of an embodiment of a visual impaired person environment recognition support apparatus according to the present invention.

【0014】この視覚障害者環境認識支援装置は、ステ
レオカメラ20、データ処理装置30及び環境通知装置
40又は50を備える。
This visually impaired person environment recognition support device includes a stereo camera 20, a data processing device 30, and an environment notification device 40 or 50.

【0015】ステレオカメラ20は、ステレオ視法を用
いた距離画像を作成するために撮影に用いられるもので
あり、異なる位置にほぼ同一方向を向いて配置された複
数個のビデオカメラ(例えばCCDカメラ)21を有す
る。ステレオ視法を用いる観点から、ステレオカメラ2
0は2個以上であれば何個のビデオカメラを持ってもよ
いが、この実施形態では、精度の高い距離画像が得られ
るようにするために、3×3マトリックスに配置された
9個もの多くのビデオカメラを持った多眼ステレオカメ
ラを採用する。ステレオカメラ20は、特にユーザの前
方を撮影するのに都合の良い位置、例えば帽子10の正
面部(つまりユーザの前頭部)に装着されている。ステ
レオカメラ20(つまり、その9個のビデオカメラ2
1)は、ユーザが歩行の安全を確認するのに必要な広い
視野角を有している。このステレオカメラ20により、
その視野角をもってユーザ前方に3次元的に広がる空間
領域を一時に撮影することができる。
The stereo camera 20 is used for photographing to create a range image using stereo vision, and includes a plurality of video cameras (for example, a CCD camera) arranged at different positions in substantially the same direction. ) 21. From the viewpoint of using stereo vision, the stereo camera 2
0 may have any number of video cameras as long as it is two or more, but in this embodiment, in order to obtain a highly accurate range image, nine video cameras arranged in a 3 × 3 matrix are used. Use a multi-view stereo camera with many video cameras. The stereo camera 20 is mounted on a position convenient for photographing the front of the user, for example, at the front of the hat 10 (that is, at the front of the user). The stereo camera 20 (that is, the nine video cameras 2
1) has a wide viewing angle necessary for the user to confirm walking safety. With this stereo camera 20,
With this viewing angle, it is possible to photograph a space region that spreads three-dimensionally in front of the user at one time.

【0016】データ処理装置30は、ステレオカメラ2
0の9個のビデオカメラ21から出力される9本の動画
像データの最新のフレーム画像を入力して、これら9枚
のフレーム画像をステレオ視法により処理することで、
ステレオカメラ20の視野についての最新での距離画像
(つまり、ステレオカメラ20の位置から、視野内3次
元空間の物体で占められた領域までの距離を画素単位で
表した画像)を形成する。こうして、データ処理装置3
0は、最新の距離画像を次々と連続的に作り出し(つま
り、距離動画像を作り出し)、これに基づいて環境通知
装置40又は50を制御及び駆動する。そのために、デ
ータ処理装置30は、距離画像を計算する距離画像計算
部31と、距離画像に基づいて環境通知装置40又は5
0を制御及び駆動する制御・駆動部32とを有する。制
御・駆動部32は、距離画像を解析して、その中から地
面を識別し、さらに、地面よりも高い高さをもつ物体
(プラス高さの障害物)や地面よりも下に落ち込んでい
る凹部(マイナス高さの障害物)などを識別する。この
ように、カメラ視野内に存在する各種の物体を識別する
処理を、この明細書では「環境認識」と呼ぶ。制御・駆
動部32は、この環境認識によって識別した地面や障害
物などの各種物体の種類(つまり、地面か、障害物かな
ど)と3次元位置に応じた駆動信号を環境通知装置40
又は50に出力する。
The data processing device 30 includes the stereo camera 2
By inputting the latest frame images of the nine moving image data output from the nine video cameras 21 and processing these nine frame images by stereoscopic viewing,
A latest distance image of the field of view of the stereo camera 20 (that is, an image in which the distance from the position of the stereo camera 20 to the area occupied by the object in the three-dimensional space within the field of view in pixels) is formed. Thus, the data processing device 3
0 continuously and successively creates the latest distance image (that is, creates a distance moving image), and controls and drives the environment notification device 40 or 50 based on this. For this purpose, the data processing device 30 includes a distance image calculation unit 31 that calculates a distance image, and the environment notification device 40 or 5 based on the distance image.
And a control / drive unit 32 for controlling and driving 0. The control / drive unit 32 analyzes the distance image to identify the ground from the distance image, and further, an object having a height higher than the ground (an obstacle having a height higher than the ground) or a drop below the ground. Identify recesses (minus-height obstacles) and the like. The process of identifying various objects existing in the field of view of the camera in this way is referred to as “environment recognition” in this specification. The control / drive unit 32 sends a drive signal corresponding to the type of the various objects such as the ground and obstacles identified by the environment recognition (that is, whether the object is the ground or an obstacle) and the three-dimensional position, to the environment notification device 40.
Or output to 50.

【0017】環境通知装置40又は50は、触覚表示装
置40とステレオヘッドフォン50のいずれか一方、又
は双方の組み合わせである。触覚表示装置40は、特開
平1−97457号に記載された触覚表示装置と同様
に、ベース板の一方の表面(表示面)に、多数の進退自
在なピン41を立てて二次元配列したものであり、各ピ
ン41の突出量を独立して調節することができ、それら
多数の2次元配列されたピン41が凹凸画像を形成す
る。ユーザは、この触覚表示装置40のピン41が作る
凹凸画像を、手などで触れて感じることで、その凹凸画
像が表している各種物体の種類や位置を把握する。例え
ば、ピン41が高く突出している箇所はそこに障害物が
存在することを意味し、ピン41が低くなっている箇所
はそこは歩くことのできる地面であることを意味する。
触覚表示装置40は、その表示面にユーザが手など触れ
るのに適した場所、例えばユーザの腰の位置や、歩行補
助用杖(図2、参照番号140)の握りの位置などに取
りつけることができる。
The environment notification device 40 or 50 is one of the tactile display device 40 and the stereo headphone 50, or a combination of both. The tactile display device 40 is, like the tactile display device described in JP-A-1-97457, two-dimensionally arranged with a large number of movable pins 41 standing on one surface (display surface) of a base plate. The protrusion amount of each pin 41 can be adjusted independently, and the many two-dimensionally arranged pins 41 form an uneven image. The user touches and feels the uneven image formed by the pins 41 of the tactile display device 40 with a hand or the like, thereby grasping the types and positions of various objects represented by the uneven image. For example, a place where the pin 41 protrudes high means that an obstacle exists there, and a place where the pin 41 is low means that the place is a ground on which it can walk.
The tactile display device 40 can be attached to a place suitable for the user to touch the display surface, such as a hand, for example, a position of the user's waist, a position of a grip of a walking aid cane (FIG. 2, reference numeral 140), and the like. it can.

【0018】ステレオヘッドフォン50は、ユーザの左
右の耳に独立して音を与える2つのイヤホン(又はスピ
ーカ)50L、50Rをもつ通常のステレオヘッドホン
であるが、後述する制御・駆動部32が行う制御及び駆
動方法により、障害物の位置や距離をユーザに聴覚的に
通知することができる。その一つの方法は、ステレオ音
響効果(つまり、左右の耳に与える音響の特性に様々な
相違をつけることで、その音源の位置や距離をユーザに
聴覚的に把握させる効果)を用いた方法である。すなわ
ち、制御・駆動部32が、距離画像に基づいて何処にど
のような障害物が存在するかを識別し、その識別された
各障害物から音が発されたと仮定したときにユーザの左
右の耳に聞こえる音響を計算し、その計算した音響を左
右のイヤホン50L、50Rに出力する方法である。こ
の時、障害物の各種類に対して特有の音を事前に決めて
おけば、障害物の種類を容易に知ることができる。ま
た、別の方法は、障害物の位置や距離を表す音声メッセ
ージ(例えば、「ピー、2m先に障害物あり」など)を
ステレオヘッドフォン50に出力する方法である。
The stereo headphone 50 is a normal stereo headphone having two earphones (or speakers) 50L and 50R for giving independent sounds to the left and right ears of the user. By using the driving method, the position and the distance of the obstacle can be audibly notified to the user. One of the methods is a method using a stereo sound effect (that is, an effect of making a user audibly grasp a position and a distance of a sound source by making various differences in characteristics of sound given to left and right ears). is there. That is, the control / drive unit 32 identifies where and what obstacle is present based on the distance image, and assumes that a sound is emitted from each of the identified obstacles. This is a method of calculating sound audible to the ears and outputting the calculated sound to the left and right earphones 50L and 50R. At this time, if a specific sound is determined in advance for each type of obstacle, the type of obstacle can be easily known. Another method is to output to the stereo headphones 50 a voice message (for example, “Peer, obstacle exists 2 m ahead”) indicating the position and distance of the obstacle.

【0019】触覚表示装置40とステレオヘッドフォン
50のいずれか一方だけを用いてもよいが、その双方を
組み合わせて用いれば、ユーザはより容易に周囲の環境
を把握することができる。
Either the tactile display device 40 or the stereo headphone 50 may be used, but if both are used in combination, the user can more easily grasp the surrounding environment.

【0020】この視覚障害者環境認識支援装置は、上記
構成に加えて望ましくは、ステレオカメラ20の動き
(特に、回転角度)を検出するための角度センサ(又は
水平センサ)60を、帽子10などの適当箇所に設置が
できる。これは、ユーザの頭部の動きによってステレオ
カメラ20の指向方向が変わっても、データ処理装置3
0がそれを正確に把握し水平方向を割り出せるようにす
るためである。角度センサ(又は水平センサ)60とし
ては、例えば、ジャイロを利用して回転加速度を計測し
て傾き角度を計算するような角度センサや、その姿勢が
どのように変化しても常に水平方向を示す信号を出力す
る水平センサなどが採用できる。角度センサを用いる場
合、頭部の回転動作きはピッチ(上を向いたり下を向い
たりする動き)と、ロール(左右に首を傾ける動き)
と、ヨー(左右に水平回転させる動き)に大別できる。
角度センサを用いる場合、これら3種類の回転動作のう
ち、ユーザが最も頻繁に行なうピッチの角度を検出する
ことが第一に重要であり、加えてロールの角度も検出す
れば一層望ましい。こうして頭部のピッチやロールの角
度を検出することで、ユーザが頭部を動かしても、デー
タ処理装置30は常に水平方向を正確に認識することが
でき、その結果、データ処理装置30の制御・駆動部3
2が行う環境認識の精度が高まり、ユーザに一層正確な
環境情報を伝えることができる。
This environment recognition support apparatus for the visually impaired person desirably has an angle sensor (or horizontal sensor) 60 for detecting the movement (particularly, rotation angle) of the stereo camera 20 in addition to the above-described configuration, and a hat 10 or the like. Can be installed at appropriate places. This is because even if the direction of the stereo camera 20 changes due to the movement of the user's head, the data processing device 3
This is so that 0 can accurately grasp it and determine the horizontal direction. As the angle sensor (or horizontal sensor) 60, for example, an angle sensor that measures a rotational acceleration by using a gyro to calculate a tilt angle, or always indicates a horizontal direction regardless of how the posture changes. A horizontal sensor that outputs a signal can be employed. When using an angle sensor, the rotation of the head is pitch (moving upward or downward) and roll (moving the head to the left or right)
And yaw (movement to rotate horizontally horizontally).
When an angle sensor is used, it is of primary importance to detect the angle of the pitch that is most frequently performed by the user among these three types of rotation, and it is more desirable to detect the angle of the roll in addition. By detecting the pitch and roll angle of the head in this manner, even if the user moves the head, the data processing device 30 can always accurately recognize the horizontal direction, and as a result, the control of the data processing device 30・ Drive unit 3
The accuracy of the environment recognition performed by the device 2 is improved, and more accurate environmental information can be transmitted to the user.

【0021】以下、データ処理装置30が行う距離画像
の生成と、環境認識と、環境通知装置40又は50の駆
動の処理について、より詳細に説明する。
Hereinafter, the processing of generating the distance image, recognizing the environment, and driving the environment notification device 40 or 50 performed by the data processing device 30 will be described in more detail.

【0022】まず、ステレオカメラ20からの動画像に
基づくステレオ視法による距離画像の生成について説明
する。データ処理装置30の距離画像計算部31は、ス
テレオカメラ20から、その9個のビデオカメラ21が
出力する9本の動画像の最新のフレーム(グレースケー
ルの静止輝度画像)を取り込む。距離画像計算部31
は、3×3マトリックスに並んだビデオカメラ21のう
ちの中央に位置する1個のカメラ(以下、基準カメラと
いう)21からの1枚の輝度画像を基準画像とし、他の
8個のカメラ21からの8枚の輝度画像を参照画像とし
て、8枚の参照画像の各々と基準画像とでペアを作り
(8ペアができる)、各ペアについて、両輝度画像間の
画素毎の視差を所定の方法で求める。
First, generation of a range image by stereo vision based on a moving image from the stereo camera 20 will be described. The distance image calculation unit 31 of the data processing device 30 captures, from the stereo camera 20, the latest frames (gray-scale still luminance images) of the nine moving images output from the nine video cameras 21. Range image calculator 31
Is a luminance image from one camera (hereinafter, referred to as a reference camera) 21 located at the center of the video cameras 21 arranged in a 3 × 3 matrix, and the other eight cameras 21 The eight reference images are used as reference images, and a pair is formed between each of the eight reference images and the reference image (eight pairs are formed). For each pair, the parallax of each pixel between the two luminance images is determined by a predetermined value. Ask by the way.

【0023】ここで、視差を求める方法としては、例え
ば特開平11−175725号に開示された方法を用い
ることができる。特開平11−175725号に開示さ
れた方法は、簡単に言えば、次のようなものである。ま
ず、基準画像上で1つ画素を選択し、その選択画素を中
心にした所定サイズ(例えば3×3画素)のウィンドウ
領域を基準画像から取り出す。次に、参照画像上で上記
選択画素から所定の視差分だけずれた位置にある画素
(対応候補点という)を選び、その対応候補点を中心に
した同サイズのウィンドウ領域を参照画像から取り出
す。そして、参照画像から取り出した対応候補点のウィ
ンドウ領域と、基準画像から取り出した選択画素のウィ
ンドウ領域との間で、輝度パターンの類似度(例えば両
ウィンドウ領域内の位置的に対応する画素間の輝度値の
差の二乗加算値の逆数)を計算する。視差を最小値から
最大値まで順次に変えて対応候補点を移動させながら、
個々の対応候補点について、その対応候補点のウィンド
ウ領域と、基準画像からの選択画素のウィンドウ領域と
の間の類似度の計算を繰り返す。その結果から、最も高
い類似度が得られた対応候補点を選び、その対応候補点
に対応する視差を、上記選択画素における視差と決定す
る。このような視差の決定を、基準画像の全ての画素に
ついて行う。基準画像の各画素についての視差から、物
体の各画素に対応する部分と基準カメラとの間の距離が
一対一で決まる。従って、基準画像の全ての画素につい
て視差を計算することで、結果として、基準カメラから
物体までの距離を基準画像の画素毎に表した距離画像が
得られる。
Here, as a method for obtaining the parallax, for example, a method disclosed in Japanese Patent Application Laid-Open No. H11-175725 can be used. The method disclosed in Japanese Patent Application Laid-Open No. H11-175725 is simply as follows. First, one pixel is selected on the reference image, and a window area of a predetermined size (for example, 3 × 3 pixels) centered on the selected pixel is extracted from the reference image. Next, a pixel (referred to as a corresponding candidate point) at a position shifted from the selected pixel by a predetermined parallax on the reference image is selected, and a window region of the same size centered on the corresponding candidate point is extracted from the reference image. Then, the similarity of the luminance pattern (for example, between pixels corresponding to positions in both window regions) between the window region of the corresponding candidate point extracted from the reference image and the window region of the selected pixel extracted from the reference image. Calculate the reciprocal of the square addition value of the luminance value difference). While sequentially changing the parallax from the minimum value to the maximum value and moving the corresponding candidate point,
For each corresponding candidate point, the calculation of the similarity between the window area of the corresponding candidate point and the window area of the selected pixel from the reference image is repeated. From the result, the corresponding candidate point with the highest similarity is selected, and the parallax corresponding to the corresponding candidate point is determined as the parallax in the selected pixel. Such determination of parallax is performed for all pixels of the reference image. From the parallax of each pixel of the reference image, the distance between the portion corresponding to each pixel of the object and the reference camera is determined on a one-to-one basis. Therefore, by calculating the parallax for all the pixels of the reference image, a distance image that represents the distance from the reference camera to the object for each pixel of the reference image is obtained as a result.

【0024】距離画像計算部31は、8ペアの各々につ
いて上記の方法で距離画像を計算し、それら8枚の距離
画像を統計的手法で統合して(例えば平均を計算し
て)、その結果を最終的な距離画像として出力する。
The distance image calculation unit 31 calculates a distance image for each of the eight pairs by the above method, integrates the eight distance images by a statistical method (for example, calculates an average), and obtains a result. Is output as the final distance image.

【0025】次に、データ処理装置30の制御・駆動部
32が行う環境認識について説明する。
Next, the environment recognition performed by the control / drive unit 32 of the data processing device 30 will be described.

【0026】環境認識は、基本的に、例えば特開平10
−143659号に記載された方法を用いて行うことが
できる。この方法は、簡単に言えば、距離画像内の各画
素の2次元座標と距離とから各画素の所定座標系での3
次元座標を計算し、その3次元座標が示す高さを用い
て、地面に相応しい所定の閾値よりも低い高さをもった
(又は、地面に相応しい所定の上閾値と下閾値の間の高
さをもった)画素群を抽出して、これを地面として識別
する。次に、その地面よりも所定値以上高い高さをもっ
た画素群を抽出し、その画素群を相互間の距離が近い画
素同士の集合に分類し、各画素集合を個々の障害物とし
て識別する。
The environment recognition is basically performed, for example, in Japanese Unexamined Patent Application Publication No.
The method can be carried out using the method described in JP-A-143659. In short, this method is based on the two-dimensional coordinates of each pixel in the distance image and the distance, and calculates the three-dimensional coordinates of each pixel in a predetermined coordinate system.
Calculate the three-dimensional coordinates and use the height indicated by the three-dimensional coordinates to have a height lower than a predetermined threshold suitable for the ground (or a height between a predetermined upper threshold and a lower threshold suitable for the ground) ) And extract it as the ground. Next, a pixel group having a height that is higher than the ground by a predetermined value or more is extracted, and the pixel group is classified into a set of pixels having a short distance from each other, and each pixel set is identified as an individual obstacle. I do.

【0027】このような環境認識を行う場合、制御・駆
動部32は、距離画像から各画素の3次元座標を計算す
るに当たり、ステレオカメラ20の指向方向が水平では
ないことを考慮に入れて、距離画像が表すステレオカメ
ラ20の向きを基準とした座標系を、水平方向を基準に
した座標系に変換する処理を行う。この座標変換の処理
について、図2を参照して説明する。
When such environment recognition is performed, the control / drive unit 32 calculates the three-dimensional coordinates of each pixel from the distance image, taking into account that the directivity of the stereo camera 20 is not horizontal. A process of converting a coordinate system based on the direction of the stereo camera 20 represented by the distance image into a coordinate system based on the horizontal direction is performed. The coordinate conversion process will be described with reference to FIG.

【0028】図2は、ステレオカメラ20の向きと地面
との関係を示す。
FIG. 2 shows the relationship between the direction of the stereo camera 20 and the ground.

【0029】図2において、点線130は水平方向を示
し、一点鎖線120はステレオカメラ20の指向方向を
示し、矢印110はステレオカメラ20の指向方向12
0を中心に上下方向に均等に開いた視野角を示してい
る。なお、図示しないが、ユーザ100を真上から眺め
た場合には、ステレオカメラ20の指向方向120はユ
ーザ100の頭部の真正面前方に向っており、その視野
は指向方向120を中心に図2の視野角110と同様な
角度で左右に開いている。
In FIG. 2, a dotted line 130 indicates the horizontal direction, a dashed line 120 indicates the directivity of the stereo camera 20, and an arrow 110 indicates the directivity 12 of the stereo camera 20.
It shows a viewing angle that is evenly opened in the vertical direction around 0. Although not shown, when the user 100 is viewed from directly above, the directional direction 120 of the stereo camera 20 is directly in front of the head of the user 100, and the field of view is centered on the directional direction 120 in FIG. Open right and left at the same angle as the viewing angle 110.

【0030】歩行の安全性を確認する上でユーザ100
にとり最も重要な情報は、ユーザ100の進行方向にお
ける地面200の形状と、地面200よりある程度低い
高さからユーザ頭部より若干高い高さまでの高さ範囲に
おける穴や物体などの障害物の有無である。そこで、図
2に示すように、ユーザ100が普通の姿勢で前を向い
ている歩いている状態で、ステレオカメラ20の指向方
向120は水平より角度θだけ下方に傾いて設定されて
おり、それにより、ステレオカメラ20の視野角110
内に、ユーザ100の進行方向における、特に、歩行に
重要な足元近くから5メートル又は10メートル程度先
までの距離範囲の、地面200より或る程度低い高さか
らユーザ頭部より若干高い高さまでの高さ範囲が入るよ
うになっている。
In confirming the safety of walking, the user 100
The most important information is the shape of the ground 200 in the traveling direction of the user 100 and the presence or absence of an obstacle such as a hole or an object in a height range from a height slightly lower than the ground 200 to a height slightly higher than the user's head. is there. Therefore, as shown in FIG. 2, in a state where the user 100 is walking forward in a normal posture, the directional direction 120 of the stereo camera 20 is set to be inclined downward by an angle θ from the horizontal. The viewing angle 110 of the stereo camera 20
In the traveling direction of the user 100, in particular, in a distance range from near the foot important for walking to about 5 meters or 10 meters ahead, from a height somewhat lower than the ground 200 to a height slightly higher than the user's head. Height range.

【0031】よって、図2に示すように、ユーザ100
が通常に前を向いている状態で、ステレオカメラ20の
指向方向120を基準とした座標系(以下、カメラ座標
系という)X’−Y’−Z’は、水平方向を基準とした
座標系(以下、全体座標系という)X−Y−Zに対し
て、所定の角度θだけ前方下方へ傾いている。距離画像
計算部31がステレオカメラ20からのデータを基に作
成した距離画像のデータは、カメラ座標系X’−Y’−
Z’で表されたものである。制御・駆動部32は、環境
認識を行う際、距離画像から直接的に得られる各画素の
カメラ座標系X’−Y’−Z’での3次元座標値を、上
記角度θを用いて、全体座標系X−Y−Zで表された3
次元座標値に変換する。また、図1に示した角度センサ
60が設けられている場合には、制御・駆動部32は、
この座標変換の際に、上記角度θに加えて、角度センサ
60で検出されたユーザ頭部のピッチ角(X’軸回りの
回転角)やロール角(Y’軸回りの回転角)も考慮に入
れる。こうして、制御・駆動部32は、水平方向を基準
にした全体座標系X−Y−Zで表された各画素の3次元
座標値を計算し、それに基づいて、上述した特開平11
−175725号の環境認識方法で地面200を識別
し、地面200上の障害物を識別する。
Therefore, as shown in FIG.
Is normally facing forward, and the coordinate system X′-Y′-Z ′ based on the pointing direction 120 of the stereo camera 20 (hereinafter referred to as a camera coordinate system) is a coordinate system based on the horizontal direction. It is tilted forward and downward by a predetermined angle θ with respect to XYZ (hereinafter referred to as a global coordinate system). The data of the distance image created by the distance image calculation unit 31 based on the data from the stereo camera 20 is stored in a camera coordinate system X′-Y′−
Z ′. When performing environment recognition, the control / drive unit 32 calculates the three-dimensional coordinate values in the camera coordinate system X′-Y′-Z ′ of each pixel directly obtained from the distance image using the angle θ, 3 expressed in the global coordinate system XYZ
Convert to dimensional coordinate values. When the angle sensor 60 shown in FIG. 1 is provided, the control / drive unit 32
In this coordinate conversion, in addition to the angle θ, the pitch angle (rotation angle about the X ′ axis) and the roll angle (rotation angle about the Y ′ axis) of the user's head detected by the angle sensor 60 are also considered. Put in. In this way, the control / drive unit 32 calculates the three-dimensional coordinate value of each pixel expressed in the overall coordinate system XYZ based on the horizontal direction, and based on the calculated value, calculates
The ground 200 is identified by the environment recognition method of -175725, and an obstacle on the ground 200 is identified.

【0032】特開平11−175725号の環境認識方
法を行う際、制御・駆動部32は、予め分っているユー
ザ100の身長を利用して、ステレオカメラ20の高さ
よりユーザ身長分だけ低い高さを中心に、それより所定
量だけ高い上側閾値と所定量だけ低い下側閾値を設定
し、この上側閾値と下側閾値の間の高さをもつ画素群を
抽出して、これを地面200として識別することができ
る。通常、地面200は水平であるから、この方法で精
度良く地面200が識別できる。一方、地面200が坂
道や階段になっている場合には、この方法で抽出された
画素は、地面200の全体の中でユーザ100の足元近
くに存在する等高の細長いストライプ形の部分だけを表
す少数の画素となる。その場合、地面200全体は、そ
の抽出されたストライプ形の部分を回転軸にして、水平
な面を若干角度だけ回転させたような傾斜平面に沿った
坂道又は階段になっていると想定される。そこで、その
ような傾斜した地面200を識別するために、そのスト
ライプ状の部分に対して直角に水平に伸びる座標軸を想
定し、その座標軸上の各位置ごとに最も低い高さをもっ
た画素を選び出す。それら選び出した画素が、傾斜した
地面200の候補である。続いて、それら選び出した画
素の中から、上記ストライプ状の部分とほぼ同一の傾斜
平面を形成することができる画素を抽出する。こうして
抽出した画素群によって形成される傾斜平面を、地面2
00として識別することができる。この場合、最終的に
抽出した画素群によって実質連続な傾斜平面が形成され
るならば、その地面200はその傾斜平面に沿った坂道
であると判断できる。一方、最終的に抽出した画素によ
って形成されるものが、実質連続な傾斜平面ではなく、
間隔をおいてほぼ平行に並んだ複数のストライプ状の部
分に分断された傾斜平面である場合には、その地面20
0は階段であると判断できる。さらに、その坂道又は階
段と判断した地面200の遠方に、その坂道又は階段に
接続する水平面が検出されたなら、それも地面200と
して識別できる。このような方法で、地面200を、水
平な地面、登り坂、下り坂、登り階段、下り階段などに
区別して認識することができる。
When performing the environment recognition method disclosed in Japanese Patent Application Laid-Open No. H11-175725, the control / drive unit 32 utilizes the height of the user 100 which is known in advance and uses a height lower than the height of the stereo camera 20 by the height of the user. , A higher threshold value that is higher by a predetermined amount and a lower threshold value that is lower by a predetermined amount are set, and a pixel group having a height between the upper threshold value and the lower threshold value is extracted. Can be identified as Normally, the ground 200 is horizontal, so that the ground 200 can be accurately identified by this method. On the other hand, when the ground 200 is a slope or a stair, the pixels extracted by this method are used only for a striped portion of the same height existing near the feet of the user 100 in the entire ground 200. Represent a small number of pixels. In that case, the entire ground 200 is assumed to be a slope or a stair along an inclined plane such that the horizontal surface is slightly rotated by an angle with the extracted striped portion as a rotation axis. . Therefore, in order to identify such an inclined ground 200, a coordinate axis extending horizontally at right angles to the striped portion is assumed, and the pixel having the lowest height at each position on the coordinate axis is determined. Pick out. The selected pixels are candidates for the inclined ground 200. Subsequently, from these selected pixels, pixels capable of forming the same inclined plane as the above-mentioned striped portion are extracted. The inclined plane formed by the pixel group extracted in this way is referred to as ground 2
00 can be identified. In this case, if a substantially continuous inclined plane is formed by the finally extracted pixel group, it can be determined that the ground 200 is a slope along the inclined plane. On the other hand, what is finally formed by the extracted pixels is not a substantially continuous inclined plane,
In the case of an inclined plane divided into a plurality of stripe-shaped portions arranged substantially in parallel at intervals, the ground 20
0 can be determined to be a staircase. Furthermore, if a horizontal plane connected to the hill or stair is detected far from the ground 200 determined to be the hill or stair, it can also be identified as the ground 200. In this way, the ground 200 can be distinguished and recognized as a horizontal ground, an uphill, a downhill, an up stair, a down stair, or the like.

【0033】こうして地面200を識別した後、制御・
駆動部32は、その地面200よりも所定の高さ(歩行
障害になる可能性のある最低高さであり、例えば5セン
チメートル)以上に高い高さをもつ画素を抽出し、それ
らの画素を距離的に近い画素同士でグループ化すること
で幾つかの画素群に分類し、各画素群をそれぞれプラス
高さの障害物(例えば、壁、柱、人、車両、設置物、看
板、段差の立ち上がりなど)として識別する。さらに、
制御・駆動部32は、地面200よりも所定の深さ(歩
行障害になると判断される可能性のある最低深さであ
り、例えば5センチメートル)以上に深く落ち込んだ高
さをもつ画素を抽出し、それらの画素を距離的に近い画
素同士でグループ化することで幾つかの画素群に分類
し、各画素群をそれぞれマイナス高さの障害物(例え
ば、穴、窪み、溝、段差の落ち込みなど)として識別す
る。
After identifying the ground 200 in this way, the control
The drive unit 32 extracts pixels having a height higher than a predetermined height (a minimum height that may cause a walking obstacle, for example, 5 cm) from the ground 200, and extracts those pixels. By grouping pixels that are close to each other in distance, the pixels are classified into several pixel groups, and each pixel group is obstacles having a plus height (for example, walls, pillars, people, vehicles, installed objects, signboards, steps, etc.). Rise, etc.). further,
The control / drive unit 32 extracts a pixel having a height that is lower than the ground 200 by a predetermined depth (a minimum depth that may be determined to be a walking obstacle, for example, 5 cm). Then, those pixels are classified into several pixel groups by grouping them with pixels that are close to each other in a distance, and each pixel group is obstacles having a minus height (for example, holes, depressions, grooves, depressions of steps). Etc.).

【0034】このようにしてプラス高さ及びマイナス高
さの障害物を識別した後、制御・駆動部32は、さら
に、各障害物のもつ高さ、平面サイズ又は地面との位置
関係などを割りだし、それらに基づいて各障害物を更に
細かく識別することもできる。例えば、高さについて、
最大及び最低の高さをユーザの身長、ユーザの腰、ユー
ザの膝、地面、地面下深さ10cmなどで区切って分類
し、また、平面サイズについては、その最大寸法を1
m、50cmなどで区切って分類し、また、地面との位
置関係については、地面から離れている、地面に接して
いるなどを識別して分類する。それらの分類結果を用い
て、プラス高さ障害物を、例えば、最大高さが身長以上
で平面サイズが1m以上のもの(壁や建物や大型の設置
物など)、最大高さが身長以下で平面サイズが1m以上
のもの(自動車、ガードレールなど)、最大高さが腰以
上で平面サイズが1m以内のもの(人や小型の設置物な
ど)、最大高さが膝以下で平面サイズが1m以上のもの
(階段上り口、段差の立ちあがり、低く大きい設置物な
ど)、最大高さが膝以下で平面サイズが50m以下のも
の(路上の岩石や、小さい物品など)、最低高さが身長
以下で地面から離れているもの(吊り下った障害物、建
物から横に出っ張った障害物など)などの何れに該当す
るかを判断する。また、マイナス高さの障害物を、例え
ば、最低高さが地面下10cmより低く地面に接してい
るもの(階段の下り口、段差の立下り、道路の側溝、駅
のプラットホームの端、地面の深い穴など)、最低高さ
が地面下10cmより高く地面に接しているもの(地面
の浅い穴や窪み、小さい段差など)などの何れに該当す
るかを判断する。
After identifying the obstacles of the plus height and the minus height in this way, the control / drive unit 32 further divides the height of each obstacle, the plane size, the positional relationship with the ground, and the like. However, each obstacle can be further finely identified based on them. For example, for height,
The maximum and minimum heights are classified according to the height of the user, the waist of the user, the knees of the user, the ground, the depth under the ground of 10 cm, and the like.
Classification is performed by dividing by m, 50 cm, or the like. Regarding the positional relationship with the ground, classification is performed by distinguishing from the ground or in contact with the ground. Using the classification results, obstacles with a plus height, for example, those with a maximum height of more than height and a plane size of 1 m or more (such as walls, buildings and large installations), and those with a maximum height of less than height Those with a plane size of 1m or more (automobiles, guardrails, etc.), those with a maximum height of more than waist and a plane size of less than 1m (people or small installations, etc.), those with a maximum height of less than a knee and a plane size of 1m or more (E.g., stairway entrances, rising steps, low and large installations), those with a maximum height of less than knees and a plane size of less than 50m (rocks on the road, small items, etc.), and a minimum height of less than height It is determined whether the object corresponds to an object distant from the ground (a suspended obstacle, an obstacle protruding sideways from a building, or the like). Obstacles with a negative height, for example, those with a minimum height of less than 10 cm below the ground and in contact with the ground (e.g., stairs, ramps, road gutters, station platform edges, ground Judgment is made as to which of the following is applicable, such as a deep hole or the like whose minimum height is higher than 10 cm below the ground and in contact with the ground (a shallow hole or dent in the ground, a small step, etc.).

【0035】また、制御・駆動部32は、地面200の
表面に、小さい突起が規則的に並んだストライプ状の領
域を検出し、それを視覚障害者誘導用の点字ストライプ
であると識別することもできる。
The control / drive unit 32 detects a stripe-shaped area on the surface of the ground 200 where small projections are regularly arranged, and identifies the area as a Braille stripe for guiding the visually impaired. Can also.

【0036】以上のような方法で環境認識を行うこと
で、例えば次のようなものを認識することができる。
By performing environment recognition by the above method, for example, the following can be recognized.

【0037】 地面(床面を含む)、テーブル面、そ
れらの面の傾きや凸凹度 階段(登り下り)、壁 プラス高さの障害物(車、人、壁、看板、つまずく
物など)、マイナス高さの障害物(穴、駅プラットホー
ムの端などの段差の落ち込み、側溝など) 路上の点字ストライプ、車道と歩道の分離石 物体(人、物、食器、食べ物) スペース(電車の中、作業場) 次に、上記環境認識の結果を用いて制御・駆動部32が
行う、環境通知装置40又は50を制御及び駆動する処
理について説明する。
Ground (including floor), table surface, inclination and unevenness of those surfaces Stairs (up and down), wall plus height obstacles (cars, people, walls, signboards, stumbles, etc.), minus Obstacles of height (holes, drop of steps at the edge of station platform, gutters, etc.) Braille stripes on roads, separation stones of roads and sidewalks Objects (people, objects, dishes, food) Spaces (in trains, workshops) Next, a process of controlling and driving the environment notification device 40 or 50 performed by the control / drive unit 32 using the result of the environment recognition will be described.

【0038】まず、触覚表示装置40を制御及び駆動す
る処理について説明する。触覚表示装置40を制御及び
駆動する方法としては、(1) 環境認識で識別した物体
の位置と高さを触覚表示装置40に表示する方法、(2)
カメラの視野角内の3次元空間に任意の平面を設け、
その平面内での物体の有無を触覚表示装置40に表示す
る方法の2通りがある。
First, processing for controlling and driving the tactile display device 40 will be described. Methods for controlling and driving the tactile display device 40 include (1) a method of displaying the position and height of an object identified by environmental recognition on the tactile display device 40, and (2)
An arbitrary plane is provided in a three-dimensional space within the viewing angle of the camera,
There are two methods for displaying the presence or absence of an object in the plane on the tactile display device 40.

【0039】図3は、上記(1)の識別した物体の位置と
高さを触覚表示装置40に表示する方法の一例を示して
いる。
FIG. 3 shows an example of a method of displaying the position and height of the object identified in (1) above on the tactile display device 40.

【0040】図3(A)は、ユーザ100が立っている
場所の平面図であり、ユーザ100は水平な地面200
上に立っており、左斜め前方と右側には壁300、31
0があり、正面の前方に登り階段320がある例を示し
ている。ユーザ頭部のステレオカメラ20の視野角11
0内には、ユーザ100の前方の地面200、壁30
0、310及び登り階段320が入っている。点線40
0で囲んだ領域は、触覚表示装置40に表示されるX−
Y座標領域を示している。
FIG. 3A is a plan view of a place where the user 100 stands, and the user 100
Standing on the upper left, walls 300, 31 on the diagonally left and right sides
0 shows an example in which there is an ascending stair 320 in front of the front. Viewing angle 11 of stereo camera 20 at user's head
0, the ground 200 and the wall 30 in front of the user 100
0, 310 and up stairs 320 are included. Dotted line 40
The area surrounded by 0 is the X-line displayed on the tactile display device 40.
The Y coordinate area is shown.

【0041】制御・駆動部32は、環境認識で識別した
物体(地面や障害物)であって表示対象のX−Y座標領
域400内に位置する物体を選び出し、その物体を触覚
表示装置40に表示する。このとき、図3(B)に示す
ように、各物体を表す画素群のX、Y座標(つまり、各
物体の水平位置)を触覚表示装置40の表示面内での各
ピン41の位置に対応させ、各物体を表す画素群がもつ
最大のZ座標(つまり、各物体の最大高さ)を各ピン4
1の突出量(高さ)に対応させる。その際、各画素の
X、Y、Z座標値と触覚表示装置40の各ピン41の各
突出量とを1対1で対応させることができれば、各画素
のX、Y、Z座標値をそのまま用いることができるが、
実際には、触覚表示装置40がもつピン41の配列数及
び制御できる突出量の段階数はそれ程多くはないから、
各画素のX、Y、Z座標値と1対1で対応させることは
できない。そこで、表示対象のX−Y座標領域400を
ピン41の縦横の配列数で区分して各ピン41に対応し
た領域ブロックに分け、各領域ブロック内に位置する各
物体の部分の最大Z座標値を求めて、それを各領域ブロ
ックにおける各物体の最大高さとし、そして、その各ブ
ロックの最大高さをピン41の突出量の段階数で離散化
して、その離散化した最大高さを用いて各ピン41の突
出量を制御する。
The control / drive unit 32 selects an object (ground or obstacle) identified by the environment recognition and located in the XY coordinate area 400 to be displayed, and sends the selected object to the tactile display device 40. indicate. At this time, as shown in FIG. 3B, the X and Y coordinates of the pixel group representing each object (that is, the horizontal position of each object) are set to the position of each pin 41 on the display surface of the tactile display device 40. The maximum Z coordinate of the pixel group representing each object (that is, the maximum height of each object) is assigned to each pin 4
1 corresponds to the protrusion amount (height). At this time, if the X, Y, and Z coordinate values of each pixel can correspond to each protrusion amount of each pin 41 of the tactile display device 40 on a one-to-one basis, the X, Y, and Z coordinate values of each pixel remain unchanged. Can be used,
Actually, the number of arrangements of the pins 41 and the number of controllable protrusion amounts of the tactile display device 40 are not so large.
It is not possible to make one-to-one correspondence with the X, Y, and Z coordinate values of each pixel. Therefore, the XY coordinate area 400 to be displayed is divided by the number of rows and columns of the pins 41, divided into area blocks corresponding to the pins 41, and the maximum Z coordinate value of the portion of each object located in each area block Is determined as the maximum height of each object in each region block, and the maximum height of each block is discretized by the number of steps of the protrusion amount of the pin 41, and the maximum height thus discretized is used. The amount of protrusion of each pin 41 is controlled.

【0042】その結果、図3(B)に示すように、触覚
表示装置40の表示面には、真上から表示対象領域40
0を眺めて、その領域400内の各場所の最大高さを各
ピン41の高さで表現した凹凸模様が表示される。図3
(B)の例の場合、各ピン41の高さは3段階に制御で
き、白抜き円で示したピン41は最も低くて地面200
を表しており、ハッチングの円で示したピン41は中間
の高さで上り階段320の前半部分(プラス高さの障害
物の一種)を表しており、黒塗りの円で示したピン41
は最も高くて壁300、310と登り階段320の後半
部分(いずれも、プラス高さの障害物の一種)を表して
いる。なお、×印を付けたピン41は、視野角110の
外側の場所に対応するものであり、これは例えばハッチ
ングのピン41と同様に中程度の高さにするなどして、
視野角110の外側であることの注意をユーザに与える
ようにすることができる。ピン41の高さの段階数がよ
り多くなれば、環境認識の説明で述べたような様々な種
類の障害物をピンの高さで区別して表現できるし、ま
た、地面が階段や坂である場合にはその高さの変化もピ
ンの高さを違えて表現することができる。
As a result, as shown in FIG. 3B, on the display surface of the tactile display device 40, the display target area 40 is displayed from directly above.
Looking at 0, an uneven pattern expressing the maximum height of each location in the area 400 by the height of each pin 41 is displayed. FIG.
In the case of (B), the height of each pin 41 can be controlled in three stages, and the pin 41 indicated by a white circle is the lowest and the ground 200
The pin 41 indicated by a hatched circle represents the first half of the ascending stairs 320 (a kind of obstacle of a positive height) at an intermediate height, and the pin 41 indicated by a black circle
Is the highest and represents the latter half of the walls 300 and 310 and the ascending stairs 320 (both are types of obstacles of a plus height). The pin 41 with an x mark corresponds to a position outside the viewing angle 110, and this is set to a medium height like the pin 41 of hatching, for example.
Attention may be given to the user that it is outside the viewing angle 110. If the number of steps of the height of the pin 41 is larger, various kinds of obstacles as described in the description of the environment recognition can be distinguished by the height of the pin, and the ground is a stair or a slope. In that case, the change in the height can be expressed by changing the height of the pin.

【0043】この表示方法によれば、ユーザは、触覚表
示装置40の表示面に触れて各場所の高さを感じ取るこ
とで、何処が地面であり、何処に障害物が存在し、その
障害物のサイズや高さや平面形状がどのようであるかを
推測することができ、進行方向の環境の様子を把握する
ことができる。
According to this display method, the user touches the display surface of the tactile display device 40 and feels the height of each place, so that the place where the ground is, where the obstacle exists, and the obstacle It is possible to estimate the size, height and planar shape of the vehicle, and to grasp the state of the environment in the traveling direction.

【0044】また、前述したように、ステレオカメラ2
0の撮影結果から得られる距離画像は、実時間で変化し
ていく動画像であるから、それを表現した触覚表示装置
40の表示面にも、実時間で対象物の動きが現われる。
例えば、ユーザの歩行に伴ってユーザに対する壁や階段
などの位置が変化したり、人や自動車などの物体が自ら
移動した場合、触覚表示装置40では、それらの物体に
対応する突出したピン41が別のピン41に移っていく
ので、ユーザはそれらの物体の移動を実時間で認識する
ことができる。
As described above, the stereo camera 2
Since the distance image obtained from the photographing result of 0 is a moving image that changes in real time, the movement of the target object also appears in real time on the display surface of the tactile display device 40 that expresses it.
For example, when the position of a wall or stairs with respect to the user changes as the user walks, or an object such as a person or a car moves by itself, the tactile display device 40 includes a protruding pin 41 corresponding to the object. Moving to another pin 41, the user can recognize the movement of those objects in real time.

【0045】図4〜図7は、環境認識で識別した障害物
を触覚表示装置40に表示する方法の幾つかの別の例を
示している。
4 to 7 show some other examples of a method for displaying an obstacle identified by environment recognition on the tactile display device 40. FIG.

【0046】図4の例では、図4(A)に示すように、
表示対象の領域内に両側を壁330、340で囲まれた
地面(道路)200があり、この地面200内に穴(マ
イナス高さの障害物)350があったとする。この場
合、図4(B)に示すように、触覚表示装置40では、
壁330、340と地面(道路)200については、図
3の例と同様にその最大高さをピン41の高さで表現す
る(白抜きと黒塗りの円で図示するピン)と共に、穴
(マイナス高さの障害物)350については、ユーザに
特に注意を促すために、ピン41の高さを地面より高く
したりピン41を振動させたりする(ハッチングの円で
図示するピン)。
In the example of FIG. 4, as shown in FIG.
It is assumed that there is a ground (road) 200 surrounded by walls 330 and 340 on both sides in the display target area, and a hole (obstacle having a minus height) 350 in the ground 200. In this case, as shown in FIG. 4B, in the tactile display device 40,
3, the maximum height of the walls 330, 340 and the ground (road) 200 is represented by the height of the pin 41 (pins shown by white and black circles) and holes (holes). With respect to the (obstacle of minus height) 350, the height of the pin 41 is raised above the ground or the pin 41 is vibrated (a pin shown by a hatched circle) in order to draw the user's particular attention.

【0047】図5の例では、図5(A)に示すように、
表示対象の領域内に両側を壁330、340で囲まれた
地面(道路)200があり、この地面200内に躓き原
因となり得る所定範囲の高さとサイズをもった障害物
(プラス高さの障害物)360があったとする。この場
合、図5(B)に示すように、触覚表示装置40では、
壁330、340と地面(道路)200については、図
3の例と同様にその最大高さをピン41の高さで表現す
る(白抜きと黒塗りの円で図示するピン)と共に、躓き
の原因となり得る障害物360については、ユーザに特
に注意を促すために、ピン41の高さを地面より高くし
たりピン41を振動させたりする(ハッチングの円で図
示するピン)。
In the example of FIG. 5, as shown in FIG.
In the area to be displayed, there is a ground (road) 200 surrounded by walls 330 and 340 on both sides, and an obstacle having a predetermined range of height and size that can cause a stumbling (obstruction of a plus height) in the ground 200 Object) 360 is assumed. In this case, as shown in FIG. 5B, in the tactile display device 40,
3, the maximum height of the walls 330, 340 and the ground (road) 200 is represented by the height of the pin 41 (pins shown by white and black circles), and a stumbling block is formed. As for the obstacle 360 which may be a cause, the height of the pin 41 is set higher than the ground or the pin 41 is vibrated (a pin shown by a hatched circle) in order to draw the user's particular attention.

【0048】図6の例では、図6(A)に示すように、
表示対象の領域内に両側を壁330、340で囲まれた
地面(道路)200があり、この地面200内に視覚障
害者誘導用の点字ストライプ370があったとする。こ
の場合、図6(B)に示すように、触覚表示装置40で
は、壁330、340と地面(道路)200について
は、図3の例と同様にその最大高さをピン41の高さで
表現する(白抜きと黒塗りの円で図示するピン)と共
に、点字ストライプ370については、ユーザに特に気
付かせる促すために、ピン41の高さを地面より高くし
たりピン41を振動させたりする(ハッチングの円で図
示するピン)。
In the example of FIG. 6, as shown in FIG.
It is assumed that there is a ground (road) 200 surrounded by walls 330 and 340 on both sides in the display target area, and a Braille stripe 370 for guiding a visually impaired person exists in the ground 200. In this case, as shown in FIG. 6B, in the tactile display device 40, the maximum height of the walls 330 and 340 and the ground (road) 200 is determined by the height of the pin 41 as in the example of FIG. 3. In addition to expressing (pins shown by white and black circles), for the Braille stripe 370, the height of the pins 41 is set higher than the ground or the pins 41 are vibrated to urge the user to particularly notice. (Pin indicated by hatched circle).

【0049】図4〜図6に示した表示方法によれば、歩
行の際にユーザが特に認識すべき対象物の位置を効果的
にユーザに知らせることができる。
According to the display methods shown in FIGS. 4 to 6, it is possible to effectively inform the user of the position of an object that the user should particularly recognize when walking.

【0050】図7の例では、図7(A)の平面図に示す
ように、ユーザ100が既に通過してきた領域に点字ス
トライプ380などの環境認識で識別された物体があ
る。制御・駆動部32は、既に通過してきた領域におけ
る点字ストライプ380などの物体の位置と共に、ユー
ザ100が歩いてきた軌跡390も記憶しておく。そし
て、ユーザ100が特別の表示モードを選ぶと、図7
(B)に示すように、触覚表示装置40に、その記憶し
ておいた通過領域における点字ストライプ380などの
物体(ハッチングの円で示すピン)とユーザ100の軌
跡390(黒塗りの円で示すピン)とを表示する。この
表示モードを利用すると、ユーザは、ちょうど後ろを振
り返って自分の今歩いてきた軌跡を確認するのと同様な
ことができ、正しい経路を歩いているか否かを判断する
のに役立つ。
In the example of FIG. 7, as shown in the plan view of FIG. 7A, there is an object identified by environment recognition, such as a Braille stripe 380, in an area where the user 100 has already passed. The control / drive unit 32 also stores the position of the object such as the Braille stripe 380 in the area that has already passed, as well as the trajectory 390 that the user 100 has walked. Then, when the user 100 selects the special display mode, FIG.
As shown in (B), an object (a pin shown by a hatched circle) such as a Braille stripe 380 in the stored passing area and a locus 390 (shown by a black circle) of the user 100 are displayed on the tactile display device 40. Pin). Using this display mode, the user can do the same as just looking back and checking the trajectory that he has just walked, and is useful for determining whether or not the user is walking on the correct route.

【0051】図8と図9は、上述した(2)の表示方法、
つまり、表示対象の空間内に任意の平面を設け、その平
面内での物体の有無を触覚表示装置40に表示する方法
の一例を示している。
FIGS. 8 and 9 show the display method (2) described above,
That is, an example of a method of providing an arbitrary plane in the space to be displayed and displaying the presence or absence of an object in the plane on the tactile display device 40 is shown.

【0052】図8は、この方法を行うときの空間内での
平面の設定の仕方の様々な例を示している。
FIG. 8 shows various examples of how to set a plane in a space when performing this method.

【0053】図8(A)は、ステレオカメラの視野角内
の3次元空間内に、全体座標系のZ軸に沿った任意の位
置で水平面600A〜600Hを設定する例と、全体座
標系のY軸に沿った任意の位置でX軸に平行な鉛直面6
01A〜601Jを設定する例とを示している。また、
図8(B)は、同じ3次元空間内に、全体座標系のX軸
に沿った任意の位置においてY軸に平行な鉛直面602
A〜602Iを設定する例を示している。
FIG. 8A shows an example in which horizontal planes 600A to 600H are set at arbitrary positions along the Z-axis of the global coordinate system in a three-dimensional space within the viewing angle of the stereo camera, and an example of the global coordinate system. Vertical plane parallel to the X axis at an arbitrary position along the Y axis 6
An example in which 01A to 601J are set is shown. Also,
FIG. 8B shows a vertical plane 602 parallel to the Y axis at an arbitrary position along the X axis of the whole coordinate system in the same three-dimensional space.
The example which sets A-602I is shown.

【0054】制御・駆動部32は、図8に示したような
平面の一つを空間内に設定すると、環境認識で識別した
物体の中から、その設定した平面と交差する物体を選
び、その選んだ物体の設定平面内での位置を、触覚表示
装置40に表示する。この場合、触覚表示装置40の表
示面をその設定平面とみなして、物体の存在する位置の
ピン41だけを突出させ、物体の存在しない位置のピン
41は突出させないというような方法で物体を表示す
る。この表示方法で使用する触覚表示装置40において
は、ピン41の突出量の段階数は突出するかしないかの
2段階で十分である。
When one of the planes shown in FIG. 8 is set in the space, the control / drive unit 32 selects an object that intersects with the set plane from the objects identified by the environment recognition. The position of the selected object in the setting plane is displayed on the tactile display device 40. In this case, the display surface of the tactile display device 40 is regarded as the setting plane, and only the pins 41 at the position where the object is present are projected, and the pins 41 at the position where no object is present are not projected. I do. In the tactile display device 40 used in this display method, it is sufficient that the number of steps of the amount of protrusion of the pin 41 is either two or not.

【0055】望ましくは、制御・駆動部32は、設定平
面の位置を自動的に移動させる。例えば、水平面を設定
する場合、その水平面の高さ位置を図8(A)に示した
最も低い位置600Hから最も高い位置600Aへ向っ
て段階的に上昇させていき、最も高い位置600Aに達
すると再び最も低い位置600Hに戻って同様の動作を
繰り返すというように、表示対象空間の全範囲を設定平
面でスイ−プすることを、例えば数秒程度の周期で繰り
返す。そして、このスイ−ピングにおける設定平面の各
位置で、上記のようにその設定平面内に存在する物体を
触覚表示装置40に表示する。
Preferably, the control / drive unit 32 automatically moves the position of the set plane. For example, when a horizontal plane is set, the height position of the horizontal plane is gradually increased from the lowest position 600H shown in FIG. 8A to the highest position 600A, and when it reaches the highest position 600A. Sweeping the entire range of the display target space on the set plane is repeated at a cycle of, for example, about several seconds, such as returning to the lowest position 600H again and repeating the same operation. Then, at each position of the setting plane in this sweeping, the object existing in the setting plane is displayed on the tactile display device 40 as described above.

【0056】図9は、この設定平面のスイーピングの方
法を用いて、図3(A)に例示した表示対象領域400
の様子を触覚表示装置40に表示した結果を示してい
る。図9(A)は、地面200すれすれの最も低い位置
に水平面を設定したときの表示例であり、壁300、3
10や登り階段320などのプラス高さの障害物が存在
する全領域のピン41(黒塗り円で示したピン)が突出
しており、障害物の存在しない地面200の領域のピン
41(白抜き円で示したピン)だけが下がっている。図
9(B)は、その水平面を中程度の高さ(例えば地上1
m)まで上昇させたときの表示例であり、壁300、3
10と上り階段320の奥の高い部分が存在する領域の
ピン41(黒塗り円で示したピン)だけは依然として突
出しているが、上り階段320のうち上り口付近の低い
部分の領域700のピンは下がっている。図9(C)
は、その水平面を最も高い位置(例えば地上2m)まで
上昇させたときの表示例であり、壁300、310が存
在する領域のピン41(黒塗り円で示したピン)のみが
突出しているだけで、それ以外の領域のピンは全て下が
っている。
FIG. 9 shows a display target area 400 illustrated in FIG. 3A by using the method of sweeping the setting plane.
3 is displayed on the tactile display device 40. FIG. 9A is a display example when a horizontal plane is set at the lowest position of the ground 200, and the walls 300, 3
The pins 41 (pins indicated by black circles) in the entire area where an obstacle having a plus height such as 10 and the climbing stairs 320 are protruding, and the pins 41 in the area of the ground 200 where there is no obstacle (open) Only the pin shown in a circle) is down. FIG. 9 (B) shows that the horizontal plane has a medium height (for example,
m) is a display example when the display is raised to m), and the walls 300, 3
Only the pins 41 (pins indicated by black circles) in the region where the deep part of the ascending stairs 10 and the ascending stairs 320 exist still protrude, but the pins in the region 700 of the ascending stairs 320 in the lower part near the ascending entrance are still protruding. Is down. FIG. 9 (C)
Is a display example when the horizontal plane is raised to the highest position (for example, 2 m above the ground), and only the pin 41 (the pin shown by a black circle) in the area where the walls 300 and 310 are present is protruding. The pins in the other areas are all down.

【0057】図9(A)、(B)、(C)の順で触覚表
示装置40の表示が変遷し、それが例えば数秒周期で繰
り返される。ユーザは、この表示の変遷を手などで触っ
て感じ取ることにより、地面すれすれの低い位置から自
分の身長より若干高い位置までの空間にどのような高さ
の物体が何処に存在しているかを把握することができ
る。
The display of the tactile display device 40 changes in the order of FIGS. 9A, 9B, and 9C, and is repeated, for example, every several seconds. The user touches and feels the transition of this display with his / her hand, etc., so that the user can grasp the height of the object and the location of the object in the space from a position slightly lower than the ground to a position slightly higher than the user's height. can do.

【0058】なお、このように設定平面をスイープさせ
る方法は、水平面だけでなく、例えば図8(A)に例示
したX軸に平行な鉛直面601A〜601Jについて
も、図8(B)に例示したY軸に平行な鉛直面602A
〜602Iについても同様に行うことができる。また、
平面の設定の仕方としては、図8に示したような全体座
標系の座標軸に沿って設定する方法だけでなく、ユーザ
の所望する任意の方向に設定する方法も可能である。
FIG. 8B shows a method of sweeping the setting plane not only in the horizontal plane but also in the vertical planes 601A to 601J parallel to the X axis shown in FIG. 8A, for example. Vertical plane 602A parallel to the Y axis
602I can be similarly performed. Also,
As a method of setting the plane, not only a method of setting along the coordinate axes of the entire coordinate system as shown in FIG. 8 but also a method of setting the plane in an arbitrary direction desired by the user is possible.

【0059】次に、環境認識の結果を用いてステレオヘ
ッドホン50を制御及び駆動する処理について説明す
る。
Next, a process for controlling and driving the stereo headphones 50 using the result of the environment recognition will be described.

【0060】図10は、ステレオヘッドホン50の制御
及び駆動方法の一例を示している。
FIG. 10 shows an example of a method for controlling and driving the stereo headphones 50.

【0061】図10に示すように、表示対象の空間内
に、例えば地面(道路)200があり、その両側には壁
330、340があり、その地面200内に穴350や
岩360などがあったとする。制御・駆動部32は、ユ
ーザ100の歩行の障害となる障害物、つまり壁33
0、340や穴350や岩36をそれぞれ独立した音源
であるとみなす。このとき、壁330、340や穴35
0や岩360などの各障害物は、環境認識で分類した各
障害物の種類に固有の音色や発音周期をもった音響を発
する音源であるとみなし、ユーザがその固有の音響から
各障害物の種類が識別できるようにする。また、壁33
0、340のようにサイズの大きい障害物については、
それをユーザからの距離に応じて複数の部分(例えば、
ユーザに近い部分、やや遠い部分、遠い部分など)に区
分して、その各部分が独立した音源であるとみなしても
よい。そして、制御・駆動部32は、各音源がそれぞれ
の固有の音響を発したとみなして、その音響がユーザ1
00の左右の耳101、102に受信されたときの波
形、強度、時刻などを計算して、その左右の耳に受信さ
れる音響信号を生成し、これをステレオヘッドホン50
の左右のイヤホン50L、50Rに出力する。ユーザ
は、左右の耳101、102に聞こえるステレオ音響効
果により、どのような種類の障害物がどの方向にどの程
度の距離の位置に存在するかを感じ取ることができる。
すなわち、ステレオ音響効果を利用して、表示対象空間
の音響的3次元画像をユーザに提供するのである。
As shown in FIG. 10, for example, in the space to be displayed, there is a ground (road) 200, walls 330, 340 on both sides thereof, and a hole 350, a rock 360, etc. in the ground 200. Suppose. The control / drive unit 32 is an obstacle that hinders the user 100 from walking, that is, the wall 33.
0, 340, hole 350, and rock 36 are regarded as independent sound sources. At this time, the walls 330 and 340 and the hole 35
Each obstacle such as 0 or rock 360 is regarded as a sound source that emits a sound having a tone and a sound period peculiar to the type of each obstacle classified by the environment recognition, and the user recognizes each obstacle from the unique sound. To be able to identify the type. Also, the wall 33
For obstacles large in size like 0 and 340,
Depending on the distance from the user, multiple parts (for example,
(A part close to the user, a part slightly far from the user, a part far from the user, etc.), and each part may be regarded as an independent sound source. Then, the control / drive unit 32 considers that each sound source emits its own sound, and the sound is
The waveform, intensity, time, and the like when received by the left and right ears 101 and 102 are calculated to generate acoustic signals to be received by the left and right ears.
To the left and right earphones 50L and 50R. The user can feel what kind of obstacle is present in what direction and at what distance by the stereo sound effect heard by the left and right ears 101 and 102.
That is, an acoustic three-dimensional image of the display target space is provided to the user using the stereo sound effect.

【0062】また、別の方法として、ステレオ音響効果
に加えて、イルカやコウモリが超音波で周囲の環境を認
識する原理を利用することもできる。すなわち、各障害
物330、340、350、360を音源とみなすので
はなく、ユーザ100を或る音響を或る周期(例えば2
〜3秒間隔)で発する音源とみなし、そのユーザ100
が発した音響が各障害物330、340、350、36
0で反射してユーザ100の左右の耳101、102に
受信されたときにどのように聞こえるかをシミュレート
する。図11は、この方法を行うときの制御・駆動部3
2の処理の流れを示している。
As another method, in addition to the stereophonic effect, the principle that dolphins and bats recognize the surrounding environment by ultrasonic waves can be used. That is, instead of considering each of the obstacles 330, 340, 350, and 360 as a sound source, the user 100 gives a certain sound to a certain period (for example, 2
33 seconds), the user 100
Sound produced by each of the obstacles 330, 340, 350, 36
It simulates how it will sound when reflected at 0 and received by the left and right ears 101, 102 of the user 100. FIG. 11 shows the control / drive unit 3 when performing this method.
2 shows the flow of processing.

【0063】図11に示すように、対象空間の距離画像
に基づいて環境認識を行って各障害物を識別した(ステ
ップS1)後、ユーザから仮想的な音波を対象空間に発
射したと仮定して(S2)、その音波が各障害物に当た
って反射してきてユーザの左右の耳に受信されたときの
左右の耳における受音響の強度や音波発射から受音まで
の遅れ時間等を計算する(S3)。このとき、各障害物
の種類毎に、反射音響の周波数や音色を異ならせれば、
ユーザはその反射音響から各障害物の種類が識別するこ
とができる。また、音波発射から受音までの遅れ時間の
計算では、音速を真の音速よりも遅く設定して計算する
ことで、小さな距離の違いであってもユーザの耳には明
確な受音時刻の違いとして感じ取れるようにする。こう
して、左右の耳の受音響を計算したならば、その音響を
左右の耳のイヤホンに出力する(S4)。
As shown in FIG. 11, it is assumed that after the environment is recognized based on the distance image of the target space to identify each obstacle (step S1), a virtual sound wave is emitted from the user to the target space. (S2), the intensity of the received sound in the left and right ears when the sound wave is reflected by each obstacle and received by the left and right ears of the user, the delay time from the sound wave emission to the sound reception, and the like are calculated (S3). ). At this time, if the frequency and tone of the reflected sound are different for each type of obstacle,
The user can identify the type of each obstacle from the reflected sound. Further, in the calculation of the delay time from the sound wave emission to the sound reception, the sound speed is set to be lower than the true sound speed, so that even when the distance is small, the user's ear has a clear sound reception time. Make them feel the difference. After calculating the sound reception of the left and right ears, the sound is output to the earphones of the left and right ears (S4).

【0064】この方法により、障害物の距離が、聞こえ
る音の強度だけでなく、聞こえる時刻の違いとしても現
われるので、ユーザはより一層明確に障害物の距離を把
握することができる。
According to this method, the distance of the obstacle appears not only as the intensity of the audible sound but also as a difference in audible time, so that the user can more clearly grasp the distance to the obstacle.

【0065】図12は、触覚表示装置40の表示面の形
状の変形例を示している。
FIG. 12 shows a modification of the shape of the display surface of the tactile display device 40.

【0066】触覚表示装置40の表示面は、単純な四角
形でもよいが、図12に示すように、手800の形に応
じた扇型に近い形状でも良い。また、このような扇型に
近い形状は、ステレオカメラの視野の平面形状にも近い
ので、視野内の空間の様子を無駄なく表現することがで
きる。
The display surface of the tactile display device 40 may be a simple quadrangle, but may be a fan-like shape corresponding to the shape of the hand 800 as shown in FIG. Further, such a shape close to a fan shape is close to the planar shape of the field of view of the stereo camera, so that the state of the space in the field of view can be expressed without waste.

【0067】図13は、ステレオカメラの変形例を示し
ている。
FIG. 13 shows a modification of the stereo camera.

【0068】図13(A)のステレオカメラでは、ヘア
バンド900の額に当たる前部に複数個のビデオカメラ
910が取りつけられている。図13(B)のステレオ
カメラでは、眼鏡920の前部フレームに複数個のビデ
オカメラ910が取りつけられている。図13(C)の
ステレオカメラでは、手で持つ懐中電灯型のスティック
930の先端部に複数個のビデオカメラ910が取りつ
けられている。このように、ステレオカメラの構成とし
ては様々なものが採用できる。
In the stereo camera shown in FIG. 13A, a plurality of video cameras 910 are attached to the front part corresponding to the forehead of the hair band 900. In the stereo camera of FIG. 13B, a plurality of video cameras 910 are attached to the front frame of the glasses 920. In the stereo camera of FIG. 13C, a plurality of video cameras 910 are attached to the tip of a flashlight-type stick 930 held by hand. Thus, various configurations can be adopted for the stereo camera.

【0069】以上、本発明の代表的な一実施形態を説明
したが、上記の実施形態はあくまで本発明の説明のため
の例示であり、本発明を上記実施形態にのみ限定する趣
旨ではない。従って、本発明は、上記実施形態以外の様
々な形態でも実施することができる。
Although the representative embodiment of the present invention has been described above, the above embodiment is merely an example for describing the present invention, and is not intended to limit the present invention to the above embodiment. Therefore, the present invention can be implemented in various modes other than the above-described embodiment.

【0070】例えば、各ピンが出ているか否かの2値し
か表現できない触覚制御装置を用いて、制御・駆動部で
は地面か障害物かだけを識別する最も簡単な環境認識を
行い、そして、障害物の存在する箇所だけ触覚制御装置
のピンを出すことで、単純に障害物だけをユーザに通知
するようにしてもよい。
For example, using a tactile control device capable of expressing only a binary value indicating whether each pin is out or not, the control / drive unit performs the simplest environment recognition for identifying only the ground or an obstacle, and The pin of the tactile sensation control device may be pinned out only at the location where the obstacle exists, so that only the obstacle may be simply notified to the user.

【0071】また、GPSなどのユーザの位置を割り出
すシステムと、建物の内部や地上の地形を極めて詳細且
つ正確に示した地図システムとを追加して、ユーザが地
図上の何処をどの方向に歩いているかを高精度に検出
し、この検出結果と、上述の実施形態で行っている距離
画像に基づく環境認識の結果とを組み合わせて、より詳
細且つ高精度な環境情報提供をユーザに行うようにして
もよい。
Also, a system for determining the position of the user, such as GPS, and a map system which shows the inside of the building and the terrain on the ground in a very detailed and accurate manner are added, so that the user can walk anywhere on the map in any direction. Is detected with high accuracy, and this detection result is combined with the result of environment recognition based on the distance image performed in the above-described embodiment to provide the user with more detailed and highly accurate environmental information. You may.

【0072】また、空間の3次元計測の方法として、上
述した実施形態ではステレオカメラで撮影した画像から
ステレオ視法で距離画像を得る方法(一般に「パッシブ
ステレオ法」と呼ばれる)を採用したが、それだけでな
く例えば次のような様々な方法を用いることもできる。
Further, as a method of three-dimensional measurement of space, in the above-described embodiment, a method of obtaining a distance image by stereo vision from an image captured by a stereo camera (generally called a “passive stereo method”) is employed. In addition, for example, the following various methods can be used.

【0073】(1) 能動型(パターン投光を必要とする
方法) アクティブステレオ法 光切断法、ランダムドット投影法、空間コード化法など 照度差ステレオ法 モアレ法 (2) 受動型(通常照明下で行うことができ、投光を必
要としない方法) パッシブステレオ法 2眼ステレオ法、3眼ステレオ法、多眼ステレオ法(上
記実施形態の方法) レンズ焦点法 単眼視法(テクチャや影などを利用する) 環境通知装置としては、上述した触覚表示装置及びステ
レオヘッドホンの他にも、様々な感覚刺激を発生する装
置を採用することができる。例えば、機械的振動を発す
るバイブレータや、警告音を発するスピーカ又はイヤホ
ンなども利用できる。特に、バイブレータは、視覚障害
だけでなく聴覚障害も持つユーザにとって便利である。
バイブレータの利用形態としては、例えば、腕輪形のバ
イブレータを片腕又は望ましくは両腕に装着し、更に望
ましくは腕以外の身体箇所にも各箇所に適した形態のバ
イブレータを装着し、そして、それらのバイブレ−タの
振動の強度や、振動波形や、振動間隔や、振動させるバ
イブレータの位置選択や、複数箇所のバイブレータの振
動の組み合わせなどを制御することで、どの方向のどの
距離にどのような障害物があるかをユーザに知らせる方
法などがある。
(1) Active type (method requiring pattern projection) Active stereo method Light cutting method, random dot projection method, spatial coding method, etc. Photometric stereo method Moire method (2) Passive type (under normal illumination Method that does not require light projection) Passive stereo method Two-lens stereo method, three-lens stereo method, multi-lens stereo method (method of the above embodiment) Lens focusing method Monocular method (such as texture and shadow) As the environment notification device, a device that generates various sensory stimuli other than the tactile display device and the stereo headphones described above can be used. For example, a vibrator that emits mechanical vibration, a speaker or earphone that emits a warning sound, and the like can be used. In particular, vibrators are useful for users who have hearing impairments as well as visual impairments.
As a utilization form of the vibrator, for example, a bracelet-shaped vibrator is attached to one arm or desirably both arms, and more desirably, a vibrator having a form suitable for each part is attached to a body part other than the arm, and By controlling the vibration intensity of the vibrator, the vibration waveform, the vibration interval, the selection of the position of the vibrator to be vibrated, and the combination of the vibrations of the vibrators at a plurality of locations, it is possible to determine which obstacles are in which directions in which directions. There is a method of notifying the user whether there is something.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に従う視覚障害者環境認識支援装置の一
実施形態の全体構成を示す斜視図。
FIG. 1 is a perspective view showing the overall configuration of an embodiment of a visually impaired person environment recognition support apparatus according to the present invention.

【図2】ステレオカメラ20の向きと地面との関係を示
す説明図。
FIG. 2 is an explanatory diagram showing a relationship between the direction of a stereo camera 20 and the ground.

【図3】環境認識で識別した物体の位置と高さを触覚表
示装置40に表示する方法の一例を示した図。
FIG. 3 is a diagram showing an example of a method of displaying a position and a height of an object identified by environment recognition on a tactile display device 40;

【図4】環境認識で識別した物体を触覚表示装置40に
表示する方法の別の例を示した図。
FIG. 4 is a diagram showing another example of a method of displaying an object identified by environment recognition on a tactile display device 40.

【図5】環境認識で識別した物体を触覚表示装置40に
表示する方法の更に別の例を示した図。
FIG. 5 is a diagram showing still another example of a method of displaying an object identified by environment recognition on the tactile display device 40.

【図6】環境認識で識別した物体を触覚表示装置40に
表示する方法の更にまた別の例を示した図。
FIG. 6 is a diagram showing still another example of a method of displaying an object identified by environment recognition on the tactile display device 40.

【図7】環境認識で識別した物体を触覚表示装置40に
表示する方法のまた別の例を示した図。
FIG. 7 is a diagram showing another example of a method of displaying an object identified by environment recognition on the tactile display device 40.

【図8】表示対象空間内に任意の平面を設け、その平面
内での物体の有無を触覚表示装置40に表示する方法を
行うときの、平面の設定の仕方の様々な例を示した図。
FIG. 8 is a diagram showing various examples of how to set a plane when a method of providing an arbitrary plane in the display target space and displaying the presence or absence of an object in the plane on the tactile display device 40 is performed. .

【図9】表示対象空間内に任意の平面を設け、その平面
内での物体の有無を触覚表示装置40に表示する方法を
行うときの、触覚表示装置40の表示例を示した図。
FIG. 9 is a diagram showing a display example of the tactile display device 40 when an arbitrary plane is provided in the display target space and a method of displaying the presence or absence of an object in the plane on the tactile display device 40 is performed.

【図10】ステレオヘッドホン50の制御及び駆動方法
の一例を示した図。
FIG. 10 is a diagram showing an example of a method of controlling and driving the stereo headphones 50.

【図11】ステレオ音響効果に加えて、イルカやコウモ
リが超音波で周囲の環境を認識する原理を利用して音響
3次元画像をユーザに提供するときの、制御・駆動部3
2の処理の流れを示すフローチャート。
FIG. 11 shows a control / drive unit 3 for providing a user with an acoustic three-dimensional image using the principle that dolphins and bats recognize the surrounding environment by ultrasonic waves in addition to the stereophonic sound effect.
9 is a flowchart showing the flow of the processing of FIG.

【図12】触覚表示装置40の表示面の形状の変形例を
示した平面図。
FIG. 12 is a plan view showing a modification of the shape of the display surface of the tactile display device 40.

【図13】ステレオカメラの変形例を示してた斜視図。FIG. 13 is a perspective view showing a modification of the stereo camera.

【符号の説明】[Explanation of symbols]

20 ステレオカメラ 21ビデオカメラ(例えばCCDカメラ) 30 データ処理装置 31 距離画像計算部 32 制御・駆動部 40 触覚表示装置 41 ピン 50 ステレオヘッドホン 100 ユーザ 110 ステレオカメラの視野角 200 地面 Reference Signs List 20 stereo camera 21 video camera (for example, CCD camera) 30 data processing device 31 distance image calculation unit 32 control / drive unit 40 tactile display device 41 pin 50 stereo headphone 100 user 110 stereo camera viewing angle 200 ground

───────────────────────────────────────────────────── フロントページの続き (72)発明者 若井 秀之 神奈川県平塚市万田1200 株式会社小松製 作所研究所内 Fターム(参考) 5B057 AA19 BA02 CA13 CA16 DA06 DA15 DB03 DC01  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hideyuki Wakai 1200 Manda, Hiratsuka-shi, Kanagawa F-term (reference) in Komatsu Ltd. 5B057 AA19 BA02 CA13 CA16 DA06 DA15 DB03 DC01

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの前方に広がる3次元空間を監視
する空間監視手段と、 前記空間監視手段の出力信号を用いて、前記3次元空間
内で物体が占めている物体領域の3次元座標を計算する
計算手段と、 前記計算手段によって計算された前記物体領域の3次元
座標に応じた触覚刺激又は音響を発生するための駆動信
号を出力する駆動手段と、 前記駆動手段から前記駆動信号を受けて前記触覚刺激又
は音響を発生する通知手段とを備えた視覚障害者用環境
認識支援装置。
1. A space monitoring means for monitoring a three-dimensional space extending in front of a user, and using an output signal of the space monitoring means, three-dimensional coordinates of an object area occupied by an object in the three-dimensional space. Calculating means for calculating; driving means for outputting a driving signal for generating a tactile stimulus or sound corresponding to the three-dimensional coordinates of the object region calculated by the calculating means; and receiving the driving signal from the driving means. And an informing means for generating the tactile stimulus or sound.
【請求項2】 前記通知手段が、ユーザが触れて感知で
きる凹凸画像を生成する触覚表示装置を有し、 前記駆動手段が、前記物体領域の3次元位置を凹凸画像
で表現するように前記触覚表示装置を駆動する請求項1
記載の視覚障害者用環境認識支援装置。
2. The haptic display device according to claim 1, wherein the notifying unit has a tactile display device that generates a concavo-convex image that can be sensed by touching the user. A display device is driven.
An environment recognition support device for the visually impaired according to the description.
【請求項3】 前記通知手段が、ユーザが左右の耳で音
源の距離と方向を感知できるステレオ音響を生成するス
テレオ音響発生装置を有し、 前記駆動手段が、前記物体領域のユーザからの距離と方
向を前記ステレオ音響で表現するように前記ステレオ音
響発生装置を駆動する請求項1記載の視覚障害者用環境
認識支援装置。
3. The notifying unit includes a stereo sound generating device that generates a stereo sound that allows a user to sense a distance and a direction of a sound source with left and right ears, and wherein the driving unit determines a distance of the object area from the user. The environment recognition support device for a visually impaired person according to claim 1, wherein the stereo sound generation device is driven so that the direction and the direction are expressed by the stereo sound.
【請求項4】 空間監視手段が、複数の異なる位置から
前記3次元空間を撮影する複数眼のカメラを有し、 前記計算手段が、前記複数眼のカメラで撮影された複数
枚の画像を用いて、ステレオ視法により前記物体領域の
3次元座標を計算する請求項1記載の視覚障害者用環境
認識支援装置。
4. The space monitoring means has a multi-eye camera for photographing the three-dimensional space from a plurality of different positions, and the calculation means uses a plurality of images photographed by the multi-eye camera. The environment recognition support apparatus for visually impaired persons according to claim 1, wherein the three-dimensional coordinates of the object area are calculated by stereo vision.
【請求項5】 前記計算手段によって計算された前記物
体領域の3次元座標に基づいて、前記3次元空間に存在
する個々の物体の種類と3次元座標を識別する環境認識
手段を更に備え、 前記駆動手段は、前記環境認識手段によって識別された
物体の種類と3次元座標に応じて前記触覚刺激又は音響
を制御する請求項1記載の視覚障害者用環境認識支援装
置。
5. An environment recognizing means for identifying the type and the three-dimensional coordinates of each object existing in the three-dimensional space based on the three-dimensional coordinates of the object area calculated by the calculating means, 2. The environment recognition support device for visually impaired persons according to claim 1, wherein the driving means controls the tactile stimulus or the sound in accordance with the type and three-dimensional coordinates of the object identified by the environment recognition means.
【請求項6】 環境認識手段は、前記3次元空間に存在
する個々の物体を障害物か否か識別し、 前記駆動手段は、前記環境認識手段によって識別された
障害物の3次元座標に応じて前記触覚刺激又は音響を制
御する請求項5記載の視覚障害者用環境認識支援装置。
6. An environment recognizing means for identifying whether an individual object existing in the three-dimensional space is an obstacle, and the driving means according to three-dimensional coordinates of the obstacle identified by the environment recognizing means. The environment recognition support device for the visually impaired according to claim 5, wherein the tactile stimulus or the sound is controlled by the control.
【請求項7】 ユーザの前方に広がる3次元空間を監視
するステップと、 前記空間監視の結果に基づいて、前記3次元空間内で物
体が占めている物体領域の3次元座標を計算するステッ
プと、 前記計算手段によって計算された前記物体領域の3次元
座標に応じた触覚刺激又は音響を前記ユーザに与えるス
テップとを備えた視覚障害者用環境認識支援方法。
7. A step of monitoring a three-dimensional space extending in front of the user, and a step of calculating three-dimensional coordinates of an object area occupied by the object in the three-dimensional space based on a result of the space monitoring. Providing a tactile stimulus or a sound to the user in accordance with the three-dimensional coordinates of the object area calculated by the calculation means.
JP2000259795A 2000-08-29 2000-08-29 Device and method for supporting environmental recognition for visually handicapped Pending JP2002065721A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000259795A JP2002065721A (en) 2000-08-29 2000-08-29 Device and method for supporting environmental recognition for visually handicapped

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000259795A JP2002065721A (en) 2000-08-29 2000-08-29 Device and method for supporting environmental recognition for visually handicapped

Publications (1)

Publication Number Publication Date
JP2002065721A true JP2002065721A (en) 2002-03-05

Family

ID=18747917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000259795A Pending JP2002065721A (en) 2000-08-29 2000-08-29 Device and method for supporting environmental recognition for visually handicapped

Country Status (1)

Country Link
JP (1) JP2002065721A (en)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003023699A (en) * 2001-07-05 2003-01-24 Saibuaasu:Kk Spatial information auralizing system and spatial information auralizing method
WO2005046542A1 (en) * 2003-11-17 2005-05-26 Satoru Kaneko Ultrasonic sight assisting device
JP2005266014A (en) * 2004-03-16 2005-09-29 Tokyo Institute Of Technology Image recognition device for visually handicapped person, method and program thereof
JP2006208193A (en) * 2005-01-28 2006-08-10 Yoshiji Mogi Position detection system for obstruction
WO2006098134A1 (en) * 2005-03-17 2006-09-21 The University Of Tokushima Infrared guide system and user guide terminal
KR100690562B1 (en) 2005-06-20 2007-03-09 경북대학교 산학협력단 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same
WO2007066717A1 (en) * 2005-12-08 2007-06-14 The University Of Tokyo Electric tactile display
GB2441434A (en) * 2006-08-29 2008-03-05 David Charles Dewhurst AUDIOTACTILE VISION SUBSTITUTION SYSTEM e.g. FOR THE BLIND
US7386163B2 (en) 2002-03-15 2008-06-10 Sony Corporation Obstacle recognition apparatus and method, obstacle recognition program, and mobile robot apparatus
WO2010011045A2 (en) * 2008-07-24 2010-01-28 Park Sun Ho Apparatus and method for converting video information into a tactile sensitive signal
WO2010145013A1 (en) * 2009-06-19 2010-12-23 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
JP2011030584A (en) * 2009-07-29 2011-02-17 Hitachi Kokusai Electric Inc Walking aid device
DE102009059820A1 (en) * 2009-12-21 2011-06-22 Dietrich, Karl Werner, Dr., 51519 Method for recognizing of surrounding for visually impaired, involves recording portion of surrounding of visually impaired by optical recording device, particularly laser scanner or camera
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
JP2012133678A (en) * 2010-12-22 2012-07-12 Kyocera Corp Tactile presentation apparatus
CN102688120A (en) * 2012-06-08 2012-09-26 綦峰 Colored audio and video guide method and colored audio and video guide device
KR101230341B1 (en) * 2010-11-30 2013-02-06 전자부품연구원 Vision Assistant System And Method thereof
JP2013034490A (en) * 2011-08-03 2013-02-21 Alpha Media:Kk Walking support apparatus for visually impaired person
JP2013226345A (en) * 2012-04-27 2013-11-07 Nidek Co Ltd Space recognition device
JP2013254474A (en) * 2012-02-10 2013-12-19 Konan Gakuen Obstacle detector
JP2014062795A (en) * 2012-09-20 2014-04-10 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring device for operating machine
JP2014062794A (en) * 2012-09-20 2014-04-10 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring device for operating machine
KR101428401B1 (en) * 2013-07-12 2014-08-14 한양대학교 산학협력단 Apparatus for providing tactile signals converted from image information and method thereof
WO2016036160A1 (en) * 2014-09-05 2016-03-10 주식회사 디자인아이피 Information providing apparatus for visually handicapped person
JP2016059808A (en) * 2014-09-12 2016-04-25 トヨタ自動車株式会社 User assistance by robot
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
CN106074095A (en) * 2016-05-26 2016-11-09 英华达(上海)科技有限公司 A kind of low visual acuity person's auxiliary equipment and method
KR101794493B1 (en) * 2010-07-09 2017-11-07 디지맥 코포레이션 Mobile devices and methods employing haptics
GB2554113A (en) * 2016-06-19 2018-03-28 Charles Dewhurst David System for presenting items
CN108042323A (en) * 2017-12-10 2018-05-18 吴得佑 Possess the walking stick and its application process of obstacle detection and intelligent navigation
JP2019053367A (en) * 2017-09-13 2019-04-04 株式会社アルファメディア Image processing device and movement support device
KR20190135233A (en) * 2018-05-28 2019-12-06 사회복지법인 삼성생명공익재단 The apparatus for assisting vision and method for assisting vision by the apparatus
CN110559127A (en) * 2019-08-27 2019-12-13 上海交通大学 intelligent blind assisting system and method based on auditory sense and tactile sense guide
CN110613550A (en) * 2018-07-06 2019-12-27 北京大学 Helmet device and method for converting visual information into tactile graphic time-domain codes
CN112130555A (en) * 2020-06-09 2020-12-25 广东科学技术职业学院 Self-walking robot and system based on laser navigation radar and computer vision perception fusion
CN113407743A (en) * 2016-04-08 2021-09-17 北京三星通信技术研究有限公司 Object information translation and derivative information acquisition method and device
EP3964865A1 (en) * 2020-09-04 2022-03-09 Università di Pisa A system for assisting a blind or low-vision subject displacements
CN115470420A (en) * 2022-10-31 2022-12-13 北京智源人工智能研究院 Health and safety prompting method based on knowledge graph, electronic equipment and storage medium

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003023699A (en) * 2001-07-05 2003-01-24 Saibuaasu:Kk Spatial information auralizing system and spatial information auralizing method
US7386163B2 (en) 2002-03-15 2008-06-10 Sony Corporation Obstacle recognition apparatus and method, obstacle recognition program, and mobile robot apparatus
WO2005046542A1 (en) * 2003-11-17 2005-05-26 Satoru Kaneko Ultrasonic sight assisting device
JP2005266014A (en) * 2004-03-16 2005-09-29 Tokyo Institute Of Technology Image recognition device for visually handicapped person, method and program thereof
JP2006208193A (en) * 2005-01-28 2006-08-10 Yoshiji Mogi Position detection system for obstruction
WO2006098134A1 (en) * 2005-03-17 2006-09-21 The University Of Tokushima Infrared guide system and user guide terminal
JP2006258591A (en) * 2005-03-17 2006-09-28 Univ Of Tokushima Infrared guiding system and user guide terminal device
KR100690562B1 (en) 2005-06-20 2007-03-09 경북대학교 산학협력단 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same
US8920174B2 (en) 2005-12-08 2014-12-30 The University Of Tokyo Electric tactile display
WO2007066717A1 (en) * 2005-12-08 2007-06-14 The University Of Tokyo Electric tactile display
EP1970877A1 (en) * 2005-12-08 2008-09-17 The University of Tokyo Electric tactile display
EP1970877A4 (en) * 2005-12-08 2014-05-21 Univ Tokyo Electric tactile display
GB2441434A (en) * 2006-08-29 2008-03-05 David Charles Dewhurst AUDIOTACTILE VISION SUBSTITUTION SYSTEM e.g. FOR THE BLIND
GB2441434B (en) * 2006-08-29 2010-06-23 David Charles Dewhurst Audiotactile vision substitution system
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
WO2010011045A3 (en) * 2008-07-24 2010-05-06 Park Sun Ho Apparatus and method for converting video information into a tactile sensitive signal
WO2010011045A2 (en) * 2008-07-24 2010-01-28 Park Sun Ho Apparatus and method for converting video information into a tactile sensitive signal
WO2010145013A1 (en) * 2009-06-19 2010-12-23 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US9370459B2 (en) 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
US9801778B2 (en) 2009-06-19 2017-10-31 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
JP2011030584A (en) * 2009-07-29 2011-02-17 Hitachi Kokusai Electric Inc Walking aid device
DE102009059820A1 (en) * 2009-12-21 2011-06-22 Dietrich, Karl Werner, Dr., 51519 Method for recognizing of surrounding for visually impaired, involves recording portion of surrounding of visually impaired by optical recording device, particularly laser scanner or camera
US9836929B2 (en) 2010-07-09 2017-12-05 Digimarc Corporation Mobile devices and methods employing haptics
KR101794493B1 (en) * 2010-07-09 2017-11-07 디지맥 코포레이션 Mobile devices and methods employing haptics
KR101230341B1 (en) * 2010-11-30 2013-02-06 전자부품연구원 Vision Assistant System And Method thereof
JP2012133678A (en) * 2010-12-22 2012-07-12 Kyocera Corp Tactile presentation apparatus
JP2013034490A (en) * 2011-08-03 2013-02-21 Alpha Media:Kk Walking support apparatus for visually impaired person
JP2013254474A (en) * 2012-02-10 2013-12-19 Konan Gakuen Obstacle detector
JP2013226345A (en) * 2012-04-27 2013-11-07 Nidek Co Ltd Space recognition device
CN102688120A (en) * 2012-06-08 2012-09-26 綦峰 Colored audio and video guide method and colored audio and video guide device
JP2014062795A (en) * 2012-09-20 2014-04-10 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring device for operating machine
JP2014062794A (en) * 2012-09-20 2014-04-10 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring device for operating machine
KR101428401B1 (en) * 2013-07-12 2014-08-14 한양대학교 산학협력단 Apparatus for providing tactile signals converted from image information and method thereof
WO2016036160A1 (en) * 2014-09-05 2016-03-10 주식회사 디자인아이피 Information providing apparatus for visually handicapped person
JP2016059808A (en) * 2014-09-12 2016-04-25 トヨタ自動車株式会社 User assistance by robot
CN113407743A (en) * 2016-04-08 2021-09-17 北京三星通信技术研究有限公司 Object information translation and derivative information acquisition method and device
CN106074095A (en) * 2016-05-26 2016-11-09 英华达(上海)科技有限公司 A kind of low visual acuity person's auxiliary equipment and method
GB2554113A (en) * 2016-06-19 2018-03-28 Charles Dewhurst David System for presenting items
JP7101350B2 (en) 2017-09-13 2022-07-15 株式会社アルファメディア Image processing device and movement support device
JP2019053367A (en) * 2017-09-13 2019-04-04 株式会社アルファメディア Image processing device and movement support device
CN108042323A (en) * 2017-12-10 2018-05-18 吴得佑 Possess the walking stick and its application process of obstacle detection and intelligent navigation
CN108042323B (en) * 2017-12-10 2024-01-09 吴得佑 Walking stick with obstacle detection and intelligent navigation functions and application method thereof
KR20190135233A (en) * 2018-05-28 2019-12-06 사회복지법인 삼성생명공익재단 The apparatus for assisting vision and method for assisting vision by the apparatus
KR102291179B1 (en) 2018-05-28 2021-08-19 사회복지법인 삼성생명공익재단 The apparatus for assisting vision and method for assisting vision by the apparatus
US11475663B2 (en) 2018-05-28 2022-10-18 Samsung Life Public Welfare Foundation Visual aid device and visual aid method by which user uses visual aid device
CN110613550A (en) * 2018-07-06 2019-12-27 北京大学 Helmet device and method for converting visual information into tactile graphic time-domain codes
CN110559127A (en) * 2019-08-27 2019-12-13 上海交通大学 intelligent blind assisting system and method based on auditory sense and tactile sense guide
CN112130555A (en) * 2020-06-09 2020-12-25 广东科学技术职业学院 Self-walking robot and system based on laser navigation radar and computer vision perception fusion
CN112130555B (en) * 2020-06-09 2023-09-15 广东科学技术职业学院 Self-walking robot and system based on laser navigation radar and computer vision perception fusion
EP3964865A1 (en) * 2020-09-04 2022-03-09 Università di Pisa A system for assisting a blind or low-vision subject displacements
CN115470420A (en) * 2022-10-31 2022-12-13 北京智源人工智能研究院 Health and safety prompting method based on knowledge graph, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2002065721A (en) Device and method for supporting environmental recognition for visually handicapped
Jafri et al. Visual and infrared sensor data-based obstacle detection for the visually impaired using the Google project tango tablet development kit and the unity engine
US9370459B2 (en) System and method for alerting visually impaired users of nearby objects
Dunai et al. Real-time assistance prototype—A new navigation aid for blind people
US9801778B2 (en) System and method for alerting visually impaired users of nearby objects
US8922759B2 (en) White cane with integrated electronic travel aid using 3D TOF sensor
US20220337801A1 (en) Image display system
WO2003107039A2 (en) Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
Skulimowski et al. Interactive sonification of U-depth images in a navigation aid for the visually impaired
JP2006011880A (en) Environmental map creation method and device, and mobile robot device
US10782780B2 (en) Remote perception of depth and shape of objects and surfaces
WO2005087452A9 (en) Robot device, behavior control method for the robot device, and moving device
CN107341789B (en) System and method for predicting pathway of visually impaired people based on RGB-D camera and stereo
CN104036488A (en) Binocular vision-based human body posture and action research method
KR101744282B1 (en) Blind zone projection guide system for walking safety
JP2006251596A (en) Support device for visually handicapped person
US20230296405A1 (en) Method and system of detecting obstacle elements with a visual aid device
Hoang et al. Obstacle detection and warning for visually impaired people based on electrode matrix and mobile Kinect
JPH10198506A (en) System for detecting coordinate
JP5002068B1 (en) Environmental information transmission device
KR101821592B1 (en) Walking simulator system using virtual reality and method for calculating pedestrian position thereof
JP7422361B2 (en) Tracking devices and programs
JP3837572B2 (en) Image recognition apparatus, method and program for visually handicapped person
US20190230460A1 (en) Method and apparatus for creating a three-dimensional scenario
Razavi et al. A novel method of detecting stairs for the blind