JP5461486B2 - Visually handicapped walking support device - Google Patents
Visually handicapped walking support device Download PDFInfo
- Publication number
- JP5461486B2 JP5461486B2 JP2011170148A JP2011170148A JP5461486B2 JP 5461486 B2 JP5461486 B2 JP 5461486B2 JP 2011170148 A JP2011170148 A JP 2011170148A JP 2011170148 A JP2011170148 A JP 2011170148A JP 5461486 B2 JP5461486 B2 JP 5461486B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- sectional area
- image
- cross
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 105
- 238000004364 calculation method Methods 0.000 claims description 69
- 230000008859 change Effects 0.000 claims description 40
- 230000001771 impaired effect Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 15
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 description 19
- 238000013459 approach Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000001186 cumulative effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Rehabilitation Tools (AREA)
Description
本発明は、視覚障害者が単独で行動するとき、段差や窪み、障害物などに接近したこと、あるいは上記障害物などが接近してきたことを知らせることにより安全な歩行を支援する視覚障害者歩行支援装置に関するものである。 The present invention is a visually impaired person walking that supports safe walking by notifying that a visually impaired person is approaching a step, a depression, an obstacle, or that the obstacle is approaching. The present invention relates to a support device.
視覚障害者が単独で安全に行動することを支援する装置が各種提案されている。特許文献1乃至特許文献3に記載されている発明はその例で、これらの従来例について概略を説明する。
Various devices for supporting a visually impaired person to act safely alone have been proposed. The invention described in
特許文献1記載の発明は、多眼ステレオカメラで前方の空間を撮影し、その撮影画像データをデータ処理装置が受けて前方空間内の物体の3次元位置を計算することにより、地面や障害物などとして識別するようにしたものである。そして、その識別結果を、触覚表示装置やヘッドホンなどによって使用者に伝達するようになっている。上記触覚表示装置は、表示面に多数のピンが進退自在に配列されていて、上記識別結果に基づき、地面や障害物などをピンの凹凸によって表示するようになっている。使用者は、上記触覚表示装置に触ってピンの凹凸を認識することにより、地面や障害物などの存在を認識することができる。また、特許文献1には、前方の地面に生じている穴などは、対応するピンを振動させることによって使用者に認識させることができる旨の記載がある。
The invention described in
特許文献2記載の発明は、主として、ステレオ画像取込器と、モバイルコンピュータと、情報伝達器を備え、ステレオ画像取込器によって撮像されたステレオ画像から現在位置に関する文字情報や行き先に関する文字情報などを抽出し、この文字情報から得られる意味内容を、情報伝達器が音声情報、触角情報によって発するようにしたものである。
特許文献3記載の発明は、GPSセンサを備えたナビゲーションシステムを移動端末に組み込んだもので、目的地を音声で設定入力するようになっている。移動端末は携帯通信端末によりサーバーと接続することができる。サーバーは、現在地と目的地の情報を格納して移動ルートを作成し、移動ルートデータを受け取った移動端末は音声で移動ルートを案内する。
The invention described in
The invention described in
特許文献1記載の発明によれば、使用者は触覚表示装置に触り続けることによって前方空間の状況を把握することができる。したがって、使用者は常時触覚表示装置に触り続けてピンの凹凸が意味しているものを常に考えなければならず、使い勝手が悪い。また、生まれながらの視覚障害者は、物の物理的な形状をイメージすることが困難であり、触覚表示装置で表示されている視覚情報を的確に分析し、判断することは難しい。よって、視覚情報をピンの凹凸で再現しても、その意味するところを把握することは難しく、実用的ではない。また、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すこともできない。
According to the invention described in
特許文献2記載の発明は、撮像されたステレオ画像から文字情報を読み取ってその意味内容を音声情報や触角情報で使用者に発するものであるから、画像中の文字認識処理、文字の意味内容の分析処理、音声情報への変換処理に時間がかかる。そのため、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すことはできない。もともと、特許文献2記載の発明は、上記のような場合に警報を発する目的のものではない。また、視覚情報から文字情報を読み取ることの信頼性、読み取った文字情報の意味内容を分析することの信頼性に難点があるため、実用化するためには多くの技術的改良を加える必要がある。
In the invention described in
特許文献3記載の発明は、GPSセンサを備えたナビゲーションシステムやサーバーおよびナビゲーションシステムとサーバー間で通信する携帯通信端末といった大掛かりな装置およびシステムを必要とし、コスト高になる難点がある。また、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すこともできない。
The invention described in
本発明は、以上説明した従来技術の問題点を解消すること、すなわち、比較的簡単な構成でありながら、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すことができる視覚障害者歩行支援装置を提供することを目的とする。 The present invention eliminates the problems of the prior art described above, i.e., when a wall or a station platform falls down or an obstacle such as a wall appears in the front while having a relatively simple configuration. An object of the present invention is to provide a walking support device for visually impaired people who can give a warning and prompt attention.
本発明に係る視覚障害者歩行支援装置は、
同一被写体に対し一定の基線長をおいて撮像することにより一対の画像を得ることができるステレオカメラと、
上記一対の画像を複数の上下方向の領域に分割する画像処理装置と、
分割された上記複数領域の一対の画像から、各領域において撮像されている被写体とカメラを結ぶ線である距離ベクトルの長さを演算する距離ベクトル演算部と、
上記領域ごとの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部と、
上記各領域における距離ベクトルの長さと上記領域ごとのカメラ角度から、上記各領域における平坦な地面からのカメラ高さを演算するカメラ高さ演算部と、
上記各領域におけるカメラ高さの平均値を演算してカメラ高さ基準値とするカメラ高さ平均値演算部と、
互いに隣接する2つの領域の各距離ベクトルの先端によって底辺が区切られ、これらの距離ベクトルの先端から垂直に伸び、上辺が上記カメラ高さ位置で区切られる四角形の空間断面積を演算する空間断面積演算部と、
平坦面で歩行しかつ障害物のない空間で得た上記各領域における上記空間断面積を基準空間断面積としたとき、上記各領域における上記基準空間断面積に対する実働時の空間断面積の比が一定以上になったとき警報信号を出力する空間断面積比演算部と、
上記警報信号の出力によって動作し警報を発する警報装置と、を有し、
上記空間断面積演算部は、各領域における実働時の空間断面積を一定の時間間隔で演算するものであり、
上記空間断面積比演算部は、上記基準空間断面積に対する最新の上記実働時の空間断面積の比を演算するものであることを最も主要な特徴とする。
The visually impaired person walking support device according to the present invention includes:
A stereo camera capable of obtaining a pair of images by capturing an image of the same subject with a certain baseline length;
An image processing apparatus for dividing the pair of images into a plurality of vertical regions;
From a pair of images of the divided plurality regions, the distance vector calculator for calculating the length of the distance vector is a line connecting the object and the camera that is imaged in each region,
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the distance vector for each region for each region;
From the distance vector length in each region and the camera angle for each region, a camera height calculation unit that calculates the camera height from the flat ground in each region ,
A camera height average value calculation unit that calculates an average value of the camera height in each of the above areas and sets it as a camera height reference value;
Spatial cross-sectional area that calculates a square cross-sectional area in which the base is delimited by the tip of each distance vector of two adjacent areas, extends vertically from the top of these distance vectors, and the top is delimited by the camera height position. An arithmetic unit;
When a reference space sectional area of the space cross-sectional area in the respective regions obtained by the spatial without walking only One obstacle in the flat surface, the ratio of the spatial cross-sectional area of the production time with respect to the reference space cross-sectional area of each region A spatial cross-sectional area ratio calculation unit that outputs an alarm signal when becomes more than a certain value,
An alarm device that operates in response to the output of the alarm signal and issues an alarm ;
The space cross-sectional area calculation unit calculates the space cross-sectional area at the time of actual operation in each region at a constant time interval,
The most important feature is that the space cross-sectional area ratio calculation unit calculates a ratio of the latest space cross-sectional area during actual operation to the reference space cross-sectional area .
画面中の被写体までの距離の変化のみで障害物などの有無を判断するのではなく、空間断面積の変化によって障害物などの有無を判断する。距離のみの変化に対して空間断面積の変化は顕著に表れるため、障害物などの有無の判断が迅速かつ確実になり、障害物などが現れた場合の警報を迅速かつ確実に発することができる。
The presence / absence of an obstacle or the like is determined based on a change in the spatial cross-sectional area rather than the presence / absence of an obstacle or the like based on only the change in the distance to the subject on the screen. Since the change in the spatial cross-sectional area appears remarkably with respect to only the change in distance , it is possible to quickly and reliably determine whether there is an obstacle, etc., and to promptly and reliably issue an alarm when an obstacle appears. .
以下、本発明に係る視覚障害者歩行支援装置の実施例について、図面を参照しながら説明する。 Embodiments of the visually impaired person walking support apparatus according to the present invention will be described below with reference to the drawings.
まず、視覚障害者歩行支援装置の実施例の概略を、図2の外観図を参照しながら説明する。本実施例は、ステレオカメラを構成する右眼カメラ11と左眼カメラ12、画像デジタル化装置15,16、演算装置20、警報装置としてのヘッドホン31および振動装置32を備えている。右眼カメラ11、左眼カメラ12、画像デジタル化装置15,16は、眼鏡のフレームと同じ形をしたフレームに装着されている。より具体的には、右眼カメラ11は右側のレンズ枠1に、左眼カメラ12は左側のレンズ枠2に、それぞれ水平軸と垂直軸を中心に回転位置を調整可能に装着され、画像デジタル化装置15,16は上記フレームの左右の蔓3に装着されている。上記フレームは、健常者が眼鏡を装着するのと同様に視覚障害者が装着することができ、視覚障害者の左右の目の前に左右のカメラ11,12が位置するようになっている。
First, an outline of an embodiment of the visually impaired person walking support apparatus will be described with reference to the external view of FIG. The present embodiment includes a right-
ステレオカメラを構成する右眼カメラ11と左眼カメラ12は、一定の基線長をおいて同一被写体を撮像することにより被写体までの距離を測定するために用いられる。上記左右のカメラ11,12はCCDその他の撮像素子を備えていて、各撮像素子から出力される画像信号はそれぞれ画像デジタル化装置15,16でデジタルデータに変換され、かつ、複数の画像領域に対応した信号に分割されて演算装置20に入力されるように構成されている。上記ステレオカメラによる距離測定を補助するために、あるいは上記ステレオカメラによる距離測定に代えて、左右のレンズ枠1,2の中間に距離センサ13を設けてもよい。
The
演算装置20は、例えば、CPUあるいはDSP(デジタル信号処理装置:DIGITAL Signal Processor)を主たる構成要素として備えている。演算装置20に加えてメモリ(図示されず)からなる記憶部を備えている。演算装置20は、上記画像データ信号に基づいて、後で詳細に説明する各種演算を行うことにより、前方に段差や障害物などが現れたとき警報信号を出力するようになっている。ヘッドホン31、振動装置32は上記警報信号によって動作し、ヘッドホン31は音声で使用者に注意を促し、振動装置32はそれ自身が振動することによって使用者に注意を促す。演算装置20は、使用者の腰などに装着され、左右のカメラ11,12および画像デジタル化装置15,16も含めた視覚障害者歩行支援装置を駆動するための電源電池を内蔵している。
The
次に、上記視覚障害者歩行支援装置の信号処理系統の例について、図1を参照しながら説明する。図1において、符号10は上記左右のカメラ11,12を備えたステレオカメラを示している。ステレオカメラ10から出力される左右の画像信号は、A/D変換器17によりデジタル信号による画像データ信号に変換され、画像処理装置18に入力される。A/D変換器17は、図2に示す画像デジタル化装置15,16に相当する。画像処理装置18は、左右一対の画像を複数の領域に分割する機能を備えていて、左右の画像データ信号を、分割した領域ごとに演算装置20に入力するようになっている。
Next, an example of a signal processing system of the visually impaired walking support apparatus will be described with reference to FIG. In FIG. 1, the code |
演算装置20は、距離ベクトル演算部21、カメラ角度演算部22、カメラ高さ演算部23、カメラ角度平均値演算部24、カメラ高さ平均値演算部25、空間断面積演算部26、空間断面積比演算部27、警告判断部28、相対移動ベクトル演算部32、歩行距離・歩行角度演算部34を備えている。演算装置20は、物理的な構成として上記各演算部を備えているか、もしくはソフトウェアによって前記CPUやDSPの動作が制御されることにより上記各演算部としての機能を実現するものであってもよい。演算装置20に付属して、クロック信号発振器40、警報装置30、記憶部50を備えている。記憶部50は、基準空間断面積記憶部51、空間断面積記憶部52を備えている。
The
上記各演算部の詳細な機能は後で説明することにし、ここでは各演算部における信号の流れについて説明する。画像処理装置18から出力される左右の画像データ信号は距離ベクトル演算部21に入力され、分割された画像領域ごとの被写体に対する距離ベクトルの長さが演算される。各距離ベクトル長さ信号はカメラ角度演算部22に入力され、使用状態におけるカメラ角度すなわち鉛直線に対する撮影レンズ光軸の角度が画像領域ごとに演算される。演算されたカメラ角度データに基づき、カメラ高さ演算部23でカメラ高さが画像領域ごとに演算される。画像領域ごとに演算されたカメラ角度データにより、カメラ角度平均値演算部24でカメラ角度の平均値が演算され、また、画像領域ごとに演算されたカメラ高さデータにより、カメラ高さ平均値演算部25でカメラ高さの平均値が演算される。
The detailed function of each arithmetic unit will be described later. Here, the flow of signals in each arithmetic unit will be described. The left and right image data signals output from the image processing device 18 are input to the distance vector calculation unit 21 and the length of the distance vector for the subject for each divided image area is calculated. Each distance vector length signal is input to the camera
上記距離ベクトル長さ信号と、上記カメラ角度の平均値およびカメラ高さの平均値データは空間断面積演算部26に入力され、画像領域ごとの空間断面積が演算される。空間断面積とは、各画像領域における被写体までの距離ベクトルの長さとステレオカメラ10の装着高さから求めることができる上記画像領域ごとの前方空間の垂直面内における断面積のことである。空間断面積には、使用者が平坦路上で静止または歩行しかつ障害物のない空間で求めた値である基準空間断面積と、実働時において刻々と変化する空間断面積があり、基準空間断面積データは基準空間断面積記憶部51に、刻々と変化する空間断面積データは空間断面積記憶部52に記憶される。刻々と変化する空間断面積データは、空間断面積演算部26において、クロック信号発振器40から発信されるクロック信号に基づき一定の時間間隔で演算され、空間断面積記憶部52に記憶される空間断面積データは最新のデータに更新される。
The distance vector length signal, the average value of the camera angle, and the average value data of the camera height are input to a spatial cross-sectional
記憶部51,52に記憶されている基準空間断面積データと実働時の刻々と変化する空間断面積データは空間断面積比演算部27に入力されて比較され、空間断面積比演算部27は基準空間断面積と実働時の空間断面積の比が一定以上になったとき警報信号を出力する。警報信号は警報装置30に入力され、警報装置30は、音による警報、触角によって認識できる警報などを発して、使用者の前方に壁や階段、駅のプラットホームの先端などが出現したことを知らせる。
The reference space cross-sectional area data stored in the
本実施例は、相対移動ベクトル演算部32、歩行距離・歩行角度演算部34を備えることによって、使用者の歩行行動を割り出すことができるようになっている。相対移動ベクトル演算部32には、画像処理装置18から特定のnフレーム目の画像データとその直前のn−1フレーム目の画像データが入力され、相対移動ベクトル演算部32は、上記各フレームのデータから、本装置と被写体との相対移動ベクトルを演算する。この相対移動ベクトルに基づき歩行距離・歩行角度演算部34が歩行距離およびその累積値と歩行角度およびその累積値を演算する。これらの演算結果は警告判断部28に入力されて警報装置30の作動に供される。
The present embodiment includes a relative movement
次に、上記実施例による歩行支援動作をより具体的に説明する。図3はステレオカメラ10で撮像された左右の画像の例で、プラットホームの先端部とその前方の線路の画像である。左右の画像には、左右のカメラの基線長に対応した視差が生じている。左右のカメラで撮像される画像は、予め定められた3つの画像領域に分割される。図示の例では画面の上下方向に上端画像領域U、中央画像領域C、下端画像領域Lの3つに分けられている。上記各画像領域における左右の撮像素子から出力される画像信号には位相差が生じており、かつ、この位相差の大きさは各画像領域に映り込んでいる被写体距離に対応しているため、上記位相差から被写体距離を求めることができる。このような原理に基づく測距装置はカメラのオートフォーカス装置において周知である。本発明では、図4に示すように、上記3つの画像領域にある被写体とカメラを結ぶ線をそれぞれ上端ベクトルVU、中央ベクトルVC、下端ベクトルVLという。また、各画像領域に映り込んでいる被写体までの距離を、カメラから被写体までのベクトル長さといい、上端画像領域U、中央画像領域C、下端画像領域Lのベクトル長さをそれぞれ上端ベクトル長さ、中央ベクトル長さ、下端ベクトル長さという。
Next, the walking support operation according to the above embodiment will be described more specifically. FIG. 3 is an example of left and right images taken by the
視覚障害者が本発明に係る歩行支援装置を頭部に装着して使用する場合を想定すると、図4に示すように、カメラ10の光軸Oは使用者の前方斜め下に向いている。図4では使用者が平坦な地面7に立っている場合を想定している。上記中央ベクトルVCは光軸Oと一致し、中央ベクトルVCを中心としてその上側に上端ベクトルVUが、下側に下端ベクトルVLがある。これら各ベクトルの長さは、前記距離ベクトル演算部21で上記測距の原理に基づき演算によって求める。図4を参照すると、上記各ベクトルの長さの変化を常時観察し、一定以上の変化が見られた場合に壁や段差や障害物が前方に現れたものと判断することが可能であるかのように思われる。しかし、このままでは的確な判断はできない。まず、図4に示す態様において、垂直方向をY、水平方向をZとすると、カメラの光軸OはY方向に対してもZ方向に対しても傾いている。したがって、カメラ10で撮像される画像空間では、図5に示すように、カメラ光軸Oが水平方向であるとの前提のもとに、被写体としての地面7が斜めに立ち上がったものとみなして距離を計測しており、本来平坦な地面7を坂道であるかのように判断することになる。
Assuming that a visually handicapped person uses the walking assistance apparatus according to the present invention while wearing it on the head, as shown in FIG. 4, the optical axis O of the
したがって、歩行支援装置を使用する者の座標系に戻す必要がある。そのために、そのときのカメラ光軸Oの角度を求め、求めた角度分座標回転をかける。図6はその様子を示す。一般的には、カメラ10に角度センサや加速度センサを装着し、これらのセンサからの出力により使用時のカメラ10の光軸Oの角度を検出することができる。しかし、上記センサを装着することにより重量および消費電力が増大し、かつ、画像データと角度センサや加速度センサからのデータとの同時性を確保するのも難しい。そこで、本実施例では、時々刻々と得られる画像データからカメラ光軸Oの角度も演算するようにしている。カメラ光軸Oの角度がわかれば、上記のように座標回転をかけ人座標系に戻すことができる。こうして初めて、上端ベクトルVU、中央ベクトルVC、下端ベクトルVLの先端が、平坦な路面であるのか、凹凸面であるのかを判別することができる。
Therefore, it is necessary to return to the coordinate system of the person who uses the walking support device. For this purpose, the angle of the camera optical axis O at that time is obtained, and coordinate rotation is applied by the obtained angle. FIG. 6 shows this state. In general, an angle sensor or an acceleration sensor is attached to the
本実施例に係る視覚障害者歩行支援装置を使用するに当たっては、先ず歩行前の処理を行い、カメラ光軸Oの角度を求める。この前処理モードは、使用者が必要に応じてスイッチ操作によって実行できるようにするとよい。使用者は本装置を装着して平坦路に立ち、上記前処理モードで本装置を動作させる。図7、図8はこの動作モードでのカメラ角度検出を示しており、上記3つのベクトル、すなわち上端ベクトルVU、中央ベクトルVC、下端ベクトルVLの長さを求め、2つのベクトルの組み合わせによってカメラ角度を検出するようになっている。各ベクトルの先端の高さすなわち地面7の高さは略同じである。また、カメラの高さHも同じである。そこで、カメラの高さHを共通変数とし、上記3本のベクトル長さと地面7とで構成される直角三角形からカメラ光軸Oの鉛直線に対する角度を求める。
In using the visually impaired person walking support apparatus according to the present embodiment, first, processing before walking is performed, and the angle of the camera optical axis O is obtained. This pre-processing mode may be executed by a user by operating a switch as necessary. The user wears the apparatus and stands on a flat road, and operates the apparatus in the pretreatment mode. 7 and 8 show camera angle detection in this operation mode. The lengths of the above three vectors, that is, the upper end vector V U , the center vector V C , and the lower end vector V L are obtained, and the combination of the two vectors is shown. By this, the camera angle is detected. The height of the tip of each vector, that is, the height of the
図7に示すように、中央ベクトルVCを含む三角形と上端ベクトルVUを含む三角形の2つの三角形から第1のカメラ角度D1を求める。上端ベクトルVUの角度をDUとすると、カメラ角度D1は、
D1=tan−1((−VC/VU+cosDU)/sinDU)
の式で演算することができる。
図8に示すように、中央ベクトルVCを含む三角形と下端ベクトルVLを含む三角形の2つの三角形から第2のカメラ角度D2を求める。下端ベクトルVLの角度をDLとすると、カメラ角度D2は、
D2=tan−1((VC/VL−cosDL)/sinDL)
の式で演算することができる。
これらのカメラ角度演算は、図1に示すカメラ角度演算部22で行う。
As shown in FIG. 7, the first camera angle D1 is obtained from two triangles including a triangle including the center vector V C and a triangle including the upper end vector V U. If the angle of the upper end vector V U is D U , the camera angle D1 is
D1 = tan −1 ((−V C / V U + cos D U ) / sin D U )
It can be calculated by the following formula.
As shown in FIG. 8, the second camera angle D2 is obtained from two triangles including a triangle including the center vector V C and a triangle including the lower end vector V L. When the angle of the lower end vector V L is D L , the camera angle D2 is
D2 = tan −1 ((V C / V L −cosD L ) / sinD L )
It can be calculated by the following formula.
These camera angle calculations are performed by the camera
使用者が立っている地面が完全に平坦であり、カメラの高さが変動しなければ、D1,D2の値は一致するが、実際には多少差が生じるため、以下の式のように両者の平均(C_Deg_stand)をとってそのときのカメラ角度とする。
C_Deg_stand=(D1+D2)/2
かかる演算は、図1に示すカメラ角度平均値演算部24で行う。カメラ角度平均値は適宜のメモリなどに記憶される。
If the ground on which the user is standing is completely flat and the height of the camera does not fluctuate, the values of D1 and D2 will match, but in reality there will be a slight difference. The average (C_Deg_stand) is taken as the camera angle at that time.
C_Deg_stand = (D1 + D2) / 2
This calculation is performed by the camera angle average
上記のように、演算されるカメラ角度には誤差が含まれ、また、各画像領域における地面の高さ位置が異なることがあり得るため、図9に示すように、各ベクトル長さから、各画像領域におけるカメラ高さを求め、その平均値を求める。図9において、画面の上端領域における地面からのカメラ高さをHU、中央領域における地面からのカメラ高さをHC、下端領域における地面からのカメラ高さをHLとすると、各カメラ高さは、
HU=VU×cos(C_Deg_stand+DU)
HC=VC×cos(C_Deg_stand)
HL=VL×cos(C_Deg_stand−DL)
の式で求めることができる。かかる演算は、図1に示すカメラ高さ演算部23で行う。
上記各高さは、図1に示すカメラ高さ平均値演算部25において平均値が演算され、高さ基準値HSとして適宜のメモリに記憶される。高さ基準値HSの演算式は以下のとおりである。
HS=(HU+HC+HL)/3
As described above, the calculated camera angle includes an error, and the height position of the ground in each image region may be different. Therefore, as shown in FIG. The camera height in the image area is obtained, and the average value is obtained. In FIG. 9, assuming that the camera height from the ground in the upper end area of the screen is H U , the camera height from the ground in the central area is H C , and the camera height from the ground in the lower end area is H L , Well,
H U = V U × cos (C_Deg_stand + D U )
H C = V C × cos (C_Deg_stand)
H L = V L × cos (C_Deg_stand−D L )
It can be calculated by the following formula. This calculation is performed by the camera
Each height average value is calculated in the camera height
H S = (H U + H C + H L ) / 3
以上のようにして歩行前の前処理を行った後、歩行を開始する。歩行中、使用者の姿勢が微妙に変動するのに伴いカメラ光軸の角度が変動する。図10はこの変動の様子を示している。既に演算されている高さ基準値HSをもとに、かつ、前記各ベクトルVU、VC、VLの長さから各画像領域における歩行中のカメラ角度DUW、DCW、DLWを常時、一定の時間間隔で演算する。演算式は以下のとおりである。
DUW=cos−1(HC/VU)−DU
DCW=cos−1(HC/VC)
DLW=cos−1(HC/VL)+DL
これらの式で求めたカメラ角度には誤差を含むため、以下の式のように、これらカメラ角度の平均値をとってカメラ角度(C_Deg_Walking)とする。
C_Deg_Walking=(DUW+DCW+DLW)/3
After the pre-processing before walking is performed as described above, walking is started. During walking, the angle of the camera optical axis changes as the user's posture changes slightly. FIG. 10 shows this variation. Based on the already calculated height reference value H S and from the lengths of the vectors V U , V C , and V L , the camera angles D UW , D CW , and D LW during walking in each image region are calculated. Is always calculated at regular time intervals. The calculation formula is as follows.
D UW = cos -1 (H C / V U) -D U
D CW = cos −1 (H C / V C )
D LW = cos -1 (H C / V L) + D L
Since the camera angle obtained by these equations includes an error, an average value of these camera angles is taken as a camera angle (C_Deg_Walking) as in the following equation.
C_Deg_Walking = (D UW + D CW + D LW ) / 3
また、歩行中のカメラ高さHUW、HCW、HLWを以下の式を適用して演算し、また、これらの高さ平均値HAを演算する。
HUW=VU×cos(C_Deg_Walking+VU)
HCW=VC×cos(C_Deg_Walking)
HLW=VL×cos(C_Deg_Walking−VL)
HA=(HUW+HCW+HLW)/3
Further, camera heights H UW , H CW , and H LW during walking are calculated by applying the following equations, and an average value of these heights HA is calculated.
H UW = V U × cos (C_Deg_Walking + V U )
H CW = V C × cos (C_Deg_Walking)
H LW = V L × cos (C_Deg_Walking−V L )
H A = (H UW + H CW + H LW ) / 3
以上のようなカメラ角度演算、カメラ高さ演算は、平坦路を歩行しているときにのみ適用され、それ以外の、例えば昇り階段、降り階段、障害物などが画面内に現れたことを認識するために、次に説明する空間断面積演算を行う。人は、意識しているか無意識であるかに関わらず、眼前の空間の広がりをとらえており、とらえた空間が自由に動くことができる空間であるか否かを認識しながら行動している。図11は、本実施例に係る視覚障害者歩行支援装置を装着して、障害物などがない比較的平坦な地面を歩行しているときの様子をモデル化して示している。 The camera angle calculation and camera height calculation described above are applied only when walking on a flat road, and other types such as ascending stairs, descending stairs, obstacles, etc. appear on the screen. In order to do this, the spatial cross-sectional area calculation described below is performed. Regardless of whether the person is conscious or unconscious, the person captures the expanse of the space in front of him and acts while recognizing whether the captured space can move freely. FIG. 11 shows a model of a state when the visually impaired person walking support apparatus according to the present embodiment is worn and the user walks on a relatively flat ground having no obstacles.
図11がこれまで説明してきたことと異なる点は、上端、中央、下端の前記各距離ベクトルVU、VC、VLに挟まれた空間の断面積を想定していることである。本実施例では、これらの断面積を演算することによって上記昇り階段、降り階段、障害物、落ち込みなどの識別を迅速かつ容易に行うことができるようにしている。図11において、使用者の前方の空間は、人が自由に動くことができる空間とみなし、上記3つの空間の断面積を平坦路基準断面積と定義する。1つの空間は、底辺が上端ベクトルVUの先端と中央ベクトルVCの先端で区切られ、これらのベクトル先端から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSUSとする。別の1つの空間は、底辺が中央ベクトルVCの先端と下端ベクトルVLの先端で区切られ、これらのベクトル先端から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSCSとする。もう1つの空間は、底辺が下端ベクトルVLの先端とカメラから垂直に下した線の地面との交点とで区切られ、これらベクトル先端および上記交点から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSLSとする。 FIG. 11 differs from what has been described so far in that it assumes a cross-sectional area of a space sandwiched between the distance vectors V U , V C , and V L at the upper end, the center, and the lower end. In this embodiment, by calculating these cross-sectional areas, it is possible to quickly and easily identify the ascending stairs, descending stairs, obstacles, depressions, and the like. In FIG. 11, the space in front of the user is regarded as a space in which a person can move freely, and the cross-sectional areas of the three spaces are defined as flat road reference cross-sectional areas. One space bottom is delimited by the tip of the tip and the central vector V C of the upper vector V U, extending from these vectors tip vertically in a space of a square in which the top side is delimited by the camera height, the space a reference cross-sectional area and S US. Another space is a rectangular space in which the base is divided by the tip of the center vector V C and the tip of the bottom vector V L , extends vertically from these vector tips, and the top is divided by the camera height position. a reference cross-sectional area of the space and S CS. The other space is delimited by the intersection of the tip of the lower end vector V L and the ground of the line perpendicularly descending from the camera, the base extends vertically from the tip of the vector and the intersection, and the upper side is at the camera height position. in the space of a square delimited, the reference cross-sectional area of the space between S LS.
上記各基準断面積SUS、SCS、SLSは、以下の式によって演算される。
SLS=(HS+VL×cos(C_Deg_Walking−DL))/2
×VL×sin(C_Deg_Walking−DL)
SCS=(VL×cos(C_Deg_Walking−DL)
+VC×cos(C_Deg_Walking−DL))/2
×(VC×sin(C_Deg_Walking)
−VL×sin(C_Deg_Walking−DL)
SUS=(VU×cos(C_Deg_Walking+DU)
+VC×cos(C_Deg_Walking))/2
×(VU×sin(C_Deg_Walking+DU)
−VC×sin(C_Deg_Walking)
高さ基準値HS、上端ベクトルの角度DU、下端ベクトルの角度DLは固定値であり、カメラ角度C_Deg_Walking、3つの距離ベクトルVU、VC、VLは変動値である。
Each of the reference cross-sectional areas S US , S CS , S LS is calculated by the following equation.
S LS = (H S + V L × cos (C_Deg_Walking−D L )) / 2
× V L × sin (C_Deg_Walking-D L )
S CS = (V L × cos (C_Deg_Walking−D L )
+ V C × cos (C_Deg_Walking−D L )) / 2
× (V C × sin (C_Deg_Walking)
−V L × sin (C_Deg_Walking−D L )
S US = (V U × cos (C_Deg_Walking + D U )
+ V C × cos (C_Deg_Walking)) / 2
× (V U × sin (C_Deg_Walking + D U )
−V C × sin (C_Deg_Walking)
The height reference value H S , the upper end vector angle D U , and the lower end vector angle D L are fixed values, and the camera angle C_Deg_Walking and the three distance vectors V U , V C , and V L are fluctuation values.
上記各空間断面積は、図1に示す空間断面積演算部26によって演算される。演算された上記各基準断面積SUS、SCS、SLSは基準空間断面積記憶部51に記憶される。また、使用者が歩行中すなわち本実施例に係る装置の実働中、空間断面積演算部26は、クロック信号発振器40で生成されるクロック信号に基づき、一定の時間間隔で上記3つの断面積を演算する。刻々と変化する歩行中の断面積データは、空間断面積演算部52に一時的に記憶されるとともに、新しいデータに更新される。
Each space cross-sectional area is calculated by a space cross-sectional
歩行中に刻々と変化する上記上端ベクトル、中央ベクトル、下端ベクトルに対応する空間断面積をそれぞれSU、SC、SLとすると、各空間断面積SU、SC、SLの上記各基準面積SUS、SCS、SLSに対する比率が図1に示す空間断面積比演算部27で演算される。前記上端画像領域U、中央画像領域C、下端画像領域Lに対応する空間断面積比をそれぞれRSU、RSC、RSLとすると、これらは、
RSU=SU/SUS
RSC=SC/SCS
RSL=SL/SLS
の式によって得ることができる。これらの演算を行うことにより、各画像領域に対応する空間断面積が、基準値に対してどれほど変化したかを知ることができる。変化量が一定の閾値を越えると、前方に段差や障害物が迫ってきているものと想定して警報を発する。
Assuming that the space cross-sectional areas corresponding to the upper end vector, the center vector, and the lower end vector, which change every moment during walking, are S U , S C , and S L , each of the spatial cross-sectional areas S U , S C , and S L above. The ratio with respect to the reference areas S US , S CS , S LS is calculated by the space cross-sectional area
R SU = S U / S US
R SC = S C / S CS
R SL = S L / S LS
It can be obtained by the following formula. By performing these calculations, it is possible to know how much the spatial cross-sectional area corresponding to each image region has changed with respect to the reference value. When the amount of change exceeds a certain threshold value, an alarm is issued assuming that a step or obstacle is approaching forward.
図12は、実働時に得られるカメラ角度の変化の例を示す。横軸は時間軸で、横軸に付した数字は撮像した画像フレーム数を示している。他のグラフに関しても同様に、横軸は時間軸で数字は撮像した画像フレーム数を示している。本装置の使用者が歩行することによってカメラ角度が10度程度の範囲で変動している。 FIG. 12 shows an example of a change in camera angle obtained during actual operation. The horizontal axis is the time axis, and the numbers attached to the horizontal axis indicate the number of captured image frames. Similarly for other graphs, the horizontal axis represents the time axis and the numbers represent the number of captured image frames. The camera angle fluctuates in a range of about 10 degrees as the user of the apparatus walks.
図13は、実働時に得られる画面の上端、中央、下端におけるそれぞれの空間面積比の変化の例を示す。図12、図13ともに平坦路歩行時のグラフであるが、図12、図13を対比すると、カメラ角度が変動することによって空間面積比も変動することがわかる。そこで、前述のように、カメラ高さの平均値を用いることとした。図14は画面の上端、中央、下端におけるそれぞれのカメラ高さ変動の実例を示している。使用者が平坦な路面を歩行する場合であっても、図14に示すようにカメラ高さが小刻みに変動し、このままでは演算によって得られる空間面積比も変動する。しかし、画面の上端、中央、下端におけるそれぞれのカメラ高さを平均すると、図15に示すように変動の少ない平坦な高さデータになる。したがって、使用者が座り込むといったように姿勢が極端に変化しない限り、平均の高さデータは大きく変動することはないから、図15に示すような変動の少ない高さデータであれば、使用者は立っているかまたは平坦路を歩いているものと判断することができる。 FIG. 13 shows an example of changes in the respective space area ratios at the upper end, the center, and the lower end of the screen obtained during actual operation. Both FIG. 12 and FIG. 13 are graphs when walking on a flat road. When FIG. 12 and FIG. 13 are compared, it can be seen that the space area ratio also varies as the camera angle varies. Therefore, as described above, the average value of the camera height is used. FIG. 14 shows actual examples of camera height fluctuations at the top, center and bottom of the screen. Even when the user walks on a flat road surface, as shown in FIG. 14, the camera height fluctuates little by little, and the spatial area ratio obtained by the calculation fluctuates as it is. However, when the camera heights at the top, center, and bottom of the screen are averaged, flat height data with little fluctuation is obtained as shown in FIG. Therefore, the average height data does not fluctuate greatly unless the posture changes extremely, such as when the user sits down. Therefore, if the height data has little fluctuation as shown in FIG. It can be determined that the person is standing or walking on a flat road.
また、使用者が歩行しているかどうかは、後で説明する動作検出によって検出することができる。図16は上記動作検出によって得ることができる歩行距離の変化、換言すれば、歩行速度の変化を示している。このグラフを参照すると歩行と停止が頻繁に行われているように見えるが、図16に示す歩行距離を積分すると、図17に示すように歩行距離がなだらかな線状に累積されていることがわかる。 Further, whether or not the user is walking can be detected by motion detection described later. FIG. 16 shows a change in walking distance that can be obtained by the motion detection, in other words, a change in walking speed. Referring to this graph, it seems that walking and stopping are frequently performed, but when the walking distance shown in FIG. 16 is integrated, the walking distance is accumulated in a gentle line shape as shown in FIG. Recognize.
使用者の歩行角度すなわち使用者の水平面内での角度変動も同様のことが言える。図18は、動作検出によって得ることができる上記歩行角度変動の例を示している。図18によれば、歩行角度は常に小刻みに変動している。しかし、角度変動データを積分すると、図19のように比較的なだらかに立ち上がる線になり、積極的な方向転換はなく、平坦路を順調に直線歩行しているものと判断することができる。逆にいえば、上記各グラフにおいて所定の閾値を越えるほどに大きく変動すると、平坦でない路面、例えば段差や障害物にさしかかったものと判断することができる。 The same applies to the walking angle of the user, that is, the angle fluctuation in the horizontal plane of the user. FIG. 18 shows an example of the walking angle fluctuation that can be obtained by motion detection. According to FIG. 18, the walking angle is constantly changing in small increments. However, when the angle variation data is integrated, it becomes a relatively gently rising line as shown in FIG. 19, and there is no positive direction change, and it can be determined that the user is walking smoothly on a flat road. In other words, if the graphs fluctuate so as to exceed a predetermined threshold value, it can be determined that the road surface is not flat, such as a step or an obstacle.
そこで次に、平坦路から非平坦路にさしかかったときの、本実施例による判断動作を説明する。図20は本実施例に係る視覚障害者歩行支援装置を装着した使用者が理想的な平坦路に立った状態の具体例で、このときの各数値をモデルとして設定する。カメラ10の高さ基準値HSは1.6m、カメラ角度すなわち鉛直線に対するカメラ光軸の角度C_Degは50度、画面上端の空間断面の底辺は1.37m、画面中央の空間断面の底辺は0.75m、画面下端の空間断面の底辺は1.16m、上端領域の距離ベクトルVUの長さは3.65m、中央領域の距離ベクトルVCの長さは2.49m、下端領域の距離ベクトルVLの長さは1.98mである。これらの数値から求められる画面上端領域の基準空間断面積SUSは2.912m2、画面中央領域の基準空間断面積SCSは1.2m2、画面下端領域の基準空間断面積SLSは1.856m2である。
Next, the determination operation according to the present embodiment when a flat road approaches a non-flat road will be described. FIG. 20 is a specific example of a state in which a user wearing the visually impaired person walking support apparatus according to the present embodiment stands on an ideal flat road. Each numerical value at this time is set as a model. Height reference value H S for the
使用者が歩行することによって、図21に示すように前方に昇り階段が迫ってきたとする。階段の仕様は、一般的な建築基準に基づき、斜度が30度、踏み面が0.38m、蹴上げが0.22mである。図21のように、画面上端領域にのみ階段が迫ってきている状態では、HS、C_Deg、画面中央領域の底辺、画面下端領域の底辺、VC、VL、画面中央領域の空間断面積SC、画面下端領域の空間断面積SLの値は変わらない。図21のように、上端領域の距離ベクトルVUが階段の1段目と2段目の間の垂直面にかかり、そのときの距離ベクトルVUの長さが2.98mであるとすると、画面上端領域の空間断面積SUは1.12m2となる。すなわち、上端の距離ベクトルVUの変化比率は0.816であるのに対し、空間断面積の変化率は0.384となる。よって、空間断面積を求めて基準空間断面積との比を求めることによって、階段その他の障害物を容易かつ確実に検知できることがわかる。 As the user walks, it is assumed that the stairs are approaching as shown in FIG. The specifications of the stairs are 30 degrees, the tread is 0.38 m, and the kick is 0.22 m, based on general building standards. As shown in FIG. 21, in the state where the stairs are approaching only in the upper end area of the screen, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , and the spatial sectional area of the screen center area. The value of S C , the spatial cross-sectional area S L at the lower end area of the screen does not change. As shown in FIG. 21, when the distance vector V U of the upper end region is applied to the vertical plane between the first and second steps of the staircase, and the length of the distance vector V U at that time is 2.98 m, space sectional area S U of the top of the screen area becomes 1.12 m 2. That is, the change ratio of the distance vector V U of the upper end whereas a 0.816, the rate of change of the spatial cross-sectional area becomes 0.384. Therefore, it can be understood that the staircase and other obstacles can be detected easily and reliably by obtaining the space sectional area and determining the ratio to the reference space sectional area.
上記のようにして求めた空間断面積の変化率が一定の閾値を越えた場合、図1に示す空間断面積比演算部27が警報信号を出力し、この警報信号により警報装置30が駆動されて、階段が迫ってきたことを使用者に伝えることができる。ただし、一定時間ごとに撮像しかつ空間断面積および空間断面積比を演算し、空間断面積比が初めて閾値を越えたとき直ちに警報を発するものとすると、警報の信頼性が低下する。そこで、一定のフレーム数連続して上記閾値を越えたときに警報を発するようにする。また、カメラ角度C_Degは、昇り階段検出フレームのカウントが開始されると、直前の値が保持される。
When the rate of change of the spatial sectional area obtained as described above exceeds a certain threshold value, the spatial sectional area
上記のように、空間断面積比が閾値を越えて警報が出力されるタイミングは、
変化検出フレーム数合計/(システムのサンプリングフレーム数/sec)
となる。人の歩行速度を1m/secとすると、使用者はx秒後にはさらにxmだけ階段に近づくことになる。したがって、使用者が階段に接近する手前で警告を発するように設定する。
As mentioned above, the timing when the space cross-sectional area ratio exceeds the threshold and the alarm is output is
Total number of change detection frames / (number of system sampling frames / sec)
It becomes. If the walking speed of a person is 1 m / sec, the user will approach the stairs by xm after x seconds. Therefore, it is set so that a warning is issued before the user approaches the stairs.
図22は、使用者が降り階段に迫ってきたときをモデル的に示している。階段の仕様は図21の場合と同じである。画面上端領域にのみ階段が迫ってきている状態では、図21の場合と同様に、HS、C_Deg、画面中央領域の底辺、画面下端領域の底辺、VC、VL、画面中央領域の空間断面積SC、画面下端領域の空間断面積SLの値は変わらない。上端の距離ベクトルVUが降り階段にさしかかると、距離ベクトルVUの長さが急に長くなり、その先端は階段の踊り場あるいは壁などに至る。したがって、画面上端の空間面積比が3〜4倍に急激に大きくなり、前方に降り階段が迫ってきたことを容易に認識することができる。この場合も、空間断面積の変化率が一定のフレーム数連続して閾値を越えたときに警報を発する。 FIG. 22 shows a model when the user gets down and approaches the stairs. The specifications of the stairs are the same as in FIG. In a state where the stairs are approaching only the upper end area of the screen, as in the case of FIG. 21, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , the space of the screen center area The values of the cross-sectional area S C and the spatial cross-sectional area S L at the lower end area of the screen do not change. When comes to the stairs down distance vector V U of the upper end, the distance vector V U length becomes suddenly longer, its tip reaches the like landings or walls of the stairs. Therefore, it is possible to easily recognize that the space area ratio at the upper end of the screen suddenly increases 3 to 4 times, and the stairs are approaching. In this case as well, an alarm is issued when the change rate of the spatial cross-sectional area exceeds the threshold value for a certain number of frames continuously.
図23は、使用者が駅のプラットホーム先端に近づいてきたときの様子をモデル的に示している。ホームの高さは実際のホームの高さの例に合わせて1.1mとしている。図23のように画面上端領域にのみ階段が迫ってきている状態では、図22の場合と同様に、HS、C_Deg、画面中央領域の底辺、画面下端領域の底辺、VC、VL、画面中央領域の空間断面積SC、画面下端領域の空間断面積SLの値は変わらない。上端領域の距離ベクトルVUがプラットホームの先端にさしかかり、かつプラットホームの先端を通り過ぎると、距離ベクトルVUの長さが急に長くなり、その先端は線路の敷設面に至る。このときの距離ベクトルVUの長さは6mを越える。したがって、画面上端の空間面積比が3〜4倍に急激に大きくなり、前方にプラットホーム先端が迫ってきたことを容易に認識することができる。この場合も、空間断面積の変化率が一定のフレーム数連続して閾値を越えたときに警報を発する。 FIG. 23 shows a model of the situation when the user approaches the tip of the station platform. The height of the home is 1.1 m in accordance with an example of the actual height of the home. In a state where the stairs are approaching only at the upper end area of the screen as shown in FIG. 23, as in the case of FIG. 22, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , The values of the spatial cross-sectional area S C in the center area of the screen and the spatial cross-sectional area S L in the bottom area of the screen do not change. Distance vector V U of the upper end region Sashikakari the tip of the platform, and when passing the tip of the platform, the length of the distance vector V U becomes suddenly longer, its tip reaches the laying surface of the line. The length of the distance vector V U at this time exceeds 6 m. Therefore, it is possible to easily recognize that the space area ratio at the upper end of the screen suddenly increases 3 to 4 times and the front end of the platform approaches. In this case as well, an alarm is issued when the change rate of the spatial cross-sectional area exceeds the threshold value for a certain number of frames continuously.
図23で想定している仕様では、プラットホーム先端から約3m手前から、距離ベクトルVUの長さが急に延びて、プラットホーム先端から先が落ち込んでいることを検出し始める。仮に、空間断面積の変化率が連続して10フレーム閾値を越えたとき警報を発するように設定されているものとすると、人の歩行速度を1m/secとしたとき、プラットホーム先端から約2m手前で警報を発することができる。 The specification assumed in FIG. 23, about 3m front from the platform tip distance vector extends is suddenly length of V U, begin to detect that the previously has fallen from the platform tip. If the rate of change of the spatial cross-sectional area is set to issue an alarm when the 10-frame threshold value is continuously exceeded, assuming that the person's walking speed is 1 m / sec, about 2 m before the platform tip. An alarm can be issued.
図24は、使用者が障害物である壁9に近づいてきたときの様子をモデル的に示している。この場合は図21について説明した昇り階段を検出した場合とほぼ同様に動作する。図24のように画面上端領域にのみ壁9が迫ってきて上端領域の距離ベクトルVUが垂直の壁面にかかってきた状態では、上端領域の距離ベクトルVUの長さが短くなり、画面上端領域の空間面積が小さくなる。HS、C_Deg、画面中央領域の底辺、画面下端領域の底辺、VC、VL、画面中央領域の空間断面積SC、画面下端領域の空間断面積SLの値は変わらない。図24に示す例では、上端領域の距離ベクトルVUの長さが2.98mに短くなり、画面上端領域の空間断面積SUが1.0m2となってその変化率は0.346となる。よって、図21の例と同様に警報を発することができる。
FIG. 24 schematically shows a situation when the user approaches the
図25は、使用者がさらに壁9まで1.5mに近づき、画面中央領域まで壁9が近づいた場合の動作を示している。壁9に遮られて上端領域の距離ベクトルVUの長さがさらに短い1.67mとなり、また、中央領域の距離ベクトルVCが壁9に遮られてその長さが1.95mとなっている。距離ベクトルVU、距離ベクトルVCが壁9で遮られるため、画面上端領域の空間面積SUが0.248m2とさらに小さくなり、画面中央領域の空間断面積SCが0.425m2と小さくなる。図24に示す状態から継続して警報が発せられる。
FIG. 25 shows an operation when the user further approaches 1.5 m to the
以上、本実施例による階段や壁などの障害物の検知動作について説明したが、本実施例によれば、その使用者の歩行行動を割り出すことができる。図26はその原理をモデル的に説明するもので、ステレオカメラを装着した使用者が歩行しながら被写体画像を取得する様子を示している。図26において、(1)はn−1フレーム目の画像を取得するときのカメラ10と使用者および被写体8の関係を、(3)は上記n−1フレーム目の画像の例を示す。(2)は次のフレームすなわちnフレーム目の画像を取得するときのカメラ10と使用者および被写体8の関係を、(4)は上記nフレーム目の画像の例を示す。この例では、平坦な地面7を使用者が歩行し、前方の地面7上に被写体8が存在している例になっていて、n−1フレーム目で画面上端領域に被写体8の像が映り込み、nフレーム目で画面の中央に被写体8の像が映り込んでいる。右眼のカメラと左眼のカメラの両方にほぼ同様の画像が映り込んでおり、ここでは左右いずれかの画像を用いる。
As mentioned above, although the detection operation | movement of obstacles, such as a stairway and a wall by a present Example was demonstrated, according to a present Example, the user's walking action can be calculated. FIG. 26 explains the principle as a model, and shows how a user wearing a stereo camera acquires a subject image while walking. In FIG. 26, (1) shows the relationship between the
図26において、(5)はn−1フレーム目からnフレーム目に至るときのカメラ10と被写体8の相対関係の変化の様子を示す。使用者は被写体8に向かって近寄っていくが、カメラ10から見れば、画面上において上端側から中央に向かって被写体8が移動し、被写体8がカメラ10に近寄ってくるように見える。また、このときのカメラ光軸Oは斜め前方を向いているので、(6)に示すように、カメラ光軸Oが水平線に一致するように座標回転をかける。したがって、カメラ10側から見た実際の被写体8は、(7)に矢印64で示すように、上方から斜め下方かつ前方に移動して画面中央に至る。(7)において、符号64で示す矢印は、カメラから見た実際の被写体8の相対移動軌跡を示しており、この移動軌跡の垂直線に対する角度は、(5)(6)に示すカメラ角度C_Degに相当する。この被写体8の移動を、前述の距離ベクトル演算によって被写体距離の変化として認識することにより、カメラ10から被写体8までの距離が近くなったことを認識することができる。
In FIG. 26, (5) shows a change in the relative relationship between the
図26(7)において、符号62は、撮影レンズ光学系による被写体像の結像面を示す。結像面62上に示す矢印65は、上記矢印64で示した被写体8のカメラ10との相対移動が結像面62上に反映される様子を示している。この結像面62上での被写体8の移動と前記距離ベクトル演算などによって、カメラ10の使用者がどのように行動したかがわかる。
In FIG. 26 (7),
カメラ10の使用者の行動の一要素として歩行距離がある。本実施例は、被写体距離を測定することができるとともに単位時間ごとの移動距離を演算することができる。図27は上記単位時間ごとの移動距離の例を示す。単位時間ごとの移動距離を積分すれば、カメラ使用者の歩行距離がわかる。この歩行距離およびその累積値は、図1に示す相対移動ベクトル演算部32で演算される相対移動ベクトルに基づき、歩行距離・歩行角度演算部34で演算により求められる。図28は上記歩行距離を累積した例を示している。
One element of the action of the user of the
図29、図30は、カメラ使用者の行動の別の要素として、水平面内における歩行角度変化ないしは回転動作認識が可能であることを示している。図29、図30に示すように、歩行中の人間は、前方に向かってまっすぐ歩行するとは限らず、歩行方向が左右に変化し、あるいは顔の向きが常時左右に変化する。図29、図30は、右眼カメラ11と左眼カメラ12からなるステレオカメラを装着した使用者の向きの変化を示している。カメラ使用者は前方にある被写体8に対し正対してまっすぐ歩行するとは限らず、歩行方向の変化あるいは顔の向きの変化に応じてカメラ10の光軸が左右に振れる。
FIG. 29 and FIG. 30 show that the walking angle change or the rotation motion recognition in the horizontal plane can be recognized as another element of the camera user's action. As shown in FIGS. 29 and 30, a human being walking does not always walk straight forward, but the walking direction changes to the left or right, or the face direction always changes to the left or right. 29 and 30 show changes in the orientation of the user wearing a stereo camera composed of the
図30は、カメラの光軸Oが左右に振れることによるカメラ10での被写体8の見え方を示している。カメラ10が左右に回転することによりカメラ10と被写体8との相対的な位置関係が変化する。図30に示した2つの被写体8は、カメラが右回転したときにカメラから見える被写体と、カメラが左回転したときにカメラから見える被写体を示している。カメラから見た被写体8の回転移動距離を、図30では矢印66で示している。この相対的な被写体8の位置関係の変化は、カメラの結像面62上では矢印67で示す範囲での変化となる。また、このときのカメラの回転角度をθで表している。fは撮影レンズの焦点距離、Zはカメラから被写体8までの距離を示している。
FIG. 30 shows how the
上記矢印66で示すカメラから見た上記回転移動距離は、
回転移動距離=z/f×(投影面画素ベクトル×画素サイズ)
で得ることができ、また、
歩行角度/θ=tan−1(回転距離/Z)
の式が成り立つ。このようにして、カメラ使用者の回転動作を知ることができる。図29、図30は被写体8が動かない物体である場合の例であり、被写体が地面(路面)上を動く物体である場合には、その動きが加算される。本実施例では、画面を3分割して各分割画面中の被写体につき、一定の時間間隔で撮像し演算を行うため、不動の被写体であるか移動している被写体であるかを識別することができ、また、障害物などの認識に誤りを生ずることもない。
The rotational movement distance seen from the camera indicated by the
Rotational movement distance = z / f × (projection plane pixel vector × pixel size)
Can also be obtained at
Walking angle / θ = tan −1 (rotational distance / Z)
The following equation holds. In this way, it is possible to know the rotation operation of the camera user. FIGS. 29 and 30 are examples in which the
図31以下は、カメラ使用者が上記のような回転動作した場合の実際の画像の例とそれによって得られる各種信号波形の例を示している。図31は駅のプラットホーム上でカメラに映り込む画像の例を示しており、プラットホームの先端縁が画面をほぼ対角線に沿って横切り、その前方にレールが映り込んでいる。当然ながら、レールの敷設面はプラットホームの面から1.1m程度落ち込んでいる。図31の左側の画像はn−1フレーム目の画像、右側の画像はその後のnフレーム目の画像で、カメラの使用者が左から右に向かって回転動作をしたときの画像の変化を示している。ステレオカメラの左側の画像または右側の画像のいずれでもよい。 FIG. 31 and subsequent figures show examples of actual images when the camera user rotates as described above, and examples of various signal waveforms obtained thereby. FIG. 31 shows an example of an image reflected on the camera on the station platform. The leading edge of the platform crosses the screen substantially along the diagonal line, and the rail is reflected in front of it. Of course, the rail laying surface is about 1.1 m lower than the platform surface. The left image in FIG. 31 is an image of the (n-1) th frame, the right image is an image of the subsequent n frame, and shows a change in the image when the camera user rotates from left to right. ing. Either the left image or the right image of the stereo camera may be used.
図32は、上記右回転の場合における1フレームごとの回転角度を、図33は上記回転角度を累積(積分)した場合を示している。同様に、図34は左回転の場合における1フレームごとの回転角度を、図35は上記回転角度を累積(積分)した場合を示している。回転中は図32、図34に示すように小刻みに回転角度が変化している。回転角度が小刻みに変化している間は回転中であるから、この間に計測および演算を行っても意味がない。回転角度の小刻みな変化がない状態が一定時間継続したとき、使用者が回転を停止したものと判断することができるので、図33、図35に示すような累積値から回転角度を求める。 FIG. 32 shows a rotation angle for each frame in the case of the right rotation, and FIG. 33 shows a case where the rotation angles are accumulated (integrated). Similarly, FIG. 34 shows a rotation angle for each frame in the case of left rotation, and FIG. 35 shows a case where the rotation angles are accumulated (integrated). During rotation, the rotation angle changes in small increments as shown in FIGS. Since the rotation angle is changing while the rotation angle is changing in small increments, it is meaningless to perform measurement and calculation during this time. When a state in which there is no small change in the rotation angle continues for a certain period of time, it can be determined that the user has stopped the rotation. Therefore, the rotation angle is obtained from the accumulated values as shown in FIGS.
図31に示すような画像の変化およびそれに伴う図32乃至図35に示す回転角度の変化は、カメラ使用者が歩行することによっても生じる。したがって、図32、図34に示す回転角度の変化は歩行ベクトルの大きさの変化と見なすことができる。そこで、歩行ベクトルがきわめて小さいときは停止中とみなす。また、一定のフレーム数停止状態が継続している場合は、各データを一旦リセットする。 The change of the image as shown in FIG. 31 and the change of the rotation angle shown in FIGS. 32 to 35 accompanying it also occur when the camera user walks. Therefore, the change in the rotation angle shown in FIGS. 32 and 34 can be regarded as a change in the magnitude of the walking vector. Therefore, when the walking vector is extremely small, it is considered that the vehicle is stopped. Further, when the fixed frame number stop state continues, each data is reset once.
以上説明した歩行距離の変化および回転角度の変化に対応してそのときの歩行距離と歩行角度を歩行距離・歩行角度演算部34で演算し、歩行距離の変化および回転角度の変化に対応した前記空間面積比を空間断面積比演算部27で演算する。空間面積比の変化が所定の閾値を越えた場合に、警告判断部28の判断により警報装置30から警報を発する。
Corresponding to the walking distance change and the rotation angle change described above, the walking distance and walking angle at that time are calculated by the walking distance /
本発明に係る視覚障害者歩行支援装置は、段差や壁その他の障害物が前方に迫ってきたときに、警報を発するものであって、大掛かりなシステムや特殊な警報装置乃至は出力装置を必要としないため、低コストで提供することができるとともに、特別な訓練も必要がなく、簡便に使用することができる。
本発明はまた、例えば、無人の探索ロボットなどに装着すれば、ロボットが障害物に近づいたことを検知することができるため、障害物を回避しながらスムーズな探索を行うことができる。
カメラに赤外線フィルタを装着するなど、赤外線を感知することができるカメラにすることにより、暗闇でも段差や壁その他の障害物を認識することができる。したがって、本発明装置は、視覚障害者に限らず、健常者にも有用である。
The visually impaired person walking support device according to the present invention issues a warning when a step, a wall, or other obstacle approaches, and requires a large-scale system, a special warning device, or an output device. Therefore, it can be provided at a low cost and does not require special training, and can be used conveniently.
In addition, for example, if the present invention is attached to an unmanned search robot or the like, it is possible to detect that the robot has approached an obstacle, so that a smooth search can be performed while avoiding the obstacle.
By using a camera that can detect infrared rays, such as mounting an infrared filter on the camera, steps, walls, and other obstacles can be recognized even in the dark. Therefore, the device of the present invention is useful not only for visually impaired people but also for healthy people.
10 ステレオカメラ
18 画像処理装置
20 演算装置
21 距離ベクトル演算部
22 カメラ角度演算部
23 カメラ高さ演算部
24 カメラ角度平均値演算部
25 カメラ高さ平均値演算部
26 空間断面積演算部
27 空間断面積比演算部
30 警報装置
50 記憶部
51 基準空間断面積記憶部
52 空間断面積記憶部
DESCRIPTION OF
Claims (6)
上記一対の画像を複数の上下方向の領域に分割する画像処理装置と、
分割された上記複数領域の一対の画像から、各領域において撮像されている被写体とカメラを結ぶ線である距離ベクトルの長さを演算する距離ベクトル演算部と、
上記領域ごとの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部と、
上記各領域における距離ベクトルの長さと上記領域ごとのカメラ角度から、上記各領域における平坦な地面からのカメラ高さを演算するカメラ高さ演算部と、
上記各領域におけるカメラ高さの平均値を演算してカメラ高さ基準値とするカメラ高さ平均値演算部と、
互いに隣接する2つの領域の各距離ベクトルの先端によって底辺が区切られ、これらの距離ベクトルの先端から垂直に伸び、上辺が上記カメラ高さ位置で区切られる四角形の空間断面積を演算する空間断面積演算部と、
平坦面で歩行しかつ障害物のない空間で得た上記各領域における上記空間断面積を基準空間断面積としたとき、上記各領域における上記基準空間断面積に対する実働時の空間断面積の比が一定以上になったとき警報信号を出力する空間断面積比演算部と、
上記警報信号の出力によって動作し警報を発する警報装置と、を有し、
上記空間断面積演算部は、各領域における実働時の空間断面積を一定の時間間隔で演算するものであり、
上記空間断面積比演算部は、最新の上記実働時の空間断面積と上記基準空間断面積の比を演算するものである視覚障害者歩行支援装置。 A stereo camera capable of obtaining a pair of images by capturing an image of the same subject with a certain baseline length;
An image processing apparatus for dividing the pair of images into a plurality of vertical regions;
From a pair of images of the divided plurality regions, the distance vector calculator for calculating the length of the distance vector is a line connecting the object and the camera that is imaged in each region,
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the distance vector for each region for each region;
From the distance vector length in each region and the camera angle for each region, a camera height calculation unit that calculates the camera height from the flat ground in each region ,
A camera height average value calculation unit that calculates an average value of the camera height in each of the above areas and sets it as a camera height reference value;
Spatial cross-sectional area that calculates a square cross-sectional area in which the base is delimited by the tip of each distance vector of two adjacent areas, extends vertically from the top of these distance vectors, and the top is delimited by the camera height position. An arithmetic unit;
When a reference space sectional area of the space cross-sectional area in the respective regions obtained by the spatial without walking only One obstacle in the flat surface, the ratio of the spatial cross-sectional area of the production time with respect to the reference space cross-sectional area of each region A spatial cross-sectional area ratio calculation unit that outputs an alarm signal when becomes more than a certain value,
An alarm device that operates in response to the output of the alarm signal and issues an alarm ;
The space cross-sectional area calculation unit calculates the space cross-sectional area at the time of actual operation in each region at a constant time interval,
The spatial cross-sectional area ratio calculation unit is a visually impaired person walking support device that calculates a ratio of the latest actual spatial cross-sectional area and the reference spatial cross-sectional area .
距離ベクトル演算部は、上記3つの領域につきそれぞれ上端距離ベクトル、中央距離ベクトル、下端距離ベクトルを演算するように構成され、
上記3つの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部を備え、
カメラ高さ演算部は、上記領域ごとのカメラ角度に基づいて上記領域ごとにカメラ高さを演算する請求項1記載の視覚障害者歩行支援装置。 The image processing apparatus divides the image into three regions in the vertical direction ,
The distance vector calculation unit is configured to calculate an upper end distance vector, a center distance vector, and a lower end distance vector for each of the three regions.
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the three distance vectors for each of the regions;
The visually impaired person walking support apparatus according to claim 1 , wherein the camera height calculation unit calculates the camera height for each of the regions based on the camera angle for each of the regions .
上記複数フレームの画像から被写体に対する相対移動ベクトルの長さを演算する相対移動ベクトル演算部を備え、
空間断面積比演算部は、上記相対移動ベクトルの変化に対応した上記各フレームにおける断面空間面積比を演算するものである請求項1乃至4のいずれかに記載の視覚障害者歩行支援装置。 The image processing apparatus can output a multi-frame image including an image of a specific frame and an image immediately before the specific frame,
A relative movement vector calculation unit that calculates the length of the relative movement vector with respect to the subject from the images of the plurality of frames,
Space sectional area ratio calculating section, visually impaired persons support device according to any one of claims 1 to 4 is intended for calculating the cross-sectional open area ratio in each frame corresponding to a change in the relative movement vector.
Space sectional area ratio calculation section, according to any one of claims 1 to 5 for outputting an alarm signal when the ratio of the spatial cross-sectional area of the production time for the reference space sectional area continuously certain number of frames exceeds a specific Visually impaired person walking support device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170148A JP5461486B2 (en) | 2011-08-03 | 2011-08-03 | Visually handicapped walking support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170148A JP5461486B2 (en) | 2011-08-03 | 2011-08-03 | Visually handicapped walking support device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013034490A JP2013034490A (en) | 2013-02-21 |
JP2013034490A5 JP2013034490A5 (en) | 2013-09-26 |
JP5461486B2 true JP5461486B2 (en) | 2014-04-02 |
Family
ID=47884723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011170148A Active JP5461486B2 (en) | 2011-08-03 | 2011-08-03 | Visually handicapped walking support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5461486B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015164498A (en) * | 2014-02-28 | 2015-09-17 | 道芳 永島 | View aiding bone-conduction glasses for visually handicapped person |
JP7101350B2 (en) * | 2017-09-13 | 2022-07-15 | 株式会社アルファメディア | Image processing device and movement support device |
JP2019086565A (en) * | 2017-11-02 | 2019-06-06 | 穂積 正男 | Walking supporting device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4375879B2 (en) * | 2000-05-11 | 2009-12-02 | 財団法人くまもとテクノ産業財団 | Walking support system and information recording medium for the visually impaired |
JP2002065721A (en) * | 2000-08-29 | 2002-03-05 | Komatsu Ltd | Device and method for supporting environmental recognition for visually handicapped |
JP5002068B1 (en) * | 2011-07-08 | 2012-08-15 | 純二 嶋田 | Environmental information transmission device |
-
2011
- 2011-08-03 JP JP2011170148A patent/JP5461486B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013034490A (en) | 2013-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9801778B2 (en) | System and method for alerting visually impaired users of nearby objects | |
US9370459B2 (en) | System and method for alerting visually impaired users of nearby objects | |
US20170278307A1 (en) | Danger avoidance support program | |
KR20160028891A (en) | An objection recognition device for a blind person using a depth camera and a direction-detecting sensor | |
JP2008173250A (en) | Walking movement analyzer | |
TWI474173B (en) | Assistance system and assistance method | |
CN107049718B (en) | Obstacle avoidance device | |
JP5461486B2 (en) | Visually handicapped walking support device | |
KR20190111262A (en) | Portable device for measuring distance from obstacle for blind person | |
KR20140110484A (en) | Risk behavior detection method using image information | |
WO2019176492A1 (en) | Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium | |
KR102013353B1 (en) | Method And Device for Judging Dangerous Situation of Walking Assistant Apparatus | |
JP2013117766A (en) | Level difference detection system | |
RU2018140076A (en) | SYSTEM AND METHOD FOR DETECTING USER MOVEMENT DEVICES FOR CARE OF THE ORAL CAVITY AND PROVISION OF FEEDBACK | |
CN113499229B (en) | Rehabilitation institution control method, rehabilitation institution control system and rehabilitation device | |
Haggag et al. | Safety applications using kinect technology | |
Sun et al. | “Watch your step”: precise obstacle detection and navigation for Mobile users through their Mobile service | |
KR102244768B1 (en) | System and Method of Hearing Assistant System of Route Guidance Using Chatbot for Care of Elderly Based on Artificial Intelligence | |
CN108917701A (en) | A kind of barrier based on smart phone detects automatically and method for early warning | |
KR101878263B1 (en) | Walking Stick for Visually Impaired Person | |
US20220323285A1 (en) | Walking assisting systems and methods | |
Silva et al. | Sensor fusion for visually impaired navigation in constrained spaces | |
KR101821592B1 (en) | Walking simulator system using virtual reality and method for calculating pedestrian position thereof | |
TWI691328B (en) | Smart aid system for visually impaired | |
KR20080029209A (en) | Method of step detection at pedometer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130805 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130805 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5461486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |