JP5461486B2 - Visually handicapped walking support device - Google Patents

Visually handicapped walking support device Download PDF

Info

Publication number
JP5461486B2
JP5461486B2 JP2011170148A JP2011170148A JP5461486B2 JP 5461486 B2 JP5461486 B2 JP 5461486B2 JP 2011170148 A JP2011170148 A JP 2011170148A JP 2011170148 A JP2011170148 A JP 2011170148A JP 5461486 B2 JP5461486 B2 JP 5461486B2
Authority
JP
Japan
Prior art keywords
camera
sectional area
image
cross
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011170148A
Other languages
Japanese (ja)
Other versions
JP2013034490A5 (en
JP2013034490A (en
Inventor
健二 榊
Original Assignee
株式会社アルファメディア
健二 榊
竹上 健
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アルファメディア, 健二 榊, 竹上 健 filed Critical 株式会社アルファメディア
Priority to JP2011170148A priority Critical patent/JP5461486B2/en
Publication of JP2013034490A publication Critical patent/JP2013034490A/en
Publication of JP2013034490A5 publication Critical patent/JP2013034490A5/ja
Application granted granted Critical
Publication of JP5461486B2 publication Critical patent/JP5461486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Description

本発明は、視覚障害者が単独で行動するとき、段差や窪み、障害物などに接近したこと、あるいは上記障害物などが接近してきたことを知らせることにより安全な歩行を支援する視覚障害者歩行支援装置に関するものである。   The present invention is a visually impaired person walking that supports safe walking by notifying that a visually impaired person is approaching a step, a depression, an obstacle, or that the obstacle is approaching. The present invention relates to a support device.

視覚障害者が単独で安全に行動することを支援する装置が各種提案されている。特許文献1乃至特許文献3に記載されている発明はその例で、これらの従来例について概略を説明する。   Various devices for supporting a visually impaired person to act safely alone have been proposed. The invention described in Patent Document 1 to Patent Document 3 is an example, and an outline of these conventional examples will be described.

特許文献1記載の発明は、多眼ステレオカメラで前方の空間を撮影し、その撮影画像データをデータ処理装置が受けて前方空間内の物体の3次元位置を計算することにより、地面や障害物などとして識別するようにしたものである。そして、その識別結果を、触覚表示装置やヘッドホンなどによって使用者に伝達するようになっている。上記触覚表示装置は、表示面に多数のピンが進退自在に配列されていて、上記識別結果に基づき、地面や障害物などをピンの凹凸によって表示するようになっている。使用者は、上記触覚表示装置に触ってピンの凹凸を認識することにより、地面や障害物などの存在を認識することができる。また、特許文献1には、前方の地面に生じている穴などは、対応するピンを振動させることによって使用者に認識させることができる旨の記載がある。   The invention described in Patent Document 1 captures a front space with a multi-lens stereo camera, and the data processing device receives the captured image data to calculate the three-dimensional position of the object in the front space, thereby allowing the ground and obstacles to be captured. And so on. Then, the identification result is transmitted to the user by a tactile display device or headphones. In the tactile display device, a large number of pins are arranged on a display surface so as to be able to advance and retreat, and based on the identification result, the ground, obstacles, and the like are displayed by the unevenness of the pins. The user can recognize the presence of the ground or an obstacle by touching the tactile display device to recognize the unevenness of the pins. Further, Patent Document 1 has a description that a hole or the like generated in the front ground can be recognized by a user by vibrating a corresponding pin.

特許文献2記載の発明は、主として、ステレオ画像取込器と、モバイルコンピュータと、情報伝達器を備え、ステレオ画像取込器によって撮像されたステレオ画像から現在位置に関する文字情報や行き先に関する文字情報などを抽出し、この文字情報から得られる意味内容を、情報伝達器が音声情報、触角情報によって発するようにしたものである。
特許文献3記載の発明は、GPSセンサを備えたナビゲーションシステムを移動端末に組み込んだもので、目的地を音声で設定入力するようになっている。移動端末は携帯通信端末によりサーバーと接続することができる。サーバーは、現在地と目的地の情報を格納して移動ルートを作成し、移動ルートデータを受け取った移動端末は音声で移動ルートを案内する。
The invention described in Patent Document 2 mainly includes a stereo image capturing device, a mobile computer, and an information transmitter, and character information related to the current position and character information related to a destination from a stereo image captured by the stereo image capturing device. Is extracted, and the content of meaning obtained from the character information is emitted by the information transmitter by voice information and tactile information.
The invention described in Patent Document 3 incorporates a navigation system equipped with a GPS sensor in a mobile terminal, and a destination is set and input by voice. The mobile terminal can be connected to the server by a mobile communication terminal. The server stores information on the current location and the destination to create a travel route, and the mobile terminal that has received the travel route data guides the travel route by voice.

特許文献1記載の発明によれば、使用者は触覚表示装置に触り続けることによって前方空間の状況を把握することができる。したがって、使用者は常時触覚表示装置に触り続けてピンの凹凸が意味しているものを常に考えなければならず、使い勝手が悪い。また、生まれながらの視覚障害者は、物の物理的な形状をイメージすることが困難であり、触覚表示装置で表示されている視覚情報を的確に分析し、判断することは難しい。よって、視覚情報をピンの凹凸で再現しても、その意味するところを把握することは難しく、実用的ではない。また、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すこともできない。   According to the invention described in Patent Document 1, the user can grasp the state of the front space by continuously touching the tactile display device. Therefore, the user must always touch the tactile display device and always consider what the pin irregularities mean, which is inconvenient. In addition, a visually impaired person who is born has difficulty in imaging the physical shape of an object, and it is difficult to accurately analyze and judge visual information displayed on a tactile display device. Therefore, even if the visual information is reproduced with the unevenness of the pins, it is difficult to grasp the meaning and it is not practical. In addition, when a wall or station platform falls down, or when an obstacle such as a wall appears, it is impossible to give an alarm and call attention.

特許文献2記載の発明は、撮像されたステレオ画像から文字情報を読み取ってその意味内容を音声情報や触角情報で使用者に発するものであるから、画像中の文字認識処理、文字の意味内容の分析処理、音声情報への変換処理に時間がかかる。そのため、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すことはできない。もともと、特許文献2記載の発明は、上記のような場合に警報を発する目的のものではない。また、視覚情報から文字情報を読み取ることの信頼性、読み取った文字情報の意味内容を分析することの信頼性に難点があるため、実用化するためには多くの技術的改良を加える必要がある。   In the invention described in Patent Document 2, character information is read from a captured stereo image, and the meaning content is issued to the user by voice information or tactile information. Therefore, character recognition processing in the image, character meaning content It takes time for analysis processing and conversion processing to voice information. For this reason, when a wall or a station platform falls down, or when an obstacle such as a wall appears, it is impossible to give an alarm and call attention. Originally, the invention described in Patent Document 2 is not intended to issue an alarm in the above case. In addition, since there is a difficulty in reading the character information from the visual information and in the reliability of analyzing the semantic content of the read character information, it is necessary to add many technical improvements for practical use. .

特許文献3記載の発明は、GPSセンサを備えたナビゲーションシステムやサーバーおよびナビゲーションシステムとサーバー間で通信する携帯通信端末といった大掛かりな装置およびシステムを必要とし、コスト高になる難点がある。また、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すこともできない。   The invention described in Patent Document 3 requires a large-scale device and system such as a navigation system including a GPS sensor, a server, and a portable communication terminal that communicates between the navigation system and the server. In addition, when a wall or station platform falls down, or when an obstacle such as a wall appears, it is impossible to give an alarm and call attention.

特開2002−65721号公報JP 2002-65721 A 特開2001−318594号公報JP 2001-318594 A 特開2003−121193号公報JP 2003-121193 A

本発明は、以上説明した従来技術の問題点を解消すること、すなわち、比較的簡単な構成でありながら、前方に壁や駅のプラットホームなどの落ち込み、あるいは壁などの障害物が出現した場合に、とっさに警報を発して注意を促すことができる視覚障害者歩行支援装置を提供することを目的とする。   The present invention eliminates the problems of the prior art described above, i.e., when a wall or a station platform falls down or an obstacle such as a wall appears in the front while having a relatively simple configuration. An object of the present invention is to provide a walking support device for visually impaired people who can give a warning and prompt attention.

本発明に係る視覚障害者歩行支援装置は、
同一被写体に対し一定の基線長をおいて撮像することにより一対の画像を得ることができるステレオカメラと、
上記一対の画像を複数の上下方向の領域に分割する画像処理装置と、
分割された上記複数領域の一対の画像から各領域において撮像されている被写体とカメラを結ぶ線である距離ベクトルの長さを演算する距離ベクトル演算部と、
上記領域ごとの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部と、
上記各領域における距離ベクトルの長さと上記領域ごとのカメラ角度から、上記各領域における平坦な地面からのカメラ高さを演算するカメラ高さ演算部と、
上記各領域におけるカメラ高さの平均値を演算してカメラ高さ基準値とするカメラ高さ平均値演算部と、
互いに隣接する2つの領域の各距離ベクトルの先端によって底辺が区切られ、これらの距離ベクトルの先端から垂直に伸び、上辺が上記カメラ高さ位置で区切られる四角形の空間断面積を演算する空間断面積演算部と、
平坦面で歩行しかつ障害物のない空間で得た上記各領域における上記空間断面積を基準空間断面積としたとき、上記各領域における上記基準空間断面積に対する実働時の空間断面積の比が一定以上になったとき警報信号を出力する空間断面積比演算部と、
上記警報信号の出力によって動作し警報を発する警報装置と、を有し、
上記空間断面積演算部は、各領域における実働時の空間断面積を一定の時間間隔で演算するものであり、
上記空間断面積比演算部は、上記基準空間断面積に対する最新の上記実働時の空間断面積の比を演算するものであることを最も主要な特徴とする。
The visually impaired person walking support device according to the present invention includes:
A stereo camera capable of obtaining a pair of images by capturing an image of the same subject with a certain baseline length;
An image processing apparatus for dividing the pair of images into a plurality of vertical regions;
From a pair of images of the divided plurality regions, the distance vector calculator for calculating the length of the distance vector is a line connecting the object and the camera that is imaged in each region,
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the distance vector for each region for each region;
From the distance vector length in each region and the camera angle for each region, a camera height calculation unit that calculates the camera height from the flat ground in each region ,
A camera height average value calculation unit that calculates an average value of the camera height in each of the above areas and sets it as a camera height reference value;
Spatial cross-sectional area that calculates a square cross-sectional area in which the base is delimited by the tip of each distance vector of two adjacent areas, extends vertically from the top of these distance vectors, and the top is delimited by the camera height position. An arithmetic unit;
When a reference space sectional area of the space cross-sectional area in the respective regions obtained by the spatial without walking only One obstacle in the flat surface, the ratio of the spatial cross-sectional area of the production time with respect to the reference space cross-sectional area of each region A spatial cross-sectional area ratio calculation unit that outputs an alarm signal when becomes more than a certain value,
An alarm device that operates in response to the output of the alarm signal and issues an alarm ;
The space cross-sectional area calculation unit calculates the space cross-sectional area at the time of actual operation in each region at a constant time interval,
The most important feature is that the space cross-sectional area ratio calculation unit calculates a ratio of the latest space cross-sectional area during actual operation to the reference space cross-sectional area .

画面中の被写体までの距離の変化のみで障害物などの有無を判断するのではなく、空間断面積の変化によって障害物などの有無を判断する。距離のみの変化に対して空間断面積の変化は顕著に表れるため、障害物などの有無判断が迅速かつ確実になり、障害物などが現れた場合の警報を迅速かつ確実に発することができる。
The presence / absence of an obstacle or the like is determined based on a change in the spatial cross-sectional area rather than the presence / absence of an obstacle or the like based on only the change in the distance to the subject on the screen. Since the change in the spatial cross-sectional area appears remarkably with respect to only the change in distance , it is possible to quickly and reliably determine whether there is an obstacle, etc., and to promptly and reliably issue an alarm when an obstacle appears. .

本発明に係る視覚障害者歩行支援装置の実施例を示す機能ブロック図である。It is a functional block diagram which shows the Example of the visually impaired person walk assistance apparatus which concerns on this invention. 上記実施例の外観を示す斜視図である。It is a perspective view which shows the external appearance of the said Example. 上記実施例が備えているステレオカメラによる撮像画面の例を示す視野図である。It is a visual field figure which shows the example of the imaging screen by the stereo camera with which the said Example is provided. 上記実施例の使用状態を簡略化して示すモデル図である。It is a model figure which simplifies and shows the use condition of the said Example. 上記使用状態におけるカメラ光軸を水平に置き換えた場合の使用者とカメラ視野と被写体との関係を簡略化して示すモデル図である。It is a model figure which simplifies and shows the relationship between a user, camera visual field, and a subject at the time of replacing the camera optical axis in the said use state horizontally. 上記実施例の実使用時におけるカメラ角度演算を説明するためのモデル図である。It is a model figure for demonstrating the camera angle calculation at the time of the actual use of the said Example. 上記実施例の歩行前処理としてのカメラ角度演算の第1例を示すモデル図である。It is a model figure which shows the 1st example of the camera angle calculation as a walk pre-process of the said Example. 上記カメラ角度演算の第2例を示すモデル図である。It is a model figure which shows the 2nd example of the said camera angle calculation. 上記実施例の実使用時におけるカメラ基準高さ演算を説明するためのモデル図である。It is a model figure for demonstrating the camera reference height calculation at the time of the actual use of the said Example. 上記実施例の実使用時におけるカメラ角度変動の様子を示すモデル図である。It is a model figure which shows the mode of the camera angle fluctuation | variation at the time of the actual use of the said Example. 上記実施例の実使用時におけるカメラ前方の空間断面積を説明するためのモデル図である。It is a model figure for demonstrating the space cross-sectional area ahead of the camera at the time of the actual use of the said Example. 上記実施例に係る視覚障害者歩行支援装置を装着して平坦路を歩行したときに得られるカメラ角度の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the camera angle obtained when mounting | wearing with the visually impaired person walking assistance apparatus which concerns on the said Example, and walking on a flat road. 上記実施例に係る視覚障害者歩行支援装置を装着して平坦路を歩行したときに得られる画像領域ごとの空間断面積比の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the space cross-sectional area ratio for every image area obtained when the visually impaired person walking assistance apparatus which concerns on the said Example is mounted | worn and it walks on a flat road. 上記実施例に係る視覚障害者歩行支援装置を装着して平坦路を歩行したときに得られる画像領域ごとの高さデータの変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the height data for every image area obtained when the visually impaired person walking assistance apparatus which concerns on the said Example is mounted | worn and it walks on a flat road. 上記高さデータの平均値を示すグラフである。It is a graph which shows the average value of the said height data. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行しているときの歩行距離の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the walking distance when mounting | wearing with the visually impaired person walking assistance apparatus which concerns on the said Example, and walking. 上記歩行距離の累積値の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the cumulative value of the said walking distance. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行しているときの歩行角度の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the walking angle when mounting | wearing with the visually impaired person walking assistance apparatus which concerns on the said Example, and walking. 上記歩行角度の累積値の変動の様子を示すグラフである。It is a graph which shows the mode of the fluctuation | variation of the cumulative value of the said walking angle. 上記実施例に係る視覚障害者歩行支援装置を装着して平坦路を歩行しているときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of the camera front space cross-sectional area for every image area when mounting | wearing the visually impaired person walking assistance apparatus which concerns on the said Example, and walking on a flat road. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行し前方に昇り階段が現れたときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of the camera front space cross-sectional area for every image area when mounting | wearing with the visually impaired person's walking assistance apparatus which concerns on the said Example, and walking up and a staircase appears ahead. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行し前方に降り階段が現れたときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of a camera front space cross-section for every image area when it walks with the visually impaired person walking assistance apparatus which concerns on the said Example, and it descends ahead and a staircase appears. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行し前方にプラットホームの先端が現れたときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of the camera front space cross-sectional area for every image area when mounting | wearing with the visually impaired person walking assistance apparatus which concerns on the said Example, and walking, and the front-end | tip of a platform appears ahead. 上記実施例に係る視覚障害者歩行支援装置を装着して歩行し前方に壁が現れたときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of the camera front space cross-sectional area for every image area when mounting | wearing with the visually impaired person walking assistance device which concerns on the said Example, and walking, and the wall appeared ahead. 図24に示す状態からさらに壁に近づいたときの画像領域ごとのカメラ前方空間断面積の例を示すモデル図である。It is a model figure which shows the example of the camera front space cross-sectional area for every image area when it approaches a wall further from the state shown in FIG. 上記実施例に係る視覚障害者歩行支援装置を装着した使用者の歩行動作割り出し手順の例を示すモデル図である。It is a model figure which shows the example of the walk operation | movement determination procedure of the user with which the visually impaired person walking assistance device which concerns on the said Example was mounted | worn. 上記実施例に係る視覚障害者歩行支援装置によって得ることができる歩行距離の変動の例を示すグラフである。It is a graph which shows the example of the fluctuation | variation of the walk distance which can be obtained with the visually impaired person walk assistance apparatus which concerns on the said Example. 上記歩行距離の累積値の変動を示すグラフである。It is a graph which shows the fluctuation | variation of the cumulative value of the said walking distance. 上記実施例に係る視覚障害者歩行支援装置を装着した使用者の回転動作の様子を上面から示すモデル図である。It is a model figure which shows the mode of the rotation operation | movement of the user with which the visually impaired person walking assistance device which concerns on the said Example was mounted | worn from an upper surface. 上記回転動作の様子を斜め上方から示すモデル図である。It is a model figure which shows the mode of the said rotation operation from diagonally upward. 上記実施例に係る視覚障害者歩行支援装置が備えているステレオカメラによる撮像画像の別の例を示すもので、回転動作によって得られる二つの画像を示す視野図である。It is a visual field figure which shows another example of the picked-up image by the stereo camera with which the visually impaired person walk assistance apparatus which concerns on the said Example is provided, and shows two images obtained by rotation operation | movement. 右回転により図31の撮影画像を得たときの回転角度変動を示すグラフである。It is a graph which shows a rotation angle fluctuation | variation when the picked-up image of FIG. 31 is obtained by right rotation. 上記回転角度変動の累積値の変動を示すグラフである。It is a graph which shows the fluctuation | variation of the cumulative value of the said rotation angle fluctuation | variation. 左回転により図31の撮影画像を得たときの回転角度変動を示すグラフである。It is a graph which shows a rotation angle fluctuation | variation when the picked-up image of FIG. 31 is obtained by left rotation. 上記回転角度変動の累積値の変動を示すグラフである。It is a graph which shows the fluctuation | variation of the cumulative value of the said rotation angle fluctuation | variation.

以下、本発明に係る視覚障害者歩行支援装置の実施例について、図面を参照しながら説明する。   Embodiments of the visually impaired person walking support apparatus according to the present invention will be described below with reference to the drawings.

まず、視覚障害者歩行支援装置の実施例の概略を、図2の外観図を参照しながら説明する。本実施例は、ステレオカメラを構成する右眼カメラ11と左眼カメラ12、画像デジタル化装置15,16、演算装置20、警報装置としてのヘッドホン31および振動装置32を備えている。右眼カメラ11、左眼カメラ12、画像デジタル化装置15,16は、眼鏡のフレームと同じ形をしたフレームに装着されている。より具体的には、右眼カメラ11は右側のレンズ枠1に、左眼カメラ12は左側のレンズ枠2に、それぞれ水平軸と垂直軸を中心に回転位置を調整可能に装着され、画像デジタル化装置15,16は上記フレームの左右の蔓3に装着されている。上記フレームは、健常者が眼鏡を装着するのと同様に視覚障害者が装着することができ、視覚障害者の左右の目の前に左右のカメラ11,12が位置するようになっている。   First, an outline of an embodiment of the visually impaired person walking support apparatus will be described with reference to the external view of FIG. The present embodiment includes a right-eye camera 11 and a left-eye camera 12 that constitute a stereo camera, image digitizing devices 15 and 16, a computing device 20, headphones 31 as an alarm device, and a vibration device 32. The right eye camera 11, the left eye camera 12, and the image digitizing devices 15 and 16 are attached to a frame having the same shape as the frame of the glasses. More specifically, the right-eye camera 11 is mounted on the right lens frame 1 and the left-eye camera 12 is mounted on the left lens frame 2 so that their rotational positions can be adjusted around the horizontal and vertical axes, respectively. The converting devices 15 and 16 are attached to the left and right vines 3 of the frame. The frame can be worn by a visually impaired person in the same manner as a normal person wearing glasses, and the left and right cameras 11 and 12 are positioned in front of the left and right eyes of the visually impaired person.

ステレオカメラを構成する右眼カメラ11と左眼カメラ12は、一定の基線長をおいて同一被写体を撮像することにより被写体までの距離を測定するために用いられる。上記左右のカメラ11,12はCCDその他の撮像素子を備えていて、各撮像素子から出力される画像信号はそれぞれ画像デジタル化装置15,16でデジタルデータに変換され、かつ、複数の画像領域に対応した信号に分割されて演算装置20に入力されるように構成されている。上記ステレオカメラによる距離測定を補助するために、あるいは上記ステレオカメラによる距離測定に代えて、左右のレンズ枠1,2の中間に距離センサ13を設けてもよい。   The right eye camera 11 and the left eye camera 12 constituting the stereo camera are used for measuring the distance to the subject by imaging the same subject with a certain baseline length. The left and right cameras 11 and 12 are provided with CCDs and other image pickup devices, and image signals output from the image pickup devices are converted into digital data by the image digitizing devices 15 and 16, respectively, and are converted into a plurality of image areas. The signal is divided into corresponding signals and input to the arithmetic unit 20. In order to assist the distance measurement by the stereo camera, or instead of the distance measurement by the stereo camera, a distance sensor 13 may be provided between the left and right lens frames 1 and 2.

演算装置20は、例えば、CPUあるいはDSP(デジタル信号処理装置:DIGITAL Signal Processor)を主たる構成要素として備えている。演算装置20に加えてメモリ(図示されず)からなる記憶部を備えている。演算装置20は、上記画像データ信号に基づいて、後で詳細に説明する各種演算を行うことにより、前方に段差や障害物などが現れたとき警報信号を出力するようになっている。ヘッドホン31、振動装置32は上記警報信号によって動作し、ヘッドホン31は音声で使用者に注意を促し、振動装置32はそれ自身が振動することによって使用者に注意を促す。演算装置20は、使用者の腰などに装着され、左右のカメラ11,12および画像デジタル化装置15,16も含めた視覚障害者歩行支援装置を駆動するための電源電池を内蔵している。   The arithmetic unit 20 includes, for example, a CPU or a DSP (digital signal processor) as a main component. In addition to the arithmetic unit 20, a storage unit including a memory (not shown) is provided. Based on the image data signal, the arithmetic unit 20 performs various calculations, which will be described in detail later, so as to output an alarm signal when a step or an obstacle appears in front. The headphone 31 and the vibration device 32 are operated by the alarm signal. The headphone 31 alerts the user with sound, and the vibration device 32 urges the user to be alerted by vibrating itself. The computing device 20 is mounted on the user's waist and the like, and has a built-in power supply battery for driving the visually impaired walking support device including the left and right cameras 11 and 12 and the image digitizing devices 15 and 16.

次に、上記視覚障害者歩行支援装置の信号処理系統の例について、図1を参照しながら説明する。図1において、符号10は上記左右のカメラ11,12を備えたステレオカメラを示している。ステレオカメラ10から出力される左右の画像信号は、A/D変換器17によりデジタル信号による画像データ信号に変換され、画像処理装置18に入力される。A/D変換器17は、図2に示す画像デジタル化装置15,16に相当する。画像処理装置18は、左右一対の画像を複数の領域に分割する機能を備えていて、左右の画像データ信号を、分割した領域ごとに演算装置20に入力するようになっている。   Next, an example of a signal processing system of the visually impaired walking support apparatus will be described with reference to FIG. In FIG. 1, the code | symbol 10 has shown the stereo camera provided with the said left and right cameras 11 and 12. In FIG. The left and right image signals output from the stereo camera 10 are converted into digital image data signals by the A / D converter 17 and input to the image processing device 18. The A / D converter 17 corresponds to the image digitizing devices 15 and 16 shown in FIG. The image processing device 18 has a function of dividing a pair of left and right images into a plurality of regions, and inputs left and right image data signals to the arithmetic device 20 for each divided region.

演算装置20は、距離ベクトル演算部21、カメラ角度演算部22、カメラ高さ演算部23、カメラ角度平均値演算部24、カメラ高さ平均値演算部25、空間断面積演算部26、空間断面積比演算部27、警告判断部28、相対移動ベクトル演算部32、歩行距離・歩行角度演算部34を備えている。演算装置20は、物理的な構成として上記各演算部を備えているか、もしくはソフトウェアによって前記CPUやDSPの動作が制御されることにより上記各演算部としての機能を実現するものであってもよい。演算装置20に付属して、クロック信号発振器40、警報装置30、記憶部50を備えている。記憶部50は、基準空間断面積記憶部51、空間断面積記憶部52を備えている。   The computing device 20 includes a distance vector computing unit 21, a camera angle computing unit 22, a camera height computing unit 23, a camera angle average value computing unit 24, a camera height average value computing unit 25, a space cross-sectional area computing unit 26, a space section. An area ratio calculation unit 27, a warning determination unit 28, a relative movement vector calculation unit 32, and a walking distance / walking angle calculation unit 34 are provided. The arithmetic device 20 may include the arithmetic units as a physical configuration, or may realize functions as the arithmetic units by controlling operations of the CPU and DSP by software. . A clock signal oscillator 40, an alarm device 30, and a storage unit 50 are attached to the arithmetic device 20. The storage unit 50 includes a reference space sectional area storage unit 51 and a space sectional area storage unit 52.

上記各演算部の詳細な機能は後で説明することにし、ここでは各演算部における信号の流れについて説明する。画像処理装置18から出力される左右の画像データ信号は距離ベクトル演算部21に入力され、分割された画像領域ごとの被写体に対する距離ベクトルの長さが演算される。各距離ベクトル長さ信号はカメラ角度演算部22に入力され、使用状態におけるカメラ角度すなわち鉛直線に対する撮影レンズ光軸の角度が画像領域ごとに演算される。演算されたカメラ角度データに基づき、カメラ高さ演算部23でカメラ高さが画像領域ごとに演算される。画像領域ごとに演算されたカメラ角度データにより、カメラ角度平均値演算部24でカメラ角度の平均値が演算され、また、画像領域ごとに演算されたカメラ高さデータにより、カメラ高さ平均値演算部25でカメラ高さの平均値が演算される。   The detailed function of each arithmetic unit will be described later. Here, the flow of signals in each arithmetic unit will be described. The left and right image data signals output from the image processing device 18 are input to the distance vector calculation unit 21 and the length of the distance vector for the subject for each divided image area is calculated. Each distance vector length signal is input to the camera angle calculation unit 22, and the camera angle in use, that is, the angle of the optical axis of the photographing lens with respect to the vertical line is calculated for each image region. Based on the calculated camera angle data, the camera height calculation unit 23 calculates the camera height for each image area. Based on the camera angle data calculated for each image area, the camera angle average value calculation unit 24 calculates the average value of the camera angles, and calculates the camera height average value based on the camera height data calculated for each image area. The average value of the camera height is calculated by the unit 25.

上記距離ベクトル長さ信号と、上記カメラ角度の平均値およびカメラ高さの平均値データは空間断面積演算部26に入力され、画像領域ごとの空間断面積が演算される。空間断面積とは、各画像領域における被写体までの距離ベクトルの長さとステレオカメラ10の装着高さから求めることができる上記画像領域ごとの前方空間の垂直面内における断面積のことである。空間断面積には、使用者が平坦路上で静止または歩行しかつ障害物のない空間で求めた値である基準空間断面積と、実働時において刻々と変化する空間断面積があり、基準空間断面積データは基準空間断面積記憶部51に、刻々と変化する空間断面積データは空間断面積記憶部52に記憶される。刻々と変化する空間断面積データは、空間断面積演算部26において、クロック信号発振器40から発信されるクロック信号に基づき一定の時間間隔で演算され、空間断面積記憶部52に記憶される空間断面積データは最新のデータに更新される。   The distance vector length signal, the average value of the camera angle, and the average value data of the camera height are input to a spatial cross-sectional area calculation unit 26, and a spatial cross-sectional area for each image area is calculated. The spatial cross-sectional area is a cross-sectional area in the vertical plane of the front space for each image area that can be obtained from the length of the distance vector to the subject in each image area and the mounting height of the stereo camera 10. The space cross-sectional area includes a reference space cross-section that is a value obtained in a space where a user is stationary or walking on a flat road and has no obstacles, and a space cross-sectional area that changes every moment during actual operation. The area data is stored in the reference space cross-sectional area storage unit 51, and the space cross-sectional area data that changes every moment is stored in the space cross-sectional area storage unit 52. The spatial cross-sectional area data that changes every moment is calculated by the spatial cross-sectional area calculation unit 26 at regular time intervals based on the clock signal transmitted from the clock signal oscillator 40 and stored in the spatial cross-sectional area storage unit 52. The area data is updated to the latest data.

記憶部51,52に記憶されている基準空間断面積データと実働時の刻々と変化する空間断面積データは空間断面積比演算部27に入力されて比較され、空間断面積比演算部27は基準空間断面積と実働時の空間断面積の比が一定以上になったとき警報信号を出力する。警報信号は警報装置30に入力され、警報装置30は、音による警報、触角によって認識できる警報などを発して、使用者の前方に壁や階段、駅のプラットホームの先端などが出現したことを知らせる。   The reference space cross-sectional area data stored in the storage units 51 and 52 and the space cross-sectional area data that changes every time during actual operation are input to the space cross-sectional area ratio calculating unit 27 and compared, and the space cross-sectional area ratio calculating unit 27 An alarm signal is output when the ratio of the reference cross-sectional area to the actual cross-sectional area is greater than a certain level. The warning signal is input to the warning device 30, and the warning device 30 issues a warning by sound, a warning that can be recognized by a feeler, etc., and notifies the user that a wall, stairs, the tip of a station platform, etc. have appeared. .

本実施例は、相対移動ベクトル演算部32、歩行距離・歩行角度演算部34を備えることによって、使用者の歩行行動を割り出すことができるようになっている。相対移動ベクトル演算部32には、画像処理装置18から特定のnフレーム目の画像データとその直前のn−1フレーム目の画像データが入力され、相対移動ベクトル演算部32は、上記各フレームのデータから、本装置と被写体との相対移動ベクトルを演算する。この相対移動ベクトルに基づき歩行距離・歩行角度演算部34が歩行距離およびその累積値と歩行角度およびその累積値を演算する。これらの演算結果は警告判断部28に入力されて警報装置30の作動に供される。   The present embodiment includes a relative movement vector calculation unit 32 and a walking distance / walking angle calculation unit 34 so that the user's walking behavior can be determined. The relative movement vector calculation unit 32 receives the image data of the specific n frame and the image data of the n−1 frame immediately before the image data from the image processing device 18. From the data, a relative movement vector between the apparatus and the subject is calculated. Based on this relative movement vector, the walking distance / walking angle calculation unit 34 calculates the walking distance and its accumulated value, the walking angle and its accumulated value. These calculation results are input to the warning determination unit 28 and used for the operation of the alarm device 30.

次に、上記実施例による歩行支援動作をより具体的に説明する。図3はステレオカメラ10で撮像された左右の画像の例で、プラットホームの先端部とその前方の線路の画像である。左右の画像には、左右のカメラの基線長に対応した視差が生じている。左右のカメラで撮像される画像は、予め定められた3つの画像領域に分割される。図示の例では画面の上下方向に上端画像領域U、中央画像領域C、下端画像領域Lの3つに分けられている。上記各画像領域における左右の撮像素子から出力される画像信号には位相差が生じており、かつ、この位相差の大きさは各画像領域に映り込んでいる被写体距離に対応しているため、上記位相差から被写体距離を求めることができる。このような原理に基づく測距装置はカメラのオートフォーカス装置において周知である。本発明では、図4に示すように、上記3つの画像領域にある被写体とカメラを結ぶ線をそれぞれ上端ベクトルV、中央ベクトルV、下端ベクトルVという。また、各画像領域に映り込んでいる被写体までの距離を、カメラから被写体までのベクトル長さといい、上端画像領域U、中央画像領域C、下端画像領域Lのベクトル長さをそれぞれ上端ベクトル長さ、中央ベクトル長さ、下端ベクトル長さという。
Next, the walking support operation according to the above embodiment will be described more specifically. FIG. 3 is an example of left and right images taken by the stereo camera 10, and is an image of the tip of the platform and the track in front of it. In the left and right images, parallax corresponding to the baseline length of the left and right cameras is generated. An image captured by the left and right cameras is divided into three predetermined image areas. In the example shown in the drawing, the image is divided into an upper image area U, a central image area C, and a lower image area L in the vertical direction of the screen. A phase difference has occurred in the image signals output from the left and right imaging elements in each image area, and the magnitude of this phase difference corresponds to the subject distance reflected in each image area. The subject distance can be obtained from the phase difference. A distance measuring device based on such a principle is well known in an autofocus device of a camera. In the present invention, as shown in FIG. 4, the lines connecting the subject and the camera in the three image areas are referred to as an upper end vector V U , a center vector V C , and a lower end vector V L , respectively. In addition, the distance to the subject reflected in each image area is referred to as the vector length from the camera to the subject, and the vector lengths of the upper end image area U, the central image area C, and the lower end image area L are the upper end vector length. , The center vector length and the bottom vector length.

視覚障害者が本発明に係る歩行支援装置を頭部に装着して使用する場合を想定すると、図4に示すように、カメラ10の光軸Oは使用者の前方斜め下に向いている。図4では使用者が平坦な地面7に立っている場合を想定している。上記中央ベクトルVは光軸Oと一致し、中央ベクトルVを中心としてその上側に上端ベクトルVが、下側に下端ベクトルVがある。これら各ベクトルの長さは、前記距離ベクトル演算部21で上記測距の原理に基づき演算によって求める。図4を参照すると、上記各ベクトルの長さの変化を常時観察し、一定以上の変化が見られた場合に壁や段差や障害物が前方に現れたものと判断することが可能であるかのように思われる。しかし、このままでは的確な判断はできない。まず、図4に示す態様において、垂直方向をY、水平方向をZとすると、カメラの光軸OはY方向に対してもZ方向に対しても傾いている。したがって、カメラ10で撮像される画像空間では、図5に示すように、カメラ光軸Oが水平方向であるとの前提のもとに、被写体としての地面7が斜めに立ち上がったものとみなして距離を計測しており、本来平坦な地面7を坂道であるかのように判断することになる。 Assuming that a visually handicapped person uses the walking assistance apparatus according to the present invention while wearing it on the head, as shown in FIG. 4, the optical axis O of the camera 10 faces obliquely downward in front of the user. In FIG. 4, it is assumed that the user is standing on the flat ground 7. The central vector V C is coincident with the optical axis O, the upper end vector V U on its upper side around the central vector V C is, there is a lower vector V L on the lower side. The length of each vector is obtained by calculation based on the principle of distance measurement by the distance vector calculation unit 21. Referring to FIG. 4, is it possible to always observe the change in the length of each vector and determine that a wall, a step, or an obstacle has appeared in the front when a change of a certain level or more is observed? Seems like. However, it is not possible to make an accurate judgment as it is. First, in the embodiment shown in FIG. 4, when the vertical direction is Y and the horizontal direction is Z, the optical axis O of the camera is inclined with respect to both the Y direction and the Z direction. Therefore, in the image space captured by the camera 10, as shown in FIG. 5, on the assumption that the camera optical axis O is in the horizontal direction, it is assumed that the ground 7 as the subject has risen obliquely. The distance is measured, and the originally flat ground 7 is judged as if it was a slope.

したがって、歩行支援装置を使用する者の座標系に戻す必要がある。そのために、そのときのカメラ光軸Oの角度を求め、求めた角度分座標回転をかける。図6はその様子を示す。一般的には、カメラ10に角度センサや加速度センサを装着し、これらのセンサからの出力により使用時のカメラ10の光軸Oの角度を検出することができる。しかし、上記センサを装着することにより重量および消費電力が増大し、かつ、画像データと角度センサや加速度センサからのデータとの同時性を確保するのも難しい。そこで、本実施例では、時々刻々と得られる画像データからカメラ光軸Oの角度も演算するようにしている。カメラ光軸Oの角度がわかれば、上記のように座標回転をかけ人座標系に戻すことができる。こうして初めて、上端ベクトルV、中央ベクトルV、下端ベクトルVの先端が、平坦な路面であるのか、凹凸面であるのかを判別することができる。 Therefore, it is necessary to return to the coordinate system of the person who uses the walking support device. For this purpose, the angle of the camera optical axis O at that time is obtained, and coordinate rotation is applied by the obtained angle. FIG. 6 shows this state. In general, an angle sensor or an acceleration sensor is attached to the camera 10, and the angle of the optical axis O of the camera 10 in use can be detected based on outputs from these sensors. However, mounting the sensor increases the weight and power consumption, and it is difficult to ensure the synchronism between the image data and the data from the angle sensor or the acceleration sensor. Therefore, in this embodiment, the angle of the camera optical axis O is also calculated from image data obtained every moment. If the angle of the camera optical axis O is known, the coordinate rotation can be performed as described above to return to the human coordinate system. Thus, for the first time, it is possible to determine whether the tips of the upper end vector V U , the center vector V C , and the lower end vector V L are flat road surfaces or uneven surfaces.

本実施例に係る視覚障害者歩行支援装置を使用するに当たっては、先ず歩行前の処理を行い、カメラ光軸Oの角度を求める。この前処理モードは、使用者が必要に応じてスイッチ操作によって実行できるようにするとよい。使用者は本装置を装着して平坦路に立ち、上記前処理モードで本装置を動作させる。図7、図8はこの動作モードでのカメラ角度検出を示しており、上記3つのベクトル、すなわち上端ベクトルV、中央ベクトルV、下端ベクトルVの長さを求め、2つのベクトルの組み合わせによってカメラ角度を検出するようになっている。各ベクトルの先端の高さすなわち地面7の高さは略同じである。また、カメラの高さHも同じである。そこで、カメラの高さHを共通変数とし、上記3本のベクトル長さと地面7とで構成される直角三角形からカメラ光軸Oの鉛直線に対する角度を求める。 In using the visually impaired person walking support apparatus according to the present embodiment, first, processing before walking is performed, and the angle of the camera optical axis O is obtained. This pre-processing mode may be executed by a user by operating a switch as necessary. The user wears the apparatus and stands on a flat road, and operates the apparatus in the pretreatment mode. 7 and 8 show camera angle detection in this operation mode. The lengths of the above three vectors, that is, the upper end vector V U , the center vector V C , and the lower end vector V L are obtained, and the combination of the two vectors is shown. By this, the camera angle is detected. The height of the tip of each vector, that is, the height of the ground 7 is substantially the same. The height H of the camera is also the same. Therefore, the camera height H is used as a common variable, and the angle of the camera optical axis O with respect to the vertical line is determined from a right triangle formed by the three vector lengths and the ground 7.

図7に示すように、中央ベクトルVを含む三角形と上端ベクトルVを含む三角形の2つの三角形から第1のカメラ角度D1を求める。上端ベクトルVの角度をDとすると、カメラ角度D1は、
D1=tan−1((−V/V+cosD)/sinD
の式で演算することができる。
図8に示すように、中央ベクトルVを含む三角形と下端ベクトルVを含む三角形の2つの三角形から第2のカメラ角度D2を求める。下端ベクトルVの角度をDとすると、カメラ角度D2は、
D2=tan−1((V/V−cosD)/sinD
の式で演算することができる。
これらのカメラ角度演算は、図1に示すカメラ角度演算部22で行う。
As shown in FIG. 7, the first camera angle D1 is obtained from two triangles including a triangle including the center vector V C and a triangle including the upper end vector V U. If the angle of the upper end vector V U is D U , the camera angle D1 is
D1 = tan −1 ((−V C / V U + cos D U ) / sin D U )
It can be calculated by the following formula.
As shown in FIG. 8, the second camera angle D2 is obtained from two triangles including a triangle including the center vector V C and a triangle including the lower end vector V L. When the angle of the lower end vector V L is D L , the camera angle D2 is
D2 = tan −1 ((V C / V L −cosD L ) / sinD L )
It can be calculated by the following formula.
These camera angle calculations are performed by the camera angle calculation unit 22 shown in FIG.

使用者が立っている地面が完全に平坦であり、カメラの高さが変動しなければ、D1,D2の値は一致するが、実際には多少差が生じるため、以下の式のように両者の平均(C_Deg_stand)をとってそのときのカメラ角度とする。
C_Deg_stand=(D1+D2)/2
かかる演算は、図1に示すカメラ角度平均値演算部24で行う。カメラ角度平均値は適宜のメモリなどに記憶される。
If the ground on which the user is standing is completely flat and the height of the camera does not fluctuate, the values of D1 and D2 will match, but in reality there will be a slight difference. The average (C_Deg_stand) is taken as the camera angle at that time.
C_Deg_stand = (D1 + D2) / 2
This calculation is performed by the camera angle average value calculation unit 24 shown in FIG. The camera angle average value is stored in an appropriate memory or the like.

上記のように、演算されるカメラ角度には誤差が含まれ、また、各画像領域における地面の高さ位置が異なることがあり得るため、図9に示すように、各ベクトル長さから、各画像領域におけるカメラ高さを求め、その平均値を求める。図9において、画面の上端領域における地面からのカメラ高さをH、中央領域における地面からのカメラ高さをH、下端領域における地面からのカメラ高さをHとすると、各カメラ高さは、
=V×cos(C_Deg_stand+D
=V×cos(C_Deg_stand)
=V×cos(C_Deg_stand−D
の式で求めることができる。かかる演算は、図1に示すカメラ高さ演算部23で行う。
上記各高さは、図1に示すカメラ高さ平均値演算部25において平均値が演算され、高さ基準値Hとして適宜のメモリに記憶される。高さ基準値Hの演算式は以下のとおりである。
=(H+H+H)/3
As described above, the calculated camera angle includes an error, and the height position of the ground in each image region may be different. Therefore, as shown in FIG. The camera height in the image area is obtained, and the average value is obtained. In FIG. 9, assuming that the camera height from the ground in the upper end area of the screen is H U , the camera height from the ground in the central area is H C , and the camera height from the ground in the lower end area is H L , Well,
H U = V U × cos (C_Deg_stand + D U )
H C = V C × cos (C_Deg_stand)
H L = V L × cos (C_Deg_stand−D L )
It can be calculated by the following formula. This calculation is performed by the camera height calculation unit 23 shown in FIG.
Each height average value is calculated in the camera height average calculator 25 shown in FIG. 1, it is stored in an appropriate memory as height reference value H S. The equation at a height reference value H S is as follows.
H S = (H U + H C + H L ) / 3

以上のようにして歩行前の前処理を行った後、歩行を開始する。歩行中、使用者の姿勢が微妙に変動するのに伴いカメラ光軸の角度が変動する。図10はこの変動の様子を示している。既に演算されている高さ基準値Hをもとに、かつ、前記各ベクトルV、V、Vの長さから各画像領域における歩行中のカメラ角度DUW、DCW、DLWを常時、一定の時間間隔で演算する。演算式は以下のとおりである。
UW=cos−1(H/V)−D
CW=cos−1(H/V
LW=cos−1(H/V)+D
これらの式で求めたカメラ角度には誤差を含むため、以下の式のように、これらカメラ角度の平均値をとってカメラ角度(C_Deg_Walking)とする。
C_Deg_Walking=(DUW+DCW+DLW)/3
After the pre-processing before walking is performed as described above, walking is started. During walking, the angle of the camera optical axis changes as the user's posture changes slightly. FIG. 10 shows this variation. Based on the already calculated height reference value H S and from the lengths of the vectors V U , V C , and V L , the camera angles D UW , D CW , and D LW during walking in each image region are calculated. Is always calculated at regular time intervals. The calculation formula is as follows.
D UW = cos -1 (H C / V U) -D U
D CW = cos −1 (H C / V C )
D LW = cos -1 (H C / V L) + D L
Since the camera angle obtained by these equations includes an error, an average value of these camera angles is taken as a camera angle (C_Deg_Walking) as in the following equation.
C_Deg_Walking = (D UW + D CW + D LW ) / 3

また、歩行中のカメラ高さHUW、HCW、HLWを以下の式を適用して演算し、また、これらの高さ平均値Hを演算する。
UW=V×cos(C_Deg_Walking+V
CW=V×cos(C_Deg_Walking)
LW=V×cos(C_Deg_Walking−V
=(HUW+HCW+HLW)/3
Further, camera heights H UW , H CW , and H LW during walking are calculated by applying the following equations, and an average value of these heights HA is calculated.
H UW = V U × cos (C_Deg_Walking + V U )
H CW = V C × cos (C_Deg_Walking)
H LW = V L × cos (C_Deg_Walking−V L )
H A = (H UW + H CW + H LW ) / 3

以上のようなカメラ角度演算、カメラ高さ演算は、平坦路を歩行しているときにのみ適用され、それ以外の、例えば昇り階段、降り階段、障害物などが画面内に現れたことを認識するために、次に説明する空間断面積演算を行う。人は、意識しているか無意識であるかに関わらず、眼前の空間の広がりをとらえており、とらえた空間が自由に動くことができる空間であるか否かを認識しながら行動している。図11は、本実施例に係る視覚障害者歩行支援装置を装着して、障害物などがない比較的平坦な地面を歩行しているときの様子をモデル化して示している。   The camera angle calculation and camera height calculation described above are applied only when walking on a flat road, and other types such as ascending stairs, descending stairs, obstacles, etc. appear on the screen. In order to do this, the spatial cross-sectional area calculation described below is performed. Regardless of whether the person is conscious or unconscious, the person captures the expanse of the space in front of him and acts while recognizing whether the captured space can move freely. FIG. 11 shows a model of a state when the visually impaired person walking support apparatus according to the present embodiment is worn and the user walks on a relatively flat ground having no obstacles.

図11がこれまで説明してきたことと異なる点は、上端、中央、下端の前記各距離ベクトルV、V、Vに挟まれた空間の断面積を想定していることである。本実施例では、これらの断面積を演算することによって上記昇り階段、降り階段、障害物、落ち込みなどの識別を迅速かつ容易に行うことができるようにしている。図11において、使用者の前方の空間は、人が自由に動くことができる空間とみなし、上記3つの空間の断面積を平坦路基準断面積と定義する。1つの空間は、底辺が上端ベクトルVの先端と中央ベクトルVの先端で区切られ、これらのベクトル先端から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSUSとする。別の1つの空間は、底辺が中央ベクトルVの先端と下端ベクトルVの先端で区切られ、これらのベクトル先端から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSCSとする。もう1つの空間は、底辺が下端ベクトルVの先端とカメラから垂直に下した線の地面との交点とで区切られ、これらベクトル先端および上記交点から垂直に伸び、上辺がカメラ高さ位置で区切られる四角形の空間で、この空間の基準断面積をSLSとする。 FIG. 11 differs from what has been described so far in that it assumes a cross-sectional area of a space sandwiched between the distance vectors V U , V C , and V L at the upper end, the center, and the lower end. In this embodiment, by calculating these cross-sectional areas, it is possible to quickly and easily identify the ascending stairs, descending stairs, obstacles, depressions, and the like. In FIG. 11, the space in front of the user is regarded as a space in which a person can move freely, and the cross-sectional areas of the three spaces are defined as flat road reference cross-sectional areas. One space bottom is delimited by the tip of the tip and the central vector V C of the upper vector V U, extending from these vectors tip vertically in a space of a square in which the top side is delimited by the camera height, the space a reference cross-sectional area and S US. Another space is a rectangular space in which the base is divided by the tip of the center vector V C and the tip of the bottom vector V L , extends vertically from these vector tips, and the top is divided by the camera height position. a reference cross-sectional area of the space and S CS. The other space is delimited by the intersection of the tip of the lower end vector V L and the ground of the line perpendicularly descending from the camera, the base extends vertically from the tip of the vector and the intersection, and the upper side is at the camera height position. in the space of a square delimited, the reference cross-sectional area of the space between S LS.

上記各基準断面積SUS、SCS、SLSは、以下の式によって演算される。
LS=(H+V×cos(C_Deg_Walking−D))/2
×V×sin(C_Deg_Walking−D
CS=(V×cos(C_Deg_Walking−D
+V×cos(C_Deg_Walking−D))/2
×(V×sin(C_Deg_Walking)
−V×sin(C_Deg_Walking−D
US=(V×cos(C_Deg_Walking+D
+V×cos(C_Deg_Walking))/2
×(V×sin(C_Deg_Walking+D
−V×sin(C_Deg_Walking)
高さ基準値H、上端ベクトルの角度D、下端ベクトルの角度Dは固定値であり、カメラ角度C_Deg_Walking、3つの距離ベクトルV、V、Vは変動値である。
Each of the reference cross-sectional areas S US , S CS , S LS is calculated by the following equation.
S LS = (H S + V L × cos (C_Deg_Walking−D L )) / 2
× V L × sin (C_Deg_Walking-D L )
S CS = (V L × cos (C_Deg_Walking−D L )
+ V C × cos (C_Deg_Walking−D L )) / 2
× (V C × sin (C_Deg_Walking)
−V L × sin (C_Deg_Walking−D L )
S US = (V U × cos (C_Deg_Walking + D U )
+ V C × cos (C_Deg_Walking)) / 2
× (V U × sin (C_Deg_Walking + D U )
−V C × sin (C_Deg_Walking)
The height reference value H S , the upper end vector angle D U , and the lower end vector angle D L are fixed values, and the camera angle C_Deg_Walking and the three distance vectors V U , V C , and V L are fluctuation values.

上記各空間断面積は、図1に示す空間断面積演算部26によって演算される。演算された上記各基準断面積SUS、SCS、SLSは基準空間断面積記憶部51に記憶される。また、使用者が歩行中すなわち本実施例に係る装置の実働中、空間断面積演算部26は、クロック信号発振器40で生成されるクロック信号に基づき、一定の時間間隔で上記3つの断面積を演算する。刻々と変化する歩行中の断面積データは、空間断面積演算部52に一時的に記憶されるとともに、新しいデータに更新される。 Each space cross-sectional area is calculated by a space cross-sectional area calculating unit 26 shown in FIG. The calculated reference sectional areas S US , S CS , S LS are stored in the reference space sectional area storage unit 51. Further, while the user is walking, that is, while the apparatus according to the present embodiment is in operation, the spatial cross-sectional area calculation unit 26 calculates the above three cross-sectional areas at regular time intervals based on the clock signal generated by the clock signal oscillator 40. Calculate. The cross-sectional data during walking, which changes every moment, is temporarily stored in the spatial cross-sectional area calculator 52 and updated to new data.

歩行中に刻々と変化する上記上端ベクトル、中央ベクトル、下端ベクトルに対応する空間断面積をそれぞれS、S、Sとすると、各空間断面積S、S、Sの上記各基準面積SUS、SCS、SLSに対する比率が図1に示す空間断面積比演算部27で演算される。前記上端画像領域U、中央画像領域C、下端画像領域Lに対応する空間断面積比をそれぞれRSU、RSC、RSLとすると、これらは、
SU=S/SUS
SC=S/SCS
SL=S/SLS
の式によって得ることができる。これらの演算を行うことにより、各画像領域に対応する空間断面積が、基準値に対してどれほど変化したかを知ることができる。変化量が一定の閾値を越えると、前方に段差や障害物が迫ってきているものと想定して警報を発する。
Assuming that the space cross-sectional areas corresponding to the upper end vector, the center vector, and the lower end vector, which change every moment during walking, are S U , S C , and S L , each of the spatial cross-sectional areas S U , S C , and S L above. The ratio with respect to the reference areas S US , S CS , S LS is calculated by the space cross-sectional area ratio calculation unit 27 shown in FIG. When the spatial cross-sectional area ratios corresponding to the upper image area U, the central image area C, and the lower image area L are R SU , R SC , and R SL , respectively,
R SU = S U / S US
R SC = S C / S CS
R SL = S L / S LS
It can be obtained by the following formula. By performing these calculations, it is possible to know how much the spatial cross-sectional area corresponding to each image region has changed with respect to the reference value. When the amount of change exceeds a certain threshold value, an alarm is issued assuming that a step or obstacle is approaching forward.

図12は、実働時に得られるカメラ角度の変化の例を示す。横軸は時間軸で、横軸に付した数字は撮像した画像フレーム数を示している。他のグラフに関しても同様に、横軸は時間軸で数字は撮像した画像フレーム数を示している。本装置の使用者が歩行することによってカメラ角度が10度程度の範囲で変動している。   FIG. 12 shows an example of a change in camera angle obtained during actual operation. The horizontal axis is the time axis, and the numbers attached to the horizontal axis indicate the number of captured image frames. Similarly for other graphs, the horizontal axis represents the time axis and the numbers represent the number of captured image frames. The camera angle fluctuates in a range of about 10 degrees as the user of the apparatus walks.

図13は、実働時に得られる画面の上端、中央、下端におけるそれぞれの空間面積比の変化の例を示す。図12、図13ともに平坦路歩行時のグラフであるが、図12、図13を対比すると、カメラ角度が変動することによって空間面積比も変動することがわかる。そこで、前述のように、カメラ高さの平均値を用いることとした。図14は画面の上端、中央、下端におけるそれぞれのカメラ高さ変動の実例を示している。使用者が平坦な路面を歩行する場合であっても、図14に示すようにカメラ高さが小刻みに変動し、このままでは演算によって得られる空間面積比も変動する。しかし、画面の上端、中央、下端におけるそれぞれのカメラ高さを平均すると、図15に示すように変動の少ない平坦な高さデータになる。したがって、使用者が座り込むといったように姿勢が極端に変化しない限り、平均の高さデータは大きく変動することはないから、図15に示すような変動の少ない高さデータであれば、使用者は立っているかまたは平坦路を歩いているものと判断することができる。   FIG. 13 shows an example of changes in the respective space area ratios at the upper end, the center, and the lower end of the screen obtained during actual operation. Both FIG. 12 and FIG. 13 are graphs when walking on a flat road. When FIG. 12 and FIG. 13 are compared, it can be seen that the space area ratio also varies as the camera angle varies. Therefore, as described above, the average value of the camera height is used. FIG. 14 shows actual examples of camera height fluctuations at the top, center and bottom of the screen. Even when the user walks on a flat road surface, as shown in FIG. 14, the camera height fluctuates little by little, and the spatial area ratio obtained by the calculation fluctuates as it is. However, when the camera heights at the top, center, and bottom of the screen are averaged, flat height data with little fluctuation is obtained as shown in FIG. Therefore, the average height data does not fluctuate greatly unless the posture changes extremely, such as when the user sits down. Therefore, if the height data has little fluctuation as shown in FIG. It can be determined that the person is standing or walking on a flat road.

また、使用者が歩行しているかどうかは、後で説明する動作検出によって検出することができる。図16は上記動作検出によって得ることができる歩行距離の変化、換言すれば、歩行速度の変化を示している。このグラフを参照すると歩行と停止が頻繁に行われているように見えるが、図16に示す歩行距離を積分すると、図17に示すように歩行距離がなだらかな線状に累積されていることがわかる。   Further, whether or not the user is walking can be detected by motion detection described later. FIG. 16 shows a change in walking distance that can be obtained by the motion detection, in other words, a change in walking speed. Referring to this graph, it seems that walking and stopping are frequently performed, but when the walking distance shown in FIG. 16 is integrated, the walking distance is accumulated in a gentle line shape as shown in FIG. Recognize.

使用者の歩行角度すなわち使用者の水平面内での角度変動も同様のことが言える。図18は、動作検出によって得ることができる上記歩行角度変動の例を示している。図18によれば、歩行角度は常に小刻みに変動している。しかし、角度変動データを積分すると、図19のように比較的なだらかに立ち上がる線になり、積極的な方向転換はなく、平坦路を順調に直線歩行しているものと判断することができる。逆にいえば、上記各グラフにおいて所定の閾値を越えるほどに大きく変動すると、平坦でない路面、例えば段差や障害物にさしかかったものと判断することができる。   The same applies to the walking angle of the user, that is, the angle fluctuation in the horizontal plane of the user. FIG. 18 shows an example of the walking angle fluctuation that can be obtained by motion detection. According to FIG. 18, the walking angle is constantly changing in small increments. However, when the angle variation data is integrated, it becomes a relatively gently rising line as shown in FIG. 19, and there is no positive direction change, and it can be determined that the user is walking smoothly on a flat road. In other words, if the graphs fluctuate so as to exceed a predetermined threshold value, it can be determined that the road surface is not flat, such as a step or an obstacle.

そこで次に、平坦路から非平坦路にさしかかったときの、本実施例による判断動作を説明する。図20は本実施例に係る視覚障害者歩行支援装置を装着した使用者が理想的な平坦路に立った状態の具体例で、このときの各数値をモデルとして設定する。カメラ10の高さ基準値Hは1.6m、カメラ角度すなわち鉛直線に対するカメラ光軸の角度C_Degは50度、画面上端の空間断面の底辺は1.37m、画面中央の空間断面の底辺は0.75m、画面下端の空間断面の底辺は1.16m、上端領域の距離ベクトルVの長さは3.65m、中央領域の距離ベクトルVの長さは2.49m、下端領域の距離ベクトルVの長さは1.98mである。これらの数値から求められる画面上端領域の基準空間断面積SUSは2.912m、画面中央領域の基準空間断面積SCSは1.2m、画面下端領域の基準空間断面積SLSは1.856mである。 Next, the determination operation according to the present embodiment when a flat road approaches a non-flat road will be described. FIG. 20 is a specific example of a state in which a user wearing the visually impaired person walking support apparatus according to the present embodiment stands on an ideal flat road. Each numerical value at this time is set as a model. Height reference value H S for the camera 10 is 1.6 m, the angle C_Deg 50 ° of the optical axis of the camera to the camera angles, or a vertical line, the bottom of the space section of the top of the screen is 1.37 m, the bottom of the space section in the center of the screen 0.75 m, the bottom of the space section at the bottom of the screen is 1.16 m, the length of the distance vector V U in the top area is 3.65 m, the length of the distance vector V C in the center area is 2.49 m, the distance in the bottom area The length of the vector V L is 1.98 m. Reference space sectional area of the top of the screen area obtained from these values S US is 2.912M 2, the reference space sectional area S CS is 1.2 m 2 of the screen center area, the reference space sectional area S LS bottom of the screen area 1 .856 m 2 .

使用者が歩行することによって、図21に示すように前方に昇り階段が迫ってきたとする。階段の仕様は、一般的な建築基準に基づき、斜度が30度、踏み面が0.38m、蹴上げが0.22mである。図21のように、画面上端領域にのみ階段が迫ってきている状態では、H、C_Deg、画面中央領域の底辺、画面下端領域の底辺、V、V、画面中央領域の空間断面積S、画面下端領域の空間断面積Sの値は変わらない。図21のように、上端領域の距離ベクトルVが階段の1段目と2段目の間の垂直面にかかり、そのときの距離ベクトルVの長さが2.98mであるとすると、画面上端領域の空間断面積Sは1.12mとなる。すなわち、上端の距離ベクトルVの変化比率は0.816であるのに対し、空間断面積の変化率は0.384となる。よって、空間断面積を求めて基準空間断面積との比を求めることによって、階段その他の障害物を容易かつ確実に検知できることがわかる。 As the user walks, it is assumed that the stairs are approaching as shown in FIG. The specifications of the stairs are 30 degrees, the tread is 0.38 m, and the kick is 0.22 m, based on general building standards. As shown in FIG. 21, in the state where the stairs are approaching only in the upper end area of the screen, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , and the spatial sectional area of the screen center area. The value of S C , the spatial cross-sectional area S L at the lower end area of the screen does not change. As shown in FIG. 21, when the distance vector V U of the upper end region is applied to the vertical plane between the first and second steps of the staircase, and the length of the distance vector V U at that time is 2.98 m, space sectional area S U of the top of the screen area becomes 1.12 m 2. That is, the change ratio of the distance vector V U of the upper end whereas a 0.816, the rate of change of the spatial cross-sectional area becomes 0.384. Therefore, it can be understood that the staircase and other obstacles can be detected easily and reliably by obtaining the space sectional area and determining the ratio to the reference space sectional area.

上記のようにして求めた空間断面積の変化率が一定の閾値を越えた場合、図1に示す空間断面積比演算部27が警報信号を出力し、この警報信号により警報装置30が駆動されて、階段が迫ってきたことを使用者に伝えることができる。ただし、一定時間ごとに撮像しかつ空間断面積および空間断面積比を演算し、空間断面積比が初めて閾値を越えたとき直ちに警報を発するものとすると、警報の信頼性が低下する。そこで、一定のフレーム数連続して上記閾値を越えたときに警報を発するようにする。また、カメラ角度C_Degは、昇り階段検出フレームのカウントが開始されると、直前の値が保持される。   When the rate of change of the spatial sectional area obtained as described above exceeds a certain threshold value, the spatial sectional area ratio calculating unit 27 shown in FIG. 1 outputs an alarm signal, and the alarm device 30 is driven by this alarm signal. The user can be informed that the stairs are approaching. However, if imaging is performed at regular intervals, the spatial cross-sectional area and the spatial cross-sectional area ratio are calculated, and an alarm is issued immediately when the spatial cross-sectional area ratio exceeds a threshold value for the first time, the reliability of the alarm decreases. Therefore, an alarm is issued when the threshold value is exceeded continuously for a certain number of frames. Further, the camera angle C_Deg is held at the immediately preceding value when the counting of the rising staircase detection frame is started.

上記のように、空間断面積比が閾値を越えて警報が出力されるタイミングは、
変化検出フレーム数合計/(システムのサンプリングフレーム数/sec)
となる。人の歩行速度を1m/secとすると、使用者はx秒後にはさらにxmだけ階段に近づくことになる。したがって、使用者が階段に接近する手前で警告を発するように設定する。
As mentioned above, the timing when the space cross-sectional area ratio exceeds the threshold and the alarm is output is
Total number of change detection frames / (number of system sampling frames / sec)
It becomes. If the walking speed of a person is 1 m / sec, the user will approach the stairs by xm after x seconds. Therefore, it is set so that a warning is issued before the user approaches the stairs.

図22は、使用者が降り階段に迫ってきたときをモデル的に示している。階段の仕様は図21の場合と同じである。画面上端領域にのみ階段が迫ってきている状態では、図21の場合と同様に、H、C_Deg、画面中央領域の底辺、画面下端領域の底辺、V、V、画面中央領域の空間断面積S、画面下端領域の空間断面積Sの値は変わらない。上端の距離ベクトルVが降り階段にさしかかると、距離ベクトルVの長さが急に長くなり、その先端は階段の踊り場あるいは壁などに至る。したがって、画面上端の空間面積比が3〜4倍に急激に大きくなり、前方に降り階段が迫ってきたことを容易に認識することができる。この場合も、空間断面積の変化率が一定のフレーム数連続して閾値を越えたときに警報を発する。 FIG. 22 shows a model when the user gets down and approaches the stairs. The specifications of the stairs are the same as in FIG. In a state where the stairs are approaching only the upper end area of the screen, as in the case of FIG. 21, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , the space of the screen center area The values of the cross-sectional area S C and the spatial cross-sectional area S L at the lower end area of the screen do not change. When comes to the stairs down distance vector V U of the upper end, the distance vector V U length becomes suddenly longer, its tip reaches the like landings or walls of the stairs. Therefore, it is possible to easily recognize that the space area ratio at the upper end of the screen suddenly increases 3 to 4 times, and the stairs are approaching. In this case as well, an alarm is issued when the change rate of the spatial cross-sectional area exceeds the threshold value for a certain number of frames continuously.

図23は、使用者が駅のプラットホーム先端に近づいてきたときの様子をモデル的に示している。ホームの高さは実際のホームの高さの例に合わせて1.1mとしている。図23のように画面上端領域にのみ階段が迫ってきている状態では、図22の場合と同様に、H、C_Deg、画面中央領域の底辺、画面下端領域の底辺、V、V、画面中央領域の空間断面積S、画面下端領域の空間断面積Sの値は変わらない。上端領域の距離ベクトルVがプラットホームの先端にさしかかり、かつプラットホームの先端を通り過ぎると、距離ベクトルVの長さが急に長くなり、その先端は線路の敷設面に至る。このときの距離ベクトルVの長さは6mを越える。したがって、画面上端の空間面積比が3〜4倍に急激に大きくなり、前方にプラットホーム先端が迫ってきたことを容易に認識することができる。この場合も、空間断面積の変化率が一定のフレーム数連続して閾値を越えたときに警報を発する。 FIG. 23 shows a model of the situation when the user approaches the tip of the station platform. The height of the home is 1.1 m in accordance with an example of the actual height of the home. In a state where the stairs are approaching only at the upper end area of the screen as shown in FIG. 23, as in the case of FIG. 22, H S , C_Deg, the bottom of the screen center area, the bottom of the lower end area of the screen, V C , V L , The values of the spatial cross-sectional area S C in the center area of the screen and the spatial cross-sectional area S L in the bottom area of the screen do not change. Distance vector V U of the upper end region Sashikakari the tip of the platform, and when passing the tip of the platform, the length of the distance vector V U becomes suddenly longer, its tip reaches the laying surface of the line. The length of the distance vector V U at this time exceeds 6 m. Therefore, it is possible to easily recognize that the space area ratio at the upper end of the screen suddenly increases 3 to 4 times and the front end of the platform approaches. In this case as well, an alarm is issued when the change rate of the spatial cross-sectional area exceeds the threshold value for a certain number of frames continuously.

図23で想定している仕様では、プラットホーム先端から約3m手前から、距離ベクトルVの長さが急に延びて、プラットホーム先端から先が落ち込んでいることを検出し始める。仮に、空間断面積の変化率が連続して10フレーム閾値を越えたとき警報を発するように設定されているものとすると、人の歩行速度を1m/secとしたとき、プラットホーム先端から約2m手前で警報を発することができる。 The specification assumed in FIG. 23, about 3m front from the platform tip distance vector extends is suddenly length of V U, begin to detect that the previously has fallen from the platform tip. If the rate of change of the spatial cross-sectional area is set to issue an alarm when the 10-frame threshold value is continuously exceeded, assuming that the person's walking speed is 1 m / sec, about 2 m before the platform tip. An alarm can be issued.

図24は、使用者が障害物である壁9に近づいてきたときの様子をモデル的に示している。この場合は図21について説明した昇り階段を検出した場合とほぼ同様に動作する。図24のように画面上端領域にのみ壁9が迫ってきて上端領域の距離ベクトルVが垂直の壁面にかかってきた状態では、上端領域の距離ベクトルVの長さが短くなり、画面上端領域の空間面積が小さくなる。H、C_Deg、画面中央領域の底辺、画面下端領域の底辺、V、V、画面中央領域の空間断面積S、画面下端領域の空間断面積Sの値は変わらない。図24に示す例では、上端領域の距離ベクトルVの長さが2.98mに短くなり、画面上端領域の空間断面積Sが1.0mとなってその変化率は0.346となる。よって、図21の例と同様に警報を発することができる。 FIG. 24 schematically shows a situation when the user approaches the wall 9 that is an obstacle. In this case, the operation is substantially the same as the case where the ascending staircase described with reference to FIG. 21 is detected. In a state where the distance vector V U of the upper end region looming wall 9 only in the top of the screen area is incoming in a vertical wall surface as shown in FIG. 24, is shortened length of the distance vector V U of the upper end region, the top of the screen The area of the area is reduced. The values of H S , C_Deg, the bottom of the screen center region, the bottom of the screen bottom region, V C , V L , the spatial cross-sectional area S C of the screen central region, and the spatial cross-sectional area S L of the screen bottom region remain unchanged. In the example shown in FIG. 24, the distance length of the vector V U of the upper end region is reduced to 2.98M, the rate of change space sectional area S U of the top of the screen area is a 1.0 m 2 and 0.346 Become. Therefore, an alarm can be issued as in the example of FIG.

図25は、使用者がさらに壁9まで1.5mに近づき、画面中央領域まで壁9が近づいた場合の動作を示している。壁9に遮られて上端領域の距離ベクトルVの長さがさらに短い1.67mとなり、また、中央領域の距離ベクトルVが壁9に遮られてその長さが1.95mとなっている。距離ベクトルV、距離ベクトルVが壁9で遮られるため、画面上端領域の空間面積Sが0.248mとさらに小さくなり、画面中央領域の空間断面積Sが0.425mと小さくなる。図24に示す状態から継続して警報が発せられる。 FIG. 25 shows an operation when the user further approaches 1.5 m to the wall 9 and the wall 9 approaches the center area of the screen. Length shorter 1.67m next distance vector V U of the upper end region is blocked by the wall 9, also the length distance vector V C of the central region is shielded by the walls 9 becomes 1.95m Yes. Distance vector V U, the distance vector V C is blocked by the wall 9, the space area S U of the top of the screen area is further reduced and 0.248M 2, the space sectional area S C of the screen center region and 0.425M 2 Get smaller. An alarm is issued continuously from the state shown in FIG.

以上、本実施例による階段や壁などの障害物の検知動作について説明したが、本実施例によれば、その使用者の歩行行動を割り出すことができる。図26はその原理をモデル的に説明するもので、ステレオカメラを装着した使用者が歩行しながら被写体画像を取得する様子を示している。図26において、(1)はn−1フレーム目の画像を取得するときのカメラ10と使用者および被写体8の関係を、(3)は上記n−1フレーム目の画像の例を示す。(2)は次のフレームすなわちnフレーム目の画像を取得するときのカメラ10と使用者および被写体8の関係を、(4)は上記nフレーム目の画像の例を示す。この例では、平坦な地面7を使用者が歩行し、前方の地面7上に被写体8が存在している例になっていて、n−1フレーム目で画面上端領域に被写体8の像が映り込み、nフレーム目で画面の中央に被写体8の像が映り込んでいる。右眼のカメラと左眼のカメラの両方にほぼ同様の画像が映り込んでおり、ここでは左右いずれかの画像を用いる。
As mentioned above, although the detection operation | movement of obstacles, such as a stairway and a wall by a present Example was demonstrated, according to a present Example, the user's walking action can be calculated. FIG. 26 explains the principle as a model, and shows how a user wearing a stereo camera acquires a subject image while walking. In FIG. 26, (1) shows the relationship between the camera 10 and the user and the subject 8 when the image of the (n-1) th frame is acquired, and (3) shows an example of the image of the (n-1) th frame. (2) shows the relationship between the camera 10 and the user and the subject 8 when acquiring the next frame, that is, the nth frame image, and (4) shows an example of the nth frame image. In this example, walking user a flat ground 7, they become the example object 8 on the front of the ground 7 is present, reflected statue of n-1 th frame object 8 to the top of the screen area in The image of the subject 8 is reflected at the center of the screen at the nth frame. A substantially similar image is reflected in both the right-eye camera and the left-eye camera. Here, either the left or right image is used.

図26において、(5)はn−1フレーム目からnフレーム目に至るときのカメラ10と被写体8の相対関係の変化の様子を示す。使用者は被写体8に向かって近寄っていくが、カメラ10から見れば、画面上において上端側から中央に向かって被写体8が移動し、被写体8がカメラ10に近寄ってくるように見える。また、このときのカメラ光軸Oは斜め前方を向いているので、(6)に示すように、カメラ光軸Oが水平線に一致するように座標回転をかける。したがって、カメラ10側から見た実際の被写体8は、(7)に矢印64で示すように、上方から斜め下方かつ前方に移動して画面中央に至る。(7)において、符号64で示す矢印は、カメラから見た実際の被写体8の相対移動軌跡を示しており、この移動軌跡の垂直線に対する角度は、(5)(6)に示すカメラ角度C_Degに相当する。この被写体8の移動を、前述の距離ベクトル演算によって被写体距離の変化として認識することにより、カメラ10から被写体8までの距離が近くなったことを認識することができる。   In FIG. 26, (5) shows a change in the relative relationship between the camera 10 and the subject 8 from the n−1th frame to the nth frame. The user approaches the subject 8, but when viewed from the camera 10, it appears that the subject 8 moves from the upper end side toward the center on the screen, and the subject 8 approaches the camera 10. Further, since the camera optical axis O at this time faces obliquely forward, as shown in (6), coordinate rotation is applied so that the camera optical axis O coincides with the horizontal line. Therefore, the actual subject 8 viewed from the camera 10 side moves obliquely downward and forward from the top and reaches the center of the screen as indicated by an arrow 64 in (7). In (7), the arrow indicated by reference numeral 64 indicates the relative movement locus of the actual subject 8 as viewed from the camera, and the angle of the movement locus with respect to the vertical line is the camera angle C_Deg shown in (5) and (6). It corresponds to. By recognizing the movement of the subject 8 as a change in the subject distance by the above-described distance vector calculation, it is possible to recognize that the distance from the camera 10 to the subject 8 has become shorter.

図26(7)において、符号62は、撮影レンズ光学系による被写体像の結像面を示す。結像面62上に示す矢印65は、上記矢印64で示した被写体8のカメラ10との相対移動が結像面62上に反映される様子を示している。この結像面62上での被写体8の移動と前記距離ベクトル演算などによって、カメラ10の使用者がどのように行動したかがわかる。   In FIG. 26 (7), reference numeral 62 denotes an image plane of a subject image by the taking lens optical system. An arrow 65 shown on the imaging plane 62 shows how the relative movement of the subject 8 indicated by the arrow 64 with the camera 10 is reflected on the imaging plane 62. The movement of the subject 8 on the image plane 62 and the distance vector calculation can determine how the user of the camera 10 has acted.

カメラ10の使用者の行動の一要素として歩行距離がある。本実施例は、被写体距離を測定することができるとともに単位時間ごとの移動距離を演算することができる。図27は上記単位時間ごとの移動距離の例を示す。単位時間ごとの移動距離を積分すれば、カメラ使用者の歩行距離がわかる。この歩行距離およびその累積値は、図1に示す相対移動ベクトル演算部32で演算される相対移動ベクトルに基づき、歩行距離・歩行角度演算部34で演算により求められる。図28は上記歩行距離を累積した例を示している。   One element of the action of the user of the camera 10 is a walking distance. In this embodiment, the subject distance can be measured and the moving distance per unit time can be calculated. FIG. 27 shows an example of the movement distance per unit time. The walking distance of the camera user can be determined by integrating the moving distance per unit time. The walking distance and its accumulated value are calculated by the walking distance / walking angle calculation unit 34 based on the relative movement vector calculated by the relative movement vector calculation unit 32 shown in FIG. FIG. 28 shows an example in which the walking distance is accumulated.

図29、図30は、カメラ使用者の行動の別の要素として、水平面内における歩行角度変化ないしは回転動作認識が可能であることを示している。図29、図30に示すように、歩行中の人間は、前方に向かってまっすぐ歩行するとは限らず、歩行方向が左右に変化し、あるいは顔の向きが常時左右に変化する。図29、図30は、右眼カメラ11と左眼カメラ12からなるステレオカメラを装着した使用者の向きの変化を示している。カメラ使用者は前方にある被写体8に対し正対してまっすぐ歩行するとは限らず、歩行方向の変化あるいは顔の向きの変化に応じてカメラ10の光軸が左右に振れる。   FIG. 29 and FIG. 30 show that the walking angle change or the rotation motion recognition in the horizontal plane can be recognized as another element of the camera user's action. As shown in FIGS. 29 and 30, a human being walking does not always walk straight forward, but the walking direction changes to the left or right, or the face direction always changes to the left or right. 29 and 30 show changes in the orientation of the user wearing a stereo camera composed of the right eye camera 11 and the left eye camera 12. The camera user does not always walk straight in front of the subject 8 in front, but the optical axis of the camera 10 swings left and right in accordance with a change in the walking direction or a change in the face direction.

図30は、カメラの光軸Oが左右に振れることによるカメラ10での被写体8の見え方を示している。カメラ10が左右に回転することによりカメラ10と被写体8との相対的な位置関係が変化する。図30に示した2つの被写体8は、カメラが右回転したときにカメラから見える被写体と、カメラが左回転したときにカメラから見える被写体を示している。カメラから見た被写体8の回転移動距離を、図30では矢印66で示している。この相対的な被写体8の位置関係の変化は、カメラの結像面62上では矢印67で示す範囲での変化となる。また、このときのカメラの回転角度をθで表している。fは撮影レンズの焦点距離、Zはカメラから被写体8までの距離を示している。   FIG. 30 shows how the subject 8 is seen by the camera 10 when the optical axis O of the camera swings from side to side. As the camera 10 rotates left and right, the relative positional relationship between the camera 10 and the subject 8 changes. The two subjects 8 shown in FIG. 30 indicate a subject that can be seen from the camera when the camera rotates to the right and a subject that can be seen from the camera when the camera rotates to the left. The rotational movement distance of the subject 8 viewed from the camera is indicated by an arrow 66 in FIG. The relative positional change of the subject 8 changes within a range indicated by an arrow 67 on the imaging plane 62 of the camera. Further, the rotation angle of the camera at this time is represented by θ. f indicates the focal length of the photographic lens, and Z indicates the distance from the camera to the subject 8.

上記矢印66で示すカメラから見た上記回転移動距離は、
回転移動距離=z/f×(投影面画素ベクトル×画素サイズ)
で得ることができ、また、
歩行角度/θ=tan−1(回転距離/Z)
の式が成り立つ。このようにして、カメラ使用者の回転動作を知ることができる。図29、図30は被写体8が動かない物体である場合の例であり、被写体が地面(路面)上を動く物体である場合には、その動きが加算される。本実施例では、画面を3分割して各分割画面中の被写体につき、一定の時間間隔で撮像し演算を行うため、不動の被写体であるか移動している被写体であるかを識別することができ、また、障害物などの認識に誤りを生ずることもない。
The rotational movement distance seen from the camera indicated by the arrow 66 is:
Rotational movement distance = z / f × (projection plane pixel vector × pixel size)
Can also be obtained at
Walking angle / θ = tan −1 (rotational distance / Z)
The following equation holds. In this way, it is possible to know the rotation operation of the camera user. FIGS. 29 and 30 are examples in which the subject 8 is an object that does not move. When the subject is an object that moves on the ground (road surface), the movement is added. In this embodiment, the screen is divided into three parts, and the subject in each divided screen is imaged and calculated at a fixed time interval. Therefore, it is possible to identify whether the subject is a stationary subject or a moving subject. In addition, there is no error in recognition of obstacles.

図31以下は、カメラ使用者が上記のような回転動作した場合の実際の画像の例とそれによって得られる各種信号波形の例を示している。図31は駅のプラットホーム上でカメラに映り込む画像の例を示しており、プラットホームの先端縁が画面をほぼ対角線に沿って横切り、その前方にレールが映り込んでいる。当然ながら、レールの敷設面はプラットホームの面から1.1m程度落ち込んでいる。図31の左側の画像はn−1フレーム目の画像、右側の画像はその後のnフレーム目の画像で、カメラの使用者が左から右に向かって回転動作をしたときの画像の変化を示している。ステレオカメラの左側の画像または右側の画像のいずれでもよい。 FIG. 31 and subsequent figures show examples of actual images when the camera user rotates as described above, and examples of various signal waveforms obtained thereby. FIG. 31 shows an example of an image reflected on the camera on the station platform. The leading edge of the platform crosses the screen substantially along the diagonal line, and the rail is reflected in front of it. Of course, the rail laying surface is about 1.1 m lower than the platform surface. The left image in FIG. 31 is an image of the (n-1) th frame, the right image is an image of the subsequent n frame, and shows a change in the image when the camera user rotates from left to right. ing. Either the left image or the right image of the stereo camera may be used.

図32は、上記右回転の場合における1フレームごとの回転角度を、図33は上記回転角度を累積(積分)した場合を示している。同様に、図34は左回転の場合における1フレームごとの回転角度を、図35は上記回転角度を累積(積分)した場合を示している。回転中は図32、図34に示すように小刻みに回転角度が変化している。回転角度が小刻みに変化している間は回転中であるから、この間に計測および演算を行っても意味がない。回転角度の小刻みな変化がない状態が一定時間継続したとき、使用者が回転を停止したものと判断することができるので、図33、図35に示すような累積値から回転角度を求める。   FIG. 32 shows a rotation angle for each frame in the case of the right rotation, and FIG. 33 shows a case where the rotation angles are accumulated (integrated). Similarly, FIG. 34 shows a rotation angle for each frame in the case of left rotation, and FIG. 35 shows a case where the rotation angles are accumulated (integrated). During rotation, the rotation angle changes in small increments as shown in FIGS. Since the rotation angle is changing while the rotation angle is changing in small increments, it is meaningless to perform measurement and calculation during this time. When a state in which there is no small change in the rotation angle continues for a certain period of time, it can be determined that the user has stopped the rotation. Therefore, the rotation angle is obtained from the accumulated values as shown in FIGS.

図31に示すような画像の変化およびそれに伴う図32乃至図35に示す回転角度の変化は、カメラ使用者が歩行することによっても生じる。したがって、図32、図34に示す回転角度の変化は歩行ベクトルの大きさの変化と見なすことができる。そこで、歩行ベクトルがきわめて小さいときは停止中とみなす。また、一定のフレーム数停止状態が継続している場合は、各データを一旦リセットする。   The change of the image as shown in FIG. 31 and the change of the rotation angle shown in FIGS. 32 to 35 accompanying it also occur when the camera user walks. Therefore, the change in the rotation angle shown in FIGS. 32 and 34 can be regarded as a change in the magnitude of the walking vector. Therefore, when the walking vector is extremely small, it is considered that the vehicle is stopped. Further, when the fixed frame number stop state continues, each data is reset once.

以上説明した歩行距離の変化および回転角度の変化に対応してそのときの歩行距離と歩行角度を歩行距離・歩行角度演算部34で演算し、歩行距離の変化および回転角度の変化に対応した前記空間面積比を空間断面積比演算部27で演算する。空間面積比の変化が所定の閾値を越えた場合に、警告判断部28の判断により警報装置30から警報を発する。   Corresponding to the walking distance change and the rotation angle change described above, the walking distance and walking angle at that time are calculated by the walking distance / walking angle calculator 34, and the walking distance and the rotation angle change are The space area ratio calculation unit 27 calculates the space area ratio. When the change in the space area ratio exceeds a predetermined threshold value, an alarm is issued from the alarm device 30 according to the determination of the alarm determination unit 28.

本発明に係る視覚障害者歩行支援装置は、段差や壁その他の障害物が前方に迫ってきたときに、警報を発するものであって、大掛かりなシステムや特殊な警報装置乃至は出力装置を必要としないため、低コストで提供することができるとともに、特別な訓練も必要がなく、簡便に使用することができる。
本発明はまた、例えば、無人の探索ロボットなどに装着すれば、ロボットが障害物に近づいたことを検知することができるため、障害物を回避しながらスムーズな探索を行うことができる。
カメラに赤外線フィルタを装着するなど、赤外線を感知することができるカメラにすることにより、暗闇でも段差や壁その他の障害物を認識することができる。したがって、本発明装置は、視覚障害者に限らず、健常者にも有用である。
The visually impaired person walking support device according to the present invention issues a warning when a step, a wall, or other obstacle approaches, and requires a large-scale system, a special warning device, or an output device. Therefore, it can be provided at a low cost and does not require special training, and can be used conveniently.
In addition, for example, if the present invention is attached to an unmanned search robot or the like, it is possible to detect that the robot has approached an obstacle, so that a smooth search can be performed while avoiding the obstacle.
By using a camera that can detect infrared rays, such as mounting an infrared filter on the camera, steps, walls, and other obstacles can be recognized even in the dark. Therefore, the device of the present invention is useful not only for visually impaired people but also for healthy people.

10 ステレオカメラ
18 画像処理装置
20 演算装置
21 距離ベクトル演算部
22 カメラ角度演算部
23 カメラ高さ演算部
24 カメラ角度平均値演算部
25 カメラ高さ平均値演算部
26 空間断面積演算部
27 空間断面積比演算部
30 警報装置
50 記憶部
51 基準空間断面積記憶部
52 空間断面積記憶部
DESCRIPTION OF SYMBOLS 10 Stereo camera 18 Image processing apparatus 20 Calculation apparatus 21 Distance vector calculation part 22 Camera angle calculation part 23 Camera height calculation part 24 Camera angle average value calculation part 25 Camera height average value calculation part 26 Spatial cross-sectional area calculation part 27 Spatial section Area ratio calculation unit 30 Alarm device 50 Storage unit 51 Reference space sectional area storage unit 52 Spatial sectional area storage unit

Claims (6)

同一被写体に対し一定の基線長をおいて撮像することにより一対の画像を得ることができるステレオカメラと、
上記一対の画像を複数の上下方向の領域に分割する画像処理装置と、
分割された上記複数領域の一対の画像から各領域において撮像されている被写体とカメラを結ぶ線である距離ベクトルの長さを演算する距離ベクトル演算部と、
上記領域ごとの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部と、
上記各領域における距離ベクトルの長さと上記領域ごとのカメラ角度から、上記各領域における平坦な地面からのカメラ高さを演算するカメラ高さ演算部と、
上記各領域におけるカメラ高さの平均値を演算してカメラ高さ基準値とするカメラ高さ平均値演算部と、
互いに隣接する2つの領域の各距離ベクトルの先端によって底辺が区切られ、これらの距離ベクトルの先端から垂直に伸び、上辺が上記カメラ高さ位置で区切られる四角形の空間断面積を演算する空間断面積演算部と、
平坦面で歩行しかつ障害物のない空間で得た上記各領域における上記空間断面積を基準空間断面積としたとき、上記各領域における上記基準空間断面積に対する実働時の空間断面積の比が一定以上になったとき警報信号を出力する空間断面積比演算部と、
上記警報信号の出力によって動作し警報を発する警報装置と、を有し、
上記空間断面積演算部は、各領域における実働時の空間断面積を一定の時間間隔で演算するものであり、
上記空間断面積比演算部は、最新の上記実働時の空間断面積と上記基準空間断面積の比を演算するものである視覚障害者歩行支援装置。
A stereo camera capable of obtaining a pair of images by capturing an image of the same subject with a certain baseline length;
An image processing apparatus for dividing the pair of images into a plurality of vertical regions;
From a pair of images of the divided plurality regions, the distance vector calculator for calculating the length of the distance vector is a line connecting the object and the camera that is imaged in each region,
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the distance vector for each region for each region;
From the distance vector length in each region and the camera angle for each region, a camera height calculation unit that calculates the camera height from the flat ground in each region ,
A camera height average value calculation unit that calculates an average value of the camera height in each of the above areas and sets it as a camera height reference value;
Spatial cross-sectional area that calculates a square cross-sectional area in which the base is delimited by the tip of each distance vector of two adjacent areas, extends vertically from the top of these distance vectors, and the top is delimited by the camera height position. An arithmetic unit;
When a reference space sectional area of the space cross-sectional area in the respective regions obtained by the spatial without walking only One obstacle in the flat surface, the ratio of the spatial cross-sectional area of the production time with respect to the reference space cross-sectional area of each region A spatial cross-sectional area ratio calculation unit that outputs an alarm signal when becomes more than a certain value,
An alarm device that operates in response to the output of the alarm signal and issues an alarm ;
The space cross-sectional area calculation unit calculates the space cross-sectional area at the time of actual operation in each region at a constant time interval,
The spatial cross-sectional area ratio calculation unit is a visually impaired person walking support device that calculates a ratio of the latest actual spatial cross-sectional area and the reference spatial cross-sectional area .
画像処理装置は、画像を上下方向に3つの領域に分割し
距離ベクトル演算部は、上記3つの領域につきそれぞれ上端距離ベクトル、中央距離ベクトル、下端距離ベクトルを演算するように構成され、
上記3つの距離ベクトルの長さから鉛直線に対するカメラ角度を上記領域ごとに演算するカメラ角度演算部を備え、
カメラ高さ演算部は、上記領域ごとのカメラ角度に基づいて上記領域ごとにカメラ高さを演算する請求項1記載の視覚障害者歩行支援装置。
The image processing apparatus divides the image into three regions in the vertical direction ,
The distance vector calculation unit is configured to calculate an upper end distance vector, a center distance vector, and a lower end distance vector for each of the three regions.
A camera angle calculation unit that calculates a camera angle with respect to a vertical line from the length of the three distance vectors for each of the regions;
The visually impaired person walking support apparatus according to claim 1 , wherein the camera height calculation unit calculates the camera height for each of the regions based on the camera angle for each of the regions .
画像領域ごとのカメラ角度の平均値を演算してこれをカメラ角度とするカメラ角度平均値演算部をさらに有する請求項1または2記載の視覚障害者歩行支援装置。 The visually impaired person walking support apparatus according to claim 1 , further comprising a camera angle average value calculation unit that calculates an average value of camera angles for each image region and sets the average value as a camera angle . 空間断面積演算部で演算される基準空間断面積データは記憶部に記憶され、実働時の空間断面積との比の演算に供される請求項1,2または3記載の視覚障害者歩行支援装置。 The reference spatial cross-sectional area data calculated by the spatial cross-sectional area calculation unit is stored in the storage unit, and is used for calculation of a ratio with the spatial cross-sectional area at the time of actual operation. apparatus. 画像処理装置は、特定のフレームの画像とその直前の画像を含む複数フレームの画像を出力することができ、
上記複数フレームの画像から被写体に対する相対移動ベクトルの長さを演算する相対移動ベクトル演算部を備え、
空間断面積比演算部は、上記相対移動ベクトルの変化に対応した上記各フレームにおける断面空間面積比を演算するものである請求項1乃至4のいずれかに記載の視覚障害者歩行支援装置。
The image processing apparatus can output a multi-frame image including an image of a specific frame and an image immediately before the specific frame,
A relative movement vector calculation unit that calculates the length of the relative movement vector with respect to the subject from the images of the plurality of frames,
Space sectional area ratio calculating section, visually impaired persons support device according to any one of claims 1 to 4 is intended for calculating the cross-sectional open area ratio in each frame corresponding to a change in the relative movement vector.
空間断面積比演算部は、一定のフレーム数連続して基準空間断面積に対する実働時の空間断面積の比が一定以上になったとき警報信号を出力する請求項1乃至5のいずれかに記載の視覚障害者歩行支援装置。
Space sectional area ratio calculation section, according to any one of claims 1 to 5 for outputting an alarm signal when the ratio of the spatial cross-sectional area of the production time for the reference space sectional area continuously certain number of frames exceeds a specific Visually impaired person walking support device.
JP2011170148A 2011-08-03 2011-08-03 Visually handicapped walking support device Active JP5461486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011170148A JP5461486B2 (en) 2011-08-03 2011-08-03 Visually handicapped walking support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011170148A JP5461486B2 (en) 2011-08-03 2011-08-03 Visually handicapped walking support device

Publications (3)

Publication Number Publication Date
JP2013034490A JP2013034490A (en) 2013-02-21
JP2013034490A5 JP2013034490A5 (en) 2013-09-26
JP5461486B2 true JP5461486B2 (en) 2014-04-02

Family

ID=47884723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011170148A Active JP5461486B2 (en) 2011-08-03 2011-08-03 Visually handicapped walking support device

Country Status (1)

Country Link
JP (1) JP5461486B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015164498A (en) * 2014-02-28 2015-09-17 道芳 永島 View aiding bone-conduction glasses for visually handicapped person
JP7101350B2 (en) * 2017-09-13 2022-07-15 株式会社アルファメディア Image processing device and movement support device
JP2019086565A (en) * 2017-11-02 2019-06-06 穂積 正男 Walking supporting device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4375879B2 (en) * 2000-05-11 2009-12-02 財団法人くまもとテクノ産業財団 Walking support system and information recording medium for the visually impaired
JP2002065721A (en) * 2000-08-29 2002-03-05 Komatsu Ltd Device and method for supporting environmental recognition for visually handicapped
JP5002068B1 (en) * 2011-07-08 2012-08-15 純二 嶋田 Environmental information transmission device

Also Published As

Publication number Publication date
JP2013034490A (en) 2013-02-21

Similar Documents

Publication Publication Date Title
US9801778B2 (en) System and method for alerting visually impaired users of nearby objects
US9370459B2 (en) System and method for alerting visually impaired users of nearby objects
US20170278307A1 (en) Danger avoidance support program
KR20160028891A (en) An objection recognition device for a blind person using a depth camera and a direction-detecting sensor
JP2008173250A (en) Walking movement analyzer
TWI474173B (en) Assistance system and assistance method
CN107049718B (en) Obstacle avoidance device
JP5461486B2 (en) Visually handicapped walking support device
KR20190111262A (en) Portable device for measuring distance from obstacle for blind person
KR20140110484A (en) Risk behavior detection method using image information
WO2019176492A1 (en) Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium
KR102013353B1 (en) Method And Device for Judging Dangerous Situation of Walking Assistant Apparatus
JP2013117766A (en) Level difference detection system
RU2018140076A (en) SYSTEM AND METHOD FOR DETECTING USER MOVEMENT DEVICES FOR CARE OF THE ORAL CAVITY AND PROVISION OF FEEDBACK
CN113499229B (en) Rehabilitation institution control method, rehabilitation institution control system and rehabilitation device
Haggag et al. Safety applications using kinect technology
Sun et al. “Watch your step”: precise obstacle detection and navigation for Mobile users through their Mobile service
KR102244768B1 (en) System and Method of Hearing Assistant System of Route Guidance Using Chatbot for Care of Elderly Based on Artificial Intelligence
CN108917701A (en) A kind of barrier based on smart phone detects automatically and method for early warning
KR101878263B1 (en) Walking Stick for Visually Impaired Person
US20220323285A1 (en) Walking assisting systems and methods
Silva et al. Sensor fusion for visually impaired navigation in constrained spaces
KR101821592B1 (en) Walking simulator system using virtual reality and method for calculating pedestrian position thereof
TWI691328B (en) Smart aid system for visually impaired
KR20080029209A (en) Method of step detection at pedometer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130805

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Ref document number: 5461486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250