JP2023073100A - Walking support system - Google Patents
Walking support system Download PDFInfo
- Publication number
- JP2023073100A JP2023073100A JP2021185930A JP2021185930A JP2023073100A JP 2023073100 A JP2023073100 A JP 2023073100A JP 2021185930 A JP2021185930 A JP 2021185930A JP 2021185930 A JP2021185930 A JP 2021185930A JP 2023073100 A JP2023073100 A JP 2023073100A
- Authority
- JP
- Japan
- Prior art keywords
- image
- angle
- visually impaired
- pedestrian
- white
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 claims abstract description 100
- 238000004364 calculation method Methods 0.000 claims abstract description 31
- 230000001771 impaired effect Effects 0.000 claims description 183
- 238000005096 rolling process Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 15
- 230000009471 action Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 43
- 230000007704 transition Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 31
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 17
- 238000013459 approach Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Navigation (AREA)
- Rehabilitation Tools (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は歩行支援システムに係る。特に、本発明は、視覚障碍者等の歩行者に対する歩行支援を行うに当たり、信号機を適切に認識するための改良に関する。 The present invention relates to a walking assistance system. In particular, the present invention relates to an improvement for appropriately recognizing a traffic signal in providing walking assistance to a pedestrian such as a visually handicapped person.
視覚障碍者等の歩行者の歩行の支援のための通知を行うシステム(歩行支援システム)として、特許文献1に開示されているものが知られている。この特許文献1には、視覚を用いずに行動する者(視覚障碍者)の歩行を支援するシステムであって、視覚障碍者が携帯するカメラからの画像と、予め記憶されている参照画像とをマッチングさせながら、音声等によって視覚障碍者に対して歩行支援を行うことが開示されている。
2. Description of the Related Art As a system (walking support system) that performs notification for walking support of a pedestrian such as a visually impaired person, the one disclosed in
ところで、この種の歩行支援システムにあっては、歩行者(視覚障碍者等)が横断歩道に接近する状況において、信号機(例えば歩行者用信号機)が赤信号となっている状況では歩行者に対して停止を指示する通知を行う必要があり、歩行者が横断歩道の手前で停止している状態で信号機が青信号となった場合には、歩行者に対して歩行(横断)を指示する通知を行う必要がある。このため、歩行者に対して各種通知(横断歩道の手前での歩行の停止通知、および、その後の横断開始通知)を適切に行うためには、カメラ等の画像取得手段によって信号機を撮影できるようにしておき、信号機の存在の有無および当該信号機の状態(青信号であるか赤信号であるか)を正確に認識することが必須である。 By the way, in this type of walking support system, when a pedestrian (visually impaired person, etc.) is approaching a crosswalk and the traffic light (for example, a traffic light for pedestrians) is red, the pedestrian cannot When the traffic light turns green while the pedestrian is stopped in front of the crosswalk, the pedestrian is notified to walk (cross). need to do For this reason, in order to appropriately give various notifications to pedestrians (notice to stop walking in front of the crosswalk and notification to start crossing after that), it is necessary to make sure that the traffic light can be photographed by an image acquisition means such as a camera. Therefore, it is essential to accurately recognize the presence or absence of a traffic signal and the state of the traffic signal (whether the signal is green or red).
しかしながら、画像取得手段の撮影方向は歩行者の歩行方向に略一致していることから、信号機が設置された横断歩道に歩行者が接近する状況であったとしても、歩行者の歩行方向(横断歩道に対する向き)によっては画像取得手段の画角内に信号機が存在しない状況を招いてしまう可能性があり、この場合、信号機の存在を認識することができなくなる。 However, since the photographing direction of the image acquisition means substantially coincides with the walking direction of the pedestrian, even if the pedestrian is approaching a pedestrian crossing with a traffic light, the pedestrian's walking direction (crossing) Depending on the direction to the sidewalk), there is a possibility that a traffic signal does not exist within the angle of view of the image acquisition means, and in this case, the existence of the traffic signal cannot be recognized.
具体的に説明すると、図28は、歩行者が横断歩道CWに接近する際の各経路(接近ルート)を示す平面図である。図中の矢印aで示す接近ルートは、歩行者が横断歩道CWに向かう歩行方向が白線WLの長手方向に対して直交する方向(道路を最短経路で横断する方向:以下、この状態を歩行者が横断歩道に正対した状態という場合もある)となっている場合である。この場合、適正な横断方向(白線WLの長手方向に対して直交する方向)をx方向とし、実際の横断方向をx’方向とした場合、これらx方向とx’方向が略一致することになる。つまり、ベクトルxとベクトルx’とのなす角度θが略0°となっている。この状態において画像取得手段によって撮影された画像の一例を図29に示す。このように接近ルートaの場合には、画像取得手段によって信号機TLが撮影され、信号機TLの状態を正確に認識することができる。 Specifically, FIG. 28 is a plan view showing each route (approaching route) when a pedestrian approaches the crosswalk CW. The approach route indicated by the arrow a in the figure is the direction in which the walking direction toward the pedestrian crossing CW is orthogonal to the longitudinal direction of the white line WL (the direction in which the pedestrian crosses the road by the shortest route; is facing the crosswalk). In this case, when the appropriate transverse direction (the direction orthogonal to the longitudinal direction of the white line WL) is the x-direction and the actual transverse direction is the x'-direction, the x-direction and the x'-direction substantially coincide with each other. Become. That is, the angle θ between the vector x and the vector x' is approximately 0°. FIG. 29 shows an example of an image captured by the image acquiring means in this state. Thus, in the case of the approach route a, the traffic light TL is photographed by the image acquisition means, and the state of the traffic light TL can be accurately recognized.
一般に横断歩道CWの手前の路上(歩道上)には点字ブロック等の誘導設備GEが設置されており、視覚障碍者は、この誘導設備GEの誘導に従って横断方向(x’方向)が適正な横断方向(x方向)に一致するように歩行方向を修正することになる。 In general, guidance equipment GE such as Braille blocks is installed on the road (on the sidewalk) before the crosswalk CW, and visually impaired people can cross in the appropriate crossing direction (x' direction) according to the guidance of this guidance equipment GE. The walking direction will be modified to match the direction (x direction).
しかしながら、点字ブロック等の誘導設備GEが設置されていない歩道や、歩道の道幅が狭い場合等にあっては、横断方向(x’方向)が適正な横断方向(x方向)に略一致することは補償できず、歩行方向が適正な方向から外れてしまうことがある。図28中の矢印bで示す接近ルートは、歩行者が横断歩道CWに対して手前側の右端から奥側の左端に向かって歩行する場合である。この状態において画像取得手段によって撮影された画像の一例を図30に示す。また、図28中の矢印cで示す接近ルートは、歩行者が横断歩道CWに対して手前側の左端から奥側の右端に向かって歩行する場合である。この状態において画像取得手段によって撮影された画像の一例を図31に示す。このように接近ルートcにあっては画像取得手段の画角内に信号機TLが存在せず(図31における破線を参照)、この場合、信号機TLの存在を認識することができなくなってしまう。つまり、前方に信号機TLが存在しているにも拘わらず当該信号機TLの存在を認識することができなくなってしまう。その結果、信号機TLの存在の有無や当該信号機TLの状態(青信号であるか赤信号であるか)を認識することができず、歩行者に対する通知(停止を指示する通知や横断を指示する通知)を適切に行うことが困難になってしまうといった課題があった。このように、画像取得手段の画角内に信号機TLが存在するか否かは、画像取得手段の撮影方向(歩行者が歩行している場合にあっては当該歩行の方向、歩行者が停止している場合にあっては歩行者が向いている方向)によって大きく左右される。 However, in the case of sidewalks without guidance equipment GE such as Braille blocks, or when the width of the sidewalk is narrow, the crossing direction (x' direction) should substantially match the appropriate crossing direction (x direction). cannot be compensated for, and the walking direction may deviate from the proper direction. The approach route indicated by the arrow b in FIG. 28 is a case where the pedestrian walks from the right end on the front side to the left end on the back side of the crosswalk CW. FIG. 30 shows an example of an image captured by the image acquiring means in this state. Also, the approach route indicated by the arrow c in FIG. 28 is a case where the pedestrian walks from the left end on the front side to the right end on the back side of the pedestrian crossing CW. FIG. 31 shows an example of an image captured by the image acquiring means in this state. As described above, the traffic light TL does not exist within the angle of view of the image acquisition means on the approach route c (see the broken line in FIG. 31), and in this case, the presence of the traffic light TL cannot be recognized. In other words, even though the traffic light TL exists ahead, the presence of the traffic light TL cannot be recognized. As a result, it is not possible to recognize the presence or absence of the traffic light TL and the state of the traffic light TL (whether it is a green light or a red light), and it is not possible to notify pedestrians (a notification instructing to stop or a notification instructing to cross) ) was difficult to perform properly. Thus, whether or not the traffic light TL exists within the angle of view of the image acquisition means depends on the photographing direction of the image acquisition means (when the pedestrian is walking, the direction of It is greatly influenced by the direction the pedestrian is facing (if the pedestrian is facing).
本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、信号機を適切に認識することを可能にする歩行支援システムを提供することにある。 The present invention has been made in view of the above points, and an object of the present invention is to provide a walking support system that enables proper recognition of a traffic light.
前記の目的を達成するための本発明の解決手段は、歩行者の歩行方向前方に位置する信号機を認識し当該信号機の状態に応じて、前記歩行者に対し、横断歩道の手前での停止指示および当該横断歩道の横断の開始指示のうち少なくとも一方を行う歩行支援システムを前提とする。そして、この歩行支援システムは、前記歩行者が向いている方向を撮影方向として該歩行者の歩行方向前方の画像を取得可能な画像取得手段と、前記画像取得手段によって取得された画像に基づいて、前記横断歩道の白線の延在方向に対して直交する方向である基準横断方向と前記画像取得手段の撮影方向との間の角度である修正角度を算出する修正角度算出部と、前記修正角度算出部によって算出された前記修正角度を小さくするための動作を前記歩行者に指示する指示手段とを備えていることを特徴とする。 The solution means of the present invention for achieving the above object is to recognize a traffic signal located in front of the pedestrian in the walking direction and instruct the pedestrian to stop before the crosswalk according to the state of the traffic signal. and a walking support system that performs at least one of instructions to start crossing the pedestrian crossing. This walking support system includes image acquisition means capable of acquiring an image in front of the pedestrian in the direction in which the pedestrian is facing as a photographing direction, and based on the image acquired by the image acquisition means, a correction angle calculator for calculating a correction angle which is an angle between a reference crossing direction which is a direction orthogonal to the extending direction of the white line of the pedestrian crossing and the photographing direction of the image acquisition means; and an instruction means for instructing the pedestrian to perform an operation for reducing the correction angle calculated by the calculation unit.
ここでいう「歩行者」とは、実際に歩行している人物だけでなく、横断歩道手前での信号待ち等によって歩行を停止している人物も含む概念である。 The term "pedestrian" as used herein is a concept that includes not only people who are actually walking, but also people who stop walking due to, for example, waiting for a traffic light in front of a pedestrian crossing.
前記特定事項により、歩行者が横断歩道に接近または横断歩道の手前に達した状況において、画像取得手段によって歩行方向前方の画像が取得され、この取得された画像に基づいて、修正角度算出部は基準横断方向と画像取得手段の撮影方向との間の修正角度を算出する。そして、指示手段は、この修正角度を小さくするための動作を歩行者に指示する。例えば、歩行者に対し体の向きを変更するように指示する。この指示手段からの指示を受けた歩行者は、前記修正角度を小さくするように例えば体の向きを変更し、これによって画像取得手段の撮影方向が基準横断方向に略一致することになる。このため、前記修正角度が大きかったことに起因して画像取得手段の画角内に信号機が存在しない状況であった場合であっても、この画像取得手段の画角内に信号機を存在させることが可能となり、信号機を適切に認識することが可能になる。 According to the specified matter, in a situation where the pedestrian approaches or reaches the front of the crosswalk, the image acquisition means acquires an image in front of the pedestrian in the walking direction, and based on the acquired image, the correction angle calculation unit A correction angle between the reference transverse direction and the imaging direction of the image acquisition means is calculated. Then, the instruction means instructs the pedestrian to perform an action for reducing the correction angle. For example, the pedestrian is instructed to change the orientation of the body. The pedestrian who receives the instruction from the instruction means changes the direction of the body, for example, so as to reduce the correction angle, and thereby the photographing direction of the image acquisition means substantially coincides with the reference transverse direction. Therefore, even if the traffic light does not exist within the angle of view of the image acquisition means due to the correction angle being large, the traffic light can be made to exist within the angle of view of the image acquisition means. is possible, and it becomes possible to appropriately recognize the traffic light.
また、前記歩行者は白杖を把持する視覚障碍者であって、前記画像取得手段は前記白杖に内蔵されており、前記修正角度算出部は、前記画像取得手段によって取得された画像における前記横断歩道の白線が、前記白杖が左右に振られることに起因して前記画像上で傾く場合の当該傾きを算出し、該傾きに基づいて前記画像を補正することにより前記白杖の振り角度が零であると仮定した場合の画像を作成するローリング補正部と、前記ローリング補正部によって作成された前記画像に基づいて前記修正角度を算出するヨーイング角度算出部とを備えている。 Further, the pedestrian is a visually impaired person holding a white cane, the image acquiring means is built in the white cane, and the corrected angle calculating section calculates the A swing angle of the white cane by calculating the inclination when the white line of the pedestrian crossing is inclined on the image due to the white cane being swung to the left and right, and correcting the image based on the inclination. is zero, and a yaw angle calculator for calculating the corrected angle based on the image created by the rolling corrector.
画像取得手段によって取得された画像において、横断歩道の白線の傾斜角度(画像上における水平方向に対する傾斜角度)から、横断歩道に対する歩行者(視覚障碍者)の向き(横断歩道の白線の延長方向に直交する方向である適正な方向に対して角度を存した向き)に相関のある前記修正角度を算出することができる。但し、視覚障碍者は白杖を左右に振って前方の路面状態を確認しながら歩行する。つまり、白杖を左右に振ることで、当該白杖に内蔵された画像取得手段の撮影光軸が左右に振られることに起因して、横断歩道の白線は画像上における水平方向に対して傾斜することがある。つまり、この画像上における水平方向に対して横断歩道の白線が傾斜する原因は、横断歩道に対する視覚障碍者の向きだけでなく、視覚障碍者が白杖を左右に振ることも挙げられる。このため、本解決手段では、画像取得手段の撮影によって取得された画像に対し、ローリング補正部による補正動作によって、白杖の振り角度が零であると仮定した場合の画像を作成する。つまり、白杖を左右に振ることに起因する横断歩道の白線の傾きを排除した画像を作成する。その上で、ヨーイング角度算出部によって、横断歩道に対する視覚障碍者の向きに起因する白線の傾斜角度を推定し、白線の長手方向に対して直交する方向と視覚障碍者の向いている方向との間の修正角度を算出し、この修正角度を小さくするための動作を視覚障碍者に指示する。そして、視覚障碍者がこの指示に従って向きを変化させた場合には、前記修正角度が小さくなって画像取得手段の画角内に信号機が存在する画像が得られることになる。これにより、白杖が左右に振られることの影響を受けることなく、視覚障碍者に適切な指示を行って、信号機を適切に認識することが可能になる。 In the image acquired by the image acquisition means, the angle of inclination of the white line of the pedestrian crossing (the angle of inclination with respect to the horizontal direction on the image) indicates the orientation of the pedestrian (visually impaired person) with respect to the pedestrian crossing (the extension direction of the white line of the pedestrian crossing). It is possible to calculate the correction angle that is correlated with a direction that is angled with respect to an appropriate direction that is an orthogonal direction. However, a visually impaired person walks while checking the road surface condition in front by waving a white cane left and right. In other words, by swinging the white cane left and right, the white line of the pedestrian crossing is tilted with respect to the horizontal direction on the image due to the fact that the imaging optical axis of the image acquisition means built in the white cane is swung left and right. I have something to do. In other words, the reason why the white line of the pedestrian crossing is inclined with respect to the horizontal direction on this image is not only the orientation of the visually impaired person to the pedestrian crossing but also the swinging of the white cane left and right by the visually impaired person. For this reason, in the present solution means, an image is created by correcting the image acquired by the image acquisition means by the correction operation of the rolling correction section assuming that the swing angle of the white cane is zero. In other words, an image is created in which the inclination of the white lines of the pedestrian crossing caused by swinging the white cane left and right is eliminated. Then, the yawing angle calculation unit estimates the inclination angle of the white line caused by the orientation of the visually impaired person with respect to the pedestrian crossing, and calculates the difference between the direction perpendicular to the longitudinal direction of the white line and the direction the visually impaired person is facing. A correction angle between the two is calculated, and the visually impaired person is instructed to perform an operation for reducing this correction angle. Then, when the visually impaired person changes the direction according to this instruction, the corrected angle becomes smaller and an image in which the traffic light exists within the angle of view of the image acquisition means is obtained. As a result, it is possible to appropriately recognize the traffic light by giving appropriate instructions to the visually impaired person without being affected by the left and right swinging of the white cane.
また、前記ヨーイング角度算出部は、前記ローリング補正部によって作成された前記画像における前記横断歩道の白線の水平方向に対する傾斜角度に基づいて前記修正角度を算出する構成となっている。 Further, the yawing angle calculation unit is configured to calculate the correction angle based on the inclination angle of the white line of the pedestrian crossing with respect to the horizontal direction in the image created by the rolling correction unit.
横断歩道の白線の長手方向に対して直交する方向と歩行者の向いている方向(画像取得手段の撮影方向に相当)とが異なっている場合にはこれら方向同士の間の角度(前記修正角度)は、画像上における白線の水平方向に対する傾斜角度として現れる。このため、ヨーイング角度算出部は、この傾斜角度から修正角度を算出するようにしている。これにより、修正角度を正確に求めることが可能となる。 If the direction perpendicular to the longitudinal direction of the white line of the pedestrian crossing and the direction in which the pedestrian is facing (corresponding to the photographing direction of the image acquisition means) are different, the angle between these directions (the corrected angle ) appears as an angle of inclination of the white line with respect to the horizontal direction on the image. Therefore, the yawing angle calculator calculates the correction angle from this tilt angle. This makes it possible to accurately obtain the correction angle.
また、前記ヨーイング角度算出部は、前記ローリング補正部によって作成された画像に対し、予めアノテーションされたデータに基づく学習済みモデルを用いて前記横断歩道の白線の認識動作を行う第1認識部と、前記ローリング補正部によって作成された画像に対するコンピュータビジョンによって前記横断歩道の白線の認識動作を行う第2認識部と、前記第1認識部による認識動作の結果および前記第2認識部による認識動作の結果それぞれに基づいて、前記画像中における前記横断歩道の白線を特定する白線特定部とを備えており、前記白線特定部によって特定された白線の前記画像上における水平方向に対する傾斜角度に基づいて前記修正角度を算出する構成となっている。 Further, the yaw angle calculation unit uses a trained model based on data annotated in advance with respect to the image created by the rolling correction unit, and a first recognition unit that recognizes the white line of the pedestrian crossing; a second recognition unit that recognizes the white line of the pedestrian crossing by computer vision for the image created by the rolling correction unit; a result of the recognition operation by the first recognition unit and a result of the recognition operation by the second recognition unit; a white line identifying unit that identifies the white line of the pedestrian crossing in the image based on each of them, and the correction is performed based on the angle of inclination of the white line identified by the white line identifying unit with respect to the horizontal direction on the image. It is configured to calculate the angle.
これによれば、画像中における横断歩道の白線の認識精度を十分に得ることが可能になり、修正角度を高い精度で算出することが可能になる。 According to this, it is possible to obtain sufficient recognition accuracy of the white line of the pedestrian crossing in the image, and it is possible to calculate the corrected angle with high accuracy.
また、前記画像取得手段によって取得された画像に基づいて、前記横断歩道を検出する横断歩道検出部と、横断歩道における白線のうち画像上において最も遠方に位置する白線の当該画像上での座標位置と前記修正角度との関係を特定した複数の画像データを記憶した記憶部とを備え、前記修正角度算出部は、前記横断歩道検出部によって検出された前記横断歩道における白線のうち最も遠方に位置する白線の座標位置を求めると共に、前記記憶部に記憶されている各画像データにおける白線のうち前記横断歩道検出部によって検出された前記最も遠方に位置する白線の座標位置が一致する画像データを抽出し、この画像データに基づいて前記修正角度を算出する構成となっている。 A pedestrian crossing detection unit for detecting the pedestrian crossing based on the image acquired by the image acquisition means, and a coordinate position on the image of the white line located farthest on the image among the white lines of the pedestrian crossing. and a storage unit that stores a plurality of image data specifying the relationship between the correction angle and the correction angle, and the correction angle calculation unit is positioned farthest among the white lines on the pedestrian crossing detected by the pedestrian crossing detection unit. In addition to obtaining the coordinate position of the white line to be crossed, image data matching the coordinate position of the farthest white line detected by the pedestrian crossing detection unit among the white lines in each image data stored in the storage unit is extracted. Then, the corrected angle is calculated based on this image data.
これによれば、画像取得手段によって取得された画像において最も遠方に位置する白線の座標位置に一致する画像データを記憶部に記憶されている各画像データから抽出することで修正角度を求めることができるため、この修正角度を求めるための処理動作の簡素化を図ることができ、制御系における負荷の軽減を図ることができる。 According to this, the correction angle can be obtained by extracting from each image data stored in the storage section image data that matches the coordinate position of the farthest white line in the image acquired by the image acquisition means. Therefore, it is possible to simplify the processing operation for obtaining the corrected angle, and to reduce the load on the control system.
また、前記指示手段は、前記歩行者である視覚障碍者が使用する白杖に内蔵されており、振動または音声によって、前記視覚障碍者に向けて前記修正角度を小さくするための動作を指示する構成となっている。 Further, the instruction means is built in a white cane used by the visually impaired person who is a pedestrian, and instructs the visually impaired person by vibration or voice to perform an operation for reducing the correction angle. It is configured.
これにより、白杖を持ちながら歩行する視覚障碍者に対して、信号機の認識を可能にする向きとするための指示を適切に行うことができる。 As a result, it is possible to appropriately instruct a visually impaired person walking while holding a white cane to orient himself/herself so that he/she can recognize the traffic signal.
本発明では、画像取得手段によって取得された画像に基づいて、横断歩道の白線の延在方向に対して直交する方向である基準横断方向と画像取得手段の撮影方向との間の角度である修正角度を算出し、この修正角度を小さくするための動作を歩行者に指示するようにしている。これにより、画像取得手段の撮影方向を基準横断方向に略一致させることが可能となり、修正角度が大きかったことに起因して画像取得手段の画角内に信号機が存在しない状況であった場合であっても、この画像取得手段の画角内に信号機を存在させることが可能となって、信号機を適切に認識することが可能になる。 In the present invention, based on the image acquired by the image acquisition means, the correction is the angle between the reference transverse direction, which is the direction orthogonal to the extending direction of the white lines of the pedestrian crossing, and the photographing direction of the image acquisition means. The angle is calculated, and the pedestrian is instructed to perform an action to reduce the corrected angle. As a result, it is possible to make the photographing direction of the image acquisition means approximately coincide with the reference transverse direction. Even if there is, it is possible to make the traffic signal exist within the angle of view of the image acquisition means, and it is possible to appropriately recognize the traffic signal.
以下、本発明の実施の形態を図面に基づいて説明する。本実施形態では、本発明に係る歩行支援システムを、視覚障碍者が使用する白杖に内蔵した場合について説明する。尚、本発明における歩行者としては視覚障碍者に限定されるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. In this embodiment, a description will be given of a case in which a walking support system according to the present invention is incorporated in a white cane used by a visually impaired person. It should be noted that pedestrians in the present invention are not limited to visually impaired persons.
-白杖の概略構成-
図1は、本実施形態に係る歩行支援システム10を内蔵した白杖1を示す図である。この図1に示すように、白杖1は、シャフト部2、グリップ部3、チップ部(石突き)4を備えている。
-Overview of White Cane-
FIG. 1 is a diagram showing a
シャフト部2は、中空の略円形断面を有するロッド状であって、アルミニウム合金やガラス繊維強化樹脂、炭素繊維強化樹脂等で形成されている。
The
グリップ部3は、シャフト部2の基端部(上端部)に設けられ、ゴム等の弾性体で成るカバー31が装着されて構成されている。また、本実施形態における白杖1のグリップ部3は、視覚障碍者(歩行者)が把持する際の持ち易さと滑り難さを考慮し、先端側(図1における上側)が僅かに湾曲した形状となっている。
The
チップ部4は、硬質の合成樹脂などで形成された略有底筒状の部材であって、シャフト部2の先端部に外挿されて接着やねじ止めなどの手段で固定されている。尚、チップ部4は、先端側の端面が半球状となっている。
The
本実施形態に係る白杖1は、折り畳み不能な直杖であるが、シャフト部2の中間の一箇所または複数箇所で折り畳み可能或いは伸縮可能とされたものであってもよい。
The
-歩行支援システムの構成-
本実施形態の特徴は、前記白杖1に内蔵された歩行支援システム10にある。以下、この歩行支援システム10について説明する。
- Configuration of walking support system -
A feature of this embodiment resides in a
図2は、白杖1のグリップ部3の内部を示す概略図である。この図2に示すように、本実施形態に係る歩行支援システム10は、白杖1に内蔵されている。また、図3は、歩行支援システム10の制御系の概略構成を示すブロック図である。
FIG. 2 is a schematic diagram showing the inside of the
これらの図に示すように、歩行支援システム10は、カメラ(画像取得手段)20、近距離無線通信機40、振動発生機(指示手段)50、バッテリ60、充電ソケット70、慣性計測装置(以下、IMUという)90、制御装置80等を備えている。
As shown in these figures, the walking
カメラ20は、グリップ部3の根元部における当該グリップ部3の前面(視覚障碍者の進行方向に向く面)に埋め込まれ、視覚障碍者の進行方向前側(本発明でいう歩行者が向いている方向)を撮影する。このカメラ20は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で成る。また、カメラ20の構成や配設位置は前述したものには限定されず、例えば、シャフト部2の前面(視覚障碍者の進行方向に向く面)に埋め込まれたものであってもよい。
The
このカメラ20の特徴としては、歩行する視覚障碍者の進行方向の前方の画像であって、当該視覚障碍者が横断歩道に達した際における、当該横断歩道の白線のうち視覚障碍者に最も近い位置にある白線、および、視覚障碍者の前方に位置する信号機(例えば歩行者用信号機)の両方を含む画像を取得可能な広角のカメラとして構成されている。つまり、視覚障碍者が横断歩道の手前まで達した時点で、視覚障碍者の足元付近(足元から少し前方の位置)に存在する横断歩道における最も手前側にある白線と、横断先の地点に設置された信号機との両方を撮影可能な構成となっている。このカメラ20において必要とされる視野角度は、前述したように視覚障碍者に最も近い位置にある白線(横断歩道の白線)および信号機の両方を含む画像を取得(撮影)可能なものとして適宜設定される。
A feature of this
近距離無線通信機40は、前記カメラ20およびIMU(Inertial Measurement Unit)90と、制御装置80との間で近距離無線通信を行うための無線通信装置である。例えば、周知のBluetooth(登録商標)等の通信手段によって、カメラ20およびIMU90と制御装置80との間で近距離無線通信を行い、カメラ20が撮影した画像の情報やIMU90が取得した情報(後述する3軸加速度および3軸角速度の各情報)を制御装置80に向けて無線送信する構成となっている。
The short-range
振動発生機50は、グリップ部3の根元部における前記カメラ20の上側に配設されている。この振動発生機50は、内蔵されたモータの作動に伴って振動し、その振動をグリップ部3に伝達することによって、当該グリップ部3を把持している視覚障碍者に向けて種々の通知(指示)が行えるようになっている。この振動発生機50の振動による視覚障碍者に向けての通知の具体例については後述する。
The
バッテリ60は、前記カメラ20、近距離無線通信機40、振動発生機50、制御装置80、IMU90のための電力を蓄電する二次電池で構成されている。
The
充電ソケット70は、バッテリ60に電力を蓄える際に充電ケーブルが接続される部分である。例えば、視覚障碍者が在宅中に家庭用電源からバッテリ60を充電する際に充電ケーブルが接続される。
The charging
IMU90は、カメラ20の下側に配設されている。このIMU90は、3軸のジャイロと3方向の加速度計とを備え、これらによって白杖1における当該IMU90の配設位置の3次元の加速度(3軸加速度)と角速度(3軸角速度)とを計測する。尚、このIMU90には、信頼性向上のために圧力計やGPS等のセンサが内蔵される場合もある。
The
制御装置80は、例えば、CPU(Central Processing Unit)等のプロセッサ、制御プログラムを記憶するROM(Read-Only Memory)、データを一時的に記憶するRAM(Random-Access Memory)、および、入出力ポート等を備えている。
The
そして、この制御装置80は、前記制御プログラムによって実現される機能部として、情報受信部81、横断歩道検出部82、信号機認識部83、切り替わり認識部84、修正角度算出部85、情報送信部86を備えている。以下、これら各部の機能の概略について説明する。
The
(情報受信部)
情報受信部81は、前記カメラ20が撮影した画像の情報を、当該カメラ20から近距離無線通信機40を介して所定時間間隔をもって受信する。また、この情報受信部81は、前記IMU90が計測した3軸加速度および3軸角速度の情報を、当該IMU90から近距離無線通信機40を介して所定時間間隔をもって受信する。尚、これら画像の情報と、3軸加速度および3軸角速度の情報との受信タイミングは同期していることが好ましい。
(Information receiver)
The
(横断歩道検出部)
横断歩道検出部82は、情報受信部81が受信した画像の情報(カメラ20によって撮影された画像の情報)に基づいて(例えば、後述するローリング補正部85aによって補正し、後述するヨーイング角度算出部85bの修正角度算出結果に基づいて視覚障碍者の向きを変更させる指示を行うことで視覚障碍者が方向を変更したことで得られた画像に基づいて)、横断歩道を認識したり、横断歩道における各白線の位置を検出する。
(Pedestrian crossing detector)
The pedestrian
具体的には、視覚障碍者が横断歩道CWの手前で適正に停止した(横断歩道CWに正対した)際にカメラ20で撮影された画像の一例として図4を用いて説明すると、この図4に示す画像が取得された場合において、横断歩道CWを構成する複数の白線WL1~WL4に対してBoundary Box(図4の一点鎖線を参照)を設定する。このBoundary Boxの設定動作の詳細については後述する。
Specifically, an example of an image taken by the
そして、横断歩道検出部82は、これらBoundary Boxのうち最も歩行者寄りのBoundary Boxの下端位置(図4におけるLNを参照)を検出する。本実施形態では、各白線WL1~WL4に対してBoundary Boxを設定し、画像上において最も下側に位置するBoundary Boxの下端位置LNを検出するようにしているが、Boundary Boxを設定することなく、画像上において確定された複数の白線WL1~WL4のうち最も下側に位置する白線WL1の下端位置を検出するものであってもよい。
Then, the pedestrian
尚、前記Boundary Boxは、後述するように、視覚障碍者の停止位置や向きの特定、信号機TLの位置の特定、視覚障碍者が横断歩道CWを横断する際の進行方向の特定、横断歩道CWの横断完了の判断等に利用される。これらの詳細については後述する。 As will be described later, the Boundary Box is used to specify the stopping position and direction of the visually impaired person, the position of the traffic light TL, the traveling direction when the visually impaired person crosses the pedestrian crossing CW, and the pedestrian crossing CW. It is used to determine the completion of crossing the road, etc. Details of these will be described later.
(信号機認識部)
信号機認識部83は、前述した画像(図4)の情報から信号機TLの位置の認識および信号機TLの状態の認識(赤信号および青信号の何れであるかの認識)を行う。具体的には、前記画像上における信号機TLの存在領域を推定し、この推定された領域の内部における信号機TLの位置および当該信号機TLの状態それぞれの認識を行う。前記画像上における信号機TLの存在領域を推定するに当たっては、前述の如く認識された白線WL1~WL4に設定されたBoundary Boxのうち、最も遠い位置にあるBoundary Boxの画像内座標を特定すると共に、図4に示すように、前記Boundary Box(認識された白線WL1~WL4のうち最も遠い位置にある白線WL4に設定されたBoundary Box)の上辺に接する四角形(幅寸法がws、高さ寸法がhsの四角形)を規定し、これを信号機TLの領域(信号機TLの存在領域)AとしてのCrop範囲を出力する。この際、Crop範囲は正方形であってもよいし長方形であってもよい。尚、前記寸法ws,hsは任意に設定可能であるが、信号機TLの配設位置が含まれるように経験的にまたは実験的に設定される。また、信号機認識部83によって行われる信号機の状態の判断(色の検出)は、一般的な物体検出アルゴリズムまたはルールベースアルゴリズムが用いられる。
(traffic signal recognition unit)
The traffic
(切り替わり認識部)
切り替わり認識部84は、前記信号機認識部83によって認識された信号機TLの状態が、赤信号から青信号に切り替わったことを認識する。この信号の切り替わりを認識した際、この切り替わり認識部84は、切り替わり信号を情報送信部86に送信する。この切り替わり信号は、情報送信部86から振動発生機50に送信される。振動発生機50は、この切り替わり信号を受けたことに連動して、所定のパターンで振動し、視覚障碍者に、信号機TLが赤信号から青信号に切り替わったことに起因して横断歩道の横断を許可する通知(横断開始通知)を行うことになる。
(switch recognition part)
The switching
(課題の説明および発明の概要)
ここで、本発明が解決しようとする課題について説明する。前述したように図28における矢印cで示す接近ルート(視覚障碍者が横断歩道CWに対して手前側の左端から奥側の右端に向かって歩行する接近ルート)で視覚障碍者が横断歩道を横断しようとする場合、カメラ20によって撮影された画像は例えば図31に示す状態となる。このように接近ルートcにあってはカメラ20の画角内に信号機TLが存在せず、この場合、信号機TLの存在を認識することができなくなってしまう。つまり、前方に信号機TLが存在しているにも拘わらず当該信号機TLの存在を認識することができなくなってしまう。その結果、信号機TLの存在の有無や当該信号機TLの状態(青信号であるか赤信号であるか)を認識することができず、視覚障碍者に対する通知(停止を指示する通知や横断を指示する通知)を適正に行うことが困難になってしまうといった課題があった。
(Description of the problem and outline of the invention)
Here, the problems to be solved by the present invention will be described. As described above, the visually impaired person crosses the pedestrian crossing along the approach route indicated by the arrow c in FIG. In this case, the image captured by the
本実施形態では、この点に鑑み、カメラ20の撮影によって取得された画像において、横断歩道CWの白線WLの傾斜角度(画像上における水平方向に対する傾斜角度)から、横断歩道CWに対する視覚障碍者の向き(横断歩道CWの白線WLの延長方向に直交する方向である適正な方向(図28におけるx方向;横断歩道CWに正対した方向;本発明でいう基準横断方向)に対する傾斜角度;修正角度)を算出し、視覚障碍者に対し、適正な方向(横断歩道CWの白線WLの長手方向に対して直交する方向)に向くように指示して、この指示に従って視覚障碍者が向きを変えることで図4に示すような画像(視覚障碍者が横断歩道CWに正対した場合の画像)が取得できるようにするものである。
In this embodiment, in view of this point, in the image acquired by the
但し、視覚障碍者は白杖1を左右に振って前方の路面状態を確認しながら歩行する。つまり、白杖1を左右に振ることで、当該白杖1に内蔵されたカメラ20の撮影光軸が左右に振られることになる。このため、視覚障碍者の歩行方向に対してカメラ20の撮影光軸の方向が大きく変化することになり、この影響によって横断歩道CWの白線WLは画像上における水平方向に対して傾斜することになる。つまり、この画像上における水平方向に対して横断歩道CWの白線WLが傾斜する原因は、横断歩道CWに対する視覚障碍者の向き(横断歩道CWに正対した方向からズレている向き)だけでなく、視覚障碍者が白杖1を左右に振ることも挙げられる。
However, the visually handicapped person walks while swinging the
このため、本実施形態では、修正角度算出部85に、前記制御プログラムによって実現される機能部として、ローリング補正部85aおよびヨーイング角度算出部85bを備えさせ、カメラ20の撮影によって取得された画像に対し、このローリング補正部85aによる補正動作によって、視覚障碍者が白杖1を左右に振ることに起因する横断歩道CWの白線WLの傾きを補正した画像(白杖1を左右に振ることに起因する横断歩道CWの白線WLの傾きを排除した画像)を作成した上で、ヨーイング角度算出部85bによって、横断歩道CWに対する視覚障碍者の向きに起因する白線WLの傾斜角度を推定し、白線WLの長手方向に対して直交する方向であるx方向と、実際の横断方向であるx’方向とのなす角度(修正角度)を略0°とするように、視覚障碍者に対して向きを変化させる指示を行うものとなっている。視覚障碍者がこの指示に従って向きを変化させて横断歩道CWの白線WLの延長方向に直交する方向(x方向に略一致する方向)になった場合には例えば図4に示すような画像(カメラ20の画角内に信号機TLが存在する画像)が得られることになる。
For this reason, in the present embodiment, the correction
以下、ローリング補正部85aおよびヨーイング角度算出部85bについて説明する。
The rolling
(ローリング補正部)
ローリング補正部85aは、カメラ20によって取得された画像における横断歩道CWの白線WLが、前記白杖1が左右に振られることに起因して画像上で傾く場合の当該傾きを算出し、該傾きに基づいて画像を補正することにより白杖1の振り角度が零であると仮定した場合の画像を作成するものである。
(Rolling correction part)
The rolling
視覚障碍者が白杖1を左右に振った場合、その振り角度に応じてカメラ20が傾くことになる。つまり、カメラ20の上下方向が鉛直方向に対して傾くことになる。具体的には、視覚障碍者が白杖1を左側に振った場合には、カメラ20の上下方向が鉛直方向に対して右側に傾く(白杖1の上端位置が下端位置よりも右側に位置するように傾く)ことになる。逆に、視覚障碍者が白杖1を右側に振った場合には、カメラ20の上下方向が鉛直方向に対して左側に傾く(白杖1の上端位置が下端位置よりも左側に位置するように傾く)ことになる。この状況を図5~図7を用いて説明する。
When a visually impaired person swings the
図5は、視覚障碍者Huが白杖1を左右に振りながら歩行している状態を示す正面図である。この図5においてx軸は視覚障碍者Huの歩行方向に沿う軸(視覚障碍者Huの視線前方の軸)である。また、y軸はx軸に直交する左右方向軸であり、z軸はx軸およびy軸それぞれに直交する鉛直方向軸である。また、この図5では、視覚障碍者Huが右手に白杖1を把持して歩行している状態を示している。また、白杖1が視覚障碍者Huの前側に位置している状態を実線で示し、視覚障碍者Huが白杖1を左側(図5における右側)に振っている状態を一点鎖線で示し、視覚障碍者Huが白杖1を右側(図5における左側)に振っている状態を二点鎖線で示している。
FIG. 5 is a front view showing a state in which the visually impaired person Hu is walking while swinging the
このように視覚障碍者Huが白杖1を左右に振りながら横断歩道CWを横断している状態にあっては、視覚障碍者Huが白杖1を左側に振っている状況ではカメラ20の撮影光軸が左側に振られるだけでなく、カメラ20の上下方向が鉛直方向に対して右側に傾くことになるため、仮に視覚障碍者Huが横断歩道CWの幅方向の中央部に位置していた(横断歩道CWに正対していた)としてもカメラ20によって撮影される画像は横断歩道CWの左側の画像となると共に左側に傾いた画像となる(この際の撮影画像である図6を参照)。一方、視覚障碍者Huが白杖1を右側に振っている状況ではカメラ20の撮影光軸が右側に振られるだけでなく、カメラ20の上下方向が鉛直方向に対して左側に傾くことになるため、仮に視覚障碍者Huが横断歩道CWの幅方向の中央部に位置していた(横断歩道CWに正対していた)としてもカメラ20によって撮影される画像は横断歩道CWの右側の画像となると共に右側に傾いた画像となる(この際の撮影画像である図7を参照)。そして、x軸に対して視覚障碍者Huが白杖1を左側に振る際のy軸に対するカメラ20の最大傾き角度をφlとし、x軸に対して視覚障碍者Huが白杖1を右側に振る際のy軸に対するカメラ20の最大傾き角度をφrとした場合、一般的に白杖1を右側に振る際の最大角度θrの方が、白杖1を左側に振る際の最大角度θlよりも大きくなる傾向があることに起因して、白杖1を右側に振る際の最大傾き角度φrの方が、白杖1を左側に振る際の最大傾き角度φlよりも大きくなる傾向がある(φl<φr)。図6および図7は、このような状況においてカメラ20によって撮影された画像を示しており、視覚障碍者Huが白杖1を左側に振っている状況での最大傾き角度φlに対し、視覚障碍者Huが白杖1を右側に振っている状況での最大傾き角度φrの方が大きくなっている。
In this state where the visually impaired person Hu is swinging the
このような状況に鑑み、ローリング補正部85aでは、以下の手法によって、視覚障碍者Huが白杖1を左右に振ったことに起因する白線WLの傾斜角度を求め、それに応じて画像を補正して、この白杖1を左右に振ったことに起因して白線WLが画像上で傾斜することを排除するようにしている。
In view of this situation, the rolling
<各座標系の説明>
先ず、画像の補正に使用する各座標系について説明する。図8は、視覚障碍者Huが右手に白杖1を把持して歩行している状態において路面基準のグローバル座標系を説明するための視覚障碍者Huの側面図である。この図8においてもx軸は視覚障碍者Huの歩行方向に沿う軸(視覚障碍者Huの視線前方の軸)である。また、y軸はx軸に直交する左右方向軸であり、z軸はx軸およびy軸それぞれに直交する鉛直方向軸である。そして、これら軸を有する座標系を、路面基準の直交右手座標系としてグローバル座標系xg=(x,y,z)Tとする。
<Description of each coordinate system>
First, each coordinate system used for image correction will be described. FIG. 8 is a side view of the visually impaired person Hu for explaining the global coordinate system based on the road surface when the visually impaired person Hu is walking while holding the
また、図9(杖座標系およびカメラ座標系を説明するための白杖1の一部を示す側面図)および図10(杖座標系およびカメラ座標系を説明するための白杖1の一部を示す正面図)に示すように、白杖1に備えられたIMU90の配設位置を原点として、白杖1の軸方向をz0軸(上方向が正)、このz0軸に直交する前方向をx0軸(前方向が正)、これらz0軸およびx0軸それぞれに直交する左右方向をy0軸(視覚障碍者Huの左方向が正)とする直交右手座標系を杖座標系xc=(x0,y0,z0)Tとする。尚、説明の簡素化のために、グローバル座標系xgの原点と杖座標系xcの原点とは同一位置とする。
9 (a side view showing a part of the
更に、白杖1にN個(本実施形態の場合にはN=1)のカメラ20を備えている場合における、カメラj(j=1,…,N)の撮影光軸方向をξj軸(前方向が正)、このξj軸に直交する上方をζj軸(上方向が正)、これらξj軸およびζj軸それぞれに直交する左右方向をηj軸(視覚障碍者Huの左方向が正)とする直交右手座標系をカメラ座標系xp=(ξj,ηj,ζj)Tとする。
Furthermore, when the
<画像回転処理の説明>
IMU90によって計測された3軸加速度および3軸角速度の情報をローリング補正部85aが受けた場合に、取得された加速度ベクトルをa=(ax,ay,az)Tとし、取得された角速度ベクトルをω=(ωx,ωy,ωz)Tとする。
<Description of image rotation processing>
When the rolling
これら3軸加速度および3軸角速度は各時刻t=ti(i=1,…,n)で取得され、時刻tiにおける取得データはそれぞれa=a(ti)およびω=ω(ti)と表される。この場合、杖座標系xcとグローバル座標系xgとの関係は以下の式(1)で表すことができる。 These three-axis accelerations and three-axis angular velocities are obtained at each time t=t i (i=1, . . . , n), and the obtained data at time t i are a=a(t i ) and ). In this case, the relationship between the cane coordinate system xc and the global coordinate system xg can be expressed by the following equation (1).
ここで、Rcは座標変換マトリクスであり、以下の式(2)である。 Here, Rc is a coordinate transformation matrix, which is the following equation (2).
一方、杖座標系xcとカメラ座標系xp(1個のカメラ20を対象とした場合のカメラ座標系はxj)の関係としては、カメラ20の位置が白杖1において不変であることから、白杖1の位置や姿勢に関わらず、以下の式(3)で表すことができる。
On the other hand, regarding the relationship between the cane coordinate system xc and the camera coordinate system xp (the camera coordinate system is xj when one
ここで、AjおよびBjはアフィン変換マトリクスであり、カメラ20およびIMU90それぞれの配設位置によって一意的に求められるものである。
Here, A j and B j are affine transformation matrices, which are uniquely determined by the arrangement positions of the
そして、式(1)および式(3)により(式(3)に式(1)を代入することにより)、カメラ座標系xjとグローバル座標系xgとの関係は以下の式(4)として得ることができる。 Then, from equations (1) and (3) (by substituting equation (1) into equation (3)), the relationship between the camera coordinate system x j and the global coordinate system x g is given by the following equation (4) can be obtained as
この式(4)から、図11に示すように、グローバル座標系xgにおけるz軸(路面に対する鉛直上向きの軸)とカメラ座標系xjにおけるζj軸(撮影光軸に対して直交する上向きの軸)との成す角φjを算出することができる。つまり、白杖1が左右に振られることに起因したカメラ20の傾きを算出することができる。
From this equation (4), as shown in FIG. 11, the z-axis in the global coordinate system xg (the vertical upward axis with respect to the road surface) and the ζ j- axis in the camera coordinate system xj (the upward ) can be calculated. That is, it is possible to calculate the tilt of the
このようにしてカメラ20の傾きである角φjが算出されたことにより、この角φjだけ画像を回転補正することで(図11の画像を時計回り方向に角φjだけ回転補正することで)、図12に示すように、カメラ20の傾きを0とした場合の画像を生成することが可能となる。つまり、横断歩道CWの各白線WLを水平方向に延在するものとした画像として得ることができる。尚、この図12は、視覚障碍者Huが横断歩道CWに正対している場合の画像を例示している。視覚障碍者Huが横断歩道CWに正対していない場合(横断歩道CWの白線WLの延長方向に直交する方向である適正な方向(図28におけるx方向;横断歩道CWに正対した方向)に対する傾斜角度である修正角度が生じている場合)にあっては、前述した画像の回転補正を行ったとしても、この修正角度の存在に起因して、横断歩道CWの白線WLの延在方向は画像上における水平方向に対して傾斜することになる。
Since the angle φ j that is the inclination of the
図11および図12は、白杖1が左側に振られたことで傾いた画像を回転補正(時計回り方向に回転補正)する場合を例に挙げたが、白杖1が右側に振られたことで傾いた画像を回転補正(反時計回り方向に回転補正)する場合も同様の処理が行われる。
11 and 12 exemplify the case where the tilted image is rotated (rotated clockwise) when the
つまり、このローリング補正部85aによる補正動作によって、白杖1を左右に振ったことに起因して白線WLが画像上で傾斜することを排除した画像が生成された場合に、この画像上において白線WLが傾斜している場合には、その傾斜は、横断歩道CWに対する視覚障碍者Huの向き(白線WLの長手方向に対して直交する方向であるx方向に対する実際の視覚障碍者Huの向いている方向であるx’方向の向き)に起因するものとなる。ヨーイング角度算出部85bでは、この視覚障碍者Huの向きに起因するx方向とx’方向との修正角度を算出する。
In other words, when an image is generated in which the inclination of the white line WL on the image due to the waving of the
(ヨーイング角度算出部)
ヨーイング角度算出部85bは、前記ローリング補正部85aでの補正動作によって得られた画像を参照し、この画像上において白線WLが傾斜している場合には、その傾斜が視覚障碍者Huの向きに起因するものであると判定し、その白線WLの傾斜角度に基づいて修正角度を算出する。以下、具体的に説明する。
(Yawing angle calculator)
The yawing
ヨーイング角度算出部85bは、前記制御プログラムによって実現される機能部として、第1認識部85c、第2認識部85dおよび白線特定部85eを備えている。以下、これら機能部について説明する。
The yawing
今、ローリング補正部85aでの補正動作によって図13に示す画像が得られたものと仮定する。そして、この図中の白線をΩi(i∈N)とする。図中ではi=a,b,c,dつまり白線Ωa,Ωb,Ωc,Ωdが得られている。
Assume that the image shown in FIG. 13 is obtained by the correction operation of the rolling
そして、第1認識部85cは、これら白線Ωa,Ωb,Ωc,Ωdに対し、周知の深層学習によって認識可能な白線を抽出する。具体的には、予めアノテーションされたデータに基づく学習済みモデルを用いて横断歩道CWの白線の認識動作を行う。ここでは、この第1認識部85cによって白線Ωa,Ωb,Ωcのみが認識され、図14に示すように、これら白線Ωa,Ωb,Ωcに対してBoundary Box(図中の一点鎖線を参照)が設定された状態となっている。
Then, the
また、第2認識部85dは、前記白線Ωa,Ωb,Ωc,Ωdに対し、Computer Vision(コンピュータビジョン)によって認識可能な白線を抽出する。ここでは、この第2認識部85dによって白線Ωa,Ωb,Ωc,Ωdが認識され、図15に示すように、これら白線Ωa,Ωb,Ωc,Ωdに対してBoundary Box(図中の一点鎖線を参照)が設定された状態となっている。
Further, the
白線特定部85eは、第1認識部85cによる認識動作の結果および第2認識部85dによる認識動作の結果それぞれに基づいて、画像中における横断歩道CWの白線を特定する。具体的には、前述の場合において各認識部85c,85dそれぞれにおいて認識された白線としてΩa,Ωb,Ωcの3つの白線を確定し、これら白線Ωa,Ωb,Ωcを信頼性の高い状態で得られたものとして特定する。
The white
このようにして信頼性の高い状態で得られた白線Ωa,Ωb,Ωcに対し、前記Computer Visionによって白線と認識された領域のBoundary Boxを設定し、このBoundary Boxが画像上の水平線とのなす角度φk(k=a,b,…n)を求め(図16を参照)、この角度φk(φa,φb)に基づき、以下の式(5)(6)によって、視覚障碍者Huの向いている方向x’とx方向との成す角度である修正角度θを求める。 For the white lines Ωa, Ωb, and Ωc thus obtained in a highly reliable state, a boundary box is set in the area recognized as the white line by the computer vision, and this boundary box is formed with the horizontal line on the image. An angle φk (k=a, b, . . . n) is obtained (see FIG. 16), and based on this angle φk (φa, φb), the following equations (5) and (6) are used to determine the direction of the visually impaired person Hu. A correction angle θ, which is the angle between the direction x′ and the x direction, is obtained.
式(6)におけるnは、図16において白線と認識された領域のBoundary Box(白線と認識されたことの信頼性の高いBoundary Box)の数である。また、式(5)におけるαは、画像の傾きと視覚障碍者Huの歩行方向(向いている方向)との変換係数であり、カメラ20のレンズの画角によって予め決定された値である。
n in Expression (6) is the number of Boundary Boxes in the area recognized as a white line in FIG. α in Equation (5) is a conversion coefficient between the tilt of the image and the walking direction (facing direction) of the visually impaired person Hu, and is a value determined in advance by the angle of view of the lens of the
このようにしてヨーイング角度算出部85bは修正角度θを求め、この修正角度θが、視覚障碍者Huの向きが適正な向き(白線の延在方向に直交するx方向)とのなす角度として算出されることになる。そして、ヨーイング角度算出部85bは、この情報を振動発生機50に送信する。振動発生機50は、この情報(信号)を受信し、視覚障碍者Huに対して向きを変更するよう指示を行う。つまり、例えば図16に示すように、画像上において各白線Ωa,Ωb,Ωcが左下がりとなっている場合には、視覚障碍者Huは、適正な向きよりも右側を向いているとして、左側を向くように向きを変更する指示を行う。つまり、振動発生機50は、左側を向くように向きを変更する指示を行う振動パターンで振動する。逆に、画像上において各白線Ωa,Ωb,Ωcが右下がりとなっている場合には、視覚障碍者Huは、適正な向きよりも左側を向いているとして、右側を向くように向きを変更する指示を行う。つまり、振動発生機50は、右側を向くように向きを変更する指示を行う振動パターンで振動する。これにより、前記修正角度θが小さくなり、例えば図4に示すような画像(カメラ20の画角内に信号機TLが存在する画像)が得られることになる。
In this way, the
-歩行支援動作-
次に、前述の如く構成された歩行支援システム10による歩行支援動作について説明する。先ず、本歩行支援動作の概要について説明する。
-Walking support movement-
Next, the walking support operation by the walking
(歩行支援動作の概要)
ここでは、視覚障碍者の歩行中における時間をt∈[0,T]と表し、当該視覚障碍者の状態を表す変数(状態変数)をs∈RTとする。また、時刻tのときの状態変数はst∈{0,1,2}の整数で表現され、それぞれ、歩行状態(st=0)、停止状態(st=1)、横断状態(st=2)を表すものとする。ここでいう歩行状態とは、例えば視覚障碍者が交差点(信号機TLおよび横断歩道CWのある交差点)に向かって歩行している状態が想定される。また、停止状態とは、視覚障碍者が横断歩道CWの手前に達し、信号待ちによって(赤信号から青信号に切り替わるのを待って)停止している状態(歩行していない状態)が想定される。また、横断状態とは、視覚障碍者が横断歩道CWを横断している状態が想定される。
(Outline of walking support operation)
Here, the time during which the visually impaired person is walking is represented by tε[0, T], and the variable (state variable) representing the state of the visually impaired person is represented by sεRT . State variables at time t are represented by integers s t ∈ {0, 1, 2}, and are respectively in the walking state (s t = 0), the stopped state (s t = 1), and the crossing state (s t = 2). The walking state here is assumed to be, for example, a state in which a visually impaired person is walking toward an intersection (an intersection with a traffic light TL and a pedestrian crossing CW). In addition, the stopped state is assumed to be a state in which the visually impaired person has reached the front of the crosswalk CW and is stopped (not walking) by waiting for a traffic light (waiting for the light to switch from red to green). . Also, the crossing state is assumed to be a state in which a visually impaired person is crossing the crosswalk CW.
本実施形態は、時刻tでカメラ20によって撮影された画像Xt∈Rw0×h0(w0,h0はそれぞれ画像の縦と横の画像サイズを表す)が入力された際に、視覚障碍者の歩行を支援することを目的とした出力y∈RTを求めるアルゴリズムを提案するものとなっている。ここで、視覚障碍者の歩行を支援する出力としては、yt∈{1,2,3,4}の整数で表現され、それぞれ、停止指示(yt=1)、歩行指示(yt=2)、右逸脱警告(yt=3)、左逸脱警告(yt=4)を表すものとする。以下の説明では停止指示を停止通知という場合もある。また、歩行指示を歩行通知または横断通知という場合もある。これらの指示(通知)および警告は、振動発生機50の振動のパターンによって視覚障碍者に対して行われる。視覚障碍者は、予め、指示(通知)および警告と、振動発生機50の振動のパターンとの関係を把握しており、振動発生機50の振動のパターンをグリップ部3から感じ取ることで指示および警告の種類を把握することになる。
According to the present embodiment, when an image X t εR w0×h0 (w 0 and h 0 represent the vertical and horizontal image sizes of the image, respectively) captured by the
また、後述するように、視覚障碍者の状態を表す変数sの遷移を判定する関数(以下、状態遷移関数という)f0,f1,f2と、横断歩道CWからの逸脱(左右方向への逸脱)を判断する状態遷移関数f3が存在しており、これら状態遷移関数f0~f3が前記ROMに記憶されている。これら状態遷移関数f0~f3の具体例については後述する。 In addition, as will be described later, functions for determining the transition of the variable s representing the state of the visually impaired person (hereinafter referred to as state transition functions) f 0 , f 1 , and f 2 , and departure from the pedestrian crossing CW (to the left and right) deviation) exists, and these state transition functions f 0 to f 3 are stored in the ROM. Specific examples of these state transition functions f 0 to f 3 will be described later.
(出力変数yおよび状態遷移関数fiの概要)
前述した視覚障碍者の歩行を支援する出力yt∈{1,2,3,4}について説明する。
(Summary of Output Variable y and State Transition Function f i )
The output y t ε{1, 2, 3, 4} for assisting the walking of the visually impaired person will be described.
前述したように出力ytとしては、視覚障碍者の歩行支援を目的として、停止指示(yt=1)、歩行指示(yt=2)、右逸脱警告(yt=3)、左逸脱警告(yt=4)の4種類の出力が存在する。 As described above, the output y t includes a stop instruction (y t =1), a walking instruction (y t =2), a right deviation warning (y t =3), a left deviation There are four types of outputs for warnings (y t =4).
停止指示(yt=1)は、歩行する視覚障碍者が横断歩道の手前まで達した時点で当該視覚障碍者に歩行を停止する旨の通知を行うものである。例えば、カメラ20で撮影された画像が、図17(視覚障碍者が横断歩道CWに向かう歩行状態にある際に、カメラ20で撮影された画像の一例を示す図)に示す状態であれば、横断歩道CWまでの距離が比較的長いため、停止指示(yt=1)は行わず、視覚障碍者は歩行状態(st=0)が継続され、カメラ20で撮影された画像が、図18(視覚障碍者が横断歩道CWに達したタイミングにおいてカメラ20で撮影された画像の一例を示す図)に示す状態となった場合には、視覚障碍者が横断歩道CWの手前に達したタイミングであることから、停止指示(yt=1)を出力して、当該視覚障碍者に歩行を停止する旨の通知を行うことになる。この停止指示(yt=1)を行う条件が成立しているか否かの判定(状態遷移関数の算出結果に基づく判定)については後述する。
The stop instruction (y t =1) is to notify the visually impaired person to stop walking when the visually impaired person reaches the crosswalk. For example, if the image captured by the
歩行指示(yt=2)は、信号機TLが赤信号から青信号に切り替わったことで、視覚障碍者に歩行(横断歩道CWの横断)を指示する旨の通知を行うものである。例えば、横断歩道CWの手前で視覚障碍者が停止状態(st=1)にある状況で、カメラ20で撮影された画像に基づいて信号機TLが赤信号から青信号に切り替わった場合に、歩行指示(yt=2)を出力して、当該視覚障碍者に横断歩道CWの横断を開始する旨の通知を行う。この歩行指示(yt=2)を行う条件が成立しているか否かの判定(状態遷移関数の算出結果に基づく判定)についても後述する。
The walking instruction (y t =2) notifies the visually impaired person to walk (cross the pedestrian crossing CW) when the traffic light TL has changed from red to green. For example, when the visually impaired person is in a stopped state (s t =1) in front of the crosswalk CW, and the traffic light TL is switched from red to green based on the image captured by the
そして、本実施形態では、この歩行指示(yt=2)を行うタイミングとして、信号機TLの状態が赤信号から青信号に切り替わったタイミングとしている。つまり、仮に、視覚障碍者が横断歩道CWに達した時点で既に信号機TLが青信号となっていたとしても歩行指示(yt=2)は行わず、信号機TLが一旦赤信号となり、その後に青信号に切り替わったタイミングで歩行指示(yt=2)を行うようにしている。これによって、視覚障碍者が横断歩道CWを横断するに当たって、信号機TLが青信号となっている時間を十分に確保することができるようにし、視覚障碍者が横断歩道CWを横断している途中で信号機TLが青信号から赤信号に切り替わってしまうといった状況を招き難くしている。 In the present embodiment, the timing at which the walking instruction (y t =2) is issued is the timing at which the state of the traffic light TL changes from red to green. In other words, even if the visually handicapped person reaches the crosswalk CW and the traffic light TL is already green, the walking instruction (y t =2) is not given. A walking instruction (y t =2) is given at the timing of switching to . As a result, when a visually impaired person crosses the pedestrian crossing CW, the time when the traffic light TL is green is sufficiently ensured, This makes it difficult to invite a situation in which the TL switches from a green light to a red light.
右逸脱警告(yt=3)は、横断歩道CWを横断している視覚障碍者が横断歩道CWから右側に逸脱する方向に向かって歩行している際に、当該視覚障碍者に対して横断歩道CWから右側に逸脱する虞があることの警告を行うものである。例えば、カメラ20で撮影された画像が図19(視覚障碍者が横断歩道CWの横断状態にある際に、カメラ20で撮影された画像の一例を示す図)に示す状態にあって、視覚障碍者が横断歩道CWの横断状態(st=2)にある状況で、カメラ20で撮影された画像が、図20(横断歩道CWの横断状態にある視覚障碍者が横断歩道CWの右側に逸脱する方向に向かって歩行している際に、カメラ20で撮影された画像の一例を示す図)に示す状態となった場合には、視覚障碍者が横断歩道CWから右側に逸脱する方向に向かって歩行していることから、右逸脱警告(yt=3)を出力して、当該視覚障碍者に警告を行うことになる。
The right departure warning (y t = 3) is issued to the visually impaired person crossing the pedestrian crossing CW when the visually impaired person is walking in the direction of deviating from the pedestrian crossing CW to the right. This warns that there is a risk of deviating to the right from the sidewalk CW. For example, if the image captured by the
左逸脱警告(yt=4)は、横断歩道CWを横断している視覚障碍者が横断歩道CWから左側に逸脱する方向に向かって歩行している際に、当該視覚障碍者に対して横断歩道CWから左側に逸脱する虞があることの警告を行うものである。例えば、カメラ20で撮影された画像が図19に示す状態にあって、視覚障碍者が横断歩道CWの横断状態(st=2)にある状況で、カメラ20で撮影された画像が、図21(横断歩道CWの横断状態にある視覚障碍者が横断歩道CWの左側に逸脱する方向に向かって歩行している際に、カメラ20で撮影された画像の一例を示す図)に示す状態となった場合には、視覚障碍者が横断歩道CWから左側に逸脱する方向に向かって歩行していることから、左逸脱警告(yt=4)を出力して、当該視覚障碍者に警告を行うことになる。
The left departure warning (y t = 4) is issued to the visually impaired person crossing the pedestrian crossing CW when the visually impaired person is walking in the direction of deviating left from the pedestrian crossing CW. This warns that there is a risk of deviating to the left from the sidewalk CW. For example, when the image captured by the
これら右逸脱警告(yt=3)および左逸脱警告(yt=4)を行う条件が成立しているか否かの判定(状態遷移関数の算出結果に基づく判定)についても後述する。 Determination (determination based on the calculation result of the state transition function) as to whether or not the conditions for issuing the right departure warning (y t =3) and the left departure warning (y t =4) are satisfied will also be described later.
(歩行支援で用いる特徴量)
次に、視覚障碍者に対する歩行支援で用いる特徴量について説明する。視覚障碍者に対して、横断歩道CWの手前での歩行の停止通知、および、その後の横断開始通知等の各種通知を適切に行うためには、横断歩道CWの位置(横断歩道CWにおいて最も手前側にある白線WL1の位置)、および、信号機TLの状態(青信号であるか赤信号であるか)をカメラ20からの情報によって正確に認識しておくことが必須である。つまり、白線WL1の位置および信号機TLの状態を反映させたモデル式を構築しておき、このモデル式に従って、現在、視覚障碍者が置かれている状況を把握できるようにしておく必要がある。
(Feature value used for walking support)
Next, the feature quantity used for walking assistance for the visually impaired will be described. In order to appropriately notify the visually impaired to stop walking in front of the crosswalk CW and to start crossing after that, the position of the crosswalk CW (the position closest to the crosswalk CW It is essential to accurately recognize the position of the white line WL1 on the side) and the state of the traffic light TL (whether it is a green light or a red light) from the information from the
図22および図23は、視覚障碍者に対する歩行支援で用いる特徴量{w3,w4,w5,h3,r,b}T∈R6の概要を示している。r,bは、それぞれ信号機TLの状態(赤信号および青信号)の検出結果(0:未検出、1:検出)を表している。この信号機TLの状態の検出に際し、前述したように図4において破線で囲まれた領域Aが抽出されることで信号機TLの状態の認識が行われることになる。また、w3,w4,w5,h3は、前記横断歩道検出部82によって認識された横断歩道CWの白線WL1~WL4のうち、最も手前に位置する白線WL1に対するBoundary Boxを用いて図23に示すように定義される。つまり、w3は画像の左端からBoundary Boxの左端(白線WL1の左端に相当)までの距離であり、w4はBoundary Boxの幅寸法(白線WL1の幅寸法に相当)であり、w5は画像の右端からBoundary Boxの右端(白線WL1の右端に相当)までの距離であり、h3は画像の下端からBoundary Boxの下端(白線WL1の手前側の端縁に相当)までの距離である。
FIGS. 22 and 23 outline feature quantities {w 3 , w 4 , w 5 , h 3 , r, b} T εR 6 used in walking assistance for the visually impaired. r and b each represent the detection result (0: not detected, 1: detected) of the state (red signal and green signal) of the traffic light TL. When detecting the state of the traffic light TL, the state of the traffic light TL is recognized by extracting the area A surrounded by the dashed line in FIG. 4 as described above. Also, w 3 , w 4 , w 5 , and h 3 are plotted using the boundary box for the white line WL1 positioned closest to the front among the white lines WL1 to WL4 of the crosswalk CW recognized by the
深層学習を用いて横断歩道CWおよび信号機TLを検出する関数をgとした場合、時刻tでカメラ20によって撮影された画像Xt∈Rw0×h0を用いて予測された横断歩道CWおよび信号機TLのBoundary Boxをg(Xt)と表現すると、視覚障碍者の歩行を支援するために必要な特徴量としては、以下の式(7)として表現できる。 Let g be a function for detecting crosswalks CW and traffic lights TL using deep learning, predicted crosswalks CW and traffic lights TL using an image X t εR If the Boundary Box of is expressed as g(X t ), the feature quantity necessary for assisting the walking of the visually impaired can be expressed as Equation (7) below.
ここで、 here,
は前記特徴量j(t)を抽出する演算子であり、前記g(Xt)に対する後処理を行うためのものであり、p1は1フレーム当たりのBoundary Boxの最大数である。 is an operator for extracting the feature quantity j(t) and for post-processing the g(X t ), and p1 is the maximum number of Boundary Boxes per frame.
(状態遷移関数)
次に、状態遷移関数について説明する。この状態遷移関数は、前述したように、停止指示(yt=1)、歩行指示(yt=2)、右逸脱警告(yt=3)、左逸脱警告(yt=4)それぞれの通知を行う条件が成立しているか否かを判定するために用いられるものである。
(state transition function)
Next, the state transition function will be explained. As described above, this state transition function is for each of the stop instruction (y t =1), the walking instruction (y t =2), the right departure warning (y t =3), and the left departure warning (y t =4). It is used to determine whether or not the conditions for notification are satisfied.
時刻t+1での状態量(状態変数)st+1は、横断歩道CWの特徴量に対する時刻履歴情報J={j(0),j(1),…j(t)}と、現在の状態量(状態変数)st、および、時刻t+1で撮影された画像Xt+1を用いて以下の式(9)のように表すことができる。
The state quantity (state variable) s t+1 at time t+1 is the time history information J={j(0), j(1), . Using the state variable s t and the image X t+1 taken at
この式(9)における状態遷移関数fは、現在時刻の状態量に応じて以下の式(10)のように定義することができる。 The state transition function f in Equation (9) can be defined as in Equation (10) below according to the state quantity at the current time.
つまり、視覚障碍者の歩行の推移としては、歩行(例えば横断歩道CWに向かう歩行)→停止(例えば横断歩道CWの手前での停止)→横断(例えば横断歩道CWの横断)→歩行(例えば横断歩道CWの横断完了後の歩行)を繰り返すことになるが、歩行状態(st=0)にある視覚障碍者に対して停止指示(yt=1)を行う条件の成立の有無を判定するための状態遷移関数がf0(J,Xt+1)であり、停止状態(st=1)にある視覚障碍者に対して横断(歩行)指示(yt=2)を行う条件の成立の有無を判定するための状態遷移関数がf1(J,Xt+1)であり、横断状態(st=2)にある視覚障碍者に対して歩行(横断の完了)の通知を行う条件の成立の有無を判定するための状態遷移関数がf2(J,Xt+1)である。また、横断状態(st=2)にある視覚障碍者に対して横断歩道CWからの逸脱の警告を行う条件の成立の有無を判定するための状態遷移関数がf3(J,Xt+1)である。 In other words, the transition of the walking of the visually impaired person is as follows: walking (for example, walking towards the crosswalk CW) → stopping (for example, stopping before the crosswalk CW) → crossing (for example, crossing the crosswalk CW) → walking (for example, crossing (walking after crossing the sidewalk CW) is repeated, and it is determined whether or not the condition for giving a stop instruction (y t = 1) to the visually impaired person in the walking state (s t = 0) is established. The state transition function for is f 0 (J, X t+1 ), and the establishment of the condition for instructing the visually impaired person in the stopped state (s t = 1) to cross (walk) (y t = 2) The state transition function for determining presence/absence is f 1 (J, X t+1 ), and the conditions for notifying the visually impaired person in the crossing state (s t = 2) of walking (crossing completion) are established. A state transition function for determining the presence or absence of is f 2 (J, X t+1 ). Also, the state transition function for determining whether or not the condition for warning the visually impaired person in the crossing state (s t =2) to deviate from the pedestrian crossing CW is satisfied is f 3 (J, X t+1 ) is.
以下、各状態量(状態変数)それぞれに応じた状態遷移関数について具体的に説明する。 The state transition function corresponding to each state quantity (state variable) will be specifically described below.
(歩行状態で適用される状態遷移関数)
現在時刻の状態量が歩行状態(st=0)である場合に使用される状態遷移関数f0(j,Xt+1)は、前記式(7)の特徴量を用いて以下の式(11)~(13)とすることができる。
(State transition function applied in walking state)
The state transition function f 0 (j, X t+1 ) used when the state quantity at the current time is the walking state (s t =0) is expressed by the following formula (11) using the feature quantity of the formula (7). ) to (13).
ここで、HはHeaviside関数であり、δはDelta関数である。また、α1,α2は判定基準に用いられるパラメータであり、t0は利用する過去の状態を指定するパラメータである。また、I2={0,1,0,0,0,0}T、I4={0,0,0,1,0,0}Tである。 where H is the Heaviside function and δ is the Delta function. Also, α 1 and α 2 are parameters used as criteria, and t0 is a parameter that designates the past state to be used. Also, I 2 ={0,1,0,0,0,0} T and I 4 ={0,0,0,1,0,0} T .
この式(11)を用いれば、α1>h3、且つ、w4>α2の条件が過去t0時間では成立しておらず、時刻t+1で初めて成立した場合にのみ「1」が得られ、それ以外の場合には「0」が得られることになる。つまり、α1>h3が成立したことで、視覚障碍者の足元に、横断歩道CWにおける最も手前に位置する白線WL1(白線のBoundary Boxの下端)が位置し、w4>α2が成立したことで、その白線WL1は視覚障碍者の進行方向に直交する方向に延在する(白線のBoundary Boxの幅寸法が所定寸法を超えている)ものであることが判定された場合に「1」が得られるものとなっている。
Using this formula (11), "1" can be obtained only when the conditions of α 1 >h 3 and w 4 >α 2 have not been satisfied in the past time t0 and have been satisfied for the first time at
このようにして式(11)において「1」が得られた場合には、停止指示(yt=1)を行う条件が成立したとして、歩行状態にある視覚障碍者に停止指示(例えば横断歩道CWの手前での歩行の停止指示;停止通知)を行うことになる。 In this way, when "1" is obtained in the equation (11), it is assumed that the condition for issuing the stop instruction (y t =1) is established, and the visually impaired person in walking state is instructed to stop (for example, at a pedestrian crossing). An instruction to stop walking in front of the CW; a stop notification) is given.
また、本実施形態では、横断歩道CWが視覚障碍者の足元にある条件を(α1>h3)だけでなく、検出された横断歩道CWの幅の制約(w4>α2)を加えていることで、視覚障碍者の進行方向にある横断歩道CW以外の横断歩道(交差点において、視覚障碍者の進行方向に直交する方向の横断歩道等)が、画像Xt+1に含まれる場合の誤検知を防止している。つまり、道路の交差点等において横断方向が互いに異なる複数の横断歩道が存在している場合であっても、視覚障碍者が横断すべき横断歩道CW(白線WL1が、視覚障碍者が横断すべき方向に対して交差する方向に延びていることで、当該白線WL1の幅寸法が比較的広く認識されている横断歩道CW)とその他の横断歩道(白線の幅寸法が比較的狭く認識されている横断歩道)とを明確に判別することができ、視覚障碍者に向けての横断の開始通知を高い精度で正確に行うことが可能になっている。 In addition, in this embodiment, not only the condition that the pedestrian crossing CW is under the feet of the visually impaired person (α 1 >h 3 ), but also the width constraint of the detected pedestrian crossing CW (w 4 >α 2 ) is added. This prevents an error when a crosswalk other than the crosswalk CW in the traveling direction of the visually impaired person (such as a pedestrian crossing in a direction perpendicular to the traveling direction of the visually impaired person at an intersection) is included in the image X t+1. Prevent detection. In other words, even if there are a plurality of crosswalks with different crossing directions at an intersection of roads, etc., the pedestrian crossing CW that the visually impaired person should cross (the white line WL1 is the direction that the visually impaired person should cross) ) and other pedestrian crossings (crossing where the width of the white line WL1 is recognized to be relatively narrow) It is possible to clearly discriminate between the sidewalk and the sidewalk, and it is possible to accurately notify the visually impaired person of the start of crossing with a high degree of accuracy.
(停止状態で適用される状態遷移関数)
前時刻の状態量が停止状態(st=1)である場合に使用される状態遷移関数f1(j,Xt+1)は、以下の式(14)~(16)とすることができる。
(State transition function applied in stop state)
The state transition function f 1 (j, X t+1 ) used when the state quantity at the previous time is the stopped state (s t =1) can be the following equations (14) to (16).
ここでX’t+1は、Xt+1から画像のトリミングと拡大処理とを行って得られたものである。つまり、信号機TLの認識精度が十分に高められた画像X’t+1となっている。また、I5={0,0,0,0,1,0}T、I6={0,0,0,0,0,1}Tである。 Here, X' t+1 is obtained by performing image trimming and enlargement processing from X t+1 . In other words, the image X′ t+1 has a sufficiently high recognition accuracy for the traffic light TL. Also, I 5 ={0,0,0,0,1,0} T and I 6 ={0,0,0,0,0,1} T .
式(14)では、過去t0時間に赤信号を検知した後で、時刻t+1で初めて青信号を検知した場合にのみ「1」が得られ、それ以外の場合には「0」が得られることになる。 In expression (14), "1" is obtained only when a green light is detected for the first time at time t+1 after detecting a red light in the past time t0, and "0" is obtained in other cases. Become.
このようにして式(14)において「1」が得られた場合には、歩行(横断)指示(yt=2)を行う条件が成立したとして、停止状態にある視覚障碍者に横断指示(例えば横断歩道の横断指示;横断通知)を行うことになる。 In this way, when "1" is obtained in equation (14), it is assumed that the condition for instructing walking (crossing) (y t =2) is satisfied, and the visually impaired person in the stopped state is instructed to cross ( For example, a crosswalk crossing instruction; crossing notification) is performed.
また、信号機がない交差点の横断歩道では前述のロジックでの状態遷移ができない場合がある。この課題を解決するために、新たなパラメータt1>t0を導入し、時間t1の間、停止状態からの状態遷移がないと判断された場合に、歩行状態に遷移するようにしてもよい。 In addition, there are cases in which state transitions cannot be made according to the logic described above at crosswalks at intersections without traffic lights. In order to solve this problem, a new parameter t1>t0 may be introduced, and transition to the walking state may be made when it is determined that there is no state transition from the stop state during time t1.
(横断状態で適用される状態遷移関数)
前時刻の状態量が横断状態(st=2)である場合に使用される状態遷移関数f2(j,Xt+1)は、以下の式(17)とすることができる。
(state transition function applied in traverse state)
The state transition function f 2 (j, X t+1 ) used when the state quantity at the previous time is the crossing state (s t =2) can be given by the following equation (17).
この式(17)では、過去t-t0から、現在時刻t+1の間に一度も信号機TLおよび足元の横断歩道CWが検出できなかった場合にのみ「1」が得られ、それ以外の場合には「0」が得られることになる。つまり、横断歩道CWを渡りきったことで信号機TLおよび足元の横断歩道CWが検出できなかった場合にのみ「1」が得られることになる。 In this formula (17), "1" is obtained only when the traffic light TL and the pedestrian crossing CW at the foot cannot be detected even once during the current time t+1 from the past t−t0. "0" will be obtained. In other words, "1" is obtained only when the traffic light TL and the crosswalk CW at the foot cannot be detected because the crosswalk CW has been completely crossed.
このようにして式(17)において「1」が得られた場合には、横断完了の通知を行う条件が成立したとして、歩行状態にある視覚障碍者に横断完了(横断歩道の横断の完了)の通知を行うことになる。 In this way, when "1" is obtained in the expression (17), it is assumed that the condition for notifying the completion of the crossing is met, and the visually impaired person in walking state has completed the crossing (completion of crossing the pedestrian crossing). will be notified.
(横断歩道からの逸脱を判定する状態遷移関数)
視覚障碍者の横断歩道CWの横断中に、横断歩道CWからの逸脱を判定する状態遷移関数f3(j,Xt+1)は、以下の式(18)~(20)とすることができる。
(State transition function for judging departure from crosswalk)
The state transition function f 3 (j, X t+1 ) for determining deviation from the pedestrian crossing CW while the visually impaired person is crossing the pedestrian crossing CW can be represented by the following equations (18) to (20).
ここで、α3は判定基準に用いられるパラメータである。また、I1={1,0,0,0,0,0}T、I3={0,0,1,0,0,0}Tである。 where α3 is a parameter used as a criterion. Also, I 1 ={1,0,0,0,0,0} T and I 3 ={0,0,1,0,0,0} T .
この式(18)では、検出された横断歩道CWの位置におけるフレームの中心からのズレ量が許容量以上であれば「1」が得られ、それ以外では「0」が得られることになる。つまり、w3の値が所定値よりも大きくなった場合(左逸脱の場合)や、w5の値が所定値よりも大きくなった場合(右逸脱の場合)に「1」が得られることになる。 In this equation (18), "1" is obtained if the amount of deviation from the center of the frame at the detected position of the pedestrian crossing CW is greater than or equal to the allowable amount, and "0" is obtained otherwise. In other words, "1" is obtained when the value of w3 is greater than a predetermined value (left deviation) or when the value of w5 is greater than a predetermined value (right deviation). become.
このようにして式(18)において「1」が得られた場合には、右逸脱警告(yt=3)または左逸脱警告(yt=4)を行うことになる。 If "1" is thus obtained in equation (18), a right departure warning (y t =3) or a left departure warning (y t =4) is issued.
(歩行支援動作)
次に、歩行支援システム10による歩行支援動作の流れについて説明する。ここでは、信号機TLが設置された横断歩道CWに視覚障碍者が接近する状況を例に挙げて説明する。
(Walking support motion)
Next, the flow of the walking support operation by the walking
図24は、前述した歩行支援動作の一連の流れを示すフローチャートである。このフローチャートは、視覚障碍者が歩行している状況において、所定時刻tから所定時刻t+1までの間で1回のルーチンが実施されるように所定時間間隔を存して繰り返して実施される。以下の説明では各状態遷移関数における変数(J,Xt+1)の記載を省略する。 FIG. 24 is a flow chart showing a series of flows of the walking support operation described above. This flowchart is repeatedly performed at predetermined time intervals such that one routine is performed from predetermined time t to predetermined time t+1 in a situation where a visually impaired person is walking. Description of variables (J, X t+1 ) in each state transition function is omitted in the following description.
先ず、ステップST1において視覚障碍者が歩行状態にある状況で、ステップST2において、前記横断歩道検出部82によって認識された、横断歩道CWを含む画像領域における当該横断歩道CWの白線WL1の位置(より具体的には、最も手前に位置する白線WL1のBoundary Boxの位置)に基づき、前述した停止指示(yt=1)を行う条件の成立の有無を判定するための状態遷移関数f0(前記式11)において「1」が得られたか否かを判定する。 First, in step ST1, the visually impaired person is in a walking state, and in step ST2, the position of the white line WL1 of the crosswalk CW in the image area including the crosswalk CW, which is recognized by the crosswalk detection unit 82 (more Specifically, the state transition function f 0 (the position of the boundary box of the frontmost white line WL1) for determining whether or not the condition for performing the stop instruction (y t = 1) is satisfied (the above It is determined whether or not "1" is obtained in expression 11).
この状態遷移関数f0において「0」が得られている場合には、停止指示(yt=1)を行う条件が成立していない、つまり、視覚障碍者は未だ横断歩道CWの手前に達していないとしてNO判定され、ステップST1に戻る。視覚障碍者が横断歩道CWの手前に達するまで、ステップST2ではNO判定されるため、ステップST1,ST2の動作を繰り返すことになる。 When "0" is obtained in this state transition function f 0 , the condition for issuing the stop instruction (y t =1) is not met, that is, the visually impaired person has not yet reached the crosswalk CW. A NO determination is made as it is not, and the process returns to step ST1. Since the determination in step ST2 is NO until the visually impaired person reaches the crosswalk CW, the operations in steps ST1 and ST2 are repeated.
視覚障碍者が横断歩道CWの手前に達し、状態遷移関数f0において「1」が得られた場合には、ステップST2でYES判定され、ステップST3に移る。このステップST3では、視覚障碍者に対して停止指示(yt=1)を行う。具体的には、視覚障碍者が持っている白杖1の振動発生機50が、停止指示(停止通知)を示すパターンで振動する。これにより、白杖1のグリップ部3を把持している視覚障碍者は、振動発生機50の振動のパターンを感じ取ることで停止指示されたことを認識し、歩行を停止することになる。
If the visually handicapped person has reached the front of the pedestrian crossing CW and the state transition function f0 is " 1 ", a YES determination is made in step ST2, and the process proceeds to step ST3. In this step ST3, a stop instruction (y t =1) is given to the visually impaired person. Specifically, the
ステップST4において視覚障碍者が停止状態にある状況で、ステップST5において、カメラ20によって撮影された画像内(画角内)に信号機TLが認識されているか否かを判定する。つまり、信号機認識部83により、信号機TLの位置の認識および信号機TLの状態の認識が可能な状況であるか否かを判定する。
In a situation where the visually impaired person is in a stopped state in step ST4, it is determined in step ST5 whether or not the traffic light TL is recognized within the image (within the angle of view) taken by the
画像内に信号機TLが認識されており、ステップST5でYES判定された場合にはステップST7に移る。一方、画像内に信号機TLが認識されておらず、ステップST5でNO判定された場合には、ステップST6に移り、前述したローリング補正部85aによる画像の補正を行った上で、ヨーイング角度算出部85bによる修正角度の算出、および、振動発生機50による視覚障碍者に対しての向きの変更指示(修正角度に応じた向きの変更指示)を行う。
If the traffic signal TL is recognized in the image and YES is determined in step ST5, the process proceeds to step ST7. On the other hand, if the traffic light TL is not recognized in the image and the determination in step ST5 is NO, the process proceeds to step ST6, and the image is corrected by the rolling
このようにして視覚障碍者に対する指示(向きを変更する指示)を行った後、ステップST5に戻り、画像内に信号機TLが認識される状態となったか否かを判定する。つまり、前記指示に従って視覚障碍者が向きを変更し、画像内に信号機TLが認識される状態となった場合にはステップST5でYES判定されてステップST7に移ることになる。このため、画像内に信号機TLが認識される状態となるまで、ステップST5,ST6の動作を繰り返し、信号機TLが認識されたタイミングでステップST7に移ることになる。 After instructing the visually impaired person (instructing to change direction) in this manner, the process returns to step ST5, and it is determined whether or not the traffic light TL is recognized in the image. That is, when the visually impaired person changes direction according to the instruction and the traffic light TL is recognized in the image, a YES determination is made in step ST5, and the process proceeds to step ST7. Therefore, the operations of steps ST5 and ST6 are repeated until the traffic light TL is recognized in the image, and the process proceeds to step ST7 when the traffic light TL is recognized.
ステップST7において、前述した歩行指示(yt=2)を行う条件の成立の有無を判定するための状態遷移関数f1(前記式14)において「1」が得られたか否かを判定する。この状態遷移関数f1による判定動作に際しては、前述した図4で示したように、破線で囲まれた領域Aが抽出され、例えばこの領域Aが拡大処理されることで信号機TLの状態を容易に判断することが可能になる。 At step ST7, it is determined whether or not "1" is obtained in the state transition function f 1 (equation 14) for determining whether or not the condition for performing the walking instruction (y t =2) is satisfied. During the determination operation by the state transition function f1 , as shown in FIG. 4 described above, the area A surrounded by the broken line is extracted and, for example, the area A is enlarged to facilitate the state of the traffic light TL. It becomes possible to judge
この状態遷移関数f1において「0」が得られている場合には、歩行指示(yt=2)を行う条件が成立していない、つまり、信号機TLは未だ青信号に切り替わっていないとしてNO判定され、ステップST4に戻る。信号機TLが青信号に切り替わるまで、ステップST7ではNO判定されるため、ステップST4~ST7の動作を繰り返すことになる。 When "0" is obtained in this state transition function f1 , the condition for giving a walking instruction (y t =2) is not satisfied, that is, the traffic light TL is not yet switched to green, and a NO determination is made. and returns to step ST4. Since the determination in step ST7 is NO until the traffic light TL is switched to green, the operations of steps ST4 to ST7 are repeated.
信号機TLが青信号に切り替わり、状態遷移関数f1において「1」が得られた場合には、ステップST7でYES判定され、ステップST8に移る。この動作が、切り替わり認識部(信号機の状態が、停止指示状態から横断許可状態に切り替わったことを認識する切り替わり認識部)84の動作に相当する。 When the traffic light TL is switched to green and "1" is obtained in the state transition function f1 , a YES determination is made in step ST7, and the process proceeds to step ST8. This operation corresponds to the operation of the switching recognition unit (the switching recognition unit that recognizes that the state of the traffic light has changed from the stop instruction state to the crossing permission state) 84 .
ステップST8では、視覚障碍者に対して歩行(横断)指示(yt=2)を行う。具体的には、視覚障碍者が持っている白杖1の振動発生機50が、歩行指示(横断開始通知)を示すパターンで振動する。これにより、白杖1のグリップ部3を把持している視覚障碍者は歩行指示されたことを認識し、横断歩道CWの横断を開始することになる。
In step ST8, a walking (crossing) instruction (y t =2) is given to the visually impaired person. Specifically, the
ステップST9において視覚障碍者が横断歩道CWの横断状態にある状況で、ステップST10において、横断歩道CWからの逸脱の警告を行う条件の成立の有無を判定するための状態遷移関数f3(前記式18)において「1」が得られたか否かを判定する。 In step ST9, the visually impaired person is crossing the pedestrian crossing CW, and in step ST10, the state transition function f 3 (the above formula 18) determines whether or not "1" is obtained.
状態遷移関数f3において「1」が得られ、ステップST10でYES判定された場合、ステップST11において、その横断歩道CWからの逸脱の方向が右方向(右逸脱)であるか否かを判定する。そして、横断歩道CWからの逸脱の方向が右方向であり、ステップST11でYES判定された場合にはステップST12に移り、視覚障碍者に対して右逸脱警告(yt=3)を行う。具体的には、視覚障碍者が持っている白杖1の振動発生機50が、右逸脱警告を示すパターンで振動する。これにより、白杖1のグリップ部3を把持している視覚障碍者は右逸脱警告されたことを認識し、歩行方向を左方向に向けて変更することになる。
When "1" is obtained in the state transition function f3 and a YES determination is made in step ST10, it is determined in step ST11 whether or not the direction of departure from the crosswalk CW is the right direction (right departure). . If the direction of departure from the crosswalk CW is the right direction and the determination in step ST11 is YES, the process proceeds to step ST12, and a right departure warning (y t =3) is issued to the visually impaired person. Specifically, the
一方、横断歩道CWからの逸脱の方向が左方向であり、ステップST11でNO判定された場合にはステップST13に移り、視覚障碍者に対して左逸脱警告(yt=4)を行う。具体的には、視覚障碍者が持っている白杖1の振動発生機50が、左逸脱警告を示すパターンで振動する。これにより、白杖1のグリップ部3を把持している視覚障碍者は左逸脱警告されたことを認識し、歩行方向を右方向に向けて変更することになる。このようにして逸脱警告を行った後、ステップST16に移る。
On the other hand, if the direction of departure from the pedestrian crossing CW is the left direction and the determination in step ST11 is NO, the process proceeds to step ST13, and a left departure warning (y t =4) is issued to the visually impaired person. Specifically, the
横断歩道CWからの逸脱がなく、状態遷移関数f3において「0」が得られている場合には、ステップST10でNO判定され、ステップST14に移る。このステップST14では、現在、ステップST12またはステップST13における逸脱警告の発生中であるか否かを判定する。逸脱警告の発生中でなく、ステップST14でNO判定された場合には、ステップST16に移る。一方、逸脱警告の発生中であり、ステップST14でYES判定された場合には、ステップST15に移り、逸脱警告を解除してステップST16に移る。 If there is no deviation from the crosswalk CW and "0" is obtained in the state transition function f3 , a NO determination is made in step ST10, and the process proceeds to step ST14. In this step ST14, it is determined whether or not the deviation warning in step ST12 or step ST13 is currently occurring. If the departure warning is not occurring and the determination in step ST14 is NO, the process proceeds to step ST16. On the other hand, if the departure warning is being issued and the determination in step ST14 is YES, the process proceeds to step ST15, cancels the departure warning, and proceeds to step ST16.
ステップST16では、横断完了の通知を行う条件の成立の有無を判定するための状態遷移関数f2(前記式17)において「1」が得られたか否かを判定する。 At step ST16, it is determined whether or not "1" is obtained in the state transition function f 2 (equation 17) for determining whether or not the conditions for notifying the completion of crossing are satisfied.
この状態遷移関数f2において「0」が得られている場合には、横断完了の通知を行う条件が成立していない、つまり、視覚障碍者は横断歩道CWの横断中であるとしてNO判定され、ステップST9に戻る。横断歩道CWの横断が完了するまで、ステップST16ではNO判定されるため、ステップST9~ST16の動作を繰り返すことになる。 When "0" is obtained in this state transition function f2 , the condition for notifying the completion of crossing is not satisfied, that is, the visually impaired person is crossing the pedestrian crossing CW, and NO determination is made. , the process returns to step ST9. Since a NO determination is made in step ST16 until the crossing of the pedestrian crossing CW is completed, the operations of steps ST9 to ST16 are repeated.
つまり、視覚障碍者の横断中に横断歩道CWからの逸脱が発生する場合には前述した逸脱警告が行われ、この逸脱が解消された場合には、逸脱警告が解除されるといった動作を、横断歩道CWの横断が完了するまで行われる。 In other words, when the visually impaired person deviates from the pedestrian crossing CW while crossing, the aforementioned deviation warning is issued, and when the deviation is resolved, the deviation warning is cancelled. This is done until the sidewalk CW is completely crossed.
視覚障碍者が横断歩道CWの横断を完了し、状態遷移関数f2において「1」が得られた場合には、ステップST16でYES判定され、ステップST17に移り、視覚障碍者に対して横断完了の通知を行う。具体的には、視覚障碍者が持っている白杖1の振動発生機50が、横断完了を示すパターンで振動する。これにより、白杖1のグリップ部3を把持している視覚障碍者は横断完了の通知が行われたことを認識し、通常の歩行状態に戻ることになる。
When the visually impaired person has completed crossing the pedestrian crossing CW and "1" is obtained in the state transition function f2 , a YES determination is made in step ST16, the process proceeds to step ST17, and the visually impaired person completes crossing. notification. Specifically, the
このようにして、視覚障碍者が横断歩道CWを横断する度に前述した動作が繰り返されることになる。 In this way, the above operation is repeated each time the visually impaired person crosses the crosswalk CW.
-実施形態の効果-
以上説明したように、本実施形態では、カメラ20によって取得された画像に基づいて、横断歩道CWの白線WLの延在方向に対して直交する方向である基準横断方向(横断歩道CWに正対した前記x方向)とカメラ20の撮影方向との間の角度である修正角度θを算出し、この修正角度θを小さくするための動作を視覚障碍者に指示するようにしている。これにより、カメラ20の撮影方向を基準横断方向に略一致させることが可能となり、修正角度が大きかったことに起因してカメラ20の画角内に信号機TLが存在しない状況であった場合であっても、このカメラ20の画角内に信号機TLを存在させることが可能となって、信号機TLを適切に認識することが可能になる。
- Effects of the embodiment -
As described above, in this embodiment, based on the image acquired by the
また、カメラ20によって取得された画像に対し、ローリング補正部85aによる補正動作によって、白杖1の振り角度が零であると仮定した場合の画像を作成するようにしている。つまり、白杖1を左右に振ることに起因する横断歩道CWの白線WLの傾きを排除した画像を作成するようにしている。その上で、ヨーイング角度算出部85bによって、横断歩道CWに対する視覚障碍者Huの向きに起因する白線WLの傾斜角度を推定し、白線WLの長手方向に対して直交する方向と視覚障碍者Huの向いている方向との間の修正角度を算出し、この修正角度を小さくするための動作を視覚障碍者Huに指示するようにしている。これにより、白杖1が左右に振られることの影響を受けることなく、信号機TLを適切に認識することが可能になる。
Further, the correction operation by the rolling
また、ローリング補正部85aによって作成された画像に対し、第1認識部85cによる認識動作の結果および第2認識部85dによる認識動作の結果それぞれに基づいて、画像中における横断歩道CWの白線WLを特定する白線特定部85eを備えさせている。これにより、画像中における横断歩道CWの白線WLの認識精度を十分に得ることが可能になり、修正角度を高い精度で算出することが可能になる。
Further, the white line WL of the crosswalk CW in the image created by the rolling
また、本実施形態では、信号機TLの状態が赤信号から青信号に切り替わったことを条件として視覚障碍者に向けて横断の開始通知を行うようにしている。このため、視覚障碍者が横断歩道CWを横断するに当たって、信号機TLの状態が青信号となっている時間を十分に確保することができる。 Further, in this embodiment, the visually impaired person is notified of the start of crossing on the condition that the state of the traffic light TL has changed from red to green. Therefore, when a visually impaired person crosses the pedestrian crossing CW, it is possible to secure a sufficient amount of time during which the traffic light TL is green.
また、本実施形態では、歩行支援システム10の構成要素を白杖1に内蔵させることにより、白杖1のみで歩行支援システム10を実現しているため、実用性の高い歩行支援システム10を提供することができる。
In addition, in the present embodiment, by incorporating the components of the
-変形例1-
次に、変形例1について説明する。本変形例は、前述した修正角度の算出を行った後の処理動作が前記実施形態の場合と異なっている。修正角度の算出動作については前記実施形態のものと同様であるため、ここでは、修正角度の算出を行った後の処理動作についてのみ説明する。
-Modification 1-
Next,
図25は、本変形例においてカメラ20で撮影された画像の一例を示す図である。この図25に示すように、修正角度θを算出することによって、カメラ20で撮影された画像に対する信号機TLの位置(図中に破線で示す信号機TLを参照)を把握することが可能である。つまり、現在、カメラ20で撮影された画像の画角よりも角度θだけ左側に振った画角Ωs内に信号機TLが存在していることが把握できる。このため、視覚障碍者に対して信号機TLの方向を示唆する情報を提供し、この情報に応じて視覚障碍者がカメラ20の向きを変更する(信号機TLの存在する方向に変更する)ようにする。つまり、視覚障碍者が白杖1の持ち方を変更してカメラ20の撮影方向を変更する。
FIG. 25 is a diagram showing an example of an image captured by the
本変形例においても、前記実施形態の場合と同様に、修正角度が大きかったことに起因してカメラ20の画角内に信号機TLが存在しない状況であった場合であっても、このカメラ20の画角内に信号機TLを存在させることが可能となって、信号機TLを適切に認識することが可能になる。
In this modification, as in the case of the above-described embodiment, even if the traffic light TL does not exist within the angle of view of the
-変形例2-
次に、変形例2について説明する。本変形例は、修正角度を求めるための手法が前記実施形態の場合と異なっている。従って、ここでは、修正角度を求めるための手法についてのみ説明する。
-Modification 2-
Next,
図26は、カメラ20で撮影された画像上の最も遠い位置にあるBoundary Boxの全体がカメラ20の画角内に存在している状態における当該Boundary Boxの座標位置および長さ寸法を説明するための図である。ここでは、画像上の最も遠い位置にあるBoundary Boxにおける左上角の座標点を(xu,yu)とし、このBoundary Boxの幅寸法をwuとしている。
FIG. 26 is for explaining the coordinate position and length dimension of the Boundary Box in a state where the entire Boundary Box at the farthest position on the image captured by the
図4にも示したように、カメラ20で撮影された画像上の最も遠い位置にあるBoundary Boxの全体がカメラ20の画角内に存在している場合には、その画像内に信号機TLが存在している(信号機TLが認識できる状態にある)と判断できる。この判断は、例えば、xu>0且つxu+wu<w0(w0は画像の幅方向の画素数;画像サイズに相当)の条件が成立しておれば、最も遠い位置にあるBoundary Boxの全体がカメラ20の画角内に存在しており、その画像内に信号機TLが存在していると判断される。
As shown in FIG. 4, when the entire Boundary Box at the farthest position on the image captured by the
本変形例では、前述した座標点(xu,yu)および幅寸法wuと、修正角度との関係を表す複数の画像(図27を参照)をRAMまたはROM(本発明でいう記憶部)に記憶させておき、カメラ20で撮影された画像上におけるBoundary Boxの座標点(xu,yu)および幅寸法wuに略合致する画像を抽出することによって、その抽出された画像に割り当てられている修正角度を読み出すことによってカメラ20で撮影された画像での修正角度を求めるようにしている。前記記憶される複数の画像は、予め作成されたもの(白杖1の製作時に作成されて記憶されたもの)であってもよいし、前述した実施形態の処理動作によって修正角度が算出される度に、各情報(白線WLの座標点や修正角度等)が関連付けられて記憶されたものであってもよい。
In this modification, a plurality of images (see FIG. 27) representing the relationship between the coordinate points (x u , y u ) and the width dimension w u described above and the correction angle are stored in a RAM or a ROM (storage unit referred to in the present invention). ), and by extracting an image that substantially matches the coordinate point (x u , yu ) and the width dimension w u of the Boundary Box on the image captured by the
本変形例によれば、前記実施形態の場合に比べて演算処理を削減することができ、制御系における負荷の軽減を図ることができる。 According to this modified example, it is possible to reduce the number of calculation processes compared to the case of the above-described embodiment, and it is possible to reduce the load on the control system.
-他の実施形態-
尚、本発明は、前記実施形態および前記各変形例に限定されるものではなく、特許請求の範囲および該範囲と均等の範囲で包含される全ての変形や応用が可能である。
-Other embodiments-
It should be noted that the present invention is not limited to the above-described embodiments and modifications, and all modifications and applications within the scope of the claims and their equivalents are possible.
例えば、前記実施形態および前記各変形例では、歩行支援システム10を、視覚障碍者が使用する白杖1に内蔵した場合について説明した。本発明はこれに限らず、歩行者が高齢者である場合の杖や手押し車等であってもよい。
For example, in the above-described embodiment and each of the modified examples, the case where the
また、修正角度の算出手法としては、前記実施形態および前記各変形例に限らず、前記IMU90に備えられたジャイロにより得られる角速度を考慮して修正角度を算出するようになっていてもよい。この場合、車両等の障害物で横断歩道CWの一部が認識できない状況であっても修正角度を高い精度で算出することが可能になる。また、視覚障碍者の横断方向について絶対的な方向が明らかな場合(例えばGPSの情報および地図情報に基づいて方向が明らかな場合)に、IMU90のコンパス情報を用いることで修正角度を算出するようになっていてもよい。
Further, the correction angle calculation method is not limited to the above-described embodiment and each of the modifications, and the correction angle may be calculated in consideration of the angular velocity obtained by the gyro provided in the
また、前記実施形態および前記各変形例では、信号機TLの状態に応じて、視覚障碍者に対する横断歩道CWの手前での停止指示および横断歩道CWの横断の開始指示を行うものとしたが、これらのうち一方についてのみ本発明を適用するようにしてもよい。 Further, in the above-described embodiment and each of the above-described modified examples, an instruction to stop in front of the pedestrian crossing CW and an instruction to start crossing the pedestrian crossing CW are given to the visually impaired person according to the state of the traffic light TL. The present invention may be applied to only one of them.
また、前記実施形態および前記各変形例では、白杖1に充電ソケット70を備えさせ、家庭用電源からバッテリ(二次電池)60を充電するようにしていた。本発明はこれに限らず、白杖1の表面に太陽光発電シートを貼り付けておき、当該太陽光発電シートで発電した電力によってバッテリ60を充電するようにしてもよい。また、二次電池に代えて一次電池を使用するようになっていてもよい。また、白杖1に振り子式発電機を内蔵し、該振り子式発電機を利用してバッテリ60を充電するようにしてもよい。
Further, in the above embodiment and each of the modifications, the
また、前記実施形態および前記各変形例では、振動発生機50の振動パターンによって通知の種類を分けるようにしていた。本発明はこれに限らず、音声によって通知を行うようにしてもよい。
Further, in the above-described embodiment and each of the modified examples, the type of notification is classified according to the vibration pattern of the
本発明は、歩行する視覚障碍者に対して歩行支援を行う歩行支援システムに適用可能である。 INDUSTRIAL APPLICABILITY The present invention is applicable to a walking support system that provides walking support to a visually impaired person who walks.
1 白杖
10 歩行支援システム
20 カメラ(画像取得手段)
50 振動発生機(指示手段)
80 制御装置
82 横断歩道検出部
85 修正角度算出部
85a ローリング補正部
85b ヨーイング角度算出部
85c 第1認識部
85d 第2認識部
85e 白線特定部
TL 信号機
CW 横断歩道
WL 白線
Hu 視覚障碍者(歩行者)
x 基準横断方向
θ 修正角度
1
50 vibration generator (instruction means)
80
x reference transverse direction θ correction angle
Claims (6)
前記歩行者が向いている方向を撮影方向として該歩行者の歩行方向前方の画像を取得可能な画像取得手段と、
前記画像取得手段によって取得された画像に基づいて、前記横断歩道の白線の延在方向に対して直交する方向である基準横断方向と前記画像取得手段の撮影方向との間の角度である修正角度を算出する修正角度算出部と、
前記修正角度算出部によって算出された前記修正角度を小さくするための動作を前記歩行者に指示する指示手段と、
を備えていることを特徴とする歩行支援システム。 A traffic signal located in front of the pedestrian's walking direction is recognized, and at least one of instructing the pedestrian to stop before the pedestrian crossing and instructing the pedestrian to start crossing the pedestrian crossing according to the state of the traffic signal. A walking support system,
an image acquisition means capable of acquiring an image in front of the pedestrian in the walking direction, with the direction in which the pedestrian is facing as the photographing direction;
Based on the image acquired by the image acquisition means, a correction angle that is an angle between a reference transverse direction that is a direction perpendicular to the extending direction of the white line of the pedestrian crossing and the photographing direction of the image acquisition means. a correction angle calculation unit that calculates
instruction means for instructing the pedestrian to perform an action for reducing the correction angle calculated by the correction angle calculation unit;
A walking support system comprising:
前記歩行者は白杖を把持する視覚障碍者であって、前記画像取得手段は前記白杖に内蔵されており、
前記修正角度算出部は、
前記画像取得手段によって取得された画像における前記横断歩道の白線が、前記白杖が左右に振られることに起因して前記画像上で傾く場合の当該傾きを算出し、該傾きに基づいて前記画像を補正することにより前記白杖の振り角度が零であると仮定した場合の画像を作成するローリング補正部と、
前記ローリング補正部によって作成された前記画像に基づいて前記修正角度を算出するヨーイング角度算出部とを備えていることを特徴とする歩行支援システム。 In the walking support system according to claim 1,
The pedestrian is a visually impaired person holding a white cane, and the image acquisition means is built in the white cane,
The correction angle calculation unit
When the white line of the pedestrian crossing in the image acquired by the image acquisition means is tilted in the image due to the swinging of the white cane to the left and right, the tilt is calculated, and the image is obtained based on the tilt. a rolling correction unit that creates an image assuming that the swing angle of the white cane is zero by correcting the
and a yaw angle calculator that calculates the corrected angle based on the image created by the rolling corrector.
前記ヨーイング角度算出部は、前記ローリング補正部によって作成された前記画像における前記横断歩道の白線の水平方向に対する傾斜角度に基づいて前記修正角度を算出する構成となっていることを特徴とする歩行支援システム。 In the walking support system according to claim 2,
The walking support, wherein the yaw angle calculation unit is configured to calculate the correction angle based on an inclination angle of the white line of the pedestrian crossing with respect to the horizontal direction in the image created by the rolling correction unit. system.
前記ヨーイング角度算出部は、
前記ローリング補正部によって作成された画像に対し、予めアノテーションされたデータに基づく学習済みモデルを用いて前記横断歩道の白線の認識動作を行う第1認識部と、
前記ローリング補正部によって作成された画像に対するコンピュータビジョンによって前記横断歩道の白線の認識動作を行う第2認識部と、
前記第1認識部による認識動作の結果および前記第2認識部による認識動作の結果それぞれに基づいて、前記画像中における前記横断歩道の白線を特定する白線特定部とを備えており、
前記白線特定部によって特定された白線の前記画像上における水平方向に対する傾斜角度に基づいて前記修正角度を算出する構成となっていることを特徴とする歩行支援システム。 The walking support system according to claim 2 or 3,
The yaw angle calculator,
a first recognition unit that recognizes the white line of the pedestrian crossing using a trained model based on pre-annotated data for the image created by the rolling correction unit;
a second recognition unit that recognizes the white lines of the pedestrian crossing by computer vision of the image created by the rolling correction unit;
a white line identifying unit that identifies the white line of the pedestrian crossing in the image based on the result of the recognition operation by the first recognition unit and the result of the recognition operation by the second recognition unit,
A walking support system, wherein the correction angle is calculated based on an inclination angle of the white line specified by the white line specifying unit with respect to a horizontal direction on the image.
前記画像取得手段によって取得された画像に基づいて、前記横断歩道を検出する横断歩道検出部と、
横断歩道における白線のうち画像上において最も遠方に位置する白線の当該画像上での座標位置と前記修正角度との関係を特定した複数の画像データを記憶した記憶部とを備え、
前記修正角度算出部は、前記横断歩道検出部によって検出された前記横断歩道における白線のうち最も遠方に位置する白線の座標位置を求めると共に、前記記憶部に記憶されている各画像データにおける白線のうち前記横断歩道検出部によって検出された前記最も遠方に位置する白線の座標位置が一致する画像データを抽出し、この画像データに基づいて前記修正角度を算出する構成となっていることを特徴とする歩行支援システム。 In the walking support system according to claim 1,
a pedestrian crossing detection unit that detects the pedestrian crossing based on the image acquired by the image acquisition means;
a storage unit that stores a plurality of image data specifying the relationship between the coordinate position on the image of the white line positioned farthest on the image among the white lines on the pedestrian crossing and the correction angle,
The correction angle calculation unit obtains the coordinate position of the farthest white line among the white lines on the pedestrian crossing detected by the pedestrian crossing detection unit, and calculates the coordinate position of the white line in each image data stored in the storage unit. Image data matching the coordinate position of the furthest white line detected by the pedestrian crossing detection unit is extracted, and the correction angle is calculated based on this image data. walking support system.
前記指示手段は、前記歩行者である視覚障碍者が使用する白杖に内蔵されており、振動または音声によって、前記視覚障碍者に向けて前記修正角度を小さくするための動作を指示する構成となっていることを特徴とする歩行支援システム。 In the walking support system according to any one of claims 1 to 5,
The instruction means is built in a white cane used by the visually impaired person who is a pedestrian, and is configured to instruct the visually impaired person to perform an operation for reducing the correction angle by vibration or sound. A walking support system characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021185930A JP2023073100A (en) | 2021-11-15 | 2021-11-15 | Walking support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021185930A JP2023073100A (en) | 2021-11-15 | 2021-11-15 | Walking support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023073100A true JP2023073100A (en) | 2023-05-25 |
Family
ID=86425461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021185930A Pending JP2023073100A (en) | 2021-11-15 | 2021-11-15 | Walking support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023073100A (en) |
-
2021
- 2021-11-15 JP JP2021185930A patent/JP2023073100A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108860154B (en) | Driver monitoring device and driver monitoring method | |
RU2734643C1 (en) | Parking assistance method for parking assistance device and parking assistance device | |
US9563528B2 (en) | Mobile apparatus and localization method thereof | |
EP2472221B1 (en) | Flight Control System for Flying Object | |
KR20130049610A (en) | Mobile object and walking robot | |
WO2007148546A1 (en) | Positioning device | |
KR102336778B1 (en) | Vehicle Location Method of Skyline | |
TW201927610A (en) | Safety confirmation evaluating device, on-vehicle device, safety confirmation evaluation system having the two, safety confirmation evaluation method, and safety confirmation evaluation program | |
KR101878263B1 (en) | Walking Stick for Visually Impaired Person | |
JP2009251761A (en) | Driving support system | |
JP2023073100A (en) | Walking support system | |
CN114639230B (en) | Walking assistance system | |
JP2013186718A (en) | Mobile object position attitude estimation device and method | |
US11607362B2 (en) | Walking support system | |
KR101397933B1 (en) | Device for creating traveling information of unmanned ground vehicle, unmanned ground vehicle having the same and control method thereof | |
JP2022172511A (en) | Walk support system | |
US11908316B2 (en) | Walking information provision system | |
JP2022183703A (en) | Gait support device | |
JP6206668B2 (en) | Pedestrian detection device for vehicles | |
WO2019123622A1 (en) | Guiding device | |
JP4742695B2 (en) | Gaze recognition apparatus and gaze recognition method | |
JP2009278185A (en) | Image recognition apparatus | |
Jin et al. | A wearable robotic device for assistive navigation and object manipulation | |
US20230305562A1 (en) | Positioning system and mobile object equipped therewith | |
JP2023137303A (en) | Movement support device |