JP7029170B2 - Sidewalk progress support system and sidewalk progress support software - Google Patents

Sidewalk progress support system and sidewalk progress support software Download PDF

Info

Publication number
JP7029170B2
JP7029170B2 JP2018151756A JP2018151756A JP7029170B2 JP 7029170 B2 JP7029170 B2 JP 7029170B2 JP 2018151756 A JP2018151756 A JP 2018151756A JP 2018151756 A JP2018151756 A JP 2018151756A JP 7029170 B2 JP7029170 B2 JP 7029170B2
Authority
JP
Japan
Prior art keywords
information
unit
line segment
sidewalk
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018151756A
Other languages
Japanese (ja)
Other versions
JP2019046464A (en
Inventor
秀美 林
秀昶 有田
直人 尾崎
将平 ▲高▼田
Original Assignee
株式会社コンピュータサイエンス研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コンピュータサイエンス研究所 filed Critical 株式会社コンピュータサイエンス研究所
Publication of JP2019046464A publication Critical patent/JP2019046464A/en
Application granted granted Critical
Publication of JP7029170B2 publication Critical patent/JP7029170B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は歩道進行支援システム及び歩道進行支援ソフトウェアに関する。詳しくは、例えば、高齢者や目の不自由な人といった歩行弱者のための、歩道進行支援システム及び歩道進行支援ソフトウェアに係るものである。 The present invention relates to a sidewalk progress support system and sidewalk progress support software. More specifically, the present invention relates to a sidewalk progress support system and sidewalk progress support software for the vulnerable to walking such as the elderly and the visually impaired.

歩行弱者にとって、外出して道を歩き、目的地へ向かうということは、その道がどんなに単純な道であったとしても、とても難しい。 It is very difficult for a vulnerable person to go out, walk on the road, and reach the destination, no matter how simple the road is.

こうした歩行弱者特に目の不自由な人の歩行を支援すべく、点字ブロック、誘導鈴、点字サイン、白杖が存在し、また、盲導犬の使用や歩行訓練士による歩行訓練も行われている。 Braille blocks, guide bells, Braille signs, and white canes exist to support the walking of these vulnerable people, especially those who are visually impaired, and guide dogs are used and walking training is also conducted by walking trainers.

また、歩行弱者の歩行を支援するための様々な技術も提案されている。
例えば、特許文献1には、インターネットに接続された、監視装置と誘導装置とを備える個人ナビゲーションシステムが記載されている。
In addition, various techniques for supporting the walking of the vulnerable person have been proposed.
For example, Patent Document 1 describes a personal navigation system connected to the Internet and including a monitoring device and a guidance device.

監視装置は、携帯電話機の使用者がどのような経路を経て移動するかを、インターネットを通じて監視する。
また、誘導装置は、内部に各種のデータベースを備えており、携帯電話機の使用者に対して目的地まで誘導するデータを検索し、これを監視装置に提供する。
The monitoring device monitors the route through which the user of the mobile phone travels through the Internet.
In addition, the guidance device has various databases inside, searches for data that guides the user of the mobile phone to the destination, and provides the data to the monitoring device.

また、誘導装置が備えるデータベースのうち、地図情報データベースには、デジタル地図情報と、各地域に存在する歩道と車道の段差、歩道上に存在する電信柱、花壇などの障害物の一覧とこれらの位置とに関するデータが格納されている。 In addition, among the databases provided by the guidance device, the map information database contains digital map information, a list of obstacles such as sidewalks and road steps in each area, telegraph pillars on the sidewalks, and flower beds. Contains data about the location.

また、携帯電話機の使用者は、音声で指示を受けながら正規のルートに沿って進行し、これによってそのときどきの位置情報が携帯電話機から監視装置へ送られる。
また、監視装置は、携帯電話機の位置情報をチェックし、例えば前方数メートルの範囲内でポストなどの障害物が存在する場合には、進行方向を一時的に変更して障害物に対する回避処理を実行する。
In addition, the user of the mobile phone proceeds along the regular route while receiving voice instructions, whereby the position information at that time is sent from the mobile phone to the monitoring device.
In addition, the monitoring device checks the position information of the mobile phone, and if there is an obstacle such as a post within a range of several meters ahead, the direction of travel is temporarily changed to avoid the obstacle. Execute.

特開2004‐117094号公報Japanese Unexamined Patent Publication No. 2004-110794

しかしながら、特許文献1に記載のシステムでは、電信柱や縁石など予め設置された静止物体については回避できるものの、通行人や自転車を運転中の人といった可動物体を回避し難いという問題が挙げられる。 However, in the system described in Patent Document 1, although it is possible to avoid a stationary object such as a telephone pole or a curb installed in advance, there is a problem that it is difficult to avoid a moving object such as a passerby or a person driving a bicycle.

また、静止物体についても、例えば歩行者が歩行する当日に歩道に突然設置されたコーンなどの工事関連設置物については、すぐにはデータベースに反映され難いため、特許文献1に記載のシステムでは、このような静止物体を回避し難いという問題も挙げられる。
従って、歩行弱者の歩行を支援できる、さらなるシステムが求められていた。
Further, regarding stationary objects, for example, construction-related installations such as cones suddenly installed on the sidewalk on the day when a pedestrian walks are not immediately reflected in the database. Therefore, in the system described in Patent Document 1, Another problem is that it is difficult to avoid such stationary objects.
Therefore, there is a need for a further system that can support the walking of the vulnerable.

本発明は、以上の点に鑑みて創案されたものであり、歩行弱者の歩道における進行を支援できる、歩道進行支援システム及び歩道進行支援ソフトウェアを提供することを目的とする。 The present invention has been devised in view of the above points, and an object of the present invention is to provide a sidewalk progress support system and sidewalk progress support software capable of supporting the progress of a vulnerable person on a sidewalk.

上記の目的を達成するために、本発明の歩道進行支援システムは、歩行者の少なくとも前方を撮像可能な撮像部と、該撮像部が撮像して得られた撮像画像の中で、動く物体である可動物体及び静止した物体である静止物体を検出可能な物体検出部と、前記撮像画像の中で、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分とを検出可能な線分検出部と、前記撮像画像の中で、前記線分検出部が検出した、前記第1の線分と前記第2の線分との間の領域を歩道として決定可能な歩道決定部と、前記撮像部が装着された歩行者の位置情報である現在位置情報を検出可能な現在位置情報検出部と、前記撮像部の撮像方向を検出可能な方向検出部と、前記撮像部から同撮像部に撮像された物体までの距離を前記撮像画像に基づいて測定可能な距離測定部と、地図に関する情報である地図情報を記録可能な地図情報記録部と、前記物体検出部が検出した静止物体または可動物体の位置を、前記方向検出部が検出した撮像方向と、前記距離測定部が測定した前記撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、前記現在位置情報検出部が検出した現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、前記物体検出部が検出した可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、前記歩道決定部が歩道を決定したときの同歩道を挟む、前記第1の線分及び前記第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、該目的地情報決定部が決定した前記目的地情報と、前記現在位置情報検出部が検出した前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部とを備える。 In order to achieve the above object, the sidewalk progress support system of the present invention uses an imaging unit capable of capturing at least the front of a pedestrian and a moving object in the captured image obtained by the imaging unit. An object detection unit capable of detecting a certain movable object and a stationary object, and a first line segment extending from the lower part of the captured image toward a substantially central region of the captured image in the captured image. The distance from the lower part of the captured image toward the substantially central region of the captured image and the distance from the lower portion of the captured image to the substantially central region of the captured image became shorter. A line segment detection unit capable of detecting a second line segment, and a region between the first line segment and the second line segment detected by the line segment detection unit in the captured image. A sidewalk determination unit that can determine a sidewalk, a current position information detection unit that can detect the current position information that is the position information of a pedestrian equipped with the image pickup unit, and a direction that can detect the image pickup direction of the image pickup unit. A detection unit, a distance measurement unit that can measure the distance from the image pickup unit to an object imaged by the image pickup unit based on the captured image, and a map information recording unit that can record map information that is information about a map. The position of the stationary object or the movable object detected by the object detection unit is between the imaging direction detected by the direction detecting unit and the imaging unit and the stationary object or the movable object measured by the distance measuring unit. Based on the distance, it can be calculated as a coordinate value of the dynamic coordinate system with the position of the pedestrian wearing the image pickup unit as the origin, and the current position information detected by the current position information detection unit is used as the origin. , The calculated same coordinate value is converted into the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit, and the map coordinates of the same stationary object or the same movable object can be created. The creation unit, the detected object information recording unit capable of recording the movable object information which is information about the movable object and the stationary object information which is the information about the stationary object, the movable object or the stationary object detected by the object detection unit, and the detection. The object identification unit capable of identifying the movable object and the stationary object by collating the movable object information and the stationary object information recorded by the object information recording unit, and the same when the sidewalk determination unit determines the sidewalk. The latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to each of the first line segment and the second line segment sandwiching the sidewalk, and the first line segment and the same first line segment. The map created by the object map coordinate creation unit corresponding to a stationary object or a movable object located between the two line segments. Based on the latitude and longitude position information of the coordinates, the progressable area position information detection unit that can detect the position information of the travelable area in the same sidewalk, the voice, and the map information recorded by the map information recording unit. Based on this, the destination information determination unit that can determine the destination information that is information about the destination, the destination information determined by the destination information determination unit, and the current position detected by the current location information detection unit. A route information determination unit that can determine route information that is information about a route between a destination and a current position based on information, the route information determined by the route information determination unit, and the progressable area position. Based on the travelable area position information detected by the information detection unit, the progress that can determine the travelable route information that is the route between the destination and the current position and is the information about the route that the pedestrian can travel. It is equipped with a possible route information determination unit.

ここで、物体検出部が検出した可動物体または静止物体と、検出物体情報記録部が記録した可動物体情報及び静止物体情報とを照合して、可動物体及び静止物体を特定可能な物体特定部によって、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体を特定できる。 Here, the movable object or the stationary object detected by the object detection unit is collated with the movable object information and the stationary object information recorded by the detected object information recording unit, and the movable object and the stationary object can be identified by the object identification unit. , Can identify objects that actually exist at least in front of the vulnerable walking on the sidewalk.

また、物体検出部が検出した静止物体または可動物体の位置を、方向検出部が検出した撮像方向と、距離測定部が測定した撮像部と静止物体または可動物体との間の距離とに基づいて、撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、現在位置情報検出部が検出した現在位置情報を原点として、算出された座標値を、地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、静止物体または可動物体の地図座標を作成可能な物体地図座標作成部によって、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体の、地図座標における位置を把握することができる。 Further, the position of the stationary object or the movable object detected by the object detection unit is based on the image pickup direction detected by the direction detection unit and the distance between the image pickup unit measured by the distance measurement unit and the stationary object or the movable object. , It is possible to calculate as the coordinate value of the dynamic coordinate system with the position of the pedestrian with the image pickup unit as the origin, and the calculated coordinate value with the current position information detected by the current position information detection unit as the origin. , An object that can create map coordinates of a stationary object or a movable object by converting it to the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit. At least, it is possible to grasp the position of an object that actually exists in front of it in map coordinates.

さらに、経路情報決定部が決定した経路情報と、進行可能領域位置情報検出部が検出した進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部によって、地図情報には含まれない実際に歩行する際の歩道における状況が考慮された、歩道の進行可能経路を決定できる。 Further, based on the route information determined by the route information determination unit and the travelable area position information detected by the travelable area position information detection unit, the pedestrian advances along the route between the destination and the current position. The travelable route information determination unit, which can determine the travelable route information that is information about the possible route, considers the situation on the sidewalk when actually walking, which is not included in the map information, and determines the travelable route of the sidewalk. I can decide.

また、本発明の歩道進行支援システムは、物体特定部が可動物体を特定した場合に可動物体が存在することを告知可能であり、かつ、進行可能経路情報決定部が決定した進行可能経路情報を告知可能な告知部を備える構成とすることができる。 Further, the sidewalk progress support system of the present invention can notify that a movable object exists when the object identification unit identifies a movable object, and can provide the progressable route information determined by the progressable route information determination unit. It can be configured to include a notification unit capable of notification.

この場合、歩行弱者は、実際に歩行する際の歩道における状況に対応した、進行できる経路情報を知ることができる。 In this case, the weak walking person can know the route information that can be advanced corresponding to the situation on the sidewalk when actually walking.

さらに、本発明の歩道進行支援システムは、方向検出部が検出した撮像部の撮像方向が向けられた物体と撮像部との間の、距離測定部が測定した距離が所定の値以下であり、かつ、物体検出部が検出した物体が鉛直方向に所定の長さ以上延びる線分である鉛直線分を有する場合に、告知部に警告を告知させる制御もしくは距離測定部が測定した物体と撮像部との間の距離が所定の値より大きくなる方向へ誘導する内容を告知させる制御が可能な制御部を備える構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the distance measured by the distance measuring unit between the object to which the imaging direction of the imaging unit is directed and the imaging unit detected by the direction detecting unit is not more than a predetermined value. In addition, when the object detected by the object detection unit has a vertical line segment that is a line segment extending in the vertical direction by a predetermined length or more, the control to notify the notification unit or the object measured by the distance measurement unit and the image pickup unit. It is possible to have a configuration including a control unit capable of controlling to notify the content of guiding in the direction in which the distance between the object and the object is larger than a predetermined value.

この場合、歩行弱者は、物体との衝突を避け易くなる。 In this case, a weak walking person can easily avoid a collision with an object.

また、本発明の歩道進行支援システムにおいて、線分検出部は、さらに、撮像画像の中で、第1の線分及び第2の線分それぞれと交差する、第1の交差線分及び第2の交差線分を検出可能であり、距離測定部は、さらに撮像画像に基づいて線分と線分の間の距離を測定可能であり、制御部は、距離測定部が測定した第1の交差線分と第2の交差線分の間の距離が所定の値より大きい場合に、撮像部の撮像方向が左方向へ向くことである左方向転換へ誘導する内容及び撮像部の撮像方向が右方向へ向くことである右方向転換へ誘導する内容を告知部に告知させる制御が可能である構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the line segment detection unit further intersects the first line segment and the second line segment in the captured image, that is, the first crossing line segment and the second line segment. The intersection of the line segments can be detected, the distance measuring unit can further measure the distance between the line segments based on the captured image, and the control unit can measure the first intersection measured by the distance measuring unit. When the distance between the line segment and the second crossing line segment is larger than a predetermined value, the image pickup direction of the image pickup unit turns to the left. It is possible to control the notification unit to notify the content of guiding to the right direction change, which is to turn to the direction.

この場合、第1の交差線分と第2の交差線分との間の領域すなわち歩道と交差する領域は車道であることが多いので、車道を横切る際に歩行弱者に車道の状況を撮像させることができる。 In this case, since the area between the first intersection line segment and the second intersection line segment, that is, the area intersecting the sidewalk is often a roadway, a weak walking person is made to image the condition of the roadway when crossing the roadway. be able to.

また、本発明の歩道進行支援システムは、物体特定部が特定した結果、静止物体が点字ブロックであると特定された場合に、点字ブロックに対応する、物体地図座標作成部が作成した地図座標の緯度経度位置情報と、現在位置情報検出部が検出した現在位置情報とを対比可能な位置情報対比部を備え、物体特定部は、物体特定部が特定した結果、静止物体が点字ブロックであると特定された場合に、さらに検出物体情報記録部が記録した静止物体情報に基づいて、複数の点字ブロックが互いに連結した構成である点字ブロック連結体の意味を特定可能であり、制御部は、位置情報対比部が対比した結果、点字ブロックの位置情報と現在位置情報が一致しない場合に、告知部に点字ブロックの位置への誘導を告知させる制御が可能である構成とすることができる。 Further, in the sidewalk progress support system of the present invention, when a stationary object is identified as a braille block as a result of identification by the object identification section, the map coordinates created by the object map coordinate creation section corresponding to the braille block are used. It has a position information comparison unit that can compare the latitude and longitude position information with the current position information detected by the current position information detection unit. When specified, the meaning of the braille block connector, which is a configuration in which a plurality of braille blocks are connected to each other, can be further identified based on the stationary object information recorded by the detected object information recording unit, and the control unit can specify the position. When the position information of the Braille block and the current position information do not match as a result of comparison by the information comparison unit, the configuration can be made so that the notification unit can be controlled to notify the guidance to the position of the Braille block.

この場合、歩行弱者が歩道上の点字ブロックから離れてしまっても、点字ブロックに近づくことができる。 In this case, even if the weak walking person moves away from the Braille block on the sidewalk, he / she can approach the Braille block.

また、本発明の歩道進行支援システムにおいて、距離測定部はレーザを照射可能であり、かつ、照射されたレーザの反射に基づいて撮像部から撮像部に撮像された物体までの距離をさらに測定可能であり、制御部は、斜め下方へ照射されたレーザの反射に基づいて連続して測定された距離が変化した場合に、告知部に段差が存在することを告知させる制御が可能である構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the distance measuring unit can irradiate a laser, and can further measure the distance from the imaging unit to the object imaged by the imaging unit based on the reflection of the irradiated laser. The control unit can be controlled to notify that there is a step in the notification unit when the continuously measured distance changes based on the reflection of the laser irradiated diagonally downward. can do.

また、本発明の歩道進行支援システムにおいて、距離測定部は、2眼や3眼などのステレオカメラを使用することができれば、近距離10~15m程度までの範囲で画像の両眼視差からおおよその距離を計算によって求めることができる。
ただし、レーザ距離計ほどの精度は得られず、段差判定も難しいが、歩行障害物までのおおよその距離を測定することは可能である。
Further, in the sidewalk progress support system of the present invention, if a stereo camera such as two eyes or three eyes can be used, the distance measuring unit is approximately from the binocular parallax of the image in the range of a short distance of about 10 to 15 m. The distance can be calculated.
However, the accuracy is not as high as that of a laser range finder, and it is difficult to determine a step, but it is possible to measure the approximate distance to a gait obstacle.

この場合、歩行弱者は、段差を避けたり、段差に適切に対応したりすることができる。 In this case, the weak walking person can avoid the step and appropriately cope with the step.

また、本発明の歩道進行支援システムは、物体地図座標作成部が作成した静止物体の地図座標と、物体特定部が静止物体を特定した特定結果と、地図情報記録部が記録した地図情報とに基づいて、特定された物体の地図上における配置に関する情報である物体配置情報を作成可能な物体配置情報作成部と、物体配置情報作成部が作成した物体配置情報を記録可能な物体配置情報記録部とを備える構成とすることができる。 Further, the sidewalk progress support system of the present invention is based on the map coordinates of a stationary object created by the object map coordinate creation unit, the specific result of the object identification unit identifying the stationary object, and the map information recorded by the map information recording unit. Based on this, an object placement information creation unit that can create object placement information that is information about the placement of the specified object on the map, and an object placement information recording unit that can record the object placement information created by the object placement information creation unit. It can be configured to include.

この場合、どの場所の歩道に、実際にどのような物体が配置されているかを記録して、検索できるようにすることができる。 In this case, it is possible to record what kind of object is actually placed on the sidewalk in which place so that it can be searched.

また、本発明の歩道進行支援システムは、音声と、目的地情報決定部が決定した目的地情報と、地図情報記録部が記録した地図情報のうち目的地情報に関連する情報である目的地関連地図情報とに基づいて、目的地情報よりも局所的な情報である局所目的地情報を決定可能な局所目的地情報決定部を備え、経路情報決定部は、目的地情報決定部が決定した目的地情報の代わりに局所目的地情報決定部が決定した局所目的地情報と、現在位置情報検出部が検出した現在位置情報とに基づいて経路情報を決定可能である構成とすることができる。 Further, the sidewalk progress support system of the present invention is related to the destination, which is information related to the destination information among the voice, the destination information determined by the destination information determination unit, and the map information recorded by the map information recording unit. A local destination information determination unit capable of determining local destination information, which is more local information than the destination information, is provided based on the map information, and the route information determination unit is the purpose determined by the destination information determination unit. Instead of the location information, the route information can be determined based on the local destination information determined by the local destination information determination unit and the current position information detected by the current position information detection unit.

この場合、さらに詳細に目的地を決めて、歩行者の希望に沿うことができる。 In this case, the destination can be determined in more detail to meet the wishes of the pedestrian.

また、本発明の歩道進行支援システムは、進行可能経路情報決定部が決定した進行可能経路情報と、進行可能経路情報の進行可能経路を歩行者が進行したときに現在位置情報検出部が検出した現在位置情報と、現在位置情報が検出されたときの撮像画像とを関連付けて記録可能な進行履歴記録部を備える構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the current position information detection unit detects the travelable route information determined by the travelable route information determination unit and the travelable route of the travelable route information when the pedestrian advances. The configuration may include a progress history recording unit that can record the current position information in association with the captured image when the current position information is detected.

この場合、目的地までの歩行弱者の実際の歩行を記録しておき、同じ歩行者あるいは別の歩行者が同様の経路を歩行する際の参考にすることができる。 In this case, the actual walking of a weak walking person to the destination can be recorded and used as a reference when the same pedestrian or another pedestrian walks on the same route.

また、本発明の歩道進行支援システムは、音声に基づいて、前記地図情報記録部が記録した地図情報と物体配置情報記録部が記録した物体配置情報を検索可能な検索部を備え、告知部は、検索部の検索結果を告知可能である構成とすることができる。 Further, the sidewalk progress support system of the present invention includes a search unit capable of searching the map information recorded by the map information recording unit and the object arrangement information recorded by the object arrangement information recording unit based on the voice, and the notification unit is provided. , The search result of the search unit can be announced.

この場合、歩行弱者は、現在自分が位置する場所の周辺情報について、地図情報に含まれる情報のみならず、実際にどのような物体が配置されているかを検索して知ることができる。 In this case, the vulnerable person can search and know not only the information included in the map information but also what kind of object is actually arranged in the surrounding information of the place where he / she is currently located.

また、本発明の歩道進行支援システムは、物体検出部が検出した可動物体及び静止物体それぞれの画像を撮像画像から切出可能な画像切出部と、画像切出部が切出した、可動物体の切出画像及び静止物体の切出画像と、可動物体及び静止物体を物体特定部が特定した特定結果とを関連付けて得られた情報である教師情報を記録可能な教師情報記録部とを備える構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the image cutout portion capable of cutting out the images of the movable object and the stationary object detected by the object detection unit from the captured image, and the movable object cut out by the image cutout portion. A configuration including a teacher information recording unit capable of recording teacher information, which is information obtained by associating a cut-out image of a cut-out image and a stationary object with a specific result specified by an object specifying unit for a movable object and a stationary object. Can be.

この場合、物体を特定する際に利用する人工知能の精度を向上させるためのディープラーニングを行うことができる。 In this case, deep learning can be performed to improve the accuracy of the artificial intelligence used when identifying the object.

また、本発明の歩道進行支援システムにおいて、告知部は、告知内容を音声で告知可能な音声告知部及び、長手方向を有し、かつ、長手方向の一方側と、この一方側とは反対側に位置する他方側とを着脱可能に連結可能な本体と、該本体の一方の面に同本体の長手方向と同じ方向に並べて取付けられており、かつ、告知する場合に告知内容に応じて一部または全部を振動可能な複数の振動体とを有する振動告知部の中の少なくとも1つである構成とすることができる。 Further, in the sidewalk progress support system of the present invention, the notification unit has a voice notification unit capable of announcing the content of the notification by voice and a longitudinal direction, and one side in the longitudinal direction and the opposite side to the other side. A main body that can be detachably connected to the other side located in is attached to one surface of the main body side by side in the same direction as the longitudinal direction of the main body, and when notifying, one according to the content of the notification. The unit or the whole can be configured to be at least one of the vibration notification units having a plurality of vibrating bodies capable of vibrating.

この場合、振動告知部については、本体の一方側と本体の他方側とを連結して本体を環状と成して歩行者の身体に本体を取付けることができ、また、音声告知部の告知に比べて早く告知することができる。
また、「長手方向の一方側」や「長手方向の他方側」にはそれぞれ、端部から所定の範囲が含まれるものとする。
また、音声告知部については、振動告知部の告知に比べて告知内容を詳しく告知することができる。
In this case, regarding the vibration notification unit, one side of the main body and the other side of the main body can be connected to form an annular body, and the main body can be attached to the pedestrian's body. It can be announced earlier than that.
Further, "one side in the longitudinal direction" and "the other side in the longitudinal direction" shall each include a predetermined range from the end portion.
Further, the voice notification unit can announce the content of the notification in more detail than the notification of the vibration notification unit.

また、上記の目的を達成するために、本発明の歩道進行支援ソフトウェアは、歩道上の歩行者の進行を支援するための歩道進行支援ソフトウェアであって、情報処理機器を、地図に関する情報である地図情報を記録可能な地図情報記録部と、歩行者の少なくとも前方を撮像可能な撮像部が撮像して得られた撮像画像の中で検出された、動く物体である可動物体及び静止した物体である静止物体の位置を、同撮像部の撮像方向と、同撮像画像に基づいて測定された同撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、検出された、同撮像部が装着された歩行者の位置情報である現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、前記撮像画像の中で検出された可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、前記撮像画像の中で検出された、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分との間の領域が歩道として決定されたときの同歩道を挟む、同第1の線分及び同第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、該目的地情報決定部が決定した前記目的地情報と、検出された前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部と、を含む手段として機能させるためのソフトウェアである。 Further, in order to achieve the above object, the sidewalk progress support software of the present invention is a sideway progress support software for supporting the progress of pedestrians on the sidewalk, and is information on an information processing device and a map. A moving object that is a moving object and a stationary object that are detected in the captured image obtained by imaging the map information recording unit that can record map information and the imaging unit that can image at least the front of the pedestrian. The image pickup unit attaches the position of a stationary object based on the imaging direction of the image pickup unit and the distance between the image pickup unit and the stationary object or the movable object measured based on the image pickup image. It can be calculated as the coordinate value of the dynamic coordinate system with the position of the pedestrian as the origin, and the current position information, which is the detected position information of the pedestrian with the imaging unit attached, is used as the origin. An object map coordinate creation unit that can create map coordinates for the same stationary object or the same movable object by converting the same coordinate values to the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit. A detection object information recording unit capable of recording movable object information which is information about a movable object and stationary object information which is information about a stationary object, a movable object or a stationary object detected in the captured image, and the detection. By collating the movable object information and the stationary object information recorded by the object information recording unit, the movable object and the stationary object can be identified, and the image pickup detected in the captured image. A first line segment extending from the lower part of the image toward the substantially central region of the captured image, and extending from the lower part of the captured image toward the substantially central region of the captured image and extending from the lower part of the captured image to the substantially central region of the captured image. The first line segment sandwiching the same walkway when the area between the second line segment and the second line segment whose distance to the first line segment became shorter as it approached the substantially central region was determined as the sidewalk. And, it is located between the latitude and longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to each of the second line segment and the first line segment and the second line segment. Progressable area position information that can detect the position information of the progressable area in the same sidewalk based on the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to the stationary object or the movable object. Based on the detection unit, the voice, and the map information recorded by the map information recording unit, the destination information determination unit capable of determining the destination information, which is information about the destination, and the destination information determination unit Based on the determined destination information and the detected current position information, the destination and the present A route information determination unit that can determine route information that is information about a route to and from a position, the route information determined by the route information determination unit, and the travelable area detected by the travelable area position information detection unit. A means including a travelable route information determination unit capable of determining travelable route information which is a route between a destination and a current position and is information on a route that a pedestrian can travel based on the position information. It is software to function as.

さらに、上記の目的を達成するために、本発明の歩道進行支援ソフトウェアは、歩道上の歩行者の進行を支援するための歩道進行支援ソフトウェアであって、情報処理機器を、歩行者の少なくとも前方を撮像可能な撮像部が撮像して得られた撮像画像の中で、動く物体である可動物体及び静止した物体である静止物体を検出可能な物体検出部と、前記撮像画像の中で、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分とを検出可能な線分検出部と、前記撮像画像の中で、前記線分検出部が検出した、前記第1の線分と前記第2の線分との間の領域を歩道として決定可能な歩道決定部と、地図に関する情報である地図情報を記録可能な地図情報記録部と、前記物体検出部が検出した静止物体または可動物体の位置を、前記撮像部の撮像方向と、同撮像画像に基づいて測定された同撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、検出された、同撮像部が装着された歩行者の位置情報である現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、前記物体検出部が検出した可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、前記歩道決定部が歩道を決定したときの同歩道を挟む、前記第1の線分及び前記第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、該目的地情報決定部が決定した前記目的地情報と、検出された前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部と、を含む手段として機能させるためのソフトウェアである。 Further, in order to achieve the above object, the sidewalk progress support software of the present invention is a sidewalk progress support software for supporting the progress of a pedestrian on a sidewalk, and an information processing device is used at least in front of the pedestrian. In the captured image obtained by the image pickup unit capable of capturing the image, the object detection unit capable of detecting a moving object which is a moving object and a stationary object which is a stationary object, and the same in the captured image. A first line segment extending from the lower part of the captured image toward the substantially central region of the captured image, and extending from the lower part of the captured image toward the substantially central region of the captured image and extending from the lower part of the captured image to the captured image. A line segment detection unit capable of detecting a second line segment whose distance from the first line segment becomes shorter as it approaches the substantially central region of the above, and the line segment detection unit in the captured image. A sidewalk determination unit that can determine an area between the first line segment and the second line segment as a sidewalk, and a map information recording unit that can record map information that is information about a map. The position of the stationary object or the movable object detected by the object detection unit is determined by the imaging direction of the imaging unit and the distance between the imaging unit and the stationary object or the movable object measured based on the captured image. Based on the above, it is possible to calculate as a coordinate value of the dynamic coordinate system with the position of the pedestrian equipped with the image pickup unit as the origin, and with the detected position information of the pedestrian equipped with the image pickup unit. The same coordinate value calculated with a certain current position information as the origin is converted into the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit, and the map coordinates of the stationary object or the movable object are converted. An object map coordinate creation unit capable of creating a Alternatively, the stationary object is collated with the moving object information and the stationary object information recorded by the detected object information recording unit, and the moving object and the stationary object can be identified by the object specifying unit and the sidewalk determination unit. The latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to each of the first line segment and the second line segment sandwiching the same walkway when the sidewalk is determined, and the same first. The same sidewalk based on the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to a stationary object or a movable object located between the first line segment and the second line segment. The progressable area position information detection unit that can detect the position information of the progressable area in the inside, the voice, and the map information description. Based on the map information recorded by the recording unit, the destination information determination unit capable of determining the destination information, which is information about the destination, and the destination information determined by the destination information determination unit are detected. A route information determination unit capable of determining route information which is information on a route between a destination and a current position based on the current position information, the route information determined by the route information determination unit, and the above-mentioned route information. Based on the progressable area position information detected by the progressable area position information detection unit, the progressable route information which is the route between the destination and the current position and which is the information about the route where the pedestrian can proceed is obtained. It is software for functioning as a means including a determinable progressable route information determination unit.

ここで、物体特定部によって、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体を特定できる。
また、物体地図座標作成部によって、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体の、地図座標における位置を把握することができる。
また、進行可能経路情報決定部によって、地図情報には含まれない実際に歩行する際の歩道における状況が考慮された、歩道の進行可能経路を決定できる。
Here, the object identification unit can identify an object that actually exists at least in front of a weak walking person walking on the sidewalk.
In addition, the object map coordinate creation unit can grasp the position of the object actually existing at least in front of the weak walking person walking on the sidewalk in the map coordinates.
In addition, the progressable route information determination unit can determine the progressable route of the sidewalk in consideration of the situation on the sidewalk when actually walking, which is not included in the map information.

本発明に係る歩道進行支援システムは、歩行弱者の歩道における進行を支援できる。
本発明に係る歩道進行支援ソフトウェアは、歩行弱者の歩道における進行を支援できる。
The sidewalk progress support system according to the present invention can support the progress of a weak walking person on the sidewalk.
The sidewalk progress support software according to the present invention can support the progress of a weak walking person on the sidewalk.

本発明を適用した歩道進行支援システムの構成の一例を示す概略図である。It is a schematic diagram which shows an example of the structure of the sidewalk progress support system to which this invention is applied. 本発明を適用した歩道進行支援システムにおける撮像画像の第1の例を示す概略図(a)、及び概略図(a)に示す撮像画像の拡張現実画像の一例を示す概略図(b)である。It is a schematic diagram (a) which shows the 1st example of the captured image in the sidewalk progress support system to which this invention is applied, and the schematic diagram (b) which shows an example of the augmented reality image of the captured image shown in the schematic diagram (a). .. 本発明を適用した歩道進行支援システムにおける、動座標系と地図座標系の一例を示す概略図である。It is a schematic diagram which shows an example of the dynamic coordinate system and the map coordinate system in the sidewalk progress support system to which this invention is applied. 本発明を適用した歩道進行支援システムにおける撮像画像の第2の例を示す概略図(a)、及び概略図(a)に示す撮像画像の拡張現実画像の一例を示す概略図(b)である。It is a schematic diagram (a) which shows the 2nd example of the captured image in the sidewalk progress support system to which this invention is applied, and the schematic diagram (b) which shows an example of the augmented reality image of the captured image shown in the schematic diagram (a). .. 本発明を適用した歩道進行支援システムにおける第3の例の撮像画像の拡張現実画像の一例を示す概略図である。It is a schematic diagram which shows an example of the augmented reality image of the captured image of the 3rd example in the sidewalk progress support system to which this invention is applied. 本発明を適用した歩道進行支援システムにおける第4の例の撮像画像の拡張現実画像の一例を示す概略図である。It is a schematic diagram which shows an example of the augmented reality image of the captured image of the 4th example in the sidewalk progress support system to which this invention is applied. 本発明を適用した歩道進行支援システムで使用されるメガネ装置を用いて段差を検知する様子の一例を示す概略図である。It is a schematic diagram which shows an example of the state of detecting a step by using the eyeglass device used in the sidewalk progress support system to which this invention is applied. 本発明を適用した歩道進行支援システムにおいて白杖の代わりに盲導犬ロボットを用いた例を示す概略図である。It is a schematic diagram which shows the example which used the guide dog robot instead of the white cane in the sidewalk progress support system to which this invention was applied. 本発明の歩道進行支援システムが備えるベルト装置の一例を示す概略図(a)及び歩行者がベルト装置を装着した様子の一例を示す概略図(b)である。It is a schematic diagram (a) which shows an example of the belt device provided in the sidewalk progress support system of this invention, and is the schematic diagram (b) which shows an example of a pedestrian wearing a belt device.

以下、本発明の実施の形態について図面を参照しながら説明し、本発明の理解に供する。
図1は、本発明を適用した歩道進行支援システムの構成の一例を示す概略図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings for the purpose of understanding the present invention.
FIG. 1 is a schematic view showing an example of a configuration of a sidewalk progress support system to which the present invention is applied.

図1に示す本発明の歩道進行支援システム1は、一般的なメガネの形状を有するメガネ装置2と、メガネ装置2とインターネット30を介して通信可能なサーバ3とを備える。
また、メガネ装置2は、例えば目の不自由な歩行者に装着されている。
The sidewalk progress support system 1 of the present invention shown in FIG. 1 includes a glasses device 2 having a general shape of glasses, and a server 3 capable of communicating with the glasses device 2 via the Internet 30.
Further, the eyeglass device 2 is attached to, for example, a visually impaired pedestrian.

また、メガネ装置2は、歩行者の少なくとも前方を撮像可能な撮像カメラ4を有する。
ここで、撮像カメラは撮像部の一例である。
Further, the eyeglass device 2 has an image pickup camera 4 capable of capturing at least the front of a pedestrian.
Here, the image pickup camera is an example of the image pickup unit.

また、メガネ装置2は、撮像カメラ4が撮像して得られた撮像画像を、インターネット30を介してサーバ3へ送信可能な撮像画像送信部4Aを有する。 Further, the eyeglass device 2 has an image pickup image transmission unit 4A capable of transmitting an image captured by the image pickup camera 4 to the server 3 via the Internet 30.

一方、サーバ3は、送信された撮像画像を受信可能な撮像画像受信部4Bを有する。 On the other hand, the server 3 has a captured image receiving unit 4B capable of receiving the transmitted captured image.

また、メガネ装置2は、物体検出部5を有する。
ここで、物体検出部5は、撮像カメラ4が撮像して得られた撮像画像の中で、動く物体である可動物体及び静止した物体である静止物体を検出可能である。
可動物体としては具体的には例えば、通行人、自転車に乗った人、動物が挙げられる。
また、静止物体としては具体的には例えば、点字ブロック、電信柱、縁石、自動販売機、各種標識、郵便ポスト、生垣、花壇、駐車中の自動車、駐輪中の自転車、街路樹が挙げられる。
Further, the eyeglass device 2 has an object detection unit 5.
Here, the object detection unit 5 can detect a moving object which is a moving object and a stationary object which is a stationary object in the captured image obtained by the image pickup camera 4.
Specific examples of the movable object include a passerby, a person riding a bicycle, and an animal.
Specific examples of the stationary object include a braille block, a telephone pole, a curb, a vending machine, various signs, a mailbox, a raw wall, a flower bed, a parked car, a bicycle parked, and a roadside tree. ..

また、メガネ装置2は、物体検出部5が検出した静止物体及び可動物体に関する情報例えば物体の色彩や物体を囲む存在領域矩形を表示した拡張現実画像を、インターネット30を介してサーバ3へ送信可能な検出物体送信部5Aを有する。 Further, the glasses device 2 can transmit information about the stationary object and the moving object detected by the object detection unit 5, for example, an augmented reality image displaying the color of the object and the existing area rectangle surrounding the object to the server 3 via the Internet 30. It has a detection object transmission unit 5A.

一方、サーバ3は、送信された静止物体及び可動物体に関する情報を受信可能な検出物体受信部5Bを有する。 On the other hand, the server 3 has a detection object receiving unit 5B capable of receiving information about the transmitted stationary object and moving object.

また、メガネ装置2は、線分検出部6を有する。
ここで、線分検出部6は、撮像画像の中で、撮像画像の下部から撮像画像の略中央領域へ向けて延びる第1の線分と、撮像画像の下部から撮像画像の略中央領域へ向けて延びると共に撮像画像の下部から撮像画像の略中央領域に近づくにつれて第1の線分との間の距離が短くなった第2の線分とを検出可能である。
Further, the eyeglass device 2 has a line segment detection unit 6.
Here, the line segment detection unit 6 includes a first line segment extending from the lower part of the captured image toward the substantially central region of the captured image in the captured image, and the line segment detecting unit 6 from the lower portion of the captured image to the substantially central region of the captured image. It is possible to detect a second line segment whose distance from the first line segment becomes shorter as it extends toward and approaches a substantially central region of the captured image from the lower part of the captured image.

線分検出部6は、例えば、撮像画像の中の縁石や、歩道沿いの建物の線分など、静止物体に基づいて第1の線分と第2の線分を検出できる。 The line segment detection unit 6 can detect a first line segment and a second line segment based on a stationary object such as a curb in a captured image or a line segment of a building along a sidewalk.

また、線分検出部6は、さらに、撮像画像の中で、第1の線分及び第2の線分それぞれと交差する、第1の交差線分及び第2の交差線分を検出可能である。 Further, the line segment detection unit 6 can further detect the first crossing line segment and the second crossing line segment that intersect each of the first line segment and the second line segment in the captured image. be.

また、メガネ装置2は、歩道決定部7を有する。
ここで、歩道決定部7は、撮像画像の中で、線分検出部6が検出した、第1の線分と第2の線分との間の領域を歩道として決定可能である。
Further, the eyeglass device 2 has a sidewalk determination unit 7.
Here, the sidewalk determination unit 7 can determine the area between the first line segment and the second line segment detected by the line segment detection unit 6 as a sidewalk in the captured image.

また、メガネ装置2は、歩道決定部7が決定した歩道に関する情報例えば歩道を挟んだ第1の線分と第2の線分を表示した拡張現実画像を、インターネット30を介してサーバ3へ送信可能な決定歩道送信部7Aを有する。 Further, the glasses device 2 transmits information about the sidewalk determined by the sidewalk determination unit 7, for example, an augmented reality image displaying the first line segment and the second line segment sandwiching the sidewalk to the server 3 via the Internet 30. It has a possible decision sidewalk transmission unit 7A.

一方、サーバ3は、送信された歩道に関する情報を受信可能な決定歩道受信部7Bを有する。 On the other hand, the server 3 has a determination sidewalk receiving unit 7B capable of receiving information about the transmitted sidewalk.

また、メガネ装置2は、現在位置情報検出部8を有する。
ここで、現在位置情報検出部8は、撮像カメラ4が装着された、すなわち撮像カメラ4を有するメガネ装置2が装着された歩行者の位置情報である現在位置情報を検出可能である。
また、現在位置情報は、撮像カメラ4が撮像するごとに検出される緯度経度である。
Further, the eyeglass device 2 has a current position information detection unit 8.
Here, the current position information detection unit 8 can detect the current position information which is the position information of the pedestrian who is equipped with the image pickup camera 4, that is, the glasses device 2 having the image pickup camera 4.
Further, the current position information is the latitude and longitude detected each time the image pickup camera 4 takes an image.

また、メガネ装置2は、現在位置情報検出部8が検出した歩行者の現在位置情報を、インターネット30を介してサーバ3へ送信可能な現在位置情報送信部8Aを有する。 Further, the glasses device 2 has a current position information transmission unit 8A capable of transmitting the current position information of a pedestrian detected by the current position information detection unit 8 to the server 3 via the Internet 30.

一方、サーバ3は、送信された歩行者の現在位置情報を受信可能な現在位置情報受信部8Bを有する。 On the other hand, the server 3 has a current position information receiving unit 8B capable of receiving the transmitted current position information of the pedestrian.

また、メガネ装置2は、撮像カメラ2の撮像方向すなわち歩行者の正面方向を検出可能な方向検出部9を有する。
ここで、方向検出部は具体的には例えば、電子コンパスである。
Further, the eyeglass device 2 has a direction detection unit 9 capable of detecting the image pickup direction of the image pickup camera 2, that is, the front direction of the pedestrian.
Here, the direction detection unit is specifically, for example, an electronic compass.

また、メガネ装置2は、方向検出部9が検出した撮像方向に関する情報を、インターネット30を介してサーバ3へ送信可能な撮像方向送信部9Aを有する。 Further, the eyeglass device 2 has an image pickup direction transmission unit 9A capable of transmitting information regarding the image pickup direction detected by the direction detection unit 9 to the server 3 via the Internet 30.

一方、サーバ3は、送信された撮像方向に関する情報を受信可能な撮像方向受信部9Bを有する。 On the other hand, the server 3 has an image pickup direction receiving unit 9B capable of receiving the transmitted information regarding the image pickup direction.

また、メガネ装置2は、距離測定部10を有する。
ここで、距離測定部10は、撮像カメラから撮像カメラに撮像された物体までの距離を撮像画像に基づいて測定可能である。
Further, the eyeglass device 2 has a distance measuring unit 10.
Here, the distance measuring unit 10 can measure the distance from the image pickup camera to the object captured by the image pickup camera based on the image pickup image.

また、距離測定部10は、さらに撮像画像に基づいて線分と線分の間の距離を測定可能である。
また、距離測定部10はレーザを照射可能であり、かつ、照射されたレーザの反射に基づいて撮像カメラ4から撮像カメラ4に撮像された物体までの距離をさらに測定可能である。
Further, the distance measuring unit 10 can further measure the distance between the line segments based on the captured image.
Further, the distance measuring unit 10 can irradiate the laser, and can further measure the distance from the image pickup camera 4 to the object imaged by the image pickup camera 4 based on the reflection of the irradiated laser.

また、メガネ装置2は、距離測定部10が測定した距離に関する情報を、インターネット30を介してサーバ3へ送信可能な測定距離送信部10Aを有する。 Further, the eyeglass device 2 has a measurement distance transmission unit 10A capable of transmitting information regarding the distance measured by the distance measurement unit 10 to the server 3 via the Internet 30.

一方、サーバ3は、送信された距離に関する情報を受信可能な測定距離受信部10Bを有する。 On the other hand, the server 3 has a measurement distance receiving unit 10B capable of receiving information regarding the transmitted distance.

また、サーバ3は、地図に関する情報である地図情報を記録可能な地図情報データベース11を有する。
ここで、地図情報データベースは地図情報記録部の一例である。
Further, the server 3 has a map information database 11 capable of recording map information which is information related to a map.
Here, the map information database is an example of the map information recording unit.

また、サーバ3は、物体地図座標作成部12を有する。
ここで、物体地図座標作成部12は、物体検出部5が検出した静止物体または可動物体の位置を、方向検出部9が検出した撮像方向と、距離測定部10が測定した撮像カメラ4と静止物体または可動物体との間の距離とに基づいて、撮像カメラ4が装着された歩行者の位置を原点とする動座標系の座標値として算出可能である。
また、物体地図座標作成部12は、現在位置情報検出部8が検出した現在位置情報を原点として、算出された座標値を、地図情報データベース11が記録した地図情報に含まれる地図座標系の緯度経度に変換して、静止物体または可動物体の地図座標を作成可能である。
Further, the server 3 has an object map coordinate creating unit 12.
Here, the object map coordinate creation unit 12 is stationary with the image pickup direction detected by the direction detection unit 9 and the image pickup camera 4 measured by the distance measurement unit 10 for the position of the stationary object or the movable object detected by the object detection unit 5. It can be calculated as a coordinate value of a dynamic coordinate system having the position of a pedestrian on which the image pickup camera 4 is attached as an origin based on the distance between an object or a movable object.
Further, the object map coordinate creation unit 12 uses the current position information detected by the current position information detection unit 8 as the origin, and the calculated coordinate values are the latitude of the map coordinate system included in the map information recorded by the map information database 11. It can be converted to longitude to create map coordinates for stationary or moving objects.

また、サーバ3は、可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報データベース13を有する。
ここで、検出物体情報データベースは検出物体情報記録部の一例である。
Further, the server 3 has a detected object information database 13 capable of recording movable object information which is information about a movable object and stationary object information which is information about a stationary object.
Here, the detected object information database is an example of the detected object information recording unit.

また、検出物体情報データベース13は、具体的には例えば、撮像画像の中での各物体の存在領域矩形の数値情報例えば大きさや色彩情報を記録可能である。 Further, specifically, the detected object information database 13 can record numerical information, for example, size and color information of the existing area rectangle of each object in the captured image.

また、サーバ3は、物体特定部14を有する。
ここで、物体特定部14は、物体検出部5が検出した可動物体または静止物体と、検出物体情報データベース13が記録した可動物体情報及び静止物体情報とを照合して、可動物体及び静止物体を特定可能である。
Further, the server 3 has an object identification unit 14.
Here, the object identification unit 14 collates the movable object or the stationary object detected by the object detection unit 5 with the movable object information and the stationary object information recorded by the detected object information database 13, and obtains the movable object and the stationary object. It is identifiable.

また、サーバ3は、物体特定部14が特定した物体に関する情報を、インターネット30を介してメガネ装置2へ送信可能な特定物体送信部14Aを有する。 Further, the server 3 has a specific object transmission unit 14A capable of transmitting information about an object specified by the object identification unit 14 to the eyeglass device 2 via the Internet 30.

一方、メガネ装置2は、送信された物体に関する情報を受信可能な特定物体受信部14Bを有する。 On the other hand, the eyeglass device 2 has a specific object receiving unit 14B capable of receiving information about the transmitted object.

また、サーバ3は、進行可能領域位置情報検出部15を有する。
ここで、進行可能領域位置情報検出部15は、歩道決定部7が歩道を決定したときの歩道を挟む、第1の線分及び第2の線分それぞれに対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報と、第1の線分と第2の線分との間に位置する静止物体または可動物体に対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報とに基づいて、歩道内の進行可能領域の位置情報を検出可能である。
Further, the server 3 has a progressable area position information detection unit 15.
Here, the progressable area position information detection unit 15 is the object map coordinate creation unit 12 corresponding to each of the first line segment and the second line segment sandwiching the sidewalk when the sidewalk determination unit 7 determines the sidewalk. The latitude / longitude position information of the map coordinates created by the object map coordinates created by the object map coordinate creating unit 12 corresponding to the stationary object or the movable object located between the first line segment and the second line segment. It is possible to detect the position information of the travelable area in the sidewalk based on the latitude / longitude position information.

また、サーバ3は、音声と、地図情報データベース11が記録した地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部16を有する。
また、メガネ装置2は、サーバ3へ、インターネット30を介して音声を送信可能な音声送信部16Aを有し、サーバ3は、送信された音声を受信可能な音声受信部16Bを有する。
Further, the server 3 has a destination information determination unit 16 capable of determining destination information, which is information about the destination, based on the voice and the map information recorded by the map information database 11.
Further, the glasses device 2 has a voice transmission unit 16A capable of transmitting voice to the server 3 via the Internet 30, and the server 3 has a voice reception unit 16B capable of receiving the transmitted voice.

また、サーバ3は、音声受信部16Bが受信した音声のうち、質問音声の音声認識を行い、質問内容を解析可能な質問解析部29を有する。 Further, the server 3 has a question analysis unit 29 capable of performing voice recognition of the question voice and analyzing the question content among the voices received by the voice receiving unit 16B.

また、サーバ3は、質問解析部29が解析して得られた質問に対する回答である音声回答を、メガネ装置2へインターネット30を介して送信可能な音声回答部16Cを有する。
また、メガネ装置2は、送信された音声回答を受信可能な回答受信部16Dを有する。
Further, the server 3 has a voice answering unit 16C capable of transmitting a voice answer, which is an answer to the question obtained by the question analysis unit 29, to the eyeglass device 2 via the Internet 30.
Further, the glasses device 2 has a response receiving unit 16D capable of receiving the transmitted voice response.

また、サーバ3は、経路情報決定部17を有する。
ここで、経路情報決定部17は、目的地情報決定部16が決定した目的地情報と、現在位置情報検出部8が検出した現在位置情報とに基づいて、目的地と現在位置との間の歩道ネットワーク経路に関する情報である経路情報を決定可能である。
Further, the server 3 has a route information determination unit 17.
Here, the route information determination unit 17 between the destination and the current position based on the destination information determined by the destination information determination unit 16 and the current position information detected by the current position information detection unit 8. It is possible to determine route information, which is information about the sidewalk network route.

また、サーバ3は、進行可能経路情報決定部18を有する。
ここで、進行可能経路情報決定部18は、経路情報決定部17が決定した経路情報と、進行可能領域位置情報検出部15が検出した進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能である。
Further, the server 3 has a progressable route information determination unit 18.
Here, the progressable route information determination unit 18 has a destination and a current position based on the route information determined by the route information determination unit 17 and the progressable area position information detected by the progressable area position information detection unit 15. It is possible to determine the route information that is the route between the vehicle and the pedestrian, which is information about the route that the pedestrian can travel.

また、サーバ3は、進行可能経路情報決定部18が決定した進行可能経路情報を、インターネット30を介してメガネ装置2へ送信可能な進行可能経路情報送信部18Aを有する。 Further, the server 3 has a progressable route information transmission unit 18A capable of transmitting the progressable route information determined by the progressable route information determination unit 18 to the glasses device 2 via the Internet 30.

一方、メガネ装置2は、送信された進行可能経路情報を受信可能な進行可能経路情報受信部18Bを有する。 On the other hand, the spectacles device 2 has a progressable route information receiving unit 18B capable of receiving the transmitted progressable route information.

また、メガネ装置2は、告知部19を有する。
ここで、告知部19は、物体特定部14が可動物体を特定した場合に可動物体が存在することを告知可能であり、かつ、進行可能経路情報決定部18が決定した進行可能経路情報を告知可能である。
また、告知の方法は特に限定されず、例えば音声、振動が挙げられる。
Further, the eyeglass device 2 has a notification unit 19.
Here, the notification unit 19 can notify that the movable object exists when the object identification unit 14 identifies the movable object, and also announces the progressable route information determined by the progressable route information determination unit 18. It is possible.
Further, the method of notification is not particularly limited, and examples thereof include voice and vibration.

また、メガネ装置2は、制御部20を有する。
ここで、制御部20は、方向検出部9が検出した撮像カメラ4の撮像方向が向けられた物体と撮像カメラ4との間の、距離測定部10が測定した距離が所定の値以下例えば2m以下であり、かつ、物体検出部5が検出したその物体が鉛直方向に所定の長さ以上例えば1m以上延びる線分である鉛直線分を有する場合に、告知部19に警告を告知させる制御が可能である。
Further, the eyeglass device 2 has a control unit 20.
Here, in the control unit 20, the distance measured by the distance measuring unit 10 between the object to which the image pickup direction of the image pickup camera 4 is directed and the image pickup camera 4 detected by the direction detection unit 9 is equal to or less than a predetermined value, for example, 2 m. When the object detected by the object detection unit 5 has a vertical line segment extending in a predetermined length or more, for example, 1 m or more in the vertical direction, the control for causing the notification unit 19 to notify a warning is as follows. It is possible.

または、制御部20は、方向検出部9が検出した撮像カメラ4の撮像方向が向けられた物体と撮像カメラ4との間の、距離測定部10が測定した距離が所定の値以下例えば2m以下であり、かつ、物体検出部5が検出したその物体が鉛直方向に所定の長さ以上例えば1m以上延びる線分である鉛直線分を有する場合に、距離測定部10が測定したその物体と撮像カメラ4との間の距離が所定の値例えば2mより大きくなる方向へ誘導する内容を告知させる制御が可能である。 Alternatively, in the control unit 20, the distance measured by the distance measuring unit 10 between the object to which the image pickup direction of the image pickup camera 4 is directed and the image pickup camera 4 detected by the direction detection unit 9 is a predetermined value or less, for example, 2 m or less. And when the object detected by the object detection unit 5 has a vertical line segment extending in the vertical direction by a predetermined length or more, for example, 1 m or more, the distance measuring unit 10 measures the object and images the image. It is possible to control to notify the content of guiding in a direction in which the distance to the camera 4 is larger than a predetermined value, for example, 2 m.

また、制御部20は、距離測定部10が測定した第1の交差線分と第2の交差線分の間の距離が所定の値例えば約2.5mより大きい場合に、撮像カメラ4の撮像方向が左方向へ向くことである左方向転換へ誘導する内容及び撮像カメラ4の撮像方向が右方向へ向くことである右方向転換へ誘導する内容を告知部に告知させる制御が可能である。 Further, the control unit 20 takes an image of the image pickup camera 4 when the distance between the first crossing line segment and the second crossing line segment measured by the distance measuring unit 10 is larger than a predetermined value, for example, about 2.5 m. It is possible to control the notification unit to notify the content of guiding the left direction change, which is the direction to the left, and the content of guiding the image pickup camera 4 to the right direction, which is the direction to the right.

また、制御部20は、斜め下方へ照射されたレーザの反射に基づいて連続して測定された距離が変化した場合に、告知部19に段差が存在することを告知させる制御が可能である。 Further, the control unit 20 can control the notification unit 19 to notify that a step is present when the continuously measured distance changes based on the reflection of the laser irradiated diagonally downward.

また、サーバ3は、位置情報対比部21を有する。
ここで、位置情報対比部21は、物体特定部14が特定した結果、静止物体が点字ブロックであると特定された場合に、点字ブロックに対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報と、現在位置情報検出部8が検出した現在位置情報とを対比可能である。
Further, the server 3 has a position information comparison unit 21.
Here, the position information comparison unit 21 is the map coordinates created by the object map coordinate creation unit 12 corresponding to the Braille block when the stationary object is specified as a Braille block as a result of the identification by the object identification unit 14. It is possible to compare the latitude / longitude position information of the above with the current position information detected by the current position information detecting unit 8.

また、サーバ3は、位置情報対比部21が対比した結果を、インターネット30を介してメガネ装置2へ送信可能な対比結果送信部21Aを有する。
一方、メガネ装置2は、送信された対比結果を受信可能な対比結果受信部21Bを有する。
Further, the server 3 has a comparison result transmission unit 21A capable of transmitting the comparison result of the position information comparison unit 21 to the eyeglass device 2 via the Internet 30.
On the other hand, the eyeglass device 2 has a comparison result receiving unit 21B capable of receiving the transmitted comparison result.

また、物体特定部14は、物体特定部14が特定した結果、静止物体が点字ブロックであると特定された場合に、さらに検出物体情報データベース13が記録した静止物体情報に基づいて、複数の点字ブロックが互いに連結した構成である点字ブロック連結体の意味を特定可能である。 Further, the object identification unit 14 has a plurality of Braille characters based on the stationary object information recorded by the detected object information database 13 when the stationary object is specified as a Braille block as a result of the identification by the object identification unit 14. It is possible to specify the meaning of a Braille block connected body, which is a structure in which blocks are connected to each other.

また、制御部20は、位置情報対比部21が対比した結果、点字ブロックの位置情報と現在位置情報が一致しない場合に、告知部19に点字ブロックの位置への誘導を告知させる制御が可能である。 Further, the control unit 20 can control the notification unit 19 to notify the guidance to the position of the Braille block when the position information of the Braille block and the current position information do not match as a result of the comparison by the position information comparison unit 21. be.

また、サーバ3は、物体配置情報作成部22を有する。
ここで、物体配置情報作成部22は、物体地図座標作成部12が作成した静止物体の地図座標と、物体特定部14がこの静止物体を特定した特定結果と、地図情報データベース11が記録した地図情報とに基づいて、特定された物体の地図上における配置に関する情報である物体配置情報を作成可能である。
Further, the server 3 has an object arrangement information creating unit 22.
Here, the object arrangement information creating unit 22 has the map coordinates of the stationary object created by the object map coordinate creating unit 12, the specific result of the object specifying unit 14 identifying the stationary object, and the map recorded by the map information database 11. Based on the information, it is possible to create object placement information, which is information regarding the placement of the specified object on the map.

また、サーバ3は、物体配置情報作成部22が作成した物体配置情報を記録可能な物体配置情報データベース23を有する。
ここで、物体配置情報データベースは物体配置情報記録部の一例である。
Further, the server 3 has an object arrangement information database 23 capable of recording the object arrangement information created by the object arrangement information creation unit 22.
Here, the object arrangement information database is an example of the object arrangement information recording unit.

また、サーバ3は、局所目的地情報決定部24を有する。
ここで、局所目的地情報決定部24は、音声と、目的地情報決定部16が決定した目的地情報と、地図情報データベース11が記録した地図情報のうち目的地情報に関連する情報である目的地関連地図情報とに基づいて、目的地情報よりも局所的な情報である局所目的地(中間目的地)情報を決定可能である。
Further, the server 3 has a local destination information determination unit 24.
Here, the local destination information determination unit 24 is the information related to the destination information among the voice, the destination information determined by the destination information determination unit 16, and the map information recorded by the map information database 11. It is possible to determine local destination (intermediate destination) information, which is more local information than destination information, based on the location-related map information.

また、経路情報決定部17は、目的地情報決定部16が決定した目的地情報の代わりに局所目的地情報決定部24が決定した局所目的地情報と、現在位置情報検出部8が検出した現在位置情報とに基づいて経路情報を決定可能である。 Further, the route information determination unit 17 has the local destination information determined by the local destination information determination unit 24 instead of the destination information determined by the destination information determination unit 16, and the current position information detection unit 8 has detected the current location information. The route information can be determined based on the position information.

また、サーバ3は、進行履歴データベース25を有する。
ここで、進行履歴データベース25は、進行可能経路情報決定部18が決定した進行可能経路情報と、進行可能経路情報の進行可能経路を歩行者が進行したときに現在位置情報検出部8が検出した現在位置情報と、現在位置情報が検出されたときの撮像画像とを関連付けて記録可能である。
Further, the server 3 has a progress history database 25.
Here, in the progress history database 25, the current position information detection unit 8 detects the progressable route information determined by the progressable route information determination unit 18 and the progressable route of the progressable route information when the pedestrian advances. It is possible to record the current position information in association with the captured image when the current position information is detected.

また、サーバ3は、検索部26を有する。
ここで、検索部26は、音声に基づいて、地図情報データベース11が記録した地図情報と物体配置情報データベース23が記録した物体配置情報を検索可能である。
Further, the server 3 has a search unit 26.
Here, the search unit 26 can search the map information recorded by the map information database 11 and the object placement information recorded by the object placement information database 23 based on the voice.

また、サーバ3は、検索部26が検索して得られた結果を、インターネット30を介してメガネ装置2へ送信可能な検索結果送信部26Aを有する。 Further, the server 3 has a search result transmission unit 26A capable of transmitting the result obtained by the search unit 26 to the eyeglass device 2 via the Internet 30.

一方、メガネ装置2は、送信された検索結果を受信可能な検索結果受信部26Bを有する。
また、告知部19は、検索部26の検索結果を告知可能である。
On the other hand, the glasses device 2 has a search result receiving unit 26B capable of receiving the transmitted search result.
Further, the notification unit 19 can announce the search result of the search unit 26.

また、メガネ装置2は、物体検出部5が検出した可動物体及び静止物体それぞれの画像を撮像画像から切出可能な画像切出部27を有する。
また、メガネ装置2は、画像切出部27が切出した切出画像を、インターネット30を介してサーバ3へ送信可能な切出画像送信部27Aを有する。
Further, the eyeglass device 2 has an image cutting unit 27 capable of cutting out images of each of a movable object and a stationary object detected by the object detecting unit 5 from the captured image.
Further, the eyeglass device 2 has a cut-out image transmission unit 27A capable of transmitting the cut-out image cut out by the image cut-out unit 27 to the server 3 via the Internet 30.

一方、サーバ3は、送信された切出画像を受信可能な切出画像受信部27Bを有する。 On the other hand, the server 3 has a cutout image receiving unit 27B capable of receiving the transmitted cutout image.

また、サーバ3は、教師情報データベース28を有する。
ここで、教師情報データベース28は、画像切出部27が切出した、可動物体の切出画像及び静止物体の切出画像と、この可動物体及びこの静止物体を物体特定部14が特定した特定結果とを関連付けて得られた情報である教師情報(例えば物体名称や物体ID)を記録可能である。
Further, the server 3 has a teacher information database 28.
Here, the teacher information database 28 includes a cut-out image of a movable object and a cut-out image of a stationary object cut out by the image cutting unit 27, and a specific result in which the movable object and the stationary object are specified by the object specifying unit 14. It is possible to record teacher information (for example, an object name or an object ID) which is information obtained in association with.

また、本発明の歩道進行支援システムは、進行可能経路情報に従って歩行者が歩道を進行できるのであれば、必ずしも告知部を備えていなくてもよく、例えば歩行者が掴みながら歩行できる車輪付き誘導型ロボットが進行可能経路情報に従って歩道を進行することで、結果的に歩行者が進行可能経路情報を進行できるようにすることもできる。 Further, the sidewalk progress support system of the present invention does not necessarily have to be provided with a notification unit as long as the pedestrian can walk on the sidewalk according to the progressable route information. For example, the guided type with wheels that the pedestrian can walk while grasping. It is also possible to allow pedestrians to follow the progressable route information as a result of the robot traveling on the sidewalk according to the progressable route information.

なお、告知部があれば、歩行弱者は、実際に歩行する際の歩道における状況に対応した、進行できる経路情報を知ることができるので好ましい。 It should be noted that if there is a notification unit, a weak walking person can know the route information that can be advanced corresponding to the situation on the sidewalk when actually walking, which is preferable.

また、本発明の歩道進行支援システムは、必ずしも制御部を備えていなくてもよいが、制御部を備えていれば、歩行弱者は、物体との衝突を避け易くなるので好ましい。 Further, the sidewalk progress support system of the present invention does not necessarily have to be provided with a control unit, but if the control unit is provided, a weak walking person can easily avoid a collision with an object, which is preferable.

また、線分検出部は、必ずしも第1の交差線分及び第2の交差線分を検出可能でなくてもよく、また、距離測定部は、必ずしも撮像画像に基づいて線分と線分の間の距離を測定可能でなくてもよく、また、制御部は、必ずしも距離測定部が測定した第1の交差線分と第2の交差線分の間の距離が所定の値より大きい場合に左方向転換や右方向転換へ誘導する内容を告知部に告知させる制御が可能でなくてもよい。 Further, the line segment detecting unit does not necessarily have to be able to detect the first crossing line segment and the second crossing line segment, and the distance measuring unit does not necessarily have to detect the line segment and the line segment based on the captured image. The distance between them does not have to be measurable, and the control unit does not necessarily have to measure the distance between the first intersection line segment and the second intersection line segment measured by the distance measurement unit when the distance between them is larger than a predetermined value. It may not be possible to control the notification unit to notify the content of guiding the left direction change or the right direction change.

しかし、線分検出部が第1の交差線分及び第2の交差線分を検出可能であり、距離測定部が撮像画像に基づいて線分と線分の間の距離を測定可能であり、制御部が、このように制御可能であれば、第1の交差線分と第2の交差線分との間の領域すなわち歩道と交差する領域は車道であることが多いので、車道を横切る際に歩行者に車道の状況を撮像させることができ、好ましい。 However, the line segment detecting unit can detect the first crossing line segment and the second crossing line segment, and the distance measuring unit can measure the distance between the line segments and the line segment based on the captured image. If the control unit can be controlled in this way, the area between the first crossing line segment and the second crossing line segment, that is, the area intersecting the sidewalk is often a roadway, and therefore when crossing the roadway. It is preferable because it allows pedestrians to take an image of the condition of the road.

また、本発明の歩道進行支援システムは、必ずしも位置情報対比部を備えていなくてもよく、また、制御部は、必ずしも告知部に点字ブロックの位置への誘導を告知させる制御が可能でなくてもよい。 Further, the sidewalk progress support system of the present invention does not necessarily have to be provided with a position information comparison unit, and the control unit cannot always control the notification unit to notify the guidance to the position of the Braille block. May be good.

しかし、位置情報対比部があり、制御部がこのように制御可能であれば、歩行弱者が歩道上の点字ブロックから離れてしまっても、点字ブロックに近づくことができるので好ましい。 However, if there is a position information comparison unit and the control unit can be controlled in this way, it is preferable because even if a weak walking person moves away from the Braille block on the sidewalk, he / she can approach the Braille block.

また、本発明の歩道進行支援システムにおいて、距離測定部は必ずしもレーザを照射して、照射されたレーザの反射に基づいて撮像カメラすなわち撮像部から撮像部に撮像された物体までの距離をさらに測定可能でなくてもよく、また、制御部は、必ずしも斜め下方へ照射されたレーザの反射に基づいて連続して測定された距離が変化した場合に、告知部に段差が存在することを告知させる制御が可能でなくてもよい。 Further, in the sidewalk progress support system of the present invention, the distance measuring unit necessarily irradiates a laser and further measures the distance from the image pickup camera, that is, the image pickup unit to the object imaged by the image pickup unit based on the reflection of the irradiated laser. It does not have to be possible, and the control unit makes the notification unit notify that there is a step when the continuously measured distance changes based on the reflection of the laser irradiated diagonally downward. It does not have to be controllable.

しかし、距離測定部がこのように距離を測定可能であり、制御部がこのように制御可能であれば、歩行弱者は、段差を避けたり、段差に適切に対応したりすることができるので好ましい。 However, if the distance measuring unit can measure the distance in this way and the control unit can control it in this way, it is preferable that the weak walking person can avoid the step and appropriately cope with the step. ..

また、本発明の歩道進行支援システムは、必ずしも物体配置情報作成部と、物体配置情報データベースすなわち物体配置情報記録部を備えていなくてもよい。 Further, the sidewalk progress support system of the present invention does not necessarily have to include an object arrangement information creating unit and an object arrangement information database, that is, an object arrangement information recording unit.

しかし、物体配置情報作成部と物体配置情報記録部があれば、どの場所の歩道に、実際にどのような物体が配置されているかを記録して、検索できるようにすることができるので好ましい。 However, it is preferable to have an object arrangement information creating unit and an object arrangement information recording unit because it is possible to record what kind of object is actually arranged on the sidewalk in which place so that it can be searched.

また、本発明の歩道進行支援システムは、必ずしも局所目的地情報決定部を備えていなくてもよく、また、経路情報決定部は、必ずしも目的地情報決定部が決定した目的地情報の代わりに局所目的地情報決定部が決定した局所目的地情報と、現在位置情報検出部が検出した現在位置情報とに基づいて経路情報を決定可能でなくてもよい。 Further, the sidewalk progress support system of the present invention does not necessarily have to include a local destination information determination unit, and the route information determination unit does not necessarily have a local destination information determined by the destination information determination unit. It may not be possible to determine the route information based on the local destination information determined by the destination information determination unit and the current position information detected by the current position information detection unit.

しかし、局所目的地情報決定部があり、経路情報決定部がこのように決定可能であれば、さらに詳細に目的地を決めて、歩行者の希望に沿うことができるので好ましい。 However, if there is a local destination information determination unit and the route information determination unit can determine in this way, it is preferable because the destination can be determined in more detail and the pedestrian's wishes can be met.

また、本発明の歩道進行支援システムは、必ずしも進行履歴データベースすなわち進行履歴記録部を備えていなくてもよい。
しかし、進行履歴記録部があれば、目的地までの歩行者の実際の歩行を記録しておき、同じ歩行者あるいは別の歩行者が同様の経路を歩行する際の参考にすることができるので好ましい。
Further, the sidewalk progress support system of the present invention does not necessarily have to include a progress history database, that is, a progress history recording unit.
However, if there is a progress history recording unit, it is possible to record the actual walking of a pedestrian to the destination and use it as a reference when the same pedestrian or another pedestrian walks on the same route. preferable.

また、本発明の歩道進行支援システムは、必ずしも検索部を備えていなくてもよく、また、告知部は必ずしも検索部の検索結果を告知可能でなくてもよい。
しかし、検索部があり、告知部がこのように告知可能であれば、歩行者は、現在自分が位置する場所の周辺情報について、地図情報に含まれる情報のみならず、実際にどのような物体が配置されているかを検索して知ることができるので好ましい。
Further, the sidewalk progress support system of the present invention does not necessarily have to include a search unit, and the notification unit does not necessarily have to be able to notify the search result of the search unit.
However, if there is a search unit and the notification unit can notify in this way, the pedestrian can actually know what kind of object is not only the information contained in the map information but also the information around the place where he is currently located. It is preferable because it is possible to search and know whether or not is arranged.

また、本発明の歩道進行支援システムは、必ずしも画像切出部と、教師情報データベースすなわち教師情報記録部を備えていなくてもよい。
しかし、画像切出部と教師情報記録部があれば、物体を特定する際に利用する人工知能の精度を向上させるためのディープラーニングを行うことができるので好ましい。
Further, the sidewalk progress support system of the present invention does not necessarily have to include an image cutting unit and a teacher information database, that is, a teacher information recording unit.
However, it is preferable to have an image cutting unit and a teacher information recording unit because deep learning can be performed to improve the accuracy of artificial intelligence used when identifying an object.

また、このような歩道進行支援システムを実行するための本発明の歩道進行支援ソフトウェアは、情報処理機器を、前述のような機能を有するサーバとして機能させるためのソフトウェアである。 Further, the sidewalk progress support software of the present invention for executing such a sidewalk progress support system is software for making an information processing device function as a server having the above-mentioned functions.

また、図1に示す例は一例であり、メガネ装置及びサーバそれぞれが有する機能は、これに限定されるものではない。
例えば、サーバが、物体検出部と、線分検出部と、歩道決定部とを有することもでき、この場合、歩道進行支援システムを実行するための本発明の歩道進行支援ソフトウェアは、情報処理機器を、さらに物体検出部と、線分検出部と、歩道決定部の機能を有するサーバとして機能させるためのソフトウェアである。
Further, the example shown in FIG. 1 is an example, and the functions of the eyeglass device and the server are not limited thereto.
For example, the server may have an object detection unit, a line segment detection unit, and a sidewalk determination unit. In this case, the sidewalk progress support software of the present invention for executing the sidewalk progress support system is an information processing device. Is software for further functioning as a server having the functions of an object detection unit, a line segment detection unit, and a sidewalk determination unit.

また、例えば、サーバは地図経路を検索する機能と情報を蓄積する機能のみを有し、それ以外の本発明の歩道進行支援システムのための機能をメガネ装置が有するようにすることもできる。 Further, for example, the server may have only a function of searching a map route and a function of accumulating information, and the glasses device may have other functions for the sidewalk progress support system of the present invention.

次に、本発明の歩道進行支援システムを利用した歩行者の歩行支援の流れの一例について説明する。 Next, an example of the flow of walking support for a pedestrian using the sidewalk progress support system of the present invention will be described.

サーバ3が、地図座標系(グローバルマップ)を含む地図情報を取込み、サーバ3の地図情報データベース11が地図情報を記録する。 The server 3 takes in the map information including the map coordinate system (global map), and the map information database 11 of the server 3 records the map information.

また、メガネ装置2の現在位置情報検出部8が、例えば0.5~1秒ごとに、GPS(Global Positioning System=全地球測位システム)を構成する複数のGPS衛星から提供される信号を受信して、メガネ装置2が有する撮像カメラ4の現在位置情報すなわち、撮像カメラ4を有するメガネ装置2を装着した歩行者の現在位置情報である緯度経度を検出する。 Further, the current position information detection unit 8 of the glasses device 2 receives signals provided from a plurality of GPS satellites constituting GPS (Global Positioning System), for example, every 0.5 to 1 second. The current position information of the image pickup camera 4 possessed by the glasses device 2, that is, the latitude and longitude, which is the current position information of the pedestrian wearing the glasses device 2 having the image pickup camera 4, is detected.

また、メガネ装置2の現在位置情報送信部8Aが、現在位置情報検出部8が検出した歩行者の現在位置情報を、インターネット30を介してサーバ3へ送信する。
また、サーバ3の現在位置情報受信部8Bが、歩行者の現在位置情報をメガネ装置2から受信する。
Further, the current position information transmission unit 8A of the eyeglass device 2 transmits the current position information of the pedestrian detected by the current position information detection unit 8 to the server 3 via the Internet 30.
Further, the current position information receiving unit 8B of the server 3 receives the current position information of the pedestrian from the glasses device 2.

歩行者は、自分が行きたい場所の例えば地名や建物名を声に出して言うことで、メガネ装置2が有する音声送信部16Aが、その地名や建物名の音声を、インターネット30を介してサーバ3へ送信する。 A pedestrian aloud, for example, a place name or a building name of a place he / she wants to go to, and the voice transmission unit 16A of the glasses device 2 transmits the voice of the place name or the building name to a server via the Internet 30. Send to 3.

また、サーバ3の音声受信部16Bが、歩行者の行きたい場所の地名や建物名の音声を受信する。
そして、サーバ3の目的地情報決定部16が、音声受信部16Bが受信した音声と、地図情報データベース11が記録した地図情報とに基づいて、目的地情報を決定する。
Further, the voice receiving unit 16B of the server 3 receives the voice of the place name or the building name of the place where the pedestrian wants to go.
Then, the destination information determination unit 16 of the server 3 determines the destination information based on the voice received by the voice reception unit 16B and the map information recorded by the map information database 11.

さらに、サーバ3の経路情報決定部17が、目的地情報決定部16が決定した目的地情報と、現在位置情報検出部8が検出した現在位置情報とに基づいて、目的地と現在位置との間の経路情報を決定する。 Further, the route information determination unit 17 of the server 3 determines the destination and the current position based on the destination information determined by the destination information determination unit 16 and the current position information detected by the current position information detection unit 8. Determine the route information between.

また、サーバ3が、歩行者の現在位置を原点とし、かつ、歩行者の正面方向をy軸とし、かつ、この正面方向に対して90度右手方向及び90度左手方向をx軸とした動座標系(ローカルマップ)を設定する。 Further, the server 3 moves with the current position of the pedestrian as the origin, the front direction of the pedestrian as the y-axis, and the 90-degree right-hand direction and the 90-degree left-hand direction as the x-axis with respect to the front direction. Set the coordinate system (local map).

また、サーバ3は、歩行の障害となる物体を特定するための人工知能であるCNN(Convolutional Neural Network=畳み込みニューラルネットワーク)アルゴリズムを読み込む。 Further, the server 3 reads a CNN (Convolutional Neural Network) algorithm, which is an artificial intelligence for identifying an object that hinders walking.

図2(a)は、本発明を適用した歩道進行支援システムにおける撮像画像の第1の例を示す概略図であり、図2(b)は、図2(a)に示す撮像画像の拡張現実画像の一例を示す概略図である。 FIG. 2A is a schematic view showing a first example of a captured image in a sidewalk progress support system to which the present invention is applied, and FIG. 2B is an augmented reality of the captured image shown in FIG. 2A. It is a schematic diagram which shows an example of an image.

撮像カメラ4が歩行者の正面の風景を例えば0.5~1秒ごとに撮像し、フレーム画像41を得る。フレーム画像41が大きければ、例えばピラミッド画像作成方法により、例えば幅500画素×高さ300ライン程度の縮小画像を作成する。 The image pickup camera 4 captures the landscape in front of the pedestrian, for example, every 0.5 to 1 second, and obtains a frame image 41. If the frame image 41 is large, a reduced image having a width of 500 pixels and a height of 300 lines is created, for example, by a pyramid image creation method.

また、方向検出部9が、撮像カメラ4の撮像方向を検出する。
また、メガネ装置2の撮像方向送信部9Aが、方向検出部9が検出した撮像方向に関する情報を、インターネット30を介してサーバ3へ送信する。
Further, the direction detection unit 9 detects the image pickup direction of the image pickup camera 4.
Further, the image pickup direction transmission unit 9A of the eyeglass device 2 transmits information regarding the image pickup direction detected by the direction detection unit 9 to the server 3 via the Internet 30.

また、サーバ3の撮像方向受信部9Bが、撮像方向に関する情報をメガネ装置2から受信する。 Further, the image pickup direction receiving unit 9B of the server 3 receives information regarding the image pickup direction from the eyeglass device 2.

そして、距離測定部10が、歩行者の左右方向及び前方へ例えば歩行者から3mまでの範囲では路面へ向けて斜め下方に、歩行者から10~15mまでの範囲では水平にレーザを照射する。斜め照射レーザはできるだけ左から右に照射し、その距離での歩道幅も推定する。 Then, the distance measuring unit 10 irradiates the laser in the left-right direction and forward of the pedestrian, for example, diagonally downward toward the road surface in the range from the pedestrian to 3 m, and horizontally in the range from the pedestrian to 10 to 15 m. The oblique irradiation laser irradiates from left to right as much as possible, and the width of the sidewalk at that distance is also estimated.

また、距離測定部10が、照射された水平レーザの反射に基づいて、撮像カメラ4から撮像カメラ4に撮像された電信柱などの物体までの距離を測定する。 Further, the distance measuring unit 10 measures the distance from the image pickup camera 4 to an object such as a telephone pole imaged by the image pickup camera 4 based on the reflection of the irradiated horizontal laser.

また、メガネ装置2の測定距離送信部10Aが、距離測定部10が測定した距離に関する情報を、インターネット30を介してサーバ3へ送信する。
また、サーバ3の測定距離受信部10Bが、距離に関する情報をメガネ装置2から受信する。
Further, the measurement distance transmission unit 10A of the eyeglass device 2 transmits information regarding the distance measured by the distance measurement unit 10 to the server 3 via the Internet 30.
Further, the measurement distance receiving unit 10B of the server 3 receives information on the distance from the spectacle device 2.

また、ハフ変換によりフレーム画像41の中において、高いポールやビルの垂直壁などの長い線分を検出する。 In addition, a long line segment such as a tall pole or a vertical wall of a building is detected in the frame image 41 by the Hough transform.

検出された長い線分の傾きの平均角度を算出し、長い線分が垂直になるようにフレーム画像41の中心を回転中心として回転補正を行う。
すなわち、図2(a)に示すように、フレーム画像41と回転補正された画像との間でズレが生じ、重ならなくなった領域は黒色で表示される。
The average angle of the inclination of the detected long line segment is calculated, and the rotation correction is performed with the center of the frame image 41 as the rotation center so that the long line segment becomes vertical.
That is, as shown in FIG. 2A, the area where the frame image 41 and the rotation-corrected image are misaligned and do not overlap is displayed in black.

この「回転補正された画像」を、以降の処理での入力画像とし、この入力画像を「撮像画像」と称することとする。 This "rotation-corrected image" will be used as an input image in the subsequent processing, and this input image will be referred to as a "captured image".

そして、メガネ装置2の撮像画像送信部4Aが、インターネット30を介して撮像画像をサーバ3へ送信する。
また、サーバ3の撮像画像受信部4Bは、撮像画像をメガネ装置2から受信する。
Then, the captured image transmission unit 4A of the glasses device 2 transmits the captured image to the server 3 via the Internet 30.
Further, the captured image receiving unit 4B of the server 3 receives the captured image from the glasses device 2.

図2(a)に示す撮像画像40は、右側縁石42と、左側縁石43と、歩道44と、電信柱45と、通行人46などが撮像された画像の一例である。 The captured image 40 shown in FIG. 2A is an example of an image in which the right curb 42, the left curb 43, the sidewalk 44, the telephone pole 45, the passerby 46, and the like are captured.

次に、物体検出部5が、撮像画像40に「HOG(Histogram of Oriented Gradients=勾配方向ヒストグラム化)人物検出処理」を行い、撮像画像40の中で、可動物体である通行人46を検出し、図2(b)に示すように、検出された通行人46を囲んだ人物候補存在領域矩形51を、拡張現実画像47において表示する。 Next, the object detection unit 5 performs "HOG (Histogram of Oriented Gradients) person detection processing" on the captured image 40, and detects a passerby 46 which is a movable object in the captured image 40. , As shown in FIG. 2B, the person candidate existence area rectangle 51 surrounding the detected passerby 46 is displayed in the augmented reality image 47.

そして、物体特定部14が、検出された通行人46の存在領域矩形の数値情報例えば大きさと、検出物体情報データベースが記録した人物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、精度を高めるために、CNNを利用して、検出された通行人46が人物であることの特徴量を算出し、この特徴量が規定値以上である場合、人物であると特定する。 Then, the object identification unit 14 collates the numerical information of the detected area rectangle of the passerby 46, for example, with the condition of the person recorded by the detected object information database, for example, the range of size, and the size is within the range. Further, in order to further improve the accuracy, CNN is used to calculate the feature amount that the detected passerby 46 is a person, and if this feature amount is equal to or more than the specified value, it is considered to be a person. Identify.

また、物体検出部5が、ハフ変換により撮像画像40において検出された、垂直角度±5度の範囲で鉛直方向に延びる所定の長さ以上の線分である鉛直線分52に基づいて、静止物体である電信柱45を検出する。
すなわち、物体検出部5は、撮像画像40の中で、鉛直線分52と鉛直線分52との間の距離が所定の範囲である電信柱45を検出し、図2(b)に示すように、検出された電信柱45が延びる方向に沿って鉛直線分52を、拡張現実画像47において表示する。
Further, the object detection unit 5 is stationary based on a vertical line segment 52, which is a line segment having a length longer than a predetermined length extending in the vertical direction within a range of a vertical angle of ± 5 degrees, detected in the captured image 40 by Huff conversion. The telegraph column 45, which is an object, is detected.
That is, the object detection unit 5 detects the telegraph column 45 in which the distance between the vertical line segment 52 and the vertical line segment 52 is within a predetermined range in the captured image 40, and as shown in FIG. 2 (b). In addition, the vertical line segment 52 is displayed in the augmented reality image 47 along the direction in which the detected telegraph column 45 extends.

そして、物体特定部14が、検出された電信柱45の幅方向の数値すなわち、鉛直線分52と鉛直線分52との間の距離や鉛直線分52の長さと、検出物体情報データベース13が記録した、鉛直線分特性を有する歩行障害物の条件例えば幅方向の数値範囲や鉛直線分長さの数値範囲とを照合する。 Then, the object identification unit 14 finds a numerical value in the width direction of the detected telegraph column 45, that is, the distance between the vertical line segment 52 and the vertical line segment 52, the length of the vertical line segment 52, and the detected object information database 13. The recorded conditions of a walking obstacle having a vertical line segment characteristic, for example, the numerical range in the width direction and the numerical range of the vertical line segment length are collated.

さらに、物体特定部14は、検出された電信柱45の幅方向の濃度変化と、検出物体情報データベース13が記録した、鉛直線分特性を有する歩行障害物の幅方向の濃度変化とを照合する。
照合した結果、検出された電信柱45の幅方向の数値や幅方向の濃度変化が合致した場合、物体特定部14は、検出された電信柱45を、鉛直線分特性を有する歩行障害物であると特定するか、或いは電信柱であると特定する。
Further, the object identification unit 14 collates the detected concentration change in the width direction of the telegraph pole 45 with the concentration change in the width direction of the gait obstacle having the vertical line segment characteristic recorded by the detected object information database 13. ..
As a result of collation, when the numerical value in the width direction and the density change in the width direction of the detected telephone pole 45 match, the object identification unit 14 uses the detected telephone pole 45 as a walking obstacle having a vertical line component characteristic. Identify as being, or identify as a telephone pole.

特に、検出された物体の鉛直線分の数値が幅方向の数値に比して規定以上に大きく、検出された物体の上部が撮像画像40の上半分に位置していれば、物体特定部14は、検出された物体を街灯、信号機、電信柱などであると特定する。
幅方向の濃度変化を調べることで、中心線付近だけに物体がある柱状物体か、中心線の左または右領域に物体が続く壁面状(板状)物体であるかを特定する。
In particular, if the value of the vertical line segment of the detected object is larger than the specified value in the width direction and the upper part of the detected object is located in the upper half of the captured image 40, the object identification unit 14 Identifies the detected object as a streetlight, traffic light, telephone pole, or the like.
By examining the concentration change in the width direction, it is possible to identify whether the object is a columnar object having an object only near the center line or a wall-shaped (plate-like) object in which the object continues in the left or right region of the center line.

そして、サーバ3の特定物体送信部14Aが、物体特定部14が特定した物体に関する情報を、インターネット30を介してメガネ装置2へ送信する。
また、メガネ装置2の特定物体受信部14Bが、物体に関する情報をサーバ3から受信する。
Then, the specific object transmission unit 14A of the server 3 transmits information about the object specified by the object identification unit 14 to the eyeglass device 2 via the Internet 30.
Further, the specific object receiving unit 14B of the eyeglass device 2 receives information about the object from the server 3.

また、図示していないが、物体検出部5が、撮像画像40から低彩度領域、例えば彩度値範囲[0、5]画素を二値化処理で抽出しラべリング処理をかけ、微小ブロブ(塊)や大きすぎるブロブ(塊)を除去して、残った領域を囲んだ右側縁石候補存在領域矩形と左側縁石候補存在領域矩形などを表示する。 Further, although not shown, the object detection unit 5 extracts a low-saturation region, for example, a saturation value range [0, 5] pixels from the captured image 40 by a binarization process and performs a labeling process to obtain a minute amount. Blobs (lumps) and oversized blobs (lumps) are removed, and the right curb candidate existence area rectangle and the left curb candidate existence area rectangle surrounding the remaining area are displayed.

そして、物体特定部14が、検出された右側縁石42の存在領域矩形の数値情報例えば大きさや彩度、並びに検出された左側縁石43の存在領域矩形の数値情報例えば大きさや彩度と、検出物体情報データベース13が記録した、低彩度歩行障害物の条件例えば大きさの範囲や彩度範囲とを照合して、大きさや彩度が範囲内であり、さらに、精度を高めるためにCNNを利用して、検出された右側縁石42及び左側縁石43が縁石であることの特徴量を算出し、この特徴量が規定値以上である場合、縁石であると特定する。 Then, the object identification unit 14 determines the numerical information of the detected right curb 42, for example, the size and saturation, and the numerical information of the detected left curb 43, for example, the size and saturation, and the detected object. The size and saturation are within the range by collating with the conditions of the low-saturation walking obstacle recorded by the information database 13, for example, the size range and the saturation range, and CNN is used to further improve the accuracy. Then, the characteristic amount that the detected right side curb 42 and the left side curb 43 are curbs is calculated, and when the characteristic amount is equal to or more than the specified value, it is specified as a curb.

また、線分検出部6が、撮像画像40の中で、撮像画像40の下部から撮像画像40の略中央領域へ向けて傾斜して延びる右側傾斜線分49と、撮像画像40の下部から撮像画像40の略中央領域へ向けて傾斜して延びると共に撮像画像40の下部から撮像画像40の略中央領域に近づくにつれて右側傾斜線分49との間の距離が短くなった左側傾斜線分50とを検出する。 Further, the line segment detection unit 6 captures images from the right inclined line segment 49 extending inclined from the lower portion of the captured image 40 toward the substantially central region of the captured image 40 and the lower portion of the captured image 40 in the captured image 40. With the left inclined line segment 50, which extends inclined toward the substantially central region of the image 40 and the distance between the lower portion of the captured image 40 and the right inclined line segment 49 becomes shorter as it approaches the substantially central region of the captured image 40. Is detected.

一般に、歩道の幅は進行方向20~30mの範囲では一定であることが多く、また、歩道が延びる方向と同じ方向を向いて歩道を撮像すると、撮像画像において、歩道の左右両側の線形は左右の斜め線として映る。
そして、左右の斜め線は撮像画像の中心付近において、一点で交わるように見える。この交わる点を消失点と呼んでいる。
In general, the width of the sidewalk is often constant in the range of 20 to 30 m in the traveling direction, and when the sidewalk is imaged facing the same direction as the sidewalk extends, the alignment on the left and right sides of the sidewalk is left and right in the captured image. It is reflected as a diagonal line of.
The left and right diagonal lines appear to intersect at one point near the center of the captured image. This intersection is called the vanishing point.

また、右側傾斜線分49は右側縁石42に基づいて検出された線分であり、左側傾斜線分50は左側縁石43に基づいて検出された線分である。
また、右側傾斜線分は第1の線分の一例であり、左側傾斜線分は第2の線分の一例である。
Further, the right inclined line segment 49 is a line segment detected based on the right curb 42, and the left inclined line segment 50 is a line segment detected based on the left curb 43.
Further, the right inclined line segment is an example of the first line segment, and the left inclined line segment is an example of the second line segment.

従って、線分検出部6は、図2(b)に示すように、拡張現実画像47において、右側縁石42に沿って右側傾斜線分49を表示し、左側縁石43に沿って左側傾斜線分50を表示する。
また、右側傾斜線分49と左側傾斜線分50は、図2(b)に示すように、拡張現実画像47の中心付近で交わっているので、拡張現実画像47の中心付近に消失点48が表示されている。
Therefore, as shown in FIG. 2B, the line segment detection unit 6 displays the right inclined line segment 49 along the right curb 42 and the left inclined line segment along the left curb 43 in the augmented reality image 47. Display 50.
Further, since the right side inclined line segment 49 and the left side inclined line segment 50 intersect near the center of the augmented reality image 47 as shown in FIG. 2B, the vanishing point 48 is located near the center of the augmented reality image 47. It is displayed.

そして、歩道決定部7が、右側傾斜線分49と左側傾斜線分50との間の領域を歩道として決定する。 Then, the sidewalk determination unit 7 determines the area between the right side slope line segment 49 and the left side slope line segment 50 as a sidewalk.

また、本発明において、線分検出部が第1の線分と第2の線分とを検出可能であれば、撮像画像の中心付近に消失点を検出した後に、検出された消失点に基づいて第1の線分と第2の線分とを検出するようにすることもできる。 Further, in the present invention, if the line segment detection unit can detect the first line segment and the second line segment, it is based on the detected vanishing point after detecting the vanishing point near the center of the captured image. It is also possible to detect the first line segment and the second line segment.

また、メガネ装置2の決定歩道送信部7Aが、歩道決定部7が決定した歩道に関する情報例えば歩道を挟んだ第1の線分と第2の線分を表示した拡張現実画像を、インターネット30を介してサーバ3へ送信する。
また、サーバ3の決定歩道受信部7Bが、歩道に関する情報をメガネ装置2から受信する。
Further, the determination sidewalk transmission unit 7A of the glasses device 2 displays information about the sidewalk determined by the sidewalk determination unit 7, for example, an augmented reality image displaying the first line segment and the second line segment sandwiching the sidewalk on the Internet 30. It is transmitted to the server 3 via.
Further, the determination sidewalk receiving unit 7B of the server 3 receives information about the sidewalk from the glasses device 2.

図3は、本発明を適用した歩道進行支援システムにおける、動座標系と地図座標系の一例を示す概略図である。 FIG. 3 is a schematic diagram showing an example of a dynamic coordinate system and a map coordinate system in a sidewalk progress support system to which the present invention is applied.

物体検出部5が検出した、右側縁石42、左側縁石43、電信柱45及び通行人46の位置を、物体地図座標作成部12が、動座標系57の座標値として算出する。 The object map coordinate creation unit 12 calculates the positions of the right curb 42, the left curb 43, the telephone pole 45, and the passerby 46 detected by the object detection unit 5 as the coordinate values of the dynamic coordinate system 57.

すなわち、歩行者の位置を原点56とし、かつ、方向検出部9が検出した撮像方向すなわち歩行者の正面方向をy軸54とし、かつ、この正面方向に対して90度右手方向をx正軸55とした、原点から半径20~30mほどの動座標系を設定する。
また、撮像カメラ4に撮像された、右側縁石42、左側縁石43、電信柱45及び通行人46が、歩行者の正面方向であるy軸の右側に位置するか左側に位置するかは撮像画像から判断される。
That is, the position of the pedestrian is the origin 56, the imaging direction detected by the direction detection unit 9, that is, the front direction of the pedestrian is the y-axis 54, and the right-hand direction 90 degrees with respect to this front direction is the x positive axis. A dynamic coordinate system with a radius of about 20 to 30 m from the origin, which is set to 55, is set.
Further, whether the right curb 42, the left curb 43, the telephone pole 45, and the passerby 46 captured by the image pickup camera 4 are located on the right side or the left side of the y-axis in the front direction of the pedestrian is an captured image. It is judged from.

また、距離測定部10が測定した、撮像カメラ4と右側縁石42との間の距離や、撮像カメラ4と左側縁石43との間の距離や、撮像カメラ4と電信柱45との間の距離及び角度や、撮像カメラ4と通行人46との間の距離及び角度に基づいて動座標系の原点からの距離及び方向角が判る。
ここで言う角度とは、正面方向からの物体の見える角度であり、正面方向角と左右角度とを足し合わせて得られた、障害物体の方向角である。
Further, the distance between the image pickup camera 4 and the right side edge stone 42 measured by the distance measuring unit 10, the distance between the image pickup camera 4 and the left side edge stone 43, and the distance between the image pickup camera 4 and the telegraph column 45. And the angle, and the distance and the direction angle from the origin of the dynamic coordinate system can be known based on the distance and the angle between the image pickup camera 4 and the passerby 46.
The angle referred to here is an angle at which the object can be seen from the front direction, and is a direction angle of the obstacle object obtained by adding the front direction angle and the left-right angle.

従って、物体地図座標作成部12は、物体検出部5が検出した、右側縁石42、左側縁石43、電信柱45及び通行人46の位置を、動座標系57の座標値として算出できる。 Therefore, the object map coordinate creation unit 12 can calculate the positions of the right curb 42, the left curb 43, the telephone pole 45, and the passerby 46 detected by the object detection unit 5 as the coordinate values of the dynamic coordinate system 57.

さらに、現在位置情報検出部8が例えば0.5~1秒ごとに、すなわち撮像カメラ4が撮像するごとに歩行者の現在位置情報である緯度経度を検出しているので、動座標系57の原点の緯度経度が判る。
従って、物体地図座標作成部12は、現在位置情報検出部8が検出した現在位置情報を原点として、動座標系57の座標値を、地図情報データベース11が記録した地図情報に含まれる地図座標系58の緯度経度に変換して、右側縁石42、左側縁石43、電信柱45及び通行人46の地図座標を作成する。
Further, since the current position information detection unit 8 detects the latitude and longitude, which is the current position information of the pedestrian, for example, every 0.5 to 1 second, that is, every time the image pickup camera 4 takes an image, the dynamic coordinate system 57 You can see the latitude and longitude of the origin.
Therefore, the object map coordinate creation unit 12 uses the current position information detected by the current position information detection unit 8 as the origin, and the coordinate values of the dynamic coordinate system 57 are included in the map information recorded by the map information database 11. Converted to the latitude and longitude of 58, the map coordinates of the right side edge stone 42, the left side edge stone 43, the telegraph pillar 45, and the passerby 46 are created.

また、サーバ3は、物体地図座標作成部12が、検出された静止物体または可動物体の地図座標を作成するごとに、作成された物体名とその地図座標を保存することができる。 Further, the server 3 can save the created object name and its map coordinates every time the object map coordinate creating unit 12 creates the map coordinates of the detected stationary object or movable object.

また、歩道決定部7が、右側傾斜線分49と左側傾斜線分50との間の領域を歩道として決定しており、また、右側傾斜線分49は右側縁石42に基づいて検出された線分であり、左側傾斜線分50は左側縁石43に基づいて検出された線分であるから、図3において右側縁石42と左側縁石43との間の領域が歩道領域53である。 Further, the sidewalk determination unit 7 determines the area between the right side inclined line segment 49 and the left side inclined line segment 50 as a sidewalk, and the right side inclined line segment 49 is a line detected based on the right curb 42. Since the left inclined line segment 50 is a line segment detected based on the left curb 43, the region between the right curb 42 and the left curb 43 in FIG. 3 is the sidewalk region 53.

また、経路情報決定部17が決定した経路情報は、地図情報に基づいて決定された情報であるが、歩道領域53には電信柱45や通行人46が存在しており、地図情報にはこのような情報は含まれておらず、経路情報にもこのような情報は含まれていないので、このような経路情報に基づいて歩行ナビゲーションを行うと、実際の歩行に影響を与えてしまう。 Further, the route information determined by the route information determination unit 17 is information determined based on the map information, but the telephone pole 45 and the passerby 46 are present in the sidewalk area 53, and the map information includes this information. Such information is not included, and such information is not included in the route information. Therefore, if walking navigation is performed based on such route information, the actual walking will be affected.

そこで、サーバの進行可能領域位置情報検出部15が、右側傾斜線分49と左側傾斜線分50それぞれに対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報と、右側傾斜線分49と左側傾斜線分50との間に位置する電信柱45や通行人46に対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報とに基づいて、歩道領域53内の進行可能領域の位置情報を検出する。 Therefore, the progressable area position information detection unit 15 of the server has the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit 12 corresponding to the right side inclination line 49 and the left side inclination line 50, respectively, and the right side inclination. The sidewalk area 53 is based on the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit 12 corresponding to the telegraph pillar 45 and the passerby 46 located between the line segment 49 and the left inclined line segment 50. Detects the position information of the progressable area in the area.

そして、サーバの進行可能経路情報決定部18が、経路情報決定部17が決定した経路情報と、進行可能領域位置情報検出部15が検出した進行可能領域位置情報とに基づいて、目的地と現在位置との間の進行可能経路情報を決定する。
すなわち、電信柱や通行人など、歩行の障害となる物体を回避するために変更された経路情報を決定するのである。
Then, the progressable route information determination unit 18 of the server determines the destination and the present based on the route information determined by the route information determination unit 17 and the progressable area position information detected by the progressable area position information detection unit 15. Determine the travelable route information to and from the location.
That is, the route information changed in order to avoid an object that hinders walking, such as a telephone pole or a passerby, is determined.

また、進行可能経路情報決定部18が決定した進行可能経路情報を、サーバ3の進行可能経路情報送信部18Aがメガネ装置2へインターネット30を介して送信する。 Further, the progressable route information transmission unit 18A of the server 3 transmits the progressable route information determined by the progressable route information determination unit 18 to the glasses device 2 via the Internet 30.

一方、メガネ装置2の進行可能経路情報受信部18Bは、サーバ3から進行可能経路情報を受信する。 On the other hand, the progressable route information receiving unit 18B of the glasses device 2 receives the progressable route information from the server 3.

そして、メガネ装置2の告知部19が、音声で進行可能経路情報を告知する。具体的には例えば、「経路を作成しました。経路は○○○○です。」という進行可能経路を説明する。
また、物体特定部14が可動物体である人物すなわち通行人46を特定しているので、人物が存在することも音声で告知する。
Then, the notification unit 19 of the glasses device 2 announces the travelable route information by voice. Specifically, for example, the progressable route "I created a route. The route is ○○○○." Will be explained.
Further, since the object identification unit 14 identifies a person who is a movable object, that is, a passerby 46, the existence of the person is also notified by voice.

また、方向検出部9が検出した撮像カメラ4の撮像方向が電信柱45に向いているとき、すなわち歩行者が電信柱45へ向いて歩行者の正面方向が電信柱45に向いているときに、電信柱45と撮像カメラ4との間の、距離測定部10が測定した距離が所定の値例えば2m以下である場合、電信柱45は鉛直方向に所定の長さ以上延びる鉛直線分52を有するので、メガネ装置2の制御部20が、告知部19に警告を告知させる制御を行う。
または、この場合、距離測定部10が測定した距離が所定の値より大きくなる方向へ誘導する内容を告知させる制御を行う。
Further, when the image pickup direction of the image pickup camera 4 detected by the direction detection unit 9 is facing the telephone pole 45, that is, when the pedestrian is facing the telephone pole 45 and the front direction of the pedestrian is facing the telephone pole 45. When the distance measured by the distance measuring unit 10 between the telephone pole 45 and the image pickup camera 4 is a predetermined value, for example, 2 m or less, the telephone pole 45 has a vertical portion 52 extending in the vertical direction by a predetermined length or more. Therefore, the control unit 20 of the glasses device 2 controls the notification unit 19 to notify the warning.
Alternatively, in this case, the distance measuring unit 10 controls to notify the content of guiding in the direction in which the measured distance becomes larger than a predetermined value.

また、メガネ装置2の画像切出部27が、物体検出部5が検出した、右側縁石42、左側縁石43、電信柱45及び通行人46それぞれの画像を撮像画像から切出す。 Further, the image cutting unit 27 of the glasses device 2 cuts out the images of the right side curb 42, the left side curb 43, the telephone pole 45, and the passerby 46 detected by the object detection unit 5 from the captured image.

そして、メガネ装置2の切出画像送信部27Aが、画像切出部27が切出した画像を、インターネット30を介してサーバ3へ送信する。 Then, the cut-out image transmission unit 27A of the eyeglass device 2 transmits the image cut out by the image cut-out unit 27 to the server 3 via the Internet 30.

また、サーバ3の切出画像受信部27Bが、画像切出部27が切出した、右側縁石42、左側縁石43、電信柱45及び通行人46それぞれの切出画像をメガネ装置2から受信する。 Further, the cut-out image receiving unit 27B of the server 3 receives the cut-out images of the right side curb 42, the left side curb 43, the telephone pole 45, and the passerby 46 cut out by the image cutting unit 27 from the glasses device 2.

そして、サーバ3の教師情報データベース28が、受信した右側縁石42、左側縁石43、電信柱45及び通行人46それぞれの切出画像と、右側縁石42、左側縁石43、電信柱45及び通行人46を物体特定部14が特定した特定結果とを関連付けて、教師情報として記録する。 Then, the teacher information database 28 of the server 3 receives cutout images of the right curb 42, the left curb 43, the telephone pole 45 and the passerby 46, and the right curb 42, the left curb 43, the telephone pole 45 and the passerby 46. Is associated with the specific result specified by the object identification unit 14, and is recorded as teacher information.

また、サーバ3の物体配置情報作成部22が、物体地図座標作成部12が作成した右側縁石42、左側縁石43及び電信柱45の地図座標と、物体特定部14が右側縁石42、左側縁石43及び電信柱45を特定した特定結果と、地図情報データベース11が記録した地図情報とに基づいて、特定された右側縁石42、左側縁石43及び電信柱45の地図上における物体配置情報を作成する。
そして、サーバの物体配置情報データベース23が、物体配置情報を記録する。
Further, the object placement information creating unit 22 of the server 3 has map coordinates of the right curb 42, the left curb 43 and the telegraph pillar 45 created by the object map coordinate creating unit 12, and the object specifying unit 14 has the right curb 42 and the left curb 43. And, based on the specific result of specifying the telegraph pillar 45 and the map information recorded by the map information database 11, the object arrangement information on the map of the identified right curb 42, left curb 43 and telegraph pillar 45 is created.
Then, the object arrangement information database 23 of the server records the object arrangement information.

また、例えば歩行者が、自分の行きたい場所の建物名として「小倉駅の海側」というように、小倉駅の中でも特に場所を限定して、その音声を音声送信部16Aによってサーバ3へ送信した場合、先ずは、サーバ3の目的地情報決定部16が目的地情報「小倉駅」を決定する。 Further, for example, a pedestrian limits a place in Kokura Station, such as "the sea side of Kokura Station" as the building name of the place he / she wants to go, and transmits the voice to the server 3 by the voice transmission unit 16A. If so, first, the destination information determination unit 16 of the server 3 determines the destination information "Kokura Station".

次に、サーバの局所目的地情報決定部24が局所目的地情報を決定する。
すなわち、サーバ3の音声受信部16Bが受信した「小倉駅の海側」という音声と、目的地情報決定部16が決定した目的地情報「小倉駅」と、地図情報データベース11が記録した地図情報のうち目的地情報「小倉駅」に関連する目的地関連地図情報すなわち小倉駅周辺の地図情報とに基づいて、目的地情報「小倉駅」よりも局所的な局所目的地情報「小倉駅の海側」を決定する。
Next, the local destination information determination unit 24 of the server determines the local destination information.
That is, the voice "sea side of Kokura Station" received by the voice receiving unit 16B of the server 3, the destination information "Kokura Station" determined by the destination information determination unit 16, and the map information recorded by the map information database 11. Of these, based on the destination-related map information related to the destination information "Kokura Station", that is, the map information around Kokura Station, the local destination information "Kokura Station Sea" is more local than the destination information "Kokura Station". "Side" is decided.

また、経路情報決定部17は、目的地情報決定部16が決定した目的地情報「小倉駅」の代わりに局所目的地情報「小倉駅の海側」と、現在位置情報とに基づいて、局所目的地と現在位置との間の経路情報を決定する。 Further, the route information determination unit 17 is locally based on the local destination information "sea side of Kokura station" instead of the destination information "Kokura station" determined by the destination information determination unit 16 and the current position information. Determine route information between the destination and the current location.

また、進行可能経路情報決定部18は、経路情報決定部17が決定した局所目的地と現在位置との間の経路情報と、進行可能領域位置情報とに基づいて、進行可能経路情報を決定する。 Further, the progressable route information determination unit 18 determines the progressable route information based on the route information between the local destination and the current position determined by the route information determination unit 17 and the progressable area position information. ..

また、現在位置情報検出部8が、撮像カメラ4が撮像するごとに歩行者の現在位置情報を検出しているので、撮像画像送信部4Aは、現在位置情報が検出されたときの撮像画像をサーバ3へ送信できる。 Further, since the current position information detection unit 8 detects the current position information of the pedestrian each time the image pickup camera 4 takes an image, the image pickup image transmission unit 4A captures the captured image when the current position information is detected. It can be sent to the server 3.

そして、実際に歩行者が進行可能経路を進行すると、進行時に現在位置情報検出部8が現在位置情報を検出して、現在位置情報送信部8Aが現在位置情報をサーバ3へ送信し、また、撮像画像送信部4Aが、現在位置情報が検出されたときの撮像画像をサーバ3へ送信する。 Then, when the pedestrian actually travels on the travelable route, the current position information detection unit 8 detects the current position information during the progress, the current position information transmission unit 8A transmits the current position information to the server 3, and the current position information is transmitted to the server 3. The captured image transmission unit 4A transmits the captured image when the current position information is detected to the server 3.

サーバ3の現在位置情報受信部8Bはメガネ装置2から現在位置情報を受信し、サーバの撮像画像受信部4Bはメガネ装置2から現在位置情報が検出されたときの撮像画像を受信する。 The current position information receiving unit 8B of the server 3 receives the current position information from the spectacle device 2, and the captured image receiving unit 4B of the server receives the captured image when the current position information is detected from the spectacle device 2.

従って、サーバ3の進行履歴データベース25は、進行可能経路情報決定部18が決定した進行可能経路情報と、歩行者が進行可能経路を進行したときの現在位置情報と、現在位置情報が検出されたときの撮像画像とを関連付けて記録する。 Therefore, in the progress history database 25 of the server 3, the progressable route information determined by the progressable route information determination unit 18, the current position information when the pedestrian travels on the progressable route, and the current position information are detected. It is recorded in association with the captured image of the time.

また、歩行者が、例えば「ここはどのあたり?」という質問をすると、メガネ装置2が有する音声送信部16Aが、その質問音声をサーバ3へ送信する。
そして、サーバ3の音声受信部16Bが質問音声を受信し、さらにサーバの質問解析部29が質問音声を解析する。
Further, when a pedestrian asks, for example, "Where is this?", The voice transmission unit 16A of the glasses device 2 transmits the question voice to the server 3.
Then, the voice receiving unit 16B of the server 3 receives the question voice, and the question analysis unit 29 of the server further analyzes the question voice.

また、歩行者の現在位置情報は、メガネ装置2の現在位置情報検出部8が例えば0.5~1秒ごとに検出し、メガネ装置2の現在位置情報送信部8Aがサーバ3へ送信するので、サーバ3は地図情報データベース11が記録した地図情報を参照して、サーバ3の音声回答部16Cが、回答内容例えば「XX2丁目、○○レストランの近くです。」を音声でメガネ装置2へ送信する。 Further, the current position information of the pedestrian is detected by the current position information detection unit 8 of the spectacle device 2 every 0.5 to 1 second, for example, and the current position information transmission unit 8A of the spectacle device 2 transmits the current position information to the server 3. , The server 3 refers to the map information recorded by the map information database 11, and the voice response unit 16C of the server 3 transmits the response content, for example, "XX2-chome, near the XX restaurant." To the glasses device 2 by voice. do.

そして、メガネ装置2の音声受信部16Dが回答内容をサーバから受信する。 Then, the voice receiving unit 16D of the glasses device 2 receives the answer contents from the server.

また、歩行者が、例えば「小倉駅の南側まであとどのくらい?」という質問をすると、サーバ3の音声回答部16Cは、受信した歩行者の現在位置情報と、決定した経路情報とに基づいて、回答内容例えば「約150mくらいです。」を音声でメガネ装置2へ送信する。 Further, when a pedestrian asks, for example, "How far is it to the south side of Kokura Station?", The voice response unit 16C of the server 3 receives the current position information of the pedestrian and the determined route information. Answer content For example, "It is about 150m." Is transmitted by voice to the glasses device 2.

また、歩行者が、例えば「近くに自動販売機はあるか?」という質問をすると、この場合は検索扱いとなり、サーバ3の検索部26が、地図情報データベース11が記録した地図情報と、物体配置情報データベース23が記録した物体配置情報を検索する。 Further, when a pedestrian asks, for example, "Is there a vending machine nearby?", In this case, it is treated as a search, and the search unit 26 of the server 3 displays the map information recorded by the map information database 11 and an object. The object placement information recorded by the placement information database 23 is searched.

そして、検索部26の検索結果例えば「すみません、答えが見つかりません。」を、サーバ3の検索結果送信部26Aが音声でメガネ装置2へ、インターネット30を介して送信する。
また、メガネ装置2の検索結果受信部26Bが検索結果を受信して、告知部19が検索結果を音声で告知する。
Then, the search result of the search unit 26, for example, "I'm sorry, the answer cannot be found." Is transmitted by the search result transmission unit 26A of the server 3 to the glasses device 2 by voice via the Internet 30.
Further, the search result receiving unit 26B of the glasses device 2 receives the search result, and the notification unit 19 announces the search result by voice.

図4(a)は、本発明を適用した歩道進行支援システムにおける撮像画像の第2の例を示す概略図であり、図4(b)は、図4(a)に示す撮像画像の拡張現実画像の一例を示す概略図である。 4 (a) is a schematic view showing a second example of the captured image in the sidewalk progress support system to which the present invention is applied, and FIG. 4 (b) is an augmented reality of the captured image shown in FIG. 4 (a). It is a schematic diagram which shows an example of an image.

図2(a)で示した例と同様に、撮像カメラ4が歩行者の正面の風景を例えば0.5~1秒ごとに撮像し、フレーム画像61を得る。 Similar to the example shown in FIG. 2A, the image pickup camera 4 captures the landscape in front of the pedestrian, for example, every 0.5 to 1 second, and obtains a frame image 61.

また、図2(a)で示した例と同様に、検出された長い線分の傾きの平均角度を算出し、長い線分が垂直になるようにフレーム画像61の中心を回転中心として回転補正を行う。 Further, as in the example shown in FIG. 2A, the average angle of the inclination of the detected long line segment is calculated, and the rotation is corrected with the center of the frame image 61 as the rotation center so that the long line segment becomes vertical. I do.

図4(a)に示す撮像画像60は、横断歩道62と、歩道63と、第1の通行人64と、第2の通行人65などが撮像された画像の一例である。 The captured image 60 shown in FIG. 4A is an example of an image in which a pedestrian crossing 62, a sidewalk 63, a first passerby 64, a second passerby 65, and the like are captured.

次に、物体検出部5が、撮像画像60に「HOG人物検出処理」を行い、撮像画像60の中で、可動物体である第1の通行人64及び第2の通行人65を検出し、図4(b)に示すように、検出された第1の通行人64を囲んだ第1の人物候補存在領域矩形70及び検出された第2の通行人65を囲んだ第2の人物候補存在領域矩形71を、拡張現実画像66において表示する。 Next, the object detection unit 5 performs "HOG person detection processing" on the captured image 60, and detects the first passerby 64 and the second passerby 65, which are movable objects, in the captured image 60. As shown in FIG. 4B, the existence of the first person candidate existence area rectangular 70 surrounding the detected first passerby 64 and the existence of the second person candidate surrounding the detected second passerby 65. The area rectangle 71 is displayed in the augmented reality image 66.

そして、物体特定部14が、検出された第1の通行人64及び第2の通行人65それぞれの存在領域矩形の数値情報例えば大きさと、検出物体情報データベース13が記録した人物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、CNNを利用して、検出された第1の通行人64及び第2の通行人65が人物であることの特徴量を算出し、この特徴量が規定値以上である場合、人物であると特定する。 Then, the object identification unit 14 determines the numerical information, for example, the size of the area rectangle in which the first passerby 64 and the second passerby 65 are detected, and the condition, for example, the size of the person recorded by the detected object information database 13. The size is within the range by collating with the range of, and further, the feature amount that the detected first passerby 64 and the second passerby 65 are people is calculated by using CNN. , If this feature amount is more than the specified value, it is identified as a person.

また、図示していないが、物体検出部5が、ハフ変換により撮像画像60において検出された、垂直角度±5度の範囲で鉛直方向に延びる所定の長さ以上の線分である鉛直線分に基づいて、歩道に面した静止物体である建物を検出する。 Further, although not shown, a vertical line segment extending in the vertical direction within a range of a vertical angle of ± 5 degrees detected in the captured image 60 by the object detection unit 5 is a line segment having a predetermined length or longer. Detects a building that is a stationary object facing the sidewalk based on.

そして、物体特定部14が、検出された建物の存在領域矩形の数値情報例えば大きさと、検出物体情報データベース13が記録した、建物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、精度を高めるためにCNNを利用して、検出された建物が確かに建物であることの特徴量を算出し、この特徴量が規定値以上である場合、建物であると特定する。 Then, the object identification unit 14 collates the numerical information, for example, of the detected rectangular existing area of the building with the building condition, for example, the range of the size recorded by the detected object information database 13, and the size is within the range. Furthermore, in order to improve the accuracy, CNN is used to calculate the feature amount that the detected building is certainly a building, and if this feature amount is equal to or more than the specified value, it is identified as a building. do.

また、線分検出部6が、撮像画像60の中で、撮像画像60の下部から撮像画像60の略中央領域へ向けて傾斜して延びる右側傾斜線分68と、撮像画像60の下部から撮像画像60の略中央領域へ向けて傾斜して延びると共に撮像画像60の下部から撮像画像60の略中央領域に近づくにつれて右側傾斜線分68との間の距離が短くなった左側傾斜線分69とを検出する。 Further, the line segment detection unit 6 captures images from the right inclined line segment 68 extending inclined from the lower part of the captured image 60 toward the substantially central region of the captured image 60 and the lower part of the captured image 60 in the captured image 60. With the left inclined line segment 69, which extends inclined toward the substantially central region of the image 60 and the distance between the lower portion of the captured image 60 and the right inclined line segment 68 becomes shorter as it approaches the substantially central region of the captured image 60. Is detected.

また、右側傾斜線分68は、歩道に面した建物に基づいて検出された線分であり、左側傾斜線分69は、撮像画像60の中心付近に存在する消失点に対して、右側傾斜線分68の角度と同じ角度に基づいて検出された線分である。 Further, the right side inclined line segment 68 is a line segment detected based on the building facing the sidewalk, and the left side inclined line segment 69 is a right side inclined line segment with respect to the vanishing point existing near the center of the captured image 60. It is a line segment detected based on the same angle as the angle of the minute 68.

従って、図4(b)に示すように、拡張現実画像66の中心付近に消失点67を表示し、拡張現実画像66において、歩道に面した建物に沿って右側傾斜線分68を表示し、消失点67に対して右側傾斜線分68の角度と同じ角度の左側傾斜線分69を表示する。 Therefore, as shown in FIG. 4B, the vanishing point 67 is displayed near the center of the augmented reality image 66, and the right side inclined line segment 68 is displayed along the building facing the side surface in the augmented reality image 66. The left side inclined line segment 69 having the same angle as the right side inclined line segment 68 with respect to the vanishing point 67 is displayed.

そして、歩道決定部7が、右側傾斜線分68と左側傾斜線分69との間の領域を歩道として決定する。 Then, the sidewalk determination unit 7 determines the area between the right side slope line segment 68 and the left side slope line segment 69 as a sidewalk.

また、線分検出部6は、さらに、撮像画像60の中で、右側傾斜線分68及び左側傾斜線分69それぞれと交差する、第1の交差線分72及び第2の交差線分を検出する。
すなわち、第1の交差線分72及び第2の交差線分は歩道境界設置物に基づいて検出された線分である。
なお、第2の交差線分は図示されていない。
Further, the line segment detection unit 6 further detects the first crossing line segment 72 and the second crossing line segment that intersect each of the right side inclined line segment 68 and the left side inclined line segment 69 in the captured image 60. do.
That is, the first crossing line segment 72 and the second crossing line segment are line segments detected based on the sidewalk boundary installation.
The second crossing line segment is not shown.

また、距離測定部10は、撮像画像60に基づいて第1の交差線分72と第2の交差線分の間の距離すなわち道幅を測定する。 Further, the distance measuring unit 10 measures the distance between the first crossing line segment 72 and the second crossing line segment, that is, the road width, based on the captured image 60.

また、制御部20は、距離測定部が測定した第1の交差線分72と第2の交差線分の間の距離が所定の値例えば一台の自動車が通行できる距離である約2.5mより大きい場合に、撮像カメラ4の撮像方向が左方向へ向くことである左方向転換へ誘導する内容及び撮像カメラ4の撮像方向が右方向へ向くことである右方向転換へ誘導する内容を告知部19に告知させる制御を行う。 Further, in the control unit 20, the distance between the first crossing line segment 72 and the second crossing line segment measured by the distance measuring unit is a predetermined value, for example, about 2.5 m, which is a distance that one automobile can pass. When the size is larger, the content of guiding the image pickup camera 4 to the left direction change and the content of guiding the image pickup camera 4 to the right direction change to the right direction are announced. Control is performed to notify the unit 19.

また、図示していないが、物体検出部5が、撮像画像60をHSVカラー変換して、色相画像、彩度画像及び明度画像に分離し、色相画像と彩度画像から点字ブロックの黄色に対応する規定の色相範囲及び彩度範囲を取り出す二値化処理を行い、その結果にラべリング処理を行って、微小ブロブ(塊)を除去した後、残った領域を囲んだ点字ブロック候補存在領域矩形を表示する。 Further, although not shown, the object detection unit 5 performs HSV color conversion of the captured image 60 and separates it into a hue image, a saturation image, and a brightness image, and corresponds to the yellow color of the braille block from the hue image and the saturation image. A binarization process for extracting the specified hue range and saturation range is performed, and a labeling process is performed on the result to remove minute blobs (lumps). Display a rectangle.

そして、物体特定部14が、検出された点字ブロックの色相及び彩度と、検出物体情報データベース13が記録した点字ブロックの条件例えば色相の範囲及び彩度の範囲とを照合して色相及び彩度が範囲内である場合、点字ブロックであると特定する。 Then, the object identification unit 14 collates the detected hue and saturation of the Braille block with the conditions of the Braille block recorded by the detected object information database 13, for example, the hue range and the saturation range, and the hue and saturation. If is within range, identify it as a Braille block.

また、物体特定部14は、検出物体情報データベース13が記録した、複数の点字ブロックが互いに連結した構成である点字ブロック連結体の形状パターン例えば、三角錐、T字、左分岐、右分岐あるいはこれらの複合型と、検出された複数の点字ブロックの点字ブロック連結体の形状パターンとを照合して、点字ブロック連結体の意味を特定する。 Further, the object identification unit 14 is a shape pattern of a Braille block connected body recorded by the detected object information database 13 in which a plurality of Braille blocks are connected to each other, for example, a triangular pyramid, a T-shape, a left branch, a right branch, or these. The meaning of the Braille block connector is specified by collating the complex type of the above with the shape pattern of the detected Braille block connector of the plurality of Braille blocks.

そして、位置情報対比部21が、点字ブロックに対応する、物体地図座標作成部12が作成した地図座標の緯度経度位置情報と、現在位置情報検出部8が検出した現在位置情報とを対比する。 Then, the position information comparison unit 21 compares the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit 12 corresponding to the Braille block with the current position information detected by the current position information detection unit 8.

また、制御部20は、位置情報対比部21が対比した結果、点字ブロックの位置情報と現在位置情報が一致しない場合に、告知部19に点字ブロックの位置への誘導を告知させる制御を行う。 Further, the control unit 20 controls the notification unit 19 to notify the guidance to the position of the Braille block when the position information of the Braille block and the current position information do not match as a result of the comparison by the position information comparison unit 21.

また、図示していないが、物体検出部5が、撮像画像40または撮像画像60をHSVカラー変換して、色相画像、彩度画像及び明度画像に分離し、彩度画像から高彩度領域、例えば[100、255]画素を取り出すための二値化処理を行い、その結果にラべリング処理を行って、微小ブロブ(塊)あるいは大きすぎるブロブなどを除去し、残った領域を囲んだ高彩度歩行障害物候補存在領域矩形を表示する。 Further, although not shown, the object detection unit 5 performs HSV color conversion of the captured image 40 or the captured image 60 and separates them into a hue image, a saturation image, and a brightness image, and the saturation image is separated into a high saturation region, for example, [[ 100, 255] A binarization process for extracting pixels is performed, and a labeling process is performed on the result to remove minute blobs (lumps) or oversized blobs, and a high-saturation walking disorder surrounding the remaining area. Display the object candidate existence area rectangle.

そして、物体特定部14が、検出された高彩度歩行障害物例えば街路樹の存在領域矩形の数値情報例えば大きさや彩度と、検出物体情報データベース13が記録した、高彩度歩行障害物の条件例えば存在領域矩形の大きさの範囲や彩度範囲とを照合した結果、大きさや彩度が範囲内であり、さらに、精度を高めるためにCNNを利用して、検出された街路樹が樹木であることの特徴量を算出し、この特徴量が規定値以上である場合、樹木であると特定する。 Then, the object identification unit 14 determines the numerical information of the detected high-saturation gait obstacle, for example, the existence area rectangle of the roadside tree, for example, the size and saturation, and the condition of the high-saturation gait obstacle, for example, the existence area recorded by the detected object information database 13. As a result of collating with the size range and saturation range of the rectangle, the size and saturation are within the range, and CNN is used to improve the accuracy, and the detected roadside tree is a tree. The feature amount is calculated, and if this feature amount is equal to or more than the specified value, it is identified as a tree.

図5は、本発明を適用した歩道進行支援システムにおける第3の例の撮像画像の拡張現実画像の一例を示す概略図である。 FIG. 5 is a schematic view showing an example of an augmented reality image of the captured image of the third example in the sidewalk progress support system to which the present invention is applied.

図2(a)で示した例と同様に、撮像カメラ4が歩行者の正面の風景を例えば0.5~1秒ごとに撮像し、フレーム画像73を得る。 Similar to the example shown in FIG. 2A, the image pickup camera 4 captures the landscape in front of the pedestrian, for example, every 0.5 to 1 second, and obtains a frame image 73.

また、図2(a)で示した例と同様に、検出された長い線分の傾きの平均角度を算出し、長い線分が垂直になるようにフレーム画像73の中心を回転中心として回転補正を行う。 Further, as in the example shown in FIG. 2A, the average angle of the inclination of the detected long line segment is calculated, and the rotation is corrected with the center of the frame image 73 as the rotation center so that the long line segment becomes vertical. I do.

このときの撮像画像は、第1の点字ブロック75と、第2の点字ブロック76と、歩道77と、横断歩道83などが撮像された画像である。 The captured image at this time is an image in which the first Braille block 75, the second Braille block 76, the sidewalk 77, the pedestrian crossing 83, and the like are captured.

次に、物体検出部5が、撮像画像をHSVカラー変換して、色相画像、彩度画像及び明度画像に分離し、色相画像と彩度画像から点字ブロックの黄色に対応する規定の色相範囲及び彩度範囲を取り出す二値化処理を行う。 Next, the object detection unit 5 performs HSV color conversion of the captured image, separates it into a hue image, a saturation image, and a lightness image, and a predetermined hue range corresponding to the yellow color of the Braille block from the hue image and the saturation image and Performs binarization processing to extract the saturation range.

そして、物体検出部5は、その結果にラべリング処理を行って、微小ブロブ(塊)を除去した後、図5に示すように、残った領域すなわち検出された第1の点字ブロック75を囲んだ第1の点字ブロック候補存在領域矩形81及び検出された第2の点字ブロック76を囲んだ第2の点字ブロック候補存在領域矩形82を、拡張現実画像74において表示する。 Then, the object detection unit 5 performs a labeling process on the result to remove the minute blobs (lumps), and then, as shown in FIG. 5, the remaining region, that is, the detected first Braille block 75 is removed. The enclosed first Braille block candidate existence area rectangle 81 and the second Braille block candidate existence area rectangle 82 surrounding the detected second Braille block 76 are displayed in the augmented reality image 74.

そして、物体特定部14が、検出された第1の点字ブロック75及び第2の点字ブロック76それぞれの色相及び彩度と、検出物体情報データベース13が記録した点字ブロックの条件例えば色相の範囲及び彩度の範囲とを照合して色相及び彩度が範囲内である場合、点字ブロックであると特定する。 Then, the object identification unit 14 determines the hue and saturation of each of the detected first Braille block 75 and the second Braille block 76, and the conditions of the Braille block recorded by the detected object information database 13, such as the range and color of the hue. If the hue and saturation are within the range by collating with the range of degrees, it is specified as a Braille block.

また、物体特定部14は、検出物体情報データベース13が記録した点字ブロック連結体の形状パターン例えば、三角錐、T字、左分岐、右分岐あるいはこれらの複合型と、検出された複数の第1の点字ブロック75及び第2の点字ブロック76それぞれの点字ブロック連結体の形状パターンとを照合して、点字ブロック連結体の意味を特定する。 Further, the object identification unit 14 includes a shape pattern of a Braille block connector recorded by the detected object information database 13, for example, a triangular pyramid, a T-shape, a left branch, a right branch, or a composite type thereof, and a plurality of detected firsts. The meaning of the Braille block connection is specified by collating with the shape pattern of each Braille block connection of the Braille block 75 and the second Braille block 76.

また、図示していないが、物体検出部5が、撮像画像から低彩度領域例えば彩度値範囲[0、5]画素を二値化処理で抽出しラべリング処理をかけ、微小ブロブ(塊)や大きすぎるブロブ(塊)を除去して、残った領域を囲んだ左側歩道境界設置物候補存在領域矩形などを表示する。 Further, although not shown, the object detection unit 5 extracts a low-saturation region, for example, a saturation value range [0, 5] pixels from the captured image by binarization processing and performs labeling processing to perform a minute blob (). Remove the lumps and blobs that are too large, and display the left sidewalk boundary installation candidate existence area rectangle that surrounds the remaining area.

また、物体特定部14が、検出された左側歩道境界設置物の存在領域矩形の数値情報例えば大きさと、検出物体情報データベース13が記録した、歩道境界設置物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、精度を高めるためにCNNを利用して、検出された歩道境界設置物が確かに歩道境界設置物であることの特徴量を算出し、この特徴量が規定値以上である場合、歩道境界設置物であると特定する。 Further, the object identification unit 14 collates the numerical information of the detected area rectangular of the left sidewalk boundary installation object, for example, with the range of the condition, for example, the size of the sidewalk boundary installation object recorded by the detected object information database 13. Then, the size is within the range, and CNN is used to further improve the accuracy, and the feature amount that the detected sidewalk boundary installation is certainly the sidewalk boundary installation is calculated, and this feature amount is calculated. If is greater than or equal to the specified value, it is identified as a sidewalk boundary installation.

また、線分検出部6が、撮像画像の中で、撮像画像の下部から撮像画像の略中央領域へ向けて傾斜して延びる右側傾斜線分79と、撮像画像の下部から撮像画像の略中央領域へ向けて傾斜して延びると共に撮像画像の下部から撮像画像の略中央領域に近づくにつれて右側傾斜線分68との間の距離が短くなった左側傾斜線分80とを検出する。 Further, in the captured image, the line segment detection unit 6 has a right-sided inclined line segment 79 extending inclined from the lower part of the captured image toward the substantially central region of the captured image, and a substantially center of the captured image from the lower part of the captured image. The left side inclined line segment 80 is detected as the distance between the right side inclined line segment 68 and the right side inclined line segment 68 becomes shorter as the image is inclined toward the region and extends from the lower part of the captured image toward the substantially central region of the captured image.

また、左側傾斜線分80は、歩道境界設置物に基づいて検出された線分であり、右側傾斜線分79は、撮像画像の中心近くに存在する消失点に対して、左側傾斜線分80の角度と同じくらいの角度に基づいて検出された線分である。 Further, the left inclined line segment 80 is a line segment detected based on the side surface boundary installation object, and the right inclined line segment 79 is a left inclined line segment 80 with respect to a vanishing point existing near the center of the captured image. It is a line segment detected based on an angle as high as the angle of.

従って、図5に示すように、拡張現実画像74の中心近くに消失点78を表示し、拡張現実画像74において、歩道境界設置物に沿って左側傾斜線分80を表示し、消失点78に対して左側傾斜線分80の角度と同じくらいの角度の右側傾斜線分79を表示する。 Therefore, as shown in FIG. 5, the vanishing point 78 is displayed near the center of the augmented reality image 74, and in the augmented reality image 74, the left side inclined line segment 80 is displayed along the sidewalk boundary installation object, and the vanishing point 78 is displayed. On the other hand, the right side inclined line segment 79 having the same angle as the angle of the left side inclined line segment 80 is displayed.

そして、歩道決定部7が、右側傾斜線分79と左側傾斜線分80との間の領域を歩道として決定する。 Then, the sidewalk determination unit 7 determines the area between the right side slope line segment 79 and the left side slope line segment 80 as a sidewalk.

また、サーバ3の特定物体送信部14Aが、物体特定部14が特定した点字ブロック連結体に関する情報を、インターネット30を介してメガネ装置2へ送信する。
また、メガネ装置2の特定物体受信部14Bが、点字ブロック連結体に関する情報をサーバ3から受信する。
Further, the specific object transmission unit 14A of the server 3 transmits information about the Braille block connector specified by the object identification unit 14 to the eyeglass device 2 via the Internet 30.
Further, the specific object receiving unit 14B of the eyeglass device 2 receives information about the Braille block connector from the server 3.

そして、制御部20が、点字ブロック連結体に関する情報すなわち点字ブロック連結体の意味を音声で、告知部19に告知させる制御を行う。
図5に示す点字ブロック連結体の場合、告知部19は具体的には例えば「前方3mに横断歩道点字ブロックがあります。」を音声で告知する。
Then, the control unit 20 controls the notification unit 19 to notify the information about the Braille block connection body, that is, the meaning of the Braille block connection body by voice.
In the case of the Braille block connection shown in FIG. 5, the notification unit 19 specifically announces, for example, "There is a pedestrian crossing Braille block 3 m ahead."

図6は、本発明を適用した歩道進行支援システムにおける第4の例の撮像画像の拡張現実画像の一例を示す概略図である。 FIG. 6 is a schematic view showing an example of an augmented reality image of the captured image of the fourth example in the sidewalk progress support system to which the present invention is applied.

図2(a)で示した例と同様に、撮像カメラ4が歩行者の正面の風景を例えば0.5~1秒ごとに撮像し、フレーム画像84を得る。 Similar to the example shown in FIG. 2A, the image pickup camera 4 captures the landscape in front of the pedestrian, for example, every 0.5 to 1 second, and obtains a frame image 84.

また、図2(a)で示した例と同様に、検出された長い線分の傾きの平均角度を算出し、長い線分が垂直になるようにフレーム画像84の中心を回転中心として回転補正を行う。 Further, as in the example shown in FIG. 2A, the average angle of the inclination of the detected long line segment is calculated, and the rotation is corrected with the center of the frame image 84 as the rotation center so that the long line segment becomes vertical. I do.

このときの撮像画像は、歩道86と、第1の通行人87と、第2の通行人89などが撮像された画像である。 The captured image at this time is an image obtained by capturing the sidewalk 86, the first passerby 87, the second passerby 89, and the like.

次に、物体検出部5が、撮像画像に「HOG人物検出処理」を行い、撮像画像の中で、可動物体である第1の通行人87及び第2の通行人89を検出し、図6に示すように、検出された第1の通行人87を囲んだ第1の人物候補存在領域矩形88及び検出された第2の通行人89を囲んだ第2の人物候補存在領域矩形90を、拡張現実画像85において表示する。 Next, the object detection unit 5 performs "HOG person detection processing" on the captured image, detects the first passerby 87 and the second passerby 89, which are movable objects, in the captured image, and FIG. As shown in the above, a first person candidate existence area rectangle 88 surrounding the detected first passerby 87 and a second person candidate existence area rectangle 90 surrounding the detected second passerby 89. It is displayed in the augmented reality image 85.

そして、物体特定部14が、検出された第1の通行人87及び第2の通行人89それぞれの存在領域矩形の数値情報例えば大きさと、検出物体情報データベース13が記録した人物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、CNNを利用して、検出された第1の通行人87及び第2の通行人89が人物でえあることの特徴量を算出し、この特徴量が規定値以上である場合、人物であると特定する。 Then, the object identification unit 14 determines the numerical information, for example, the size of the area rectangle in which the first passerby 87 and the second passerby 89 are detected, and the condition, for example, the size of the person recorded by the detected object information database 13. The size is within the range by collating with the range of, and further, the feature amount that the detected first passerby 87 and the second passerby 89 are human beings is calculated by using CNN. However, if this feature amount is equal to or greater than the specified value, it is identified as a person.

また、図示していないが、物体検出部5が、撮像画像から低彩度領域例えば彩度値範囲[0、5]画素を二値化処理で抽出しラべリング処理をかけ、微小ブロブ(塊)や大きすぎるブロブ(塊)を除去して、残った領域を囲んだ左側歩道境界設置物候補存在領域矩形などを表示する。 Further, although not shown, the object detection unit 5 extracts a low-saturation region, for example, a saturation value range [0, 5] pixels from the captured image by binarization processing and performs labeling processing to perform a minute blob (). Remove the lumps and blobs that are too large, and display the left sidewalk boundary installation candidate existence area rectangle that surrounds the remaining area.

また、物体特定部14が、検出された左側歩道境界設置物の存在領域矩形の数値情報例えば大きさと、検出物体情報データベース13が記録した、歩道境界設置物の条件例えば大きさの範囲とを照合して大きさが範囲内であり、さらに、精度を高めるためにCNNを利用して、検出された歩道境界設置物が確かに歩道境界設置物であることの特徴量を算出し、この特徴量が規定値以上である場合、歩道境界設置物であると特定する。 Further, the object identification unit 14 collates the numerical information of the detected area rectangular of the left sidewalk boundary installation object, for example, with the range of the condition, for example, the size of the sidewalk boundary installation object recorded by the detected object information database 13. Then, the size is within the range, and CNN is used to further improve the accuracy, and the feature amount that the detected sidewalk boundary installation is certainly the sidewalk boundary installation is calculated, and this feature amount is calculated. If is greater than or equal to the specified value, it is identified as a sidewalk boundary installation.

また、線分検出部6が、撮像画像の中で、撮像画像の下部から撮像画像の略中央領域へ向けて傾斜して延びる右側傾斜線分92と、撮像画像の下部から撮像画像の略中央領域へ向けて傾斜して延びると共に撮像画像の下部から撮像画像の略中央領域に近づくにつれて右側傾斜線分92との間の距離が短くなった左側傾斜線分93とを検出する。 Further, in the captured image, the line segment detection unit 6 has a right-sided inclined line segment 92 extending inclined from the lower part of the captured image toward the substantially central region of the captured image, and a substantially center of the captured image from the lower part of the captured image. The left side inclined line segment 93 is detected as the distance between the right side inclined line segment 92 and the right side inclined line segment 92 becomes shorter as the image is inclined toward the region and extends from the lower part of the captured image toward the substantially central region of the captured image.

また、左側傾斜線分93は、歩道境界設置物に基づいて検出された線分であり、右側傾斜線分92は、撮像画像の中心付近に存在する消失点に対して、左側傾斜線分93の角度と同じくらいの角度に基づいて検出された線分である。 Further, the left inclined line segment 93 is a line segment detected based on the side wall boundary installation object, and the right inclined line segment 92 is the left inclined line segment 93 with respect to the vanishing point existing near the center of the captured image. It is a line segment detected based on an angle as high as the angle of.

従って、図6に示すように、拡張現実画像85の中心付近に消失点91を表示し、拡張現実画像85において、歩道境界設置物に沿って左側傾斜線分93を表示し、消失点91に対して左側傾斜線分93の角度と同じくらいの角度の右側傾斜線分92を表示する。 Therefore, as shown in FIG. 6, the vanishing point 91 is displayed near the center of the augmented reality image 85, and in the augmented reality image 85, the left side inclined line segment 93 is displayed along the sidewalk boundary installation object, and the vanishing point 91 is displayed. On the other hand, the right side inclined line segment 92 having the same angle as the angle of the left side inclined line segment 93 is displayed.

そして、歩道決定部7が、右側傾斜線分92と左側傾斜線分93との間の領域を歩道として決定する。 Then, the sidewalk determination unit 7 determines the area between the right side slope line segment 92 and the left side slope line segment 93 as a sidewalk.

また、告知部19は、物体特定部14が可動物体である人物すなわち第1の通行人87及び第2の通行人89を特定しているので、人物が存在することを音声で告知する。 Further, since the object identification unit 14 identifies a person who is a movable object, that is, the first passerby 87 and the second passerby 89, the notification unit 19 announces the existence of the person by voice.

図7は、本発明を適用した歩道進行支援システムで使用されるメガネ装置を用いて段差を検知する様子の一例を示す概略図である。 FIG. 7 is a schematic view showing an example of detecting a step using a spectacle device used in a sidewalk progress support system to which the present invention is applied.

本発明の歩道進行支援システム1を構成するメガネ装置2の距離測定部10は、レーザ96を照射して撮像カメラ4から撮像カメラ4に撮像された静止物体すなわち、メガネ装置2が有する撮像カメラ4から斜め下方に位置する歩行面100までの距離も測定できる。 The distance measuring unit 10 of the glasses device 2 constituting the sidewalk progress support system 1 of the present invention irradiates the laser 96 to capture a stationary object imaged by the image pickup camera 4 from the image pickup camera 4, that is, the image pickup camera 4 possessed by the glasses device 2. The distance from the walking surface 100 located diagonally downward can also be measured.

また、レーザ96は、メガネ装置2が作動している間、連続して照射されている。 Further, the laser 96 is continuously irradiated while the eyeglass device 2 is operating.

また、図7に示すように、白杖97を持った歩行者95が立っている歩行面100よりも低くなった段差98が、歩行者95の前方に存在する場合、撮像カメラ4から歩行面100までの距離よりも、撮像カメラ4から段差98によって低くなった段差面101までの距離の方が長い。 Further, as shown in FIG. 7, when a step 98 lower than the walking surface 100 on which the pedestrian 95 holding the white cane 97 stands is present in front of the pedestrian 95, the walking surface is viewed from the image pickup camera 4. The distance from the image pickup camera 4 to the step surface 101 lowered by the step 98 is longer than the distance to 100.

従って、制御部20は、斜め下方へ連続して照射されたレーザ96の反射に基づいて連続して測定された距離が変化した場合すなわち距離が長くなった場合に、告知部19に段差98が存在することを告知させる制御を行う。 Therefore, the control unit 20 has a step 98 in the notification unit 19 when the distance measured continuously changes based on the reflection of the laser 96 continuously irradiated diagonally downward, that is, when the distance becomes long. Controls to announce the existence.

また、図8は、本発明を適用した歩道進行支援システムにおいて白杖の代わりに盲導犬ロボットを用いた例を示す概略図である。 Further, FIG. 8 is a schematic view showing an example in which a guide dog robot is used instead of the white cane in the sidewalk progress support system to which the present invention is applied.

この場合、盲導犬ロボット99は、撮像カメラや、レーザを照射する距離測定部や、進行可能経路情報受信部を有し、受信した進行可能経路情報に従って自動走行できる構成とすることが考えられる。
従って、目の不自由な歩行者は、この盲導犬ロボット99を図8に示すように掴んで歩行することで、進行可能経路に沿って歩行することができる。
In this case, it is conceivable that the guide dog robot 99 has an image pickup camera, a distance measuring unit that irradiates a laser, and a travelable route information receiving unit, and can automatically travel according to the received travelable route information.
Therefore, a visually impaired pedestrian can walk along the progressable path by grasping and walking the guide dog robot 99 as shown in FIG.

また、サーバ3がクラウドサーバである構成とすることもでき、あるいは、サーバ3とは別のクラウドサーバが存在するという構成とすることもできる。 Further, the server 3 may be configured to be a cloud server, or the server 3 may be configured to have a cloud server different from the server 3.

また、サーバ3とは別のクラウドサーバが存在する場合、サーバ3は本発明のシステムを利用する歩行者ごとに設置されている。
そして、複数のサーバ3それぞれの進行履歴データベース25が記録した情報すなわち、歩行者が実際に進行した進行可能経路情報と、進行したときの現在位置情報と、現在位置情報が検出されたときの撮像画像を、複数のサーバ3それぞれがクラウドサーバへ送信して多くの情報を収集できる。
Further, when a cloud server different from the server 3 exists, the server 3 is installed for each pedestrian who uses the system of the present invention.
Then, the information recorded by the progress history database 25 of each of the plurality of servers 3, that is, the travelable route information actually traveled by the pedestrian, the current position information when the pedestrian has progressed, and the image capture when the current position information is detected. Each of the plurality of servers 3 can transmit the image to the cloud server and collect a lot of information.

さらに、複数のサーバ3それぞれは、物体特定部14が特定した物体のうち歩行障害物に関する情報や、歩行者から受信した質問情報(音声)や、地図情報データベース11が記録した地図情報が更新された場合の地図更新情報を、クラウドサーバへ送信して多くの情報を収集できる。 Further, each of the plurality of servers 3 is updated with information on walking obstacles among the objects specified by the object identification unit 14, question information (voice) received from pedestrians, and map information recorded by the map information database 11. A lot of information can be collected by sending the map update information in the case of the case to the cloud server.

すなわち、様々な地域の障害者支援団体などの様々な団体やユーザが、本発明の歩道進行支援システムを利用することで、各地域の経路や歩行障害物などの情報をクラウドサーバに収集できるので、様々な地域の様々な団体やユーザが協力して情報を収集できる。
そして、収集した情報を基に詳細な経路や歩行障害物などの情報を整備できる。
That is, various groups and users such as disability support groups in various regions can collect information such as routes and walking obstacles in each region on the cloud server by using the sidewalk progress support system of the present invention. , Various groups and users in different regions can work together to collect information.
Then, based on the collected information, information such as detailed routes and gait obstacles can be prepared.

従って、本発明の歩道進行支援システムを利用する歩行者が、居住地域から旅行や仕事などで別の地域すなわち移動先地域へ行ったときでも、その歩行者に対応するサーバ3がクラウドサーバと通信して、移動先地域における詳細な経路や歩行障害物などの情報を利用でき、このようなクラウド連携機能によって、本発明の歩道進行支援システムの利便性や安全性を向上できる。 Therefore, even when a pedestrian using the sidewalk progress support system of the present invention goes from a residential area to another area, that is, a destination area for travel or work, the server 3 corresponding to the pedestrian communicates with the cloud server. Then, information such as detailed routes and pedestrian obstacles in the destination area can be used, and such a cloud cooperation function can improve the convenience and safety of the sidewalk progress support system of the present invention.

図9(a)は本発明の歩道進行支援システムが備えるベルト装置の一例を示す概略図であり、図9(b)は歩行者がベルト装置を装着した様子の一例を示す概略図である。 FIG. 9A is a schematic view showing an example of a belt device included in the sidewalk progress support system of the present invention, and FIG. 9B is a schematic view showing an example of a pedestrian wearing the belt device.

本発明の歩道進行支援システム1は、音声で告知する音声告知部と振動で告知する振動告知部の両方、あるいはいずれか一方を備える。
具体的には例えば、メガネ装置2が音声告知部と振動告知部を有していたり、メガネ装置2とは別に、歩行者95の胴部などに装着できるベルト装置102が振動告知部103を有していたりする。
The sidewalk progress support system 1 of the present invention includes both or one of a voice notification unit for voice notification and a vibration notification unit for vibration notification.
Specifically, for example, the glasses device 2 has a voice notification unit and a vibration notification unit, and a belt device 102 that can be attached to the body of a pedestrian 95 or the like separately from the glasses device 2 has a vibration notification unit 103. I'm doing it.

また、ベルト装置102の振動告知部103が振動で告知するときは、例えば、メガネ装置2からベルト装置102へ告知内容を送信し、ベルト装置102の振動告知部103は送信された告知内容に基づいて振動で告知する。
すなわち、ベルト装置102が有する振動告知部103は、メガネ装置2が有する告知部19が音声で告知するときに振動で告知する。
従って、図示していないが、ベルト装置102は、告知内容を受信可能な受信部を有する。
When the vibration notification unit 103 of the belt device 102 vibrates, for example, the glasses device 2 transmits the notification content to the belt device 102, and the vibration notification unit 103 of the belt device 102 is based on the transmitted notification content. And announce by vibration.
That is, the vibration notification unit 103 of the belt device 102 vibrates when the notification unit 19 of the eyeglass device 2 makes a voice notification.
Therefore, although not shown, the belt device 102 has a receiving unit capable of receiving the notification content.

また、振動告知部103は、具体的には本体103Aと、複数の振動体103Bを有する。
ここで、本体103Aは、長手方向を有し、かつ、長手方向の一方側と、この一方側とは反対側に位置する他方側とを着脱可能に連結可能である。
また、複数の振動体103Bは、本体103Aの一方の面に本体103Aの長手方向と同じ方向に並べて取付けられており、かつ、告知する場合に振動可能である。
Further, the vibration notification unit 103 specifically includes a main body 103A and a plurality of vibrating bodies 103B.
Here, the main body 103A has a longitudinal direction, and one side in the longitudinal direction and the other side located on the opposite side to the one side can be detachably connected to each other.
Further, the plurality of vibrating bodies 103B are mounted side by side in the same direction as the longitudinal direction of the main body 103A on one surface of the main body 103A, and can vibrate when notified.

すなわち、振動告知部103の本体103Aは、長手方向の一方側と、この一方側とは反対側の他方側が互いに着脱可能に連結されて図9(a)に示されるような環状に成ることが可能であり、歩行者の身体例えば胴部に本体103Aが装着されるために環状と成す。 That is, the main body 103A of the vibration notification unit 103 may have an annular shape as shown in FIG. 9 (a) in which one side in the longitudinal direction and the other side opposite to the one side are detachably connected to each other. It is possible, and it forms an annular shape because the main body 103A is attached to the pedestrian's body, for example, the torso.

また、振動告知部103の本体103Aが環状と成った場合、振動体103Bが歩行者に接触するように本体103Aを歩行者に装着する。このとき、歩行者の身体の例えば前側に接触する本体103Aの個所は決まっているものとする。
また、図9(a)に示すように、本体103Aが環状に成ったときに振動体103Bは360度全方位に配置された状態となる。
Further, when the main body 103A of the vibration notification unit 103 forms an annular shape, the main body 103A is attached to the pedestrian so that the vibrating body 103B comes into contact with the pedestrian. At this time, it is assumed that the location of the main body 103A that comes into contact with, for example, the front side of the pedestrian's body is fixed.
Further, as shown in FIG. 9A, when the main body 103A becomes annular, the vibrating body 103B is in a state of being arranged in all directions of 360 degrees.

また、振動体103Bの振動態様は、告知内容に応じて様々に変化する。
具体的には例えば、歩行者を左方向転換へ誘導する告知内容であれば、歩行者の胴部の左側に接触する振動体103Bのみが振動し、歩行者を右方向転換へ誘導する告知内容であれば、歩行者の胴部の右側に接触する振動体103Bのみが振動する。
また、歩行者に歩行を停止させる告知内容であれば、例えば歩行者の胴部の後側に接触する振動体のみが振動し、歩行者に、通行人や電信柱や段差など歩行の障害となる物が存在することを告知する内容であれば、例えば全ての振動体が同時に振動する。
Further, the vibration mode of the vibrating body 103B changes variously depending on the content of the notification.
Specifically, for example, in the case of a notification content that guides a pedestrian to a left turn, only the vibrating body 103B that contacts the left side of the pedestrian's torso vibrates, and the notification content that guides the pedestrian to a right turn. If so, only the vibrating body 103B that contacts the right side of the pedestrian's torso vibrates.
In addition, if the content of the notification is to stop the pedestrian from walking, for example, only the vibrating body that comes into contact with the rear side of the pedestrian's torso vibrates, causing the pedestrian to have an obstacle to walking such as a passerby, a telegraph column, or a step. For example, all the vibrating bodies vibrate at the same time as long as the content announces the existence of the object.

図9(b)に示すように、白杖97を持った歩行者95が立っている歩行面100より低くなった段差98が、歩行者95の前方に存在する場合、制御部20が、告知部19に段差98が存在することを告知させる制御を行い、かつ、メガネ装置2からベルト装置102へ告知内容すなわち段差98が存在することを送信し、ベルト装置102の振動告知部103は送信された告知内容に基づいて振動で告知する、すなわち全ての振動体103Bが同時に振動する。 As shown in FIG. 9B, when a step 98 lower than the walking surface 100 on which the pedestrian 95 holding the white cane 97 stands is present in front of the pedestrian 95, the control unit 20 notifies. Control is performed to notify the unit 19 of the existence of the step 98, and the content of the notification, that is, the existence of the step 98 is transmitted from the glasses device 2 to the belt device 102, and the vibration notification unit 103 of the belt device 102 is transmitted. The notification is made by vibration based on the content of the notification, that is, all the vibrating bodies 103B vibrate at the same time.

以上のように、本発明の歩道進行支援システムは物体特定部を備えているので、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体を特定できる。
また、本発明の歩道進行支援システムは物体地図座標作成部を備えているので、歩道を歩行する歩行弱者の少なくとも前方に実際に存在する物体の、地図座標における位置を把握することができる。
さらに、本発明の歩道進行支援システムは進行可能経路情報決定部を備えているので、地図情報には含まれない実際に歩行する際の歩道における状況が考慮された、歩道の進行可能経路を決定できる。
As described above, since the sidewalk progress support system of the present invention includes an object identification unit, it is possible to identify an object that actually exists at least in front of a weak walking person walking on the sidewalk.
Further, since the sidewalk progress support system of the present invention includes an object map coordinate creation unit, it is possible to grasp the position of an object actually existing at least in front of a weak walking person walking on the sidewalk in map coordinates.
Further, since the sidewalk progress support system of the present invention includes a progressable route information determination unit, the progressable route of the sidewalk is determined in consideration of the situation on the sidewalk when actually walking, which is not included in the map information. can.

従って、本発明の歩道進行支援システムは、歩行弱者の歩道における進行を支援できる。 Therefore, the sidewalk progress support system of the present invention can support the progress on the sidewalk of a weak walking person.

また、本発明の歩道進行支援ソフトウェアも、情報処理機器を、物体特定部と、物体地図座標作成部と、進行可能経路情報決定部とを含む手段として機能させるので、歩行弱者の歩道における進行を支援できる。 Further, the sidewalk progress support software of the present invention also causes the information processing device to function as a means including an object identification unit, an object map coordinate creation unit, and a travelable route information determination unit, so that the information processing device can travel on the sidewalk of a weak walking person. I can help.

1 歩道進行支援システム
2 メガネ装置
3 サーバ
4 撮像カメラ
4A 撮像画像送信部
4B 撮像画像受信部
5 物体検出部
5A 検出物体送信部
5B 検出物体受信部
6 線分検出部
7 歩道決定部
7A 決定歩道送信部
7B 決定歩道受信部
8 現在位置情報検出部
8A 現在位置情報送信部
8B 現在位置情報受信部
9 方向検出部
9A 撮像方向送信部
9B 撮像方向受信部
10 距離測定部
10A 測定距離送信部
10B 測定距離受信部
11 地図情報データベース
12 物体地図座標作成部
13 検出物体情報データベース
14 物体特定部
14A 特定物体送信部
14B 特定物体受信部
15 進行可能領域位置情報検出部
16 目的地情報決定部
16A 音声送信部
16B 音声受信部
16C 音声回答部
16D 音声受信部
17 経路情報決定部
18 進行可能経路情報決定部
18A 進行可能経路情報送信部
18B 進行可能経路情報受信部
19 告知部
20 制御部
21 位置情報対比部
21A 対比結果送信部
21B 対比結果受信部
22 物体配置情報作成部
23 物体配置情報データベース
24 局所目的地情報決定部
25 進行履歴データベース
26 検索部
26A 検索結果送信部
26B 検索結果受信部
27 画像切出部
27A 切出画像送信部
27B 切出画像受信部
28 教師情報データベース
29 質問解析部
30 インターネット
40 撮像画像
41 フレーム画像
42 右側縁石
43 左側縁石
44 歩道
45 電信柱
46 通行人
47 拡張現実画像
48 消失点
49 右側傾斜線分
50 左側傾斜線分
51 人物候補存在領域矩形
52 鉛直線分
53 歩道領域
54 y軸
55 x正軸
56 原点
57 動座標系
58 地図座標系
60 撮像画像
61 フレーム画像
62 横断歩道
63 歩道
64 第1の通行人
65 第2の通行人
66 拡張現実画像
67 消失点
68 右側傾斜線分
69 左側傾斜線分
70 第1の人物候補存在領域矩形
71 第2の人物候補存在領域矩形
72 第1の交差線分
73 フレーム画像
74 拡張現実画像
75 第1の点字ブロック
76 第2の点字ブロック
77 歩道
78 消失点
79 右側傾斜線分
80 左側傾斜線分
81 第1の点字ブロック候補存在領域矩形
82 第2の点字ブロック候補存在領域矩形
83 横断歩道
84 フレーム画像
85 拡張現実画像
86 歩道
87 第1の通行人
88 第1の人物候補存在領域矩形
89 第2の通行人
90 第2の人物候補存在領域矩形
91 消失点
92 右側傾斜線分
93 左側傾斜線分
95 歩行者
96 レーザ
97 白杖
98 段差
99 盲導犬ロボット
100 歩行面
101 段差面
102 ベルト装置
103 振動告知部
103A 本体
103B 振動体
1 Sidewalk progress support system 2 Glasses device 3 Server 4 Image pickup camera 4A Image capture image transmission unit 4B Image capture image receiver 5 Object detection unit 5A Detection object transmission unit 5B Detection object receiver unit 6 Line segment detection unit 7 Sidewalk determination unit 7A Decision sidewalk transmission 7B Determination sidewalk receiver 8 Current position information detector 8A Current position information transmitter 8B Current position information receiver 9 Direction detector 9A Imaging direction transmitter 9B Imaging direction receiver 10 Distance measurement unit 10A Measurement distance transmitter 10B Measurement distance Receiver 11 Map information database 12 Object map coordinate creation unit 13 Detected object information database 14 Object identification unit 14A Specific object transmission unit 14B Specific object reception unit 15 Progressable area position information detection unit 16 Destination information determination unit 16A Voice transmission unit 16B Voice receiving unit 16C Voice response unit 16D Voice receiving unit 17 Route information determination unit 18 Progressable route information determination unit 18A Progressable route information transmission unit 18B Progressive route information reception unit 19 Notification unit 20 Control unit 21 Position information comparison unit 21A Comparison Result transmission unit 21B Comparison result reception unit 22 Object placement information creation unit 23 Object placement information database 24 Local destination information determination unit 25 Progress history database 26 Search unit 26A Search result transmission unit 26B Search result reception unit 27 Image cutout unit 27A Off Output image transmission unit 27B Cutout image reception unit 28 Teacher information database 29 Question analysis unit 30 Internet 40 Captured image 41 Frame image 42 Right edge stone 43 Left edge stone 44 Sidewalk 45 Telegraph pillar 46 Passerby 47 Augmented reality image 48 Disappearance point 49 Right tilt Line 50 Left inclined line 51 Person candidate existence area Rectangular 52 Vertical line 53 Sideway area 54 y-axis 55 x Positive axis 56 Origin 57 Dynamic coordinate system 58 Map coordinate system 60 Captured image 61 Frame image 62 Crossing sidewalk 63 Sidewalk 64th 1 Passerby 65 Second Passerby 66 Augmented Reality Image 67 Disappearance Point 68 Right Inclined Line 69 Left Inclined Line 70 First Person Candidate Existence Area Rectangular 71 Second Person Candidate Existence Area Rectangular 72 First Crossing Line 73 Frame image 74 Augmented reality image 75 First Braille block 76 Second Braille block 77 Sidewalk 78 Disappearance point 79 Right tilt line 80 Left tilt Line segment 81 First Braille block candidate existence area rectangle 82 Second Braille block candidate existence area rectangle 83 Crosswalk 84 Frame image 85 Augmented reality image 86 Sidewalk 87 First passerby 88 First person candidate existence area rectangle 89 Second passerby 90 Second person candidate existence area Rectangle 91 Disappearance point 92 Right sidewalk line segment 93 Left sidewalk line segment 95 Pedestrian 96 Laser 97 White cane 98 Step 99 Blind dog robot 100 Walking surface 101 Step surface 102 Belt device 103 Vibration notification unit 103A Main unit 103B Vibrating body

Claims (14)

歩行者の少なくとも前方を撮像可能な撮像部と、
該撮像部が撮像して得られた撮像画像の中で、動く物体である可動物体及び静止した物体である静止物体を検出可能な物体検出部と、
前記撮像画像の中で、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分とを検出可能な線分検出部と、
前記撮像画像の中で、前記線分検出部が検出した、前記第1の線分と前記第2の線分との間の領域を歩道として決定可能な歩道決定部と、
前記撮像部が装着された歩行者の位置情報である現在位置情報を検出可能な現在位置情報検出部と、
前記撮像部の撮像方向を検出可能な方向検出部と、
前記撮像部から同撮像部に撮像された物体までの距離を前記撮像画像に基づいて測定可能な距離測定部と、
地図に関する情報である地図情報を記録可能な地図情報記録部と、
前記物体検出部が検出した静止物体または可動物体の位置を、前記方向検出部が検出した撮像方向と、前記距離測定部が測定した前記撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、前記現在位置情報検出部が検出した現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、
可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、
前記物体検出部が検出した可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、
前記歩道決定部が歩道を決定したときの同歩道を挟む、前記第1の線分及び前記第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、
音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、
該目的地情報決定部が決定した前記目的地情報と、前記現在位置情報検出部が検出した前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、
該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部と、
該進行可能経路情報決定部が決定した進行可能経路情報を告知可能な告知部とを備える
歩道進行支援システム。
An image pickup unit that can capture at least the front of a pedestrian,
An object detection unit capable of detecting a moving object which is a moving object and a stationary object which is a stationary object in the captured image obtained by the imaging unit.
In the captured image, a first line segment extending from the lower part of the captured image toward the substantially central region of the captured image and the same as extending from the lower portion of the captured image toward the substantially central region of the captured image. A line segment detection unit capable of detecting a second line segment whose distance from the first line segment becomes shorter as it approaches the substantially central region of the captured image from the lower part of the captured image, and a line segment detection unit.
A sidewalk determination unit that can determine the area between the first line segment and the second line segment as a sidewalk detected by the line segment detection unit in the captured image.
The current position information detection unit capable of detecting the current position information which is the position information of the pedestrian to which the image pickup unit is attached, and the current position information detection unit.
A direction detection unit capable of detecting the imaging direction of the imaging unit, and a direction detection unit.
A distance measuring unit capable of measuring the distance from the imaging unit to an object imaged by the imaging unit based on the captured image, and a distance measuring unit.
A map information recording unit that can record map information, which is information about maps,
The position of the stationary object or the movable object detected by the object detection unit is the distance between the image pickup direction detected by the direction detection unit and the image pickup unit and the stationary object or the movable object measured by the distance measurement unit. Based on the above, it can be calculated as a coordinate value of the dynamic coordinate system with the position of the pedestrian equipped with the image pickup unit as the origin, and the current position information detected by the current position information detection unit is used as the origin. Object map coordinate creation that can create map coordinates of the same stationary object or the same movable object by converting the calculated same coordinate value to the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit. Department and
A detection object information recording unit that can record moving object information that is information about moving objects and stationary object information that is information about stationary objects, and
An object capable of identifying the movable object and the stationary object by collating the movable object or the stationary object detected by the object detection unit with the movable object information and the stationary object information recorded by the detected object information recording unit. With a specific part
The latitude / longitude position of the map coordinates created by the object map coordinate creation unit corresponding to each of the first line segment and the second line segment sandwiching the sidewalk when the sidewalk determination unit determines the sidewalk. The information and the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to the stationary object or the movable object located between the first line segment and the second line segment. Based on the progressable area position information detection unit that can detect the position information of the progressable area in the same sidewalk,
A destination information determination unit that can determine destination information, which is information about a destination, based on the voice and the map information recorded by the map information recording unit.
Based on the destination information determined by the destination information determination unit and the current position information detected by the current position information detection unit, route information which is information on a route between the destination and the current position is obtained. Determinable route information determination unit and
A pedestrian who is a route between a destination and a current position based on the route information determined by the route information determination unit and the travelable area position information detected by the travelable area position information detection unit. The progressable route information determination unit that can determine the progressable route information, which is the information about the progressable route,
A sidewalk progress support system including a notification unit capable of notifying the progressable route information determined by the progressable route information determination unit .
前記告知部は、前記物体特定部が可動物体を特定した場合に可動物体が存在することを告知可能である
請求項1に記載の歩道進行支援システム。
The sidewalk progress support system according to claim 1 , wherein the notification unit can notify that a movable object exists when the object identification unit identifies a movable object.
前記方向検出部が検出した前記撮像部の撮像方向が向けられた物体と同撮像部との間の、前記距離測定部が測定した距離が所定の値以下であり、かつ、前記物体検出部が検出した同物体が鉛直方向に所定の長さ以上延びる線分である鉛直線分を有する場合に、前記告知部に警告を告知させる制御もしくは同距離測定部が測定した同物体と同撮像部との間の距離が所定の値より大きくなる方向へ誘導する内容を告知させる制御が可能な制御部を備える
請求項1または請求項2に記載の歩道進行支援システム。
The distance measured by the distance measuring unit between the object to which the imaging direction of the imaging unit is directed and the imaging unit detected by the direction detecting unit is equal to or less than a predetermined value, and the object detecting unit is When the detected object has a vertical line segment that is a line segment extending in the vertical direction by a predetermined length or more, the control for causing the notification unit to notify a warning or the same object and the same image pickup unit measured by the same distance measurement unit. It is provided with a control unit capable of controlling to notify the content of guiding in the direction in which the distance between the distances becomes larger than a predetermined value.
The sidewalk progress support system according to claim 1 or 2.
前記線分検出部は、さらに、前記撮像画像の中で、前記第1の線分及び前記第2の線分それぞれと交差する、第1の交差線分及び第2の交差線分を検出可能であり、
前記距離測定部は、さらに前記撮像画像に基づいて線分と線分の間の距離を測定可能であり、
前記制御部は、前記距離測定部が測定した前記第1の交差線分と前記第2の交差線分の間の距離が所定の値より大きい場合に、前記撮像部の撮像方向が左方向へ向くことである左方向転換へ誘導する内容及び同撮像部の撮像方向が右方向へ向くことである右方向転換へ誘導する内容を告知部に告知させる制御が可能である
請求項3に記載の歩道進行支援システム。
The line segment detection unit can further detect a first crossing line segment and a second crossing line segment that intersect each of the first line segment and the second line segment in the captured image. And
The distance measuring unit can further measure the distance between the line segments based on the captured image.
When the distance between the first crossing line segment and the second crossing line segment measured by the distance measuring unit is larger than a predetermined value, the control unit causes the imaging direction of the imaging unit to move to the left. The third aspect of claim 3, wherein it is possible to control the notification unit to notify the content of guiding to a left direction change, which is to face, and the content to guide to a right direction change, which is that the image pickup direction of the imaging unit is to turn to the right. Sidewalk progress support system.
前記物体特定部が特定した結果、静止物体が点字ブロックであると特定された場合に、点字ブロックに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、前記現在位置情報検出部が検出した現在位置情報とを対比可能な位置情報対比部を備え、
前記物体特定部は、同物体特定部が特定した結果、静止物体が点字ブロックであると特定された場合に、さらに前記検出物体情報記録部が記録した前記静止物体情報に基づいて、複数の点字ブロックが互いに連結した構成である点字ブロック連結体の意味を特定可能であり、
前記制御部は、前記位置情報対比部が対比した結果、点字ブロックの位置情報と現在位置情報が一致しない場合に、前記告知部に点字ブロックの位置への誘導を告知させる制御が可能である
請求項3または請求項4に記載の歩道進行支援システム。
When the stationary object is identified as a Braille block as a result of the identification of the object identification unit, the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to the Braille block, and the present It is equipped with a position information comparison unit that can compare the current position information detected by the position information detection unit.
When the stationary object is identified as a Braille block as a result of the identification by the object identification unit, the object identification unit has a plurality of Braille characters based on the stationary object information recorded by the detection object information recording unit. It is possible to specify the meaning of the Braille block connection, which is a structure in which blocks are connected to each other.
The control unit can control the notification unit to notify the guidance to the position of the Braille block when the position information of the Braille block and the current position information do not match as a result of comparison by the position information comparison unit. The sidewalk progress support system according to item 3 or claim 4.
前記距離測定部はレーザを照射可能であり、かつ、照射されたレーザの反射に基づいて前記撮像部から同撮像部に撮像された物体までの距離をさらに測定可能であり、
前記制御部は、斜め下方へ照射されたレーザの反射に基づいて連続して測定された距離が変化した場合に、前記告知部に段差が存在することを告知させる制御が可能である
請求項3、請求項4または請求項5に記載の歩道進行支援システム。
The distance measuring unit can irradiate a laser, and can further measure the distance from the image pickup unit to an object imaged by the image pickup unit based on the reflection of the irradiated laser.
3. The control unit can control to notify that a step is present in the notification unit when the continuously measured distance changes based on the reflection of the laser irradiated diagonally downward. , The sidewalk progress support system according to claim 4 or 5.
前記物体地図座標作成部が作成した静止物体の前記地図座標と、前記物体特定部が同静止物体を特定した特定結果と、前記地図情報記録部が記録した地図情報とに基づいて、特定された物体の地図上における配置に関する情報である物体配置情報を作成可能な物体配置情報作成部と、
該物体配置情報作成部が作成した物体配置情報を記録可能な物体配置情報記録部とを備える
請求項1、請求項2、請求項3、請求項4、請求項5または請求項6に記載の歩道進行支援システム。
It was specified based on the map coordinates of the stationary object created by the object map coordinate creating unit, the specific result of the object specifying unit identifying the stationary object, and the map information recorded by the map information recording unit. An object placement information creation unit that can create object placement information, which is information about the placement of objects on a map,
It is provided with an object arrangement information recording unit capable of recording the object arrangement information created by the object arrangement information creation unit.
The sidewalk progress support system according to claim 1, claim 2, claim 3, claim 4, claim 5 or claim 6.
音声と、前記目的地情報決定部が決定した目的地情報と、前記地図情報記録部が記録した地図情報のうち目的地情報に関連する情報である目的地関連地図情報とに基づいて、目的地情報よりも局所的な情報である局所目的地情報を決定可能な局所目的地情報決定部を備え、
前記経路情報決定部は、前記目的地情報決定部が決定した目的地情報の代わりに前記局所目的地情報決定部が決定した前記局所目的地情報と、前記現在位置情報検出部が検出した前記現在位置情報とに基づいて経路情報を決定可能である
請求項1、請求項2、請求項3、請求項4、請求項5、請求項6または請求項7に記載の歩道進行支援システム。
The destination is based on the voice, the destination information determined by the destination information determination unit, and the destination-related map information which is the information related to the destination information among the map information recorded by the map information recording unit. It is equipped with a local destination information determination unit that can determine local destination information that is more local information than information.
The route information determination unit has the local destination information determined by the local destination information determination unit instead of the destination information determined by the destination information determination unit, and the current position detected by the current position information detection unit. The sidewalk progress support system according to claim 1, claim 2, claim 3, claim 4, claim 5, claim 6 or claim 7, wherein the route information can be determined based on the position information.
前記進行可能経路情報決定部が決定した前記進行可能経路情報と、該進行可能経路情報の進行可能経路を歩行者が進行したときに前記現在位置情報検出部が検出した現在位置情報と、該現在位置情報が検出されたときの撮像画像とを関連付けて記録可能な進行履歴記録部を備える
請求項1、請求項2、請求項3、請求項4、請求項5、請求項6、請求項7または請求項8に記載の歩道進行支援システム。
The progressable route information determined by the progressable route information determination unit, the current position information detected by the current position information detection unit when a pedestrian travels along the progressable route of the progressable route information, and the current position. Claim 1, claim 2, claim 3, claim 4, claim 5, claim 6, claim 7 provided with a progress history recording unit that can record in association with the captured image when the position information is detected. Alternatively, the sidewalk progress support system according to claim 8.
音声に基づいて、前記地図情報記録部が記録した前記地図情報と前記物体配置情報記録部が記録した前記物体配置情報を検索可能な検索部を備え、
前記告知部は、前記検索部の検索結果を告知可能である
請求項7に記載の歩道進行支援システム。
A search unit capable of searching the map information recorded by the map information recording unit and the object arrangement information recorded by the object arrangement information recording unit based on voice is provided.
The sidewalk progress support system according to claim 7, wherein the notification unit can notify the search result of the search unit.
前記物体検出部が検出した可動物体及び静止物体それぞれの画像を前記撮像画像から切出可能な画像切出部と、
該画像切出部が切出した、可動物体の切出画像及び静止物体の切出画像と、同可動物体及び同静止物体を前記物体特定部が特定した特定結果とを関連付けて得られた情報である教師情報を記録可能な教師情報記録部とを備える
請求項1、請求項2、請求項3、請求項4、請求項5、請求項6、請求項7、請求項8、請求項9または請求項10に記載の歩道進行支援システム。
An image cutting unit capable of cutting out images of each of a movable object and a stationary object detected by the object detecting unit from the captured image, and an image cutting unit.
Information obtained by associating a cut-out image of a movable object and a cut-out image of a stationary object cut out by the image cutting portion with a specific result specified by the object specifying portion of the moving object and the stationary object. Claim 1, claim 2, claim 3, claim 4, claim 5, claim 6, claim 7, claim 8, claim 9 or claim provided with a teacher information recording unit capable of recording certain teacher information. The sidewalk progress support system according to claim 10.
前記告知部は、告知内容を音声で告知可能な音声告知部及び、長手方向を有し、かつ、長手方向の一方側と、この一方側とは反対側に位置する他方側とを着脱可能に連結可能な本体と、該本体の一方の面に同本体の長手方向と同じ方向に並べて取付けられており、かつ、告知する場合に告知内容に応じて一部または全部を振動可能な複数の振動体とを有する振動告知部の中の少なくとも1つである
請求項1または請求項2に記載の歩道進行支援システム。
The notification unit has a voice notification unit capable of announcing the content of the notification by voice, and is detachable from one side in the longitudinal direction and the other side located on the opposite side to the one side. A plurality of vibrations that are mounted side by side in the same direction as the longitudinal direction of the main body and that can be partially or wholly vibrated depending on the content of the notification when the main body is connected and one surface of the main body. At least one of the vibration notification parts having a body
The sidewalk progress support system according to claim 1 or 2.
歩道上の歩行者の進行を支援するための歩道進行支援ソフトウェアであって、
情報処理機器を、
地図に関する情報である地図情報を記録可能な地図情報記録部と、
歩行者の少なくとも前方を撮像可能な撮像部が撮像して得られた撮像画像の中で検出された、動く物体である可動物体及び静止した物体である静止物体の位置を、同撮像部の撮像方向と、同撮像画像に基づいて測定された同撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、検出された、同撮像部が装着された歩行者の位置情報である現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、
可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、
前記撮像画像の中で検出された可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、
前記撮像画像の中で検出された、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分との間の領域が歩道として決定されたときの同歩道を挟む、同第1の線分及び同第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、
音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、
該目的地情報決定部が決定した前記目的地情報と、検出された前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、
該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部と、
該進行可能経路情報決定部が決定した進行可能経路情報を告知可能な告知部と、
を含む手段として機能させるための歩道進行支援ソフトウェア。
Sidewalk progress support software to support the progress of pedestrians on the sidewalk,
Information processing equipment,
A map information recording unit that can record map information, which is information about maps,
The image pickup unit captures the positions of the moving object, which is a moving object, and the stationary object, which is a stationary object, detected in the captured image obtained by the image pickup unit that can image at least the front of the pedestrian. Dynamic coordinates with the position of the pedestrian on which the image pickup unit is attached as the origin, based on the direction and the distance between the image pickup unit and the stationary object or the movable object measured based on the image pickup image. The same coordinate value calculated with the current position information, which is the position information of the pedestrian equipped with the image pickup unit, which can be calculated as the coordinate value of the system and is detected, is used as the origin, is used as the map information recording unit. An object map coordinate creation unit that can create map coordinates of the same stationary object or the same movable object by converting it to the latitude and longitude of the map coordinate system included in the map information recorded by
A detection object information recording unit that can record moving object information that is information about moving objects and stationary object information that is information about stationary objects, and
The movable object or the stationary object can be identified by collating the movable object or the stationary object detected in the captured image with the movable object information and the stationary object information recorded by the detected object information recording unit. Object identification part and
A first line segment detected in the captured image extending from the lower part of the captured image toward the substantially central region of the captured image, and a first line segment extending from the lower portion of the captured image toward the substantially central region of the captured image. When the area between the second line segment and the second line segment, which has become shorter as it extends and approaches the substantially central region of the captured image from the lower part of the captured image, is determined as a sidewalk. The latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to each of the first line segment and the second line segment sandwiching the same sidewalk, and the first line segment. A travelable area in the sidewalk based on the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to a stationary object or a movable object located between the second line segment. Progressable area position information detection unit that can detect the position information of
A destination information determination unit that can determine destination information, which is information about a destination, based on the voice and the map information recorded by the map information recording unit.
Route information determination that can determine route information that is information about a route between a destination and a current position based on the destination information determined by the destination information determination unit and the detected current position information. Department and
A pedestrian who is a route between a destination and a current position based on the route information determined by the route information determination unit and the travelable area position information detected by the travelable area position information detection unit. The progressable route information determination unit that can determine the progressable route information, which is the information about the progressable route,
A notification unit that can notify the progressable route information determined by the progressable route information determination unit, and a notification unit that can notify the progressable route information.
Sidewalk progress support software to function as a means including.
歩道上の歩行者の進行を支援するための歩道進行支援ソフトウェアであって、
情報処理機器を、
歩行者の少なくとも前方を撮像可能な撮像部が撮像して得られた撮像画像の中で、動く物体である可動物体及び静止した物体である静止物体を検出可能な物体検出部と、
前記撮像画像の中で、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びる第1の線分と、同撮像画像の下部から同撮像画像の略中央領域へ向けて延びると共に同撮像画像の下部から同撮像画像の略中央領域に近づくにつれて同第1の線分との間の距離が短くなった第2の線分とを検出可能な線分検出部と、
前記撮像画像の中で、前記線分検出部が検出した、前記第1の線分と前記第2の線分との間の領域を歩道として決定可能な歩道決定部と、
地図に関する情報である地図情報を記録可能な地図情報記録部と、
前記物体検出部が検出した静止物体または可動物体の位置を、前記撮像部の撮像方向と、同撮像画像に基づいて測定された同撮像部と同静止物体または同可動物体との間の距離とに基づいて、同撮像部が装着された歩行者の位置を原点とする動座標系の座標値として算出可能であり、かつ、検出された、同撮像部が装着された歩行者の位置情報である現在位置情報を原点として、算出された同座標値を、前記地図情報記録部が記録した地図情報に含まれる地図座標系の緯度経度に変換して、同静止物体または同可動物体の地図座標を作成可能な物体地図座標作成部と、
可動物体に関する情報である可動物体情報及び静止物体に関する情報である静止物体情報を記録可能な検出物体情報記録部と、
前記物体検出部が検出した可動物体または静止物体と、前記検出物体情報記録部が記録した前記可動物体情報及び前記静止物体情報とを照合して、同可動物体及び同静止物体を特定可能な物体特定部と、
前記歩道決定部が歩道を決定したときの同歩道を挟む、前記第1の線分及び前記第2の線分それぞれに対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報と、同第1の線分と同第2の線分との間に位置する静止物体または可動物体に対応する、前記物体地図座標作成部が作成した前記地図座標の緯度経度位置情報とに基づいて、同歩道内の進行可能領域の位置情報を検出可能な進行可能領域位置情報検出部と、
音声と、前記地図情報記録部が記録した前記地図情報とに基づいて、目的地に関する情報である目的地情報を決定可能な目的地情報決定部と、
該目的地情報決定部が決定した前記目的地情報と、検出された前記現在位置情報とに基づいて、目的地と現在位置との間の経路に関する情報である経路情報を決定可能な経路情報決定部と、
該経路情報決定部が決定した前記経路情報と、前記進行可能領域位置情報検出部が検出した前記進行可能領域位置情報とに基づいて、目的地と現在位置との間の経路であって歩行者が進行可能な経路に関する情報である進行可能経路情報を決定可能な進行可能経路情報決定部と、
該進行可能経路情報決定部が決定した進行可能経路情報を告知可能な告知部と、
を含む手段として機能させるための歩道進行支援ソフトウェア。
Sidewalk progress support software to support the progress of pedestrians on the sidewalk,
Information processing equipment,
An object detection unit that can detect a moving object that is a moving object and a stationary object that is a stationary object in the captured image obtained by an imaging unit that can image at least the front of a pedestrian.
In the captured image, a first line segment extending from the lower part of the captured image toward the substantially central region of the captured image and the same as extending from the lower portion of the captured image toward the substantially central region of the captured image. A line segment detection unit capable of detecting a second line segment whose distance from the first line segment becomes shorter as it approaches the substantially central region of the captured image from the lower part of the captured image, and a line segment detection unit.
A sidewalk determination unit that can determine the area between the first line segment and the second line segment as a sidewalk detected by the line segment detection unit in the captured image.
A map information recording unit that can record map information, which is information about maps,
The position of the stationary object or the movable object detected by the object detection unit is determined by the imaging direction of the imaging unit and the distance between the imaging unit and the stationary object or the movable object measured based on the captured image. Based on the above, it is possible to calculate as a coordinate value of the dynamic coordinate system with the position of the pedestrian equipped with the imaging unit as the origin, and the detected position information of the pedestrian equipped with the imaging unit is used. The same coordinate value calculated with a certain current position information as the origin is converted into the latitude and longitude of the map coordinate system included in the map information recorded by the map information recording unit, and the map coordinates of the stationary object or the movable object are converted. Object map coordinate creation unit that can create
A detection object information recording unit that can record moving object information that is information about moving objects and stationary object information that is information about stationary objects, and
An object capable of identifying the movable object and the stationary object by collating the movable object or the stationary object detected by the object detection unit with the movable object information and the stationary object information recorded by the detected object information recording unit. With a specific part
The latitude / longitude position of the map coordinates created by the object map coordinate creation unit corresponding to each of the first line segment and the second line segment sandwiching the sidewalk when the sidewalk determination unit determines the sidewalk. The information and the latitude / longitude position information of the map coordinates created by the object map coordinate creation unit corresponding to the stationary object or the movable object located between the first line segment and the second line segment. Based on the progressable area position information detection unit that can detect the position information of the progressable area in the same sidewalk,
A destination information determination unit that can determine destination information, which is information about a destination, based on the voice and the map information recorded by the map information recording unit.
Route information determination that can determine route information that is information about a route between a destination and a current position based on the destination information determined by the destination information determination unit and the detected current position information. Department and
A pedestrian who is a route between a destination and a current position based on the route information determined by the route information determination unit and the travelable area position information detected by the travelable area position information detection unit. The progressable route information determination unit that can determine the progressable route information, which is the information about the progressable route,
A notification unit that can notify the progressable route information determined by the progressable route information determination unit, and a notification unit that can notify the progressable route information.
Sidewalk progress support software to function as a means including.
JP2018151756A 2017-09-01 2018-08-10 Sidewalk progress support system and sidewalk progress support software Active JP7029170B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017168527 2017-09-01
JP2017168527 2017-09-01

Publications (2)

Publication Number Publication Date
JP2019046464A JP2019046464A (en) 2019-03-22
JP7029170B2 true JP7029170B2 (en) 2022-03-03

Family

ID=65815674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151756A Active JP7029170B2 (en) 2017-09-01 2018-08-10 Sidewalk progress support system and sidewalk progress support software

Country Status (1)

Country Link
JP (1) JP7029170B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102277503B1 (en) * 2019-08-01 2021-07-15 주식회사 다비오 Terminal devicem, service server and method for indoor positioning based on object detection
KR20210017452A (en) * 2019-08-08 2021-02-17 엘지전자 주식회사 Driving method of robot
CN110988944B (en) * 2019-11-21 2024-02-27 桑德科技(重庆)有限公司 Blind guiding method and system based on satellite navigation
EP4242967A1 (en) * 2020-11-04 2023-09-13 Dabeeo Inc. Terminal device for indoor positioning based on object recognition, service server, and method therefor
JP7429049B2 (en) 2021-04-23 2024-02-07 株式会社コンピュータサイエンス研究所 Pedestrian location system and pedestrian location software
CN113299073B (en) * 2021-04-28 2023-05-23 北京百度网讯科技有限公司 Method, device, equipment and storage medium for identifying illegal parking of vehicle
JPWO2022259750A1 (en) * 2021-06-08 2022-12-15
KR102644647B1 (en) * 2022-02-22 2024-03-07 국민대학교산학협력단 Path guidance device for visually impaired based on braille block detection and method of operating the same
WO2024028945A1 (en) * 2022-08-01 2024-02-08 日本電気株式会社 Road management system, road management method, and non-transitory computer-readable medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202590A (en) 2000-01-21 2001-07-27 Sanyo Electric Co Ltd Guide device for vision-impaired person
JP2003148991A (en) 2001-11-14 2003-05-21 Natl Inst For Land & Infrastructure Management Mlit System and method for calling attention to pedestrian
JP2005275500A (en) 2004-03-23 2005-10-06 Zenrin Co Ltd Vanishing point decision method
JP2008111792A (en) 2006-10-31 2008-05-15 Oki Electric Ind Co Ltd Guidance sentence generation system, guidance sentence generation method, and guidance sentence generation program
JP2014137752A (en) 2013-01-17 2014-07-28 Jb Craft:Kk Walking guidance system for people with visual impairment, walking guidance method for people with visual impairment, server and computer program executable on the same
JP2015057700A (en) 2013-09-12 2015-03-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Methods and systems for providing navigation assistance to user

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252279A (en) * 1995-03-17 1996-10-01 Hitachi Ltd Route guiding method for presenting object with sound

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202590A (en) 2000-01-21 2001-07-27 Sanyo Electric Co Ltd Guide device for vision-impaired person
JP2003148991A (en) 2001-11-14 2003-05-21 Natl Inst For Land & Infrastructure Management Mlit System and method for calling attention to pedestrian
JP2005275500A (en) 2004-03-23 2005-10-06 Zenrin Co Ltd Vanishing point decision method
JP2008111792A (en) 2006-10-31 2008-05-15 Oki Electric Ind Co Ltd Guidance sentence generation system, guidance sentence generation method, and guidance sentence generation program
JP2014137752A (en) 2013-01-17 2014-07-28 Jb Craft:Kk Walking guidance system for people with visual impairment, walking guidance method for people with visual impairment, server and computer program executable on the same
JP2015057700A (en) 2013-09-12 2015-03-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Methods and systems for providing navigation assistance to user

Also Published As

Publication number Publication date
JP2019046464A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP7029170B2 (en) Sidewalk progress support system and sidewalk progress support software
US11347220B2 (en) Autonomously navigating across intersections
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
JP4783430B2 (en) Drive control device, drive control method, drive control program, and recording medium
KR101265110B1 (en) Steering control leading apparatus using landmark and method thereby
KR102181222B1 (en) Safety management system for crosswalk pedestrian
CN109730910B (en) Visual auxiliary system for trip, auxiliary equipment, method and readable storage medium thereof
KR101979324B1 (en) Safety assistant system and method for pedestrian
CN112870033A (en) Intelligent blind guiding helmet system for unstructured road and navigation method
KR20200071792A (en) Autonomous Driving Method and System Using a Road View or a Aerial View from a Map Server
KR20190070269A (en) System and method for providing navigation service of disabled person based on image analysis
KR101510745B1 (en) Autonomous vehicle system
KR20130003521A (en) Driving guidance system using sensors
KR101159437B1 (en) Apparatus and method for walking assistance of the visually impaired person
US20220291684A1 (en) Control system, mobile object, control method, and storage medium
US20220266861A1 (en) Moving object control system, moving object, control method, and storage medium
KR20230101118A (en) A system for providing road guidance service by judging sections of road surface abnormalities and creating maps for the transportation vulnerable
Wang et al. Active Guide System for The Blind Based on The Internet of Things and Collaborative Perception
KR102234079B1 (en) The vision assistance device and method
US11999385B2 (en) Mobile object control system, control method, and storage medium
KR102516897B1 (en) System and method for controlling crosswalk traffic light
CN114194187B (en) Vehicle travel control device
US20220274630A1 (en) Mobile object control system, control method, and storage medium
JP7207828B2 (en) INFORMATION NOTIFICATION DEVICE, INFORMATION NOTIFICATION METHOD, INFORMATION NOTIFICATION SYSTEM, PROGRAM
JP2024007147A (en) Pedestrian travel direction determination system and pedestrian travel direction determination software

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7029170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150