JP2022112897A - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP2022112897A JP2022112897A JP2021008918A JP2021008918A JP2022112897A JP 2022112897 A JP2022112897 A JP 2022112897A JP 2021008918 A JP2021008918 A JP 2021008918A JP 2021008918 A JP2021008918 A JP 2021008918A JP 2022112897 A JP2022112897 A JP 2022112897A
- Authority
- JP
- Japan
- Prior art keywords
- crossing
- pedestrian crossing
- image
- crosswalk
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 84
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 23
- 230000035515 penetration Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 230000001771 impaired effect Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 244000228957 Ferula foetida Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/048—Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/068—Sticks for blind persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/007—Teaching or communicating with blind persons using both tactile and audible presentation of the information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Rehabilitation Therapy (AREA)
- Physical Education & Sports Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
Abstract
【課題】横断歩道を渡る対象者を支援することができると共に、当該対象者が簡単に利用することができる情報処理装置を得る。【解決手段】情報処理装置10は、対象者Pの進行方向を撮影した画像における横断歩道の占有率を算出し、算出した占有率に基づいて、対象者の横断歩道の横断状況を判断し、当該横断状況に基づいて、横断歩道を渡る対象者を支援する支援情報を生成する。【選択図】図1
Description
本発明は、情報処理装置及び情報法処理方法に関する。
視覚を用いずに行動する視覚障害者は、携行する白状が路面や障害物と接触した際の接触情報や、周囲の音を頼りに移動している。例えば、横断歩道を渡る場合は、横断歩道の道沿いに設けられたエスコートゾーンと接触した情報や、音響信号の音を頼りに正しい進行方向を認識することができる。
しかしながら、横断歩道の中にはエスコートゾーンや音響信号が設置されていないものがある。このような場合、周囲から得られる情報が乏しいため、正しい進行方向が分からずに横断歩道を逸脱してしまう場合がある。
ここで、特許文献1には、目的地までの経路に存在する横断歩道を予め把握し、視覚障害者が横断歩道に到着すると、歩く方向をガイドする情報処理装置が開示されている。この情報処理装置では、予め経路に存在する横断歩道の手前から渡りたい方向を撮影し、撮影した静止画像とGPSセンサで取得された位置情報を記憶する。そして、2回目以降に横断歩道を渡る際に、記憶(登録)された渡りたい方向の静止画像を基に、歩行中に撮影される静止画像とマッチング処理を行うことで方向のずれを算出し、歩くべき方向をガイドする。これにより、横断歩道にエスコートゾーンや音響信号の設置がされていない場合でも、情報処理装置のガイドにより横断歩道を逸脱しないように渡ることができる。
しかしながら、上記特許文献1に記載された技術では、ガイドを受けるために予め横断歩道の手前から渡りたい方向を撮影し、画像を登録する必要がある。このため、目的地までの移動経路に応じて多くの画像を登録する必要があり、利用者の負担が大きい。
本発明は上記事実を考慮し、横断歩道を渡る対象者を支援することができると共に、当該対象者が簡単に利用することができる情報処理装置及び情報処理方法を提供することを目的とする。
請求項1に記載の本発明に係る情報処理装置は、対象者の進行方向を撮影した画像における横断歩道の占有率を算出する算出部と、算出した占有率に基づいて、前記対象者の横断歩道への横断状況を判断する横断状況判断部と、前記対象者の横断状況に基づいて、横断歩道を渡る前記対象者を支援する支援情報を生成する支援情報生成部と、を有する。
請求項1に記載の本発明に係る情報処理装置では、算出部は、対象者の進行方向を撮影した画像における横断歩道の占有率を算出する。対象者の進行方向を撮影した画像は、対象者の前景に近い画像である。従って、横断状況判断部は、算出した横断歩道の占有率に基づいて、対象者の横断歩道への横断状況を判断する。そして、支援情報生成部は、横断状況判断部で判断された対象者の横断状況に基づいて、横断歩道を渡る対象者を支援する支援情報を生成する。このように、情報処理装置は、進行方向を撮影した画像に基づいて対象者の横断状況を判断し、横断歩道を渡る対象者を支援することができる。また、対象者が横断歩道を渡る際に撮影される画像だけで横断状況を判断する構成としたため、対象者は、情報処理装置10を簡単に利用することができる。
請求項2に記載の本発明に係る情報処理装置は、請求項1に記載の構成において、前記横断状況判断部は、前記占有率が所定の閾値未満である場合に、前記対象者が横断歩道を逸脱する可能性があると判断する。
請求項2に記載の本発明に係る情報処理装置では、撮影した画像における横断歩道の占有率が所定の閾値未満である場合、すなわち、対象者の前景における横断歩道の存在が小さい場合、対象者が横断歩道に対してズレた位置にいることが分かる。従って、横断状況判断部は、占有率が所定の閾値未満である場合に、対象者が横断歩道を逸脱する可能性があると判断する。
請求項3に記載の本発明に係る情報処理装置は、請求項1又は請求項2に記載の構成において、前記占有率は、前記画像の横方向における横断歩道の占有率であり、前記算出部は、前記画像の横方向の寸法に対する横断歩道帯の横方向の寸法の比に基づいて前記占有率を算出する。
請求項3に記載の本発明に係る情報処理装置では、画像の横方向の寸法と、画像における横断歩道帯の横方向の寸法に基づいて、画像の横方向における横断歩道の占有率を算出する。これにより、占有率によって、横断歩道に対する対象者の横方向の位置ズレを推定できる。
請求項4に記載の本発明に係る情報処理装置は、請求項1~請求項3の何れか1項に記載の構成において、前記算出部は、前記画像の最下部に位置する第1横断歩道帯とその上方側で隣り合う位置の第2横断歩道帯について、前記第1横断歩道帯の横方向の寸法に対する前記第2横断歩道帯の横方向の寸法の比に基づく進行方向適正率を算出し、前記横断状況判断部は、前記進行方向適正率が所定の閾値未満である場合に、前記対象者が横断歩道を逸脱する可能性があると判断する。
請求項4に記載の本発明に係る情報処理装置では、画像の最下部に位置する第1横断歩道帯及びその上方側で隣り合う位置の第2横断歩道帯の横方向の寸法に基づいて、進行方向適正率を算出する。ところで、横断歩道帯は互いに平行に並べられているため、対象者が横断歩道を直進している場合、すなわち、進行方向が適正である場合、第1横断歩道帯及び第2横断歩道帯の横方向の寸法差は、僅かな値になる。よって、進行方向適正率は1に近づく。一方、対象者が横断歩道の直進方向に対して大きく傾いた方向に進行している場合、画像上方側の第2横断歩道帯の横方向の寸法が第1横断歩道帯の横方向の寸法と比較して小さくなるため進行方向適正率が低くなる。これにより、横断状況判断部は、進行方向適正率が所定の閾値未満である場合に、対象者が横断歩道を逸脱する可能性があると判断する。
請求項5に記載の本発明に係る情報処理装置は、請求項1~請求項4の何れか1項に記載の構成において、前記算出部は、前記画像の最下部に位置する第1横断歩道帯について前記画像の下端から前記第1横断歩道帯までの縦方向の高さ寸法を求め、前記画像の縦方向の寸法に対する前記第1横断歩道帯の高さ寸法の比に基づく起点距離確保率を算出し、前記横断状況判断部は、前記起点距離確保率が所定の閾値以上である場合に、前記対象者が横断歩道の手前の地点にいると判断する。
請求項5に記載の本発明に係る情報処理装置では、画像の縦方向の寸法と第1横断歩道帯の高さ寸法に基づいて、起点距離確保率を算出する。画像最下部に位置する第1横断歩道帯は、対象者の進行方向の先にある横断歩道の起点を示している。従って、起点距離確保率によって、横断歩道の起点と対象者の相対的な位置関係を推定することができる。また、対象者が横断歩道の起点に近づくほど起点距離確保率が低下する。これにより、横断状況判断部では、起点距離確保率が所定の閾値以上である場合に、対象者が横断歩道の手前の地点にいると判断する。
請求項6に記載の本発明に係る情報処理装置は、請求項1~請求項5の何れか1項に記載の構成において、前記算出部は、前記画像の最下部に位置する第1横断歩道帯とその上方側で隣り合う位置の第2横断歩道帯について、前記画像の下端から各横断歩道帯までの縦方向の高さ寸法をそれぞれ求め、前記第1横断歩道帯の高さ寸法に対する前記第2横断歩道帯の高さ寸法の比に基づく横断歩道侵入率を算出し、前記横断状況判断部は、前記横断歩道侵入率が所定の閾値未満である場合に、前記対象者が横断歩道の手前の地点にいると判断する。
請求項6に記載の本発明に係る情報処理装置では、第1横断歩道帯及び第2横断歩道帯の画像における高さ寸法に基づいて、横断歩道侵入率を算出する。すなわち、対象者が第1横断歩道帯に接近するほど、画像における第1横断歩道帯の高さ寸法が第2横断歩道帯の高さ寸法に比して小さくなるため横断歩道侵入率が高くなる。従って、横断状況判断部では、横断歩道侵入率が所定の閾値未満である場合に、対象者が横断歩道の手前の地点にいると判断する。
請求項7に記載の本発明に係る情報処理装置は、請求項1~請求項6の何れか1項に記載の構成において前記算出部は、歩行者を含まない横断歩道の画像と歩行者を含む横断歩道の画像を学習用データとして生成された学習済みモデルに対して、撮影された画像を入力することで横断歩道の横断歩道帯の形状を推定し、推定した横断歩道帯の形状に基づいて撮影された画像における横断歩道の占有率を算出する。
請求項7に記載の本発明に係る情報処理装置では、算出部は、学習済モデルに対して撮影された画像を入力することで、画像に横断歩道を利用する他の歩行者が含まれる場合でも、横断歩道帯の形状を正確に推定し、占有率を算出することができる。これにより、対象者の周囲に他の歩行者が存在する場合でも横断歩道を正確に認識し、支援情報を提供することができる。
請求項8に記載の本発明に係る情報処理装置は、請求項1~請求項7の何れか1項に記載の構成において、信号検知部をさらに備え、前記信号検知部は、前記画像に基づいて、横断歩道に設置された信号機の信号状態を検知し、前記支援情報生成部は、前記信号状態に基づいて、前記支援情報を生成する。
請求項8に記載の本発明に係る情報処理装置では、信号機の信号状態を検知して対象者の移動を支援することができる。従って、対象者が信号機が設置された横断歩道を渡る場合に、より安全性に配慮した支援情報を提供することができる。
請求項9に記載の本発明に係る情報処理装置は、請求項1~請求項8の何れか1項に記載の構成において、障害物検知部を更に備え、前記障害物検知部は、撮影された画像に基づいて、横断歩道を横切る方向に接近する障害物を検知し、前記支援情報生成部は、障害物が認識された場合に、前記支援情報を生成する。
請求項9に記載の本発明に係る情報処理装置では、横断歩道を横切る方向に接近する障害物を検知して対象者を支援することができる。従って、信号機が設置されていない横断歩道でも、対象者が安全に渡ることができるように支援情報を提供することができる。
請求項10に記載の本発明に係る情報処理装置は、請求項1に記載の構成において、前記情報処理装置は白杖に設けられており、前記画像を撮影する撮影部と、前記支援情報を出力する出力部と、をさらに備える。
請求項10に記載の本発明によれば、情報処理装置を白杖に設ける構成とし、情報処理装置は、画像を撮影する撮影部と支援情報を出力する出力部とを備えている。これにより。対象者が視覚障害者である場合に、携行する白杖を使用して支援情報を提供することができる。
請求項11に記載の本発明に係る情報処理方法は、請求項1~請求項10の何れか1項に記載の構成において、対象者の進行方向を撮影した画像における横断歩道の占有率を算出し、算出した占有率に基づいて、前記対象者の横断歩道への横断状況を判断し、前記対象者の横断状況に基づいて、横断歩道を渡る前記対象者を支援する支援情報を生成する。
請求項11に記載の本発明に係る情報処理方法では、上述した通り、横断歩道を渡る対象者を支援することができると共に、当該対象者が簡単に利用することができる情報処理装置を提供することができる。
以上説明したように、本発明に係る情報処理装置及び情報処理方法によれば、横断歩道を渡る対象者を支援することができると共に、当該対象者が簡単に利用することができる情報処理装置を提供することができる。
以下、図1~図11を参照して本実施形態に係る情報処理装置10について説明する。なお、本実施形態では一例として、情報処理装置10を視覚障害者の使用する白杖1に適用した場合における構成について説明する。
図1に示されるように、情報処理装置10は、情報処理装置10を携行する対象者Pに対して、横断歩道を安全に渡るための支援情報を提供する。本実施形態では一例として、情報処理装置10は、視覚障害者の使用する白杖1に適用されており、視覚障害者である対象者Pが横断歩道を渡る際に、各種の支援情報を提供する。
(情報処理装置10のハードウェア構成)
図2は、情報処理装置10のハードウェア構成を示すブロック図である。この図2に示されるように、情報処理装置10は、CPU(Central Processing Unit:プロセッサ)12、ROM(Read Only Memory)14、RAM(Random Access Memory)16、ストレージ18、通信インタフェース20及び入出力インタフェース22を含んで構成されている。各構成は、バス(符号省略)を介して相互に通信可能に接続されている。
図2は、情報処理装置10のハードウェア構成を示すブロック図である。この図2に示されるように、情報処理装置10は、CPU(Central Processing Unit:プロセッサ)12、ROM(Read Only Memory)14、RAM(Random Access Memory)16、ストレージ18、通信インタフェース20及び入出力インタフェース22を含んで構成されている。各構成は、バス(符号省略)を介して相互に通信可能に接続されている。
CPU12は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU12は、ROM14又はストレージ18からプログラムを読み出し、RAM16を作業領域としてプログラムを実行する。CPU12は、ROM14又はストレージ18に記録されているプログラムに従って、上記各構成の制御および各種の演算処理を行う。
ROM14は、各種プログラムおよび各種データを格納する。RAM16は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ18は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。本実施形態では、ROM14又はストレージ18には、消音処理を行うためのプログラム、及び学習済モデルM(図4参照)などが格納されている。
通信インタフェース20は、情報処理装置10が図示しないサーバ及び他の機器と通信するためのインタフェースであり、たとえば、イーサネット(登録商標)、LTE、FDDI、Wi-Fi(登録商標)などの規格が用いられる。
入出力インタフェース22には、カメラ24及び出力装置26が接続されている。カメラ24は例えば、白杖1において対象者Pの把持するグリップ部1Aに配置されている。カメラ24は、対象者Pの前方側に向けられており、対象者Pの進行方向を撮影する。出力装置26は例えば、スピーカ及び振動子の少なくとも一つを含んで構成されている。この他にも、入出力インタフェース22にはカメラ24の起動及び停止が可能な図示しない操作部が接続されている。また、入出力インタフェース22にGPS装置、ジャイロセンサ、ライダー等を必要に応じて接続してもよい。
(情報処理装置10の機能構成)
情報処理装置10は、上記のハードウェア資源を用いて、各種の機能を実現する。情報処理装置10が実現する機能構成について図3を参照して説明する。
情報処理装置10は、上記のハードウェア資源を用いて、各種の機能を実現する。情報処理装置10が実現する機能構成について図3を参照して説明する。
図3に示されるように、情報処理装置10は、機能構成として、撮影部30、学習部32、算出部34、横断状況判断部36、信号検知部38、障害物検知部40、支援情報生成部42及び出力部44を含んで構成されている。なお、各機能構成は、制御部としてのCPU12がROM14又はストレージ18に記憶されたプログラムを読み出し、実行することにより実現される。
撮影部30は、対象者による操作部への操作によってカメラ24が起動された場合に、カメラ24で対象者Pの進行方向を撮影する機能を有する。
学習部32は、図4に示されるように、横断歩道を撮影した代表的な画像データを学習用データとして用いて機械学習させることで学習済みモデルMを生成する。具体的に、代表的な画像データは歩行者を含まない横断歩道の画像と歩行者を含む横断歩道の画像である。これらの代表的な画像データから横断歩道及び歩行者を示す画像を取得し、横断歩道帯及び歩行者の画像データを教師データとして学習部32で機械学習を行う。これにより、学習部32は、横断歩道帯を認識するという観点及び歩行者を認識するという観点で最も画像認識率(物体検出率)が高い特徴点のパラメータがクラス毎に記憶された学習済モデルMを生成する。クラスとは、画像認識を用いて認識された物体のカテゴリーである。なお、学習済モデルMとしては、例えば、ディープニューラルネットワークが適用される。本実施形態の学習済モデルMは一例として、RNN(Recursive Neural Network)の一種であるLSTM(Long Short Term Memory)が適用されている。
算出部34は、学習部32で生成された学習済モデルMに対して、撮影部30で撮影された画像を入力することで、横断歩道の横断歩道帯の形状を推定する。具体的に、算出部34は、学習済モデルMに撮影された画像を入力することで物体検出(オブジェクトディテクション)を行う。算出部34は、学習済モデルに入力された画像から取得された物体の特徴点に基づいて、物体のクラスを分類して、物体が横断歩道帯又は歩行者であることを検出する。
また、算出部34は、検出した物体の領域を認識する認識処理が行われる。そして、画画像中の物体の存在する概略的な領域に対して矩形の箱で表されたバウンディングボックスを生成する。物体の存在する概略的な領域とは、例えば、物体を囲うのに必要な大きさの領域である。これらのバウンディングボックスは、人物など、外形に曲線含む物体の検出においては、実際に物体の存在する領域よりも広い領域を示すことになるが、横断歩道帯のように矩形状の外形の物体の検出においては、バウンディングボックスで囲われた領域が物体の外形と略一致する。このため、後述する占有率等(R1~R4)の算出においても、実際の横断歩道帯のとの寸法誤差を僅かにすることができる。
例えば、図5(A)には、横断歩道の手前の位置から白杖1のカメラ24で撮影した画像24Aが示されている。画像24Aには、進行方向の前方側の横断歩道2と、横断歩道2に設置された信号機3が含まれている。横断歩道2は、横断歩道2の道幅方向に延びる複数の横断歩道帯2Aを含んでおり、複数の横断歩道帯2Aは、横断歩道2の直進方向に沿って所定の間隔を空け、互いに平行に配置されている。この図5(A)に示す画像24Aを学習済モデルMに入力すると、図5(B)に示すように、横断歩道帯2Aの領域を示すバウンディングボックスBが生成される。
また、算出部34は、生成されたバウンディングボックスBの大きさに基づいて占有率R1、進行方向適正率R2、起点距離確保率R3及び横断歩道侵入率R4を算出する。各比率の適宜について順番に説明する。
占有率R1は、画像24Aの横方向における横断歩道2の占有率であり、対象者Pの前景を想定した画像24Aにおいて横断歩道が占める大きさを示す指標となる値である。本実施形態の占有率R1は、画像の横方向における横断歩道の占有率を算出する。この占有率R1の大小により、対象者Pと横断歩道2の横方向における相対的な位置関係を判断することができる。以下の式(1)に示すように、占有率R1は、画像24Aの横方向の寸法Wimgに対する横断歩道帯2Aの横方向の寸法Wxの比で表される。
図6に示すように、画像24Aの横方向の寸法Wimgは、画像24Aの幅寸法である。また、横断歩道帯2Aの横方向の寸法は、バウンディングボックスBの横方向の寸法Wx1である。画像24Aを対象者Pが視覚を用いて認識した場合の前景に近づける観点から、対象者Pに最も近い画像24Aの最下部に位置する横断歩道帯2AのバウンディングボックスBに基づいて横方向の寸法Wx1を占有率R1の算出に使用することが好ましい。なお、占有率R1は、上記式(1)の値に対して、対象者Pの体格や歩行スピードに応じた補正値で補正した値にしてもよい。
図8(A)及び図8(B)に示すように、対象者Pが横断歩道2の幅方向中央の位置から進行方向を撮影した場合、横断歩道帯2Aの横方向の寸法Wx1は画像24Aの横方向の寸法Wimgに近づくため、式(1)の占有率R1は1に近づく。一方、図8(C)に示すように、対象者Pが横断歩道2の中央に対して右方向に逸脱している位置から進行方向を撮影した場合、横断歩道帯2Aの横方向の寸法Wx1は画像24Aの横方向の寸法Wimgに対して相対的に小さくなるため、占有率R1は低下する。
進行方向適正率R2は、横断歩道2の直進方向に対する対象者Pの進行方向の傾きの程度を示す指標である。以下の式(2)に示すように、進行方向適正率R2は、画像の最下部に位置する横断歩道帯2Aとその上方側で隣り合う位置の横断歩道帯2Aについて、最下部の横断歩道帯2Aの横方向の寸法Wxiに対する上方側の横断歩道帯2Aの横方向の寸法Wx(i+1)の比で表される。
図6に示すように、画像24Aの最下部の横断歩道帯2Aの上方側で隣り合う横断歩道帯2Aの横方向の寸法Wx2は、対応するバウンディングボックスBの横方向の寸法である。なお、進行方向適正率R2は、上記式(2)の値に対して、対象者Pの体格や歩行スピードに応じた補正値で補正した値にしてもよい。
図8(A)及び図8(B)に示すように、対象者Pが横断歩道2の幅方向中央の位置から横断歩道2の直進方向に沿って進行している場合、隣り合う横断歩道帯2Aの横方向の寸法Wx1,Wx2の差は僅かとなる。従って、進行方向適正率R2は1に近づく。一方、図8(D)に示されるように、対象者Pが横断歩道2の内側で直進方向に対して右方向に大きく傾いた方向を向いている場合、最下部の横断歩道帯2Aの横方向の寸法Wx1に対してその上方側で隣り合う横断歩道帯2Aの横方向の寸法Wx2が相対的に小さくなる。従って、進行方向適正率R2が低下する。すなわち、進行方向適正率R2が低下するほど、横断歩道2の直進方向に対する対象者Pの進行方向の傾き量が大きくなっていることが分かり、対象者Pがこのまま進行した場合に横断歩道を逸脱する可能性が高いと判断できる。
起点距離確保率R3は、横断歩道2の起点と対象者Pとの間の距離を示す指標である。なお、横断歩道2の起点とは、横断歩道2の手前の位置から見て、対象者Pに最も近い横断歩道帯2Aの位置である。以下の式(3)に示すように、起点距離確保率R3は、画像24Aの縦方向の寸法Himgに対する横断歩道帯2Aの高さ寸法Hxの比で表される。
図7に示すように、画像24Aの縦方向の寸法Himgは、画像24Aの上下方向の寸法である。また、横断歩道帯2Aの高さ寸法は、画像24Aの下端から横断歩道帯2Aの中心線までの縦方向の高さ寸法Hx1である。画像24Aを対象者Pが視覚を用いて認識した場合の前景に近づける観点から、対象者Pに最も近い画像24Aの最下部に位置する横断歩道帯2AのバウンディングボックスBに基づいて高さ寸法Hx1を起点距離確保率R3の算出に使用することが好ましい。なお、起点距離確保率R3は、上記式(3)の値に対して、対象者Pの体格や歩行スピードに応じた補正値で補正した値にしてもよい。
図8(A)に示すように、対象者Pが横断歩道2の手前側で起点から所定の距離を確保して立つ位置から図8(B)の横断歩道2に侵入した位置に移動する場合、画像24Aの最下部の横断歩道帯2Aの高さ寸法Hx1は、対象者Pが起点に近づくほど画像24Aの縦方向の寸法Himgに対して相対的に小さくなる。従って、起点距離確保率R3は低下する。
横断歩道侵入率R4は、対象者Pの横断歩道2への侵入の程度を示す指標である。以下の式(4)に示すように、横断歩道侵入率R4は、画像24Aの最下部に位置する横断歩道帯2Aの高さ寸法Hxiに対する最下部の横断歩道帯2Aの上方側で隣り合う横断歩道帯2Aの高さ寸法Hx(i+1)の比で表される。
図7に示すように、画像24Aの最下部の横断歩道帯2Aの上方側で隣り合う横断歩道帯2Aの高さ寸法Hx2は、画像24Aの下端から対応するバウンディングボックスBの中心線までの縦方向の高さ寸法Hx2である。なお、横断歩道侵入率R4は、上記式(4)の値に対して、対象者Pの体格や歩行スピードに応じた補正値で補正した値にしてもよい。
図8(A)に示すように、対象者Pが横断歩道2の手前側で起点から所定の距離を確保して立つ位置から図8(B)の横断歩道2に侵入した位置に移動する場合、画像24Aの最下部の横断歩道帯2Aの高さ寸法Hx1は、上方側に隣り合う横断歩道帯2Aの高さ寸法Hx2に対して相対的に小さくなる。従って、対象者Pが起点に近づくほど横断歩道進入率R4が高まる。
横断状況判断部36は、算出部34で算出された占有率R1、進行方向適正率R2、起点距離確保率R3及び横断歩道侵入率R4に基づいて、対象者の横断歩道の横断状況を判断する。具体的に、横断状況判断部36は、対象者Pが横断歩道2の外側に逸脱する可能性のある状況であるか否かに関する状況を判断する。また、横断状況判断部36は、対象者Pが横断歩道2を渡る前に、横断歩道2の手前の位置で安全を確保できているか否かに関する状況を判断する。
信号検知部38は、横断歩道2に信号機3が設置されている場合に、カメラ24で撮影された画像24Aに基づいて信号機3の信号状態を検知する。信号状態とは、例えば横断歩道2を横断可能な横断可能状態(青信号)と、横断不可能な横断不可能状態(赤信号)である。
障害物検知部40は、横断歩道2に信号機3が設置されていない場合に、カメラ24で撮影された画像24Aに基づいて横断歩道2を横切る方向に接近する障害物を検知する。
支援情報生成部42は、横断状況判断部36で判断された各種横断状況、信号検知部38の検知結果及び障害物検知部の検知結果に基づいて横断歩道を渡る前記対象者を支援する支援情報を生成する。
出力部44は、支援情報生成部42で生成された各種の支援情報を出力装置26で出力し、対象者Pに通知する。具体的に、出力部44は、各種情報が生成されたタイミングで振動子を作動させて通知してもよい。この場合に、出力される情報に応じて振動子の振動パターンを変更してもよい。また、出力部44は、スピーカから音声信号やメッセージを出力して対象者Pに各種情報を通知してもよい。
(作用)
次に、本実施形態の作用について説明する。
次に、本実施形態の作用について説明する。
(支援処理)
対象者Pに支援情報を提供する支援処理の一例について、図9に示されているフローチャートを用いて説明する。この支援処理は、CPU12がROM14又はストレージ18から支援プログラムを読み出して、RAM16に展開して実行することによって実行される。
対象者Pに支援情報を提供する支援処理の一例について、図9に示されているフローチャートを用いて説明する。この支援処理は、CPU12がROM14又はストレージ18から支援プログラムを読み出して、RAM16に展開して実行することによって実行される。
図9に示されるように、CPU12は、ステップS100でカメラ24を起動する。カメラ24は、対象者Pが横断歩道2の付近に近づいたと判断したタイミングで操作部を操作することにより起動する。
次に、CPU12は、ステップS101で撮影画像を取得する。具体的に、CPU12は、撮影部30の機能によって、対象者Pの進行方向を撮影したカメラ24の画像24Aを取得する。
CPU12は、ステップS102で画像24Aに含まれる横断歩道帯2Aの形状を推定する。具体的に、CPU12は、算出部34の機能によって横断歩道帯2Aの領域に対応するバウンディングボックスBを生成し、横断歩道帯2Aの形状として推定する。このときのバウンディングボックスBの生成には、学習済モデルMが用いられる。
CPU12は、ステップS103で横断歩道帯2Aの形状があるか否かについて判断する。CPU12が横断歩道帯があると判断した場合、ステップS104に移行して開始位置支援処理を実行する。開始位置支援処理によって、横断歩道を渡る前に、対象者Pを横断歩道に侵入しない安全な位置に移動させるように支援することができる。
一方、例えば、横断歩道2が混雑状態にあるため学習済モデルMを用いても横断歩道帯が検出されなかった場合や、撮影された画像24Aが横断歩道を含まない画像である場合は横断歩道帯がないと判断し、ステップS105に移行する。ステップS105では、支援情報生成部42の機能によって横断歩道帯が認識できない旨の支援情報を生成し、当該支援情報を出力部44の機能によって対象者Pに通知する。なお、横断歩道が混雑状態であるために横断歩道帯がないと判断した場合は、「横断歩道が混雑しております」という音声メッセージで支援情報を通知してもよい。若しくは、「一時停止してください」などの音声メッセージで支援情報を通知してもよい。CPU12は、ステップS105の処理を終えるとステップS102に戻る。
続いて、PU12は、ステップS106で信号機があるか否かについて判断する。具体的に、CPU12は、信号検知部38の機能によって撮影された画像24Aから信号機の有無を判断する。CPU12が信号機があると判断した場合、ステップS107に移行して信号機の信号状態が青信号であるか否かについて判断する。
ステップS107で信号機が青信号であると判断した場合、ステップS110に移行する。ステップS107で信号機が赤信号であると判断した場合、ステップS107の処理を繰り返す。
一方、ステップS106で信号機が無いと判断した場合、CPU12は、ステップS108に進んで障害物が存在するか否かについて判断する。具体的に、CPU12は、障害物検知部40の機能によって、画像24Aを分析し、横断歩道2を横切る方向に接近する障害物の有無について判断する。CPU12は、ステップS108で障害物が存在すると判断した場合にステップS109に移行して対象者Pに対して警告する。具体的に、支援情報生成部42の機能によって障害物の存在を通知する支援情報を生成し、出力部44の機能によって対象者Pに支援情報を通知する。これにより、対象者Pと障害物との衝突を回避することができる。CPU12は、ステップS109の処理を終えると、ステップS108に戻る。
一方、ステップS108でCPU12によって障害物が存在しないと判断された場合、ステップS110の処理に移行する。
CPU12は、ステップS110で横断歩道2を横断できることを対象者に通知する。具体的に、CPU12は、支援情報生成部42の機能によって横断歩道を渡ることを促す支援情報を生成し、出力部44の機能によって出力装置26から支援情報を出力する。
CPU12は、ステップS111で横断位置支援処理を実行する。横断位置支援処理によって、横断歩道を横断しているときに対象者Pが横断歩道を逸脱しないように支援する支援情報を提供することができる。
続いてCPU12は、ステップS112でカメラ24が停止したか否かについて判断する。カメラ24の停止は、対象者Pが横断歩道を渡り終えたと判断したタイミングで白杖1の操作部を操作することにより停止される。CPU12は、カメラ24が停止したと判断した場合、処理を終了する。また、CPU12は、カメラ24が停止されていないと判断した場合、ステップS106に戻って処理を繰り返す。
(開始位置支援処置)
次に、図10を参照して開始位置支援処理について説明する。この処理は、例えば、算出部34で横断歩道帯2Aの形状が推定された場合に実行される。
次に、図10を参照して開始位置支援処理について説明する。この処理は、例えば、算出部34で横断歩道帯2Aの形状が推定された場合に実行される。
CPU12は、ステップS200で起点距離確保率R3を算出する。その後、CPU12は、ステップS201に移行して起点距離確保率R3が所定の閾値以上であるか否かについて判断する。CPU12は、起点距離確保率R3が所定の閾値以上であると判断した場合、対象者Pは横断歩道の手前の安全な位置にいると判断してステップS203に移行する。また、CPU12は、起点距離確保率R3が所定の閾値未満であると判断すると、対象者Pが横断歩道に侵入している、又はまもなく横断歩道に侵入すると判断してステップS202に移行する。
CPU12は、ステップS202で対象者Pが横断歩道に侵入していることを通知する。具体的に、CPU12は、支援情報生成部42の機能によって対応する支援情報を生成し、出力部44の機能によって出力する。支援情報は、対象者Pが移動すべき方向を音声メッセージで直接通知してもよい。CPU12は、ステップS202の処理を終えるとステップS200に戻る。
CPU12は、ステップS203で横断歩道侵入率R4を算出する。その後、CPU12は、ステップS204に移行して横断歩道侵入率R4が所定の閾値未満であるか否かについて判断する。CPU12は、横断歩道侵入率R4が所定の閾値未満であると判断した場合、対象者Pが横断歩道の手前の安全な位置にいると判断してステップS206に移行する。
一方、CPU12は、ステップS104で横断歩道侵入率R4が所定の閾値以上であると判断すると、対象者Pが横断歩道に侵入している、又は、まもなく横断歩道に侵入すると判断してステップS205に移行する。CPU12は、ステップS205で対象者Pが横断歩道に侵入していることを通知する。具体的に、CPU12は、支援情報生成部42の機能によって対応する支援情報を生成し、出力部44の機能によって出力する。支援情報は、対象者Pが移動すべき方向を音声メッセージで直接通知してもよい。CPU12は、ステップS205の処理を終えるとステップS203に戻る。
CPU12は、ステップS206で対象者Pが適切な開始位置(待機位置)にいることを示す支援情報を通知して支援処理のステップに戻る。
(横断時位置支援処理)
次に、図11を参照して、横断時位置支援処理について説明する。この処理は、例えば、出力部44で対象者Pが横断できることが通りされや場合に実行される。
次に、図11を参照して、横断時位置支援処理について説明する。この処理は、例えば、出力部44で対象者Pが横断できることが通りされや場合に実行される。
CPU12は、ステップS300で占有率R1を算出し、ステップS301で、占有率R1が所定の閾値以上であるか否かについて判断する。占有率R1が所定の閾値未満である場合、対象者Pの位置が横断歩道2に対して横方向にずれているため、このまま進行した場合に横断歩道2から対象者Pが逸脱する可能性が高いと判断する(図8(C)の位置を参照)。この場合、CPU12は、ステップS302に移行して対象者Pが横断歩道の外側にいることを示す支援情報を通知する。CPU12は、ステップS302の処理を終えるとステップS300に戻る。
一方、占有率R1が所定の閾値以上である場合、対象者Pの位置が横断歩道の内側であると判断して、ステップS303に移行する。
CPU12は、ステップS303で進行方向適正率R2を算出し、ステップS304で進行方向適正率R2が所定の閾値以上であるか否かについて判断する。上述した通り、進行方向適正率R2が所定の閾値未満である場合、対象者Pの進行方向が横断歩道2の直進方向に対して大きく傾いていることが分かる(図8(D)の進行方向を参照)。従って、CPU12は、横断状況判断部36の機能によって、対象者Pがこのまま進行した場合に横断歩道2から逸脱する可能性が高いと判断する。そして、CPU12は、進行方向適正率R2が所定の閾値未満であると判断した場合、ステップS305に移行して、進行方向が正しくないことを示す支援情報を通知する。当該支援情報は、対象者Pが方向転換すべき方向を音声メッセージで直接通知してもよい。CPU12は、ステップS305の処理を終えると、ステップS303に戻る。
一方、CPU12は、進行方向適正率R2が所定の閾値以上であることを判断すると、ステップS306で、対象者Pが横断歩道の内側にいることを示す支援情報を通知して処理を終了する。
以上説明したように、本実施形態の情報処理装置10では、算出部34で画像24Aにおける横断歩道2の占有率R1を算出する。対象者Pの進行方向を撮影した画像24Aは、対象者Pの前景に近い画像である。従って、横断状況判断部36は、占有率R1に基づいて、対象者Pの横断歩道2への横断状況を判断することができる。そして、支援情報生成部42は、対象者Pの横断状況に基づいて、横断歩道2を渡る対象者Pを支援する支援情報を生成する。このように、情報処理装置10は、進行方向を撮影した画像24Aに基づいて対象者Pの横断状況を判断し、横断歩道2を渡る対象者Pを支援することができる。また、対象者Pが横断歩道を渡る際に撮影される画像だけで横断状況を判断する構成としたため、対象者Pは、情報処理装置10を簡単に利用することができる。
具体的に、撮影した画像24Aにおける横断歩道2の占有率R1が所定の閾値未満である場合、すなわち、対象者Pの前景における横断歩道2の存在が小さい場合、対象者Pが横断歩道に対してズレた位置にいることが分かる。従って、情報処理装置10の横断状況判断部36は、占有率R1が所定の閾値未満である場合に、対象者Pが横断歩道2を逸脱する可能性があると判断する。
さらに、本実施形態では、式(1)に示すように、画像24Aの横方向の寸法Wimgと、画像24Aにおける横断歩道帯2Aの横方向の寸法Wxに基づいて、画像24Aの横方向における横断歩道2の占有率R1を算出する。これにより、占有率R1によって、横断歩道2に対する対象者Pの横方向の位置ズレを効果的に推定できる。
さらに、本実施形態では、画像24Aの最下部に位置する横断歩道帯2A及びその上方側で隣り合う位置の横断歩道帯2Aの横方向の寸法Wxi,Wx(i+1)に基づいて、進行方向適正率R2を算出する。
ところで、横断歩道帯2Aは互いに平行に並べられているため、対象者Pが横断歩道2を直進している場合、すなわち、進行方向が適正である場合、最下部の横断歩道帯2A及びその上方側で隣り合う横断歩道帯2Aの横方向の寸法の差は僅かな値になる。よって、進行方向適正率R2は1に近づく。一方、対象者Pが横断歩道2の直進方向に対して大きく傾いた方向に進行している場合、図6において画像上方側の横断歩道帯2Aの横方向の寸法Wx2が最下部の横断歩道帯2Aの横方向の寸法Wx1と比較して小さくなるため進行方向適正率R2が低くなる。これにより、横断状況判断部36では、進行方向適正率R2が所定の閾値未満である場合に、対象者Pが横断歩道2を逸脱する可能性があると判断することができる。
さらに、本実施形態では、図7に示す画像の縦方向の寸法Himgと最下部の横断歩道帯2Aの高さ寸法Hx1に基づいて、式(3)の起点距離確保率R3を算出する。画像最下部に位置する横断歩道帯2Aは、対象者Pの進行方向の先にある横断歩道2の起点を示している。従って、起点距離確保率R3によって、横断歩道2の起点と対象者Pの相対的な位置関係を推定することができる。また、対象者Pが横断歩道2の起点に近づくほど起点距離確保率R3が低下する。これにより、横断状況判断部36では、起点距離確保率R3が所定の閾値以上である場合に、対象者Pが横断歩道Rの手前の地点にいると判断することができる。
さらに、本実施形態では、図7に示す画像24Aの最下部の横断歩道帯2A及びその上方側で隣り合う横断歩道帯2Aの高さ寸法Hx1,Hx2に基づいて、横断歩道侵入率R4を算出する。すなわち、対象者Pが最下部の横断歩道帯2Aに接近するほど、最下部の横断歩道帯2Aの高さ寸法Hx1が上方側で隣り合う横断歩道帯2Aの高さ寸法Hx2に比して小さくなるため横断歩道侵入率R4が高くなる。従って、横断状況判断部36では、横断歩道侵入率R4が所定の閾値未満である場合に、対象者Pが横断歩道2の手前の地点にいると判断することができる。
さらに、本実施形態において、算出部34は、学習済モデルMに対して撮影された画像24Aを入力することで、画像24Aに横断歩道2を利用する他の歩行者が含まれる場合でも、横断歩道帯2の形状を正確に推定し、占有率R1を算出することができる。これにより、対象者の周囲に他の歩行者が存在する場合でも、正確に横断歩道2を認識して支援情報を提供することができる。
さらに、本実施形態では、信号機3の信号状態を検知して対象者Pの移動を支援することができる。従って、対象者Pが信号機3が設置された横断歩道2を渡る場合に、より安全性に配慮した支援情報を提供することができる。
さらに、本実施形態では、横断歩道2を横切る方向に接近する障害物を検知して対象者Pを支援することができる。従って、信号機が設置されていない横断歩道2でも、対象者Pが安全に渡ることができるように支援情報を提供することができる。
さらに、本実施形態では、情報処理装置10を白杖1に設ける構成とし、情報処理装置10は、画像24Aを撮影する撮影部30と支援情報を出力する出力部44とを備えている。これにより。対象者Pが視覚障害者である場合に、常日頃から携行する白杖1を使用して支援情報を提供することができるため、利便性を向上させることができる。
[補足説明]
以上、本実施形態に係る情報処理装置10及び情報処理装置10で実行される情報処理方法について説明したが、本発明は、発明の要旨を逸脱しない範囲で種々なる態様で実施し得ることは勿論である。例えば、上記実施形態では、情報処理装置10が白杖1に設けられる構成としたが、本発明はこれに限らない。情報処理装置の全部又は一部をスマートフォン等、対象者が携行可能な他の装置で構成してもよい。
以上、本実施形態に係る情報処理装置10及び情報処理装置10で実行される情報処理方法について説明したが、本発明は、発明の要旨を逸脱しない範囲で種々なる態様で実施し得ることは勿論である。例えば、上記実施形態では、情報処理装置10が白杖1に設けられる構成としたが、本発明はこれに限らない。情報処理装置の全部又は一部をスマートフォン等、対象者が携行可能な他の装置で構成してもよい。
上記実施形態では、出力装置26が白杖1に設けられる構成としたが本発明はこれに限らない。出力装置26をスマートフォンやイヤフォン等の対象者Pが携行可能な装置に設けてもよい。この場合、スマートフォン等の出力装置を備えるデバイスは、例えばBluetooth(登録商標)などの近距離無線通信によって白杖1の出力部からの出力信号を受信し、音や振動パターンとして出力してもよい。
また、上記実施形態では支援を受ける対象者を視覚障害者としたが、本発明はこれに限らない。例えば、所定の方向に迅速に身体を向けて目視で確認することが困難な高齢者や、車椅子で行動する身体障害者を対象者として、横断歩道を渡るための支援情報を提供してもよい。
また、上記実施形態では支援を受ける対象者を視覚障害者としたが、本発明はこれに限らない。例えば、所定の方向に迅速に身体を向けて目視で確認することが困難な高齢者や、車椅子で行動する身体障害者を対象者として、横断歩道を渡るための支援情報を提供してもよい。
上記実施形態では、対象者Pによる操作部の操作によってカメラ24を起動させ、GPS装置や大規模記憶装置を必要とする地図データを有しない構成とすることで装置全体を簡略化し小型化を図っているが、本発明はこれに限らない。例えば、GPS装置によって対象者の現在位置を取得し、現在位置に基づいて地図データを参照することにより対象者が横断歩道の付近にいることを検知した場合にカメラ24を自動で起動させる構成としてもよい。又は、情報処理装置がスマートフォン等の外部装置と通信可能にし、スマートフォン等が備えるGPS機能や地図データの参照機能に基づいて対象者Pの現在位置(情報処理装置の現在位置)を取得し、現在位置が横断歩道の付近であることを検知した場合にカメラ24を起動させる構成としてもよい。
また、上記実施形態では、撮影された画像の横方向の寸法と横断歩道帯2Aの横方向の寸法に基づいて画像おける横方向の占有率を算出する構成としたが、本発明はこれに限らない。例えば、撮影された画像の面積と、撮影された横断歩道帯の総面積に基づいて、画像に対する横断歩道の面積の占有率を本発明における横断歩道の占有率として定義してもよい。
また、上記実施形態でCPU12がソフトウェア(プログラム)を読み込んで実行した支援処理、開始位置支援処理及び横断時位置支援処理を、CPU12以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、支援処理、開始位置支援処理及び横断時位置支援処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
さらに、上記実施形態では、ストレージ18に種々のデータを記憶させる構成としたが、これに限定されない。例えば、CD(Compact Disk)、DVD(Digital Versatile Disk)、及びUSB(Universal Serial Bus)メモリ等の記録媒体を記憶部としてもよい。この場合、これらの記録媒体に各種プログラム及びデータなどが格納されることとなる。
1 白杖
2 横断歩道
2A 横断歩道帯
10 情報処理装置
24A 画像
30 撮影部
34 算出部
36 横断状況判断部
38 信号検知部
40 障害物検知部
42 支援情報生成部
44 出力部
P 対象者
M 学習済みモデル
R1 占有率
R2 進行方向適正率
R3 起点距離確保率
R4 横断歩道侵入率
Wing 画像の横方向の寸法
Wxi,Wx1 第1横断歩道帯の横方向の寸法
Wx(i+1),Wx2 第2横断歩道帯の横方向の寸法
Hing 画像の縦方向の寸法
Hxi,Hx1 第1横断歩道帯の高さ寸法
Hx(i+1),Hx2 第2横断歩道帯の高さ寸法
2 横断歩道
2A 横断歩道帯
10 情報処理装置
24A 画像
30 撮影部
34 算出部
36 横断状況判断部
38 信号検知部
40 障害物検知部
42 支援情報生成部
44 出力部
P 対象者
M 学習済みモデル
R1 占有率
R2 進行方向適正率
R3 起点距離確保率
R4 横断歩道侵入率
Wing 画像の横方向の寸法
Wxi,Wx1 第1横断歩道帯の横方向の寸法
Wx(i+1),Wx2 第2横断歩道帯の横方向の寸法
Hing 画像の縦方向の寸法
Hxi,Hx1 第1横断歩道帯の高さ寸法
Hx(i+1),Hx2 第2横断歩道帯の高さ寸法
Claims (11)
- 対象者の進行方向を撮影した画像における横断歩道の占有率を算出する算出部と、
算出した占有率に基づいて、前記対象者の横断歩道の横断状況を判断する横断状況判断部と、
前記対象者の横断状況に基づいて、横断歩道を渡る前記対象者を支援する支援情報を生成する支援情報生成部と、
を有する情報処理装置。 - 前記横断状況判断部は、前記占有率が所定の閾値未満である場合に、前記対象者が横断歩道を逸脱する可能性があると判断する、請求項1に記載の情報処理装置。
- 前記占有率は、前記画像の横方向における横断歩道の占有率であり、
前記算出部は、前記画像の横方向の寸法に対する横断歩道帯の横方向の寸法の比に基づいて前記占有率を算出する、請求項1又は請求項2に記載の情報処理装置。 - 前記算出部は、前記画像の最下部に位置する第1横断歩道帯とその上方側で隣り合う位置の第2横断歩道帯について、前記第1横断歩道帯の横方向の寸法に対する前記第2横断歩道帯の横方向の寸法の比に基づく進行方向適正率を算出し、
前記横断状況判断部は、前記進行方向適正率が所定の閾値未満である場合に、前記対象者が横断歩道を逸脱する可能性があると判断する請求項1~請求項3の何れか1項に記載の情報処理装置。 - 前記算出部は、前記画像の最下部に位置する第1横断歩道帯について前記画像の下端から前記第1横断歩道帯までの縦方向の高さ寸法を求め、前記画像の縦方向の寸法に対する前記第1横断歩道帯の高さ寸法の比に基づく起点距離確保率を算出し、
前記横断状況判断部は、前記起点距離確保率が所定の閾値以上である場合に、前記対象者が横断歩道の手前の地点にいると判断する請求項1~請求項4の何れか1項に記載の情報処理装置。 - 前記算出部は、前記画像の最下部に位置する第1横断歩道帯とその上方側で隣り合う位置の第2横断歩道帯について、前記画像の下端から各横断歩道帯までの縦方向の高さ寸法をそれぞれ求め、前記第1横断歩道帯の高さ寸法に対する前記第2横断歩道帯の高さ寸法の比に基づく横断歩道侵入率を算出し、
前記横断状況判断部は、前記横断歩道侵入率が所定の閾値未満である場合に、前記対象者が横断歩道の手前の地点にいると判断する請求項1~請求項5の何れか1項に記載の情報処理装置。 - 前記算出部は、歩行者を含まない横断歩道の画像と歩行者を含む横断歩道の画像を学習用データとして生成された学習済みモデルに対して、撮影された画像を入力することで横断歩道の横断歩道帯の形状を推定し、
推定した横断歩道帯の形状に基づいて撮影された画像における横断歩道の占有率を算出する、請求項1~請求項6の何れか1項に記載の情報処理装置。 - 信号検知部をさらに備え、
前記信号検知部は、前記画像に基づいて、横断歩道に設置された信号機の信号状態を検知し、
前記支援情報生成部は、前記信号状態に基づいて、前記支援情報を生成する請求項1~請求項7の何れか1項に記載の情報処理装置。 - 障害物検知部を更に備え、
前記障害物検知部は、撮影された画像に基づいて、横断歩道を横切る方向に接近する障害物を検知し、
前記支援情報生成部は、障害物が認識された場合に、前記支援情報を生成する、請求項1~請求項8の何れか1項に記載の情報処理装置。 - 前記情報処理装置は白杖に設けられており、
前記画像を撮影する撮影部と、
前記支援情報を出力する出力部と、をさらに備える請求項1~請求項9の何れか1項に記載の情報処理装置。 - 対象者の進行方向を撮影した画像における横断歩道の占有率を算出し、
算出した占有率に基づいて、前記対象者の横断歩道への横断状況を判断し、
前記対象者の横断状況に基づいて、横断歩道を渡る前記対象者を支援する支援情報を生成する情報処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021008918A JP2022112897A (ja) | 2021-01-22 | 2021-01-22 | 情報処理装置及び情報処理方法 |
US17/530,476 US11672724B2 (en) | 2021-01-22 | 2021-11-19 | Information processing device and information processing method |
CN202210059819.XA CN114822010B (zh) | 2021-01-22 | 2022-01-19 | 信息处理装置和信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021008918A JP2022112897A (ja) | 2021-01-22 | 2021-01-22 | 情報処理装置及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022112897A true JP2022112897A (ja) | 2022-08-03 |
Family
ID=82494308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021008918A Withdrawn JP2022112897A (ja) | 2021-01-22 | 2021-01-22 | 情報処理装置及び情報処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11672724B2 (ja) |
JP (1) | JP2022112897A (ja) |
CN (1) | CN114822010B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022172511A (ja) * | 2021-05-06 | 2022-11-17 | トヨタ自動車株式会社 | 歩行支援システム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4592200B2 (ja) * | 2001-03-02 | 2010-12-01 | 小糸工業株式会社 | 横断支援用検出装置及びこれを用いた横断支援システム |
CN101509780B (zh) * | 2009-03-16 | 2011-09-28 | 西安理工大学 | 一种智能盲人导航系统及导航方法 |
WO2011039977A1 (ja) * | 2009-09-29 | 2011-04-07 | パナソニック株式会社 | 横断歩道標示検出方法および横断歩道標示検出装置 |
JP5631581B2 (ja) * | 2009-12-01 | 2014-11-26 | 富士重工業株式会社 | 道路認識装置 |
US8983124B2 (en) * | 2009-12-03 | 2015-03-17 | National Institute Of Advanced Industrial Science And Technology | Moving body positioning device |
CN101853399B (zh) * | 2010-05-11 | 2013-01-09 | 北京航空航天大学 | 利用计算机视觉技术进行盲道和人行横道实时检测的方法 |
JP5469148B2 (ja) | 2011-10-13 | 2014-04-09 | 本田技研工業株式会社 | 車両の制御装置 |
JP6408434B2 (ja) | 2015-07-14 | 2018-10-17 | 株式会社キクテック | 道路標示体劣化検出方法 |
CN107157717A (zh) * | 2016-03-07 | 2017-09-15 | 维看公司 | 用于向盲人提供视觉信息的物体检测、分析及提示系统 |
JP6628189B2 (ja) | 2016-05-19 | 2020-01-08 | パナソニックIpマネジメント株式会社 | 検出装置および検出方法 |
JP2018013847A (ja) * | 2016-07-19 | 2018-01-25 | 株式会社リコー | 端末装置、運転補助方法及び運転補助プログラム |
KR101911598B1 (ko) * | 2016-08-03 | 2018-10-24 | 울산대학교 산학협력단 | 시각장애인을 위한 횡단보도 신호등 영상 인식 방법 및 장치 |
JP6948325B2 (ja) * | 2016-08-05 | 2021-10-13 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN106652505B (zh) * | 2017-01-22 | 2019-01-25 | 吉林大学 | 一种基于智能眼镜的视觉障碍行人过街引导系统 |
JP6593364B2 (ja) * | 2017-02-03 | 2019-10-23 | トヨタ自動車株式会社 | 光学デバイス |
CN106901956B (zh) * | 2017-03-03 | 2019-06-04 | 西南大学 | 一种用于人行横道线处的盲人导航方法及装置 |
CN106909916B (zh) * | 2017-03-20 | 2020-02-18 | 南京大学 | 一种基于手机平台快速检测与识别人行道斑马线的方法 |
KR101884324B1 (ko) * | 2017-09-06 | 2018-08-02 | 임철수 | 횡단보도 음성안내 보조장치 |
CN108010314A (zh) * | 2018-01-08 | 2018-05-08 | 长沙金龙铸造实业有限公司 | 为盲人安全出行提供方便的系统和方法 |
CN108309708A (zh) * | 2018-01-23 | 2018-07-24 | 李思霈 | 盲人拐杖 |
CN108764150A (zh) * | 2018-05-29 | 2018-11-06 | 杭州视氪科技有限公司 | 一种用于斑马线型人行横道检测的盲人辅助眼镜 |
US10600318B1 (en) * | 2019-03-23 | 2020-03-24 | Min-Yueh Chiang | Blind guiding equipment in pedestrian crosswalk |
US11351991B2 (en) * | 2019-03-25 | 2022-06-07 | Zoox, Inc. | Prediction based on attributes |
US11205082B2 (en) * | 2019-10-08 | 2021-12-21 | Toyota Research Institute, Inc. | Spatiotemporal relationship reasoning for pedestrian intent prediction |
US11904854B2 (en) * | 2020-03-30 | 2024-02-20 | Toyota Research Institute, Inc. | Systems and methods for modeling pedestrian activity |
-
2021
- 2021-01-22 JP JP2021008918A patent/JP2022112897A/ja not_active Withdrawn
- 2021-11-19 US US17/530,476 patent/US11672724B2/en active Active
-
2022
- 2022-01-19 CN CN202210059819.XA patent/CN114822010B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114822010A (zh) | 2022-07-29 |
US11672724B2 (en) | 2023-06-13 |
CN114822010B (zh) | 2024-03-05 |
US20220233392A1 (en) | 2022-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2015262344B2 (en) | Processing apparatus, processing system, processing program, and processing method | |
JP6284644B2 (ja) | 自動二輪車のための情報提供装置及びプログラム | |
WO2020194015A1 (ja) | 運転支援方法及び運転支援装置 | |
US10331140B2 (en) | Moving body | |
JP6556563B2 (ja) | 検出装置、検出方法、検出プログラムおよび情報処理システム | |
TWI598854B (zh) | 障礙物檢測裝置及具備其之移動體 | |
JP4937844B2 (ja) | 歩行者検出装置 | |
JP2022112897A (ja) | 情報処理装置及び情報処理方法 | |
JP7195200B2 (ja) | 車載装置、車載システムおよび周辺監視方法 | |
CN115223115A (zh) | 信息处理装置及其控制方法、移动体的控制装置和控制方法以及记录介质 | |
JP2010097335A (ja) | 運転意思推定装置 | |
US11783574B2 (en) | Artificial intelligence based real time vehicle parking verification | |
JP2021041754A (ja) | 運転制御方法及び運転制御装置 | |
JP7051326B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2018195194A (ja) | 情報処理システム、情報処理装置、情報処理方法およびプログラム | |
JP6953228B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6773854B2 (ja) | 検出装置、検出方法、および検出プログラム | |
JP2005092516A (ja) | 車載用移動体検出装置 | |
JP6901937B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2020144591A (ja) | 移動体管理装置、及び、移動体管理方法 | |
WO2022183415A1 (zh) | 一种积水深度确定方法及装置 | |
KR102322815B1 (ko) | 카메라 기반의 도로이벤트 점유차로 검출 장치 및 그 방법 | |
JP7292320B2 (ja) | 移動体制御システム、移動体、および制御方法 | |
JP2022177735A (ja) | 報知装置、地図データ、および、プログラム | |
JP2022118053A (ja) | 出力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230822 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20231114 |