JP5622766B2 - Route search device - Google Patents

Route search device Download PDF

Info

Publication number
JP5622766B2
JP5622766B2 JP2012040059A JP2012040059A JP5622766B2 JP 5622766 B2 JP5622766 B2 JP 5622766B2 JP 2012040059 A JP2012040059 A JP 2012040059A JP 2012040059 A JP2012040059 A JP 2012040059A JP 5622766 B2 JP5622766 B2 JP 5622766B2
Authority
JP
Japan
Prior art keywords
route
unit
pedestrian
attribute
encounter probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012040059A
Other languages
Japanese (ja)
Other versions
JP2013174540A (en
Inventor
彰一 清水
彰一 清水
関 真規人
真規人 関
信太郎 渡邉
信太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012040059A priority Critical patent/JP5622766B2/en
Publication of JP2013174540A publication Critical patent/JP2013174540A/en
Application granted granted Critical
Publication of JP5622766B2 publication Critical patent/JP5622766B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)

Description

この発明は、歩行者との遭遇確率の低い経路を生成する経路探索装置に関するものである。   The present invention relates to a route search device that generates a route having a low encounter probability with a pedestrian.

従来より、安全運転を支援するための運転支援装置が提案されている。例えば、特許文献1には、歩行者検出用カメラから取得した画像から所定領域内の歩行者を検出し、検出した歩行者の歩行者状態と、自車両の走行状態に基づいて自車両の前方に危険領域を設定し、歩行者が危険領域のいずれかに存在するかによって危険度を判定し、運転者に注意喚起を行う車両用運転支援装置が開示されている。   Conventionally, driving assistance devices for supporting safe driving have been proposed. For example, in Patent Document 1, a pedestrian within a predetermined area is detected from an image acquired from a pedestrian detection camera, and the front of the host vehicle is detected based on the detected pedestrian state of the pedestrian and the traveling state of the host vehicle. A vehicle driving support device is disclosed in which a dangerous area is set in the vehicle, the degree of danger is determined depending on whether the pedestrian is in the dangerous area, and the driver is alerted.

特開2009−98956号公報JP 2009-99856 A

しかしながら、上述した特許文献1に開示された技術では、歩行者との遭遇を避けることはできず、歩行者との遭遇により運転者が受けるストレスを低減させることができないという課題があった。   However, with the technique disclosed in Patent Document 1 described above, encounters with pedestrians cannot be avoided, and there is a problem that the stress experienced by the driver due to encounters with pedestrians cannot be reduced.

この発明は、上記のような課題を解決するためになされたもので、歩行者と遭遇する確率の低い経路を優先して探索し、走行経路に設定する経路探索装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a route search device that preferentially searches a route with a low probability of encountering a pedestrian and sets the route as a travel route. To do.

この発明に係る経路探索装置は、自車両から所定の領域を撮影した撮影画像から、歩行者を検出する人検出部と、人検出部が検出した歩行者情報と、自車位置情報とを統合した統合データを生成するデータ統合部と、データ統合部が生成した統合データを蓄積するデータ蓄積部と、目的地の設定および経路生成条件の指定を受け付ける操作入力部と、操作入力部を介して歩行者との低遭遇確率の経路生成条件が指定されると、当該指定に基づいて自車両の現在位置から設定された目的地までの経路の探索を行う経路探索部と、データ蓄積部に蓄積された統合データと、自車位置情報とを用いて、経路探索部が探索した経路を構成する構成経路の遭遇確率を算出する遭遇確率算出部と、遭遇確率算出部が算出した遭遇確率に基づいて、構成経路の重みを設定する重み設定部と、重み設定部が設定した構成経路の重みを参照し、探索した経路のうちもっとも小さい重みを有する経路を走行経路として選択する経路生成部と、撮影画像と、人検出部が検出した歩行者情報とから、歩行者の属性を推定する属性推定部とを備え、データ統合部は、属性推定部が推定した歩行者の属性情報と、自車位置情報とを統合して統合データを生成し、遭遇確率算出部は、歩行者の属性情報毎に各経路に対する属性別遭遇確率を算出し、算出した属性別遭遇確率に歩行者の各属性に対してあらかじめ設定された重みを適用して遭遇確率を算出するものである。 The route search device according to the present invention integrates a human detection unit that detects a pedestrian, a pedestrian information detected by the human detection unit, and own vehicle position information from a captured image obtained by photographing a predetermined area from the own vehicle. A data integration unit that generates the integrated data, a data storage unit that stores the integrated data generated by the data integration unit, an operation input unit that accepts destination setting and route generation condition specification, and an operation input unit When a route generation condition with a low encounter probability with a pedestrian is specified , a route search unit that searches for a route from the current position of the vehicle to the set destination based on the specification is stored in the data storage unit. Based on the encounter probability calculated by the encounter probability calculation unit and the encounter probability calculation unit that calculates the encounter probability of the constituent route that constitutes the route searched by the route search unit using the integrated data and the vehicle position information Configuration path A weight setting unit for setting the weight, and the route generating section that refers to the weight of the structure path weight setting unit has set, it selects a path having a smallest weight among the searched route as a travel route, and the captured image, human An attribute estimation unit that estimates a pedestrian attribute from the pedestrian information detected by the detection unit, and the data integration unit integrates the pedestrian attribute information estimated by the attribute estimation unit and the vehicle position information. Integrated data is generated, the encounter probability calculation unit calculates the attribute-specific encounter probability for each route for each pedestrian attribute information, and the calculated attribute-specific encounter probability is preset for each attribute of the pedestrian The encounter probability is calculated by applying the weight .

この発明によれば、走行中の道路における歩行者情報の蓄積を可能にし、蓄積した歩行者情報に基づいて歩行者と遭遇する確率の低い経路を優先して探索し、走行経路に設定することができる。これにより、歩行者との遭遇により運転者が受けるストレスを低減させることができる。さらに、歩行者との接触事故などの発生を防止することができる。   According to the present invention, it is possible to accumulate pedestrian information on a road that is running, preferentially search a route with a low probability of encountering a pedestrian based on the accumulated pedestrian information, and set it as a traveling route. Can do. Thereby, the stress which a driver | operator receives by encounter with a pedestrian can be reduced. Furthermore, the occurrence of a contact accident with a pedestrian can be prevented.

実施の形態1による経路探索装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a route search device according to a first embodiment. 実施の形態1による経路探索装置の処理動作を示す説明図である。FIG. 7 is an explanatory diagram illustrating a processing operation of the route search device according to the first embodiment. 実施の形態1による経路探索装置のデータ収集処理動作を示すフローチャートである。4 is a flowchart showing a data collection processing operation of the route search device according to the first embodiment. 実施の形態1による経路探索装置の経路探索処理動作を示すフローチャートである。4 is a flowchart illustrating a route search processing operation of the route search device according to the first embodiment. 実施の形態1による経路探索装置の経路生成の動作を示すフローチャートである。5 is a flowchart showing a route generation operation of the route search device according to the first embodiment. 地図情報をグラフ化して示した図である。It is the figure which showed map information in the graph. 実施の形態1による経路探索装置の最適経路を設定する一例を示す説明図である。6 is an explanatory diagram illustrating an example of setting an optimum route of the route search device according to the first embodiment. FIG. 実施の形態2による経路探索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the route search apparatus by Embodiment 2. 実施の形態2による経路探索装置の処理動作を示す説明図である。FIG. 10 is an explanatory diagram illustrating a processing operation of the route search device according to the second embodiment. 実施の形態2による経路探索装置のデータ収集処理動作を示すフローチャートである。6 is a flowchart showing a data collection processing operation of the route search apparatus according to the second embodiment.

実施の形態1.
まず始めに、図1および図2を参照しながら実施の形態1による経路探索装置の構成および処理動作について説明する。図1は、この発明の実施の形態1による経路探索装置の構成を示すブロック図であり、図2は実施の形態1による経路探索装置の処理動作を示す説明図である。
図1に示すように経路探索装置は、カメラ1、人検出部2、属性推定部3、GPS4、データ統合部5、データ蓄積部6、操作入力部7、経路生成部8および経路表示部9で構成されている。
Embodiment 1 FIG.
First, the configuration and processing operation of the route search apparatus according to the first embodiment will be described with reference to FIG. 1 and FIG. FIG. 1 is a block diagram showing the configuration of the route search apparatus according to the first embodiment of the present invention, and FIG. 2 is an explanatory diagram showing the processing operation of the route search apparatus according to the first embodiment.
As shown in FIG. 1, the route search apparatus includes a camera 1, a human detection unit 2, an attribute estimation unit 3, a GPS 4, a data integration unit 5, a data storage unit 6, an operation input unit 7, a route generation unit 8, and a route display unit 9. It consists of

図1および図2に示すように、経路探索装置は、データ収集処理と収集したデータを用いた経路探索処理を行う。データ収集処理は、カメラ1、人検出部2、属性推定部3、GPS4、データ統合部5およびデータ蓄積部6によって実行され、経路探索処理はデータ蓄積部6、低遭遇確率優先選択部7aを備えた操作入力部7、経路生成部8および経路表示部9によって実行される。   As shown in FIGS. 1 and 2, the route search apparatus performs a data collection process and a route search process using the collected data. The data collection process is executed by the camera 1, the human detection unit 2, the attribute estimation unit 3, the GPS 4, the data integration unit 5 and the data storage unit 6, and the route search process is performed by the data storage unit 6 and the low encounter probability priority selection unit 7a. The operation input unit 7, the route generation unit 8, and the route display unit 9 are provided.

次に、図2を参照しながら経路探索装置の処理動作について説明する。
まず、データ収集処理について説明する。車両11の前方に配置されたカメラ1を用いて歩行者12を含む所定領域Aを撮影し、当該撮影により画像13を取得する。人検出部2は、取得した画像13内の歩行者14を検出する。属性推定部3は、検出された歩行者14について、それぞれ属性の推定が行われ、老人、大人、子供のいずれかに分類された属性情報を生成される。データ統合部5は、生成された属性情報と、車両11に搭載したGPS4が取得した位置情報および時間情報とを統合した統合データを生成し、データ蓄積部6に蓄積する。
Next, the processing operation of the route search device will be described with reference to FIG.
First, the data collection process will be described. The predetermined area A including the pedestrian 12 is photographed using the camera 1 arranged in front of the vehicle 11, and the image 13 is acquired by the photographing. The human detection unit 2 detects the pedestrian 14 in the acquired image 13. The attribute estimation unit 3 estimates the attributes of the detected pedestrians 14 and generates attribute information classified into the elderly, adults, and children. The data integration unit 5 generates integrated data that integrates the generated attribute information with the position information and time information acquired by the GPS 4 mounted on the vehicle 11 and stores the integrated data in the data storage unit 6.

次に、データ蓄積部6に蓄積された蓄積データを活用した経路探索処理について説明する。ナビゲーション装置15などの表示画面上に表示された項目「時間優先」、「値段優先」または「低遭遇確率優先」などから、項目「低遭遇確率優先」が選択16された場合、経路生成部8は、GPS4が取得した位置情報および時間情報、およびデータ蓄積部6に格納された蓄積データに基づいて、歩行者との遭遇確率の低い経路を優先した経路探索処理を行う。経路表示部9は、経路生成部8により設定された走行経路を画面上に表示する。   Next, a route search process using the accumulated data accumulated in the data accumulation unit 6 will be described. When the item “low encounter probability priority” is selected 16 from the items “time priority”, “price priority”, or “low encounter probability priority” displayed on the display screen of the navigation device 15 or the like, the route generation unit 8 Performs route search processing giving priority to a route having a low encounter probability with a pedestrian based on position information and time information acquired by the GPS 4 and accumulated data stored in the data accumulation unit 6. The route display unit 9 displays the travel route set by the route generation unit 8 on the screen.

次に、データ収集処理を実行する各構成の詳細について説明する。
カメラ1は、周期的に所定領域Aを撮影し、撮影した画像13を人検出部2および属性推定部3に出力する。人検出部2は、入力された画像13から歩行者14を検出し、歩行者14の検出結果である画像座標を属性推定部3に出力する。
ここで、歩行者の検出は、画像から得られるアピアランス情報をあらかじめ機械学習により学習し、その学習結果を用いることにより検出する。アピアランス情報として勾配情報を用いるHOG(Histogram of Oriented Gradient:参考文献1参照)特徴などを用いればよく、学習にはSVM(Support Vector Machine:参考文献2参照)などを用いればよい。
[参考文献1]
N. Dalal and B. Triggs: ``Histograms of Oriented Gradients for Human Detection'', CVPR, pp. 886-893, 2005.
[参考文献2]
Support Vector Machine:Nello Cristianini(原著), John Shawe‐Taylor(原著), 大北剛(翻訳): 「サポートベクターマシン入門」. 共立出版, 2005
Next, details of each configuration for executing the data collection processing will be described.
The camera 1 periodically captures the predetermined area A and outputs the captured image 13 to the person detection unit 2 and the attribute estimation unit 3. The human detection unit 2 detects a pedestrian 14 from the input image 13 and outputs image coordinates that are detection results of the pedestrian 14 to the attribute estimation unit 3.
Here, pedestrians are detected by learning appearance information obtained from an image in advance by machine learning and using the learning result. An HOG (Histogram of Oriented Gradient: see Reference 1) feature or the like that uses gradient information as appearance information may be used, and SVM (Support Vector Machine: see Reference 2) or the like may be used for learning.
[Reference 1]
N. Dalal and B. Triggs: `` Histograms of Oriented Gradients for Human Detection '', CVPR, pp. 886-893, 2005.
[Reference 2]
Support Vector Machine: Nello Cristianini (original), John Shawe-Taylor (original), Takeshi Ohkita (translation): "Introduction to Support Vector Machine". Kyoritsu Shuppan, 2005

属性推定部3は、人検出部2から入力された画像座標と、カメラ1から入力された画像13とから歩行者14の画像を抽出し、抽出した画像の各歩行者14を老人、大人、あるいは子供の3属性に分類する。分類結果は属性情報としてデータ統合部5に出力される。
ここで、属性の分類は、人検出部2における歩行者の検出と同様に、アピアランス情報を用いて機械学習を行い、その識別器にて行う。以下に示す参考文献3および参考文献4などに開示された手法を適用してもよく、手段は限定されない。
[参考文献3]
特開2005−165447号公報
[参考文献4]
特開2005−148880号公報
The attribute estimation unit 3 extracts the image of the pedestrian 14 from the image coordinates input from the human detection unit 2 and the image 13 input from the camera 1. Or classify into three attributes of children. The classification result is output to the data integration unit 5 as attribute information.
Here, the attribute classification is performed by machine learning using appearance information and using the discriminator as in the case of pedestrian detection in the human detection unit 2. The methods disclosed in Reference Document 3 and Reference Document 4 shown below may be applied, and means are not limited.
[Reference 3]
JP 2005-165447 A [Reference 4]
JP 2005-148880 A

データ統合部5は、属性推定部3から入力された属性情報と、GPS4が取得した位置情報および時間情報とを統合し、統合データとしてデータ蓄積部6に出力する。統合データには、例えば老人の人数、大人の人数、子供の人数、緯度、経度および時刻が含まれる。データ蓄積部6は、データ統合部5から入力された統合データを格納する。   The data integration unit 5 integrates the attribute information input from the attribute estimation unit 3, the position information and time information acquired by the GPS 4, and outputs the integrated data to the data storage unit 6. The integrated data includes, for example, the number of elderly people, the number of adults, the number of children, latitude, longitude, and time. The data storage unit 6 stores the integrated data input from the data integration unit 5.

次に、経路探索処理を実行する構成について説明する。
データ蓄積部6は、データ収集処理で生成された統合データを格納する。操作入力部7は、例えばキーボードやタッチパネル、マウスなどの入力手段で構成され、目的地の設定や経路生成条件の指定などを受け付ける。なお、図2では、低遭遇確率優先の経路生成を指定する構成を低遭遇確率優先選択部7aとして示している。操作入力部7が受け付けた目的地情報や、低遭遇確率優先の経路生成指示は、経路生成部8に出力される。
Next, a configuration for executing the route search process will be described.
The data storage unit 6 stores the integrated data generated by the data collection process. The operation input unit 7 includes input means such as a keyboard, a touch panel, and a mouse, for example, and accepts destination setting, route generation condition specification, and the like. In FIG. 2, the configuration for designating the generation of the low encounter probability priority route is shown as the low encounter probability priority selection unit 7a. The destination information received by the operation input unit 7 and the low encounter probability priority route generation instruction are output to the route generation unit 8.

経路生成部8は、操作入力部7から入力された目的地情報および低遭遇確率優先の経路生成指示が入力されると、GPS4から取得した車両11の現在位置情報および時間情報に基づいてデータ蓄積部6にアクセスして目的地までの経路の探索を行い、探索した経路から歩行者との遭遇確率の低い経路を選択し、選択結果である走行経路を経路表示部9に出力する。経路表示部9は、経路生成部8から入力された走行経路を、ナビゲーション装置15のモニタなどの表示画面(不図示)上に表示する。   When the destination information input from the operation input unit 7 and the low generation probability priority route generation instruction are input, the route generation unit 8 stores data based on the current position information and time information of the vehicle 11 acquired from the GPS 4. A route to the destination is searched by accessing the unit 6, a route having a low encounter probability with a pedestrian is selected from the searched routes, and a travel route as a selection result is output to the route display unit 9. The route display unit 9 displays the travel route input from the route generation unit 8 on a display screen (not shown) such as a monitor of the navigation device 15.

図1を参照しながら、経路生成部8の構成をより詳細に説明する。経路生成部8は、経路探索部8a、遭遇確率算出部8b、重み設定部8cおよび経路選択部8dで構成されている。経路は、ダイクストラ法を用いて生成される。
経路探索部8aは、操作入力部7を介して入力された目的地情報、GPS4から取得した車両11の現在位置情報および時間情報に基づいて、データ蓄積部6にアクセスし、経路の探索を行う。
The configuration of the route generation unit 8 will be described in more detail with reference to FIG. The route generation unit 8 includes a route search unit 8a, an encounter probability calculation unit 8b, a weight setting unit 8c, and a route selection unit 8d. The path is generated using the Dijkstra method.
The route search unit 8a accesses the data storage unit 6 based on the destination information input via the operation input unit 7, the current position information and time information of the vehicle 11 acquired from the GPS 4, and searches for a route. .

遭遇確率算出部8bは、以下の式(1)に基づいて、経路探索部8aが探索した各経路の遭遇確率を算出する。
遭遇確率=f(老人、大人、子供) ・・・(1)
式(1)において関数fは、老人、大人、子供を入力した際に遭遇確率を算出する関数であり、以下の式(2)に示すように設定可能である。
f(老人、大人、子供)=λ老人+μ大人+ν子供 ・・・(2)
式(2)において、λ,μ,νは、各属性に対する重みである。また式(2)における、老人、大人、子供は、道路を通過する際に遭遇する確率であり、以下の式(3)に基づいて算出される。なお、以下の式(3)では、探索した現在位置から目的地までの経路毎に各属性の遭遇確率を算出するものとする。

Figure 0005622766
なお、老人、大人、子供の遭遇確率の算出は、上述した式(3)に限定されるものではなく、時間ごとの確率、あらかじめ設定した距離あたりの確率、およびあらかじめ設定した領域当たりの確率を算出するように構成可能である。 The encounter probability calculation unit 8b calculates the encounter probability of each route searched by the route search unit 8a based on the following equation (1).
Encounter probability = f (old man, adult, child) (1)
In Expression (1), the function f is a function for calculating the encounter probability when an elderly person, an adult, or a child is input, and can be set as shown in Expression (2) below.
f (old man, adult, child) = λ old man + μ adult + ν child (2)
In equation (2), λ, μ, and ν are weights for each attribute. Moreover, the elderly person, the adult, and the child in Expression (2) are probabilities of encounter when passing the road, and are calculated based on the following Expression (3). In the following equation (3), the encounter probability of each attribute is calculated for each route from the searched current position to the destination.
Figure 0005622766
Note that the calculation of the encounter probability of an elderly person, an adult, or a child is not limited to the above-described formula (3), and the probability for each time, the probability for a preset distance, and the probability for a preset area are calculated. It can be configured to calculate.

重み設定部8cは、上述した式(1)から式(3)により算出された遭遇確率を用いて、以下の式(4)に基づき、各経路の重みwを算出する。
w=αコスト+(1−α)遭遇確率 ・・・(4)
式(4)において、αはコストと遭遇確率にかかる重みであり、コストはダイクストラ法で使用される重みである。
The weight setting unit 8c calculates the weight w of each route based on the following equation (4) using the encounter probability calculated by the above equations (1) to (3).
w = α cost + (1−α) encounter probability (4)
In Expression (4), α is a weight related to the cost and the encounter probability, and the cost is a weight used in the Dijkstra method.

経路選択部8dは、重み設定部8cが設定した各経路の重みwを参照し、重みwが最も小さい値を有する経路を走行経路として選択する。以上のように、ダイクストラ法では最適経路を生成するために、重みwにデータ蓄積部6から得られる統合データを反映させることにより経路を生成する。   The route selection unit 8d refers to the weight w of each route set by the weight setting unit 8c, and selects the route having the smallest value of the weight w as the travel route. As described above, in the Dijkstra method, in order to generate an optimum route, the route is generated by reflecting the integrated data obtained from the data storage unit 6 in the weight w.

次に、経路探索装置の動作について、データ収集処理と経路探索処理に分けて説明を行う。
まず、図3は、この発明に係る実施の形態1による経路探索装置のデータ収集処理の動作を示すフローチャートである。
カメラ1は、画像の撮影を行い、撮影した画像を人検出部2および属性推定部3に出力する(ステップST1)。人検出部2は、ステップST1で入力された撮影画像に基づいて、画像内の歩行者の検出処理を実行する(ステップST2)。さらにステップST2の検出結果を参照し、歩行者を検出したか否か判定を行う(ステップST3)。歩行者を検出しなかった場合(ステップST3;NO)、処理を終了し、異なるカメラからの画像取得処理へ移行する。
Next, the operation of the route search apparatus will be described separately for data collection processing and route search processing.
First, FIG. 3 is a flowchart showing the data collection processing operation of the route search apparatus according to the first embodiment of the present invention.
The camera 1 captures an image and outputs the captured image to the person detection unit 2 and the attribute estimation unit 3 (step ST1). The human detection unit 2 performs a pedestrian detection process in the image based on the captured image input in step ST1 (step ST2). Furthermore, with reference to the detection result of step ST2, it is determined whether or not a pedestrian has been detected (step ST3). When a pedestrian is not detected (step ST3; NO), a process is complete | finished and it transfers to the image acquisition process from a different camera.

一方、歩行者を検出した場合(ステップST3;YES)、検出した歩行者の画像座標を取得し、属性推定部3に出力する(ステップST4)。属性推定部3は、ステップST4で入力された画像座標を用いて、ステップST1で入力された撮影画像から歩行者の画像を抽出し、抽出した歩行者の画像から歩行者の属性を推定して、老人、大人、子供の3種類に分類し、分類された情報は属性情報としてデータ統合部5に出力される(ステップST5)。   On the other hand, when a pedestrian is detected (step ST3; YES), the detected image coordinates of the pedestrian are acquired and output to the attribute estimation unit 3 (step ST4). The attribute estimation unit 3 extracts the pedestrian image from the photographed image input in step ST1 using the image coordinates input in step ST4, and estimates the pedestrian attribute from the extracted pedestrian image. The information is classified into three types, elderly, adult and child, and the classified information is output to the data integration unit 5 as attribute information (step ST5).

データ統合部5は、GPS4から位置情報および時間情報を取得し(ステップST6)、取得した位置情報および時間情報と、ステップST5で入力された属性情報とを統合した統合データを生成し、データ蓄積部6に出力する(ステップST7)。データ蓄積部6は、ステップST7で入力された統合データを蓄積し(ステップST8)、処理を終了する。   The data integration unit 5 acquires position information and time information from the GPS 4 (step ST6), generates integrated data that integrates the acquired position information and time information, and the attribute information input in step ST5, and stores the data. It outputs to the part 6 (step ST7). The data storage unit 6 stores the integrated data input in step ST7 (step ST8) and ends the process.

次に、経路探索装置の経路探索処理について説明する。図4は、この発明に係る実施の形態1による経路探索装置のデータ収集処理の動作を示すフローチャートである。
操作入力部7は目的地の設定を指示する入力操作を受け付けると(ステップST11)、さらに低遭遇確率優先選択部7aが低遭遇確率優先の経路探索の指定を受け付けたか否か判定を行う(ステップST12)。低遭遇確率優先の経路探索の選択指示を受け付けていない場合(ステップST12;NO)、処理を終了する。一方、低遭遇確率の経路探索の選択指示を受け付けた場合(ステップST12;YES)、当該低遭遇確率優先の経路探索指示を経路探索部8に出力する(ステップST13)。
Next, route search processing of the route search device will be described. FIG. 4 is a flowchart showing the data collection processing operation of the route search apparatus according to the first embodiment of the present invention.
When the operation input unit 7 receives an input operation for instructing setting of a destination (step ST11), the operation input unit 7 further determines whether or not the low encounter probability priority selection unit 7a has received designation of a route search with low encounter probability priority (step ST11) ST12). If the selection instruction for the low encounter probability priority route search is not received (step ST12; NO), the process is terminated. On the other hand, when an instruction for selecting a route search with a low encounter probability is accepted (step ST12; YES), the route search instruction with a low encounter probability priority is output to the route search unit 8 (step ST13).

経路探索部8は、ステップST13で入力された低遭遇確率優先の経路探索指示に従い、GPS4から位置情報および時間情報を取得し(ステップST14)、取得した位置情報および時間情報と、データ蓄積部6の統合データとを参照し、歩行者と遭遇確率の低い経路を探索し、生成した経路を経路表示部9に出力する(ステップST15)。経路表示部9は、ステップST15で入力された経路をモニタなどの表示画面に表示し(ステップST16)、処理を終了する。   The route search unit 8 acquires position information and time information from the GPS 4 according to the low encounter probability priority route search instruction input in step ST13 (step ST14). The acquired position information and time information and the data storage unit 6 Are searched for a route having a low encounter probability with a pedestrian, and the generated route is output to the route display unit 9 (step ST15). The route display unit 9 displays the route input in step ST15 on a display screen such as a monitor (step ST16), and ends the process.

ステップST15の経路生成処理の詳細を、図5から図7を参照しながら説明する。
図5は、この発明に係る実施の形態1による経路探索装置の経路探索部の動作を示すフローチャートである。図6は、地図情報をグラフ化して示した図である。図7は、図6に示す地図情報に基づいて最適経路を設定する一例を示す説明図である。
経路は、上述のようにダイクストラ法を用いて生成される。図6のグラフ化した地図上方では、現在の車両位置をC(以下、現在位置Cと称する)、目的地をG(以下、目的地Gと称する)、各交差点を1から4の番号で示し、道路は各交差点を結ぶ直線で示している。道路を示す直線に付した重みwは道路の距離や道幅などによって決定される数値であり、上述した式(4)に基づき算出されるものである。
Details of the route generation processing in step ST15 will be described with reference to FIGS.
FIG. 5 is a flowchart showing the operation of the route search unit of the route search device according to Embodiment 1 of the present invention. FIG. 6 is a diagram showing the map information as a graph. FIG. 7 is an explanatory diagram showing an example of setting an optimum route based on the map information shown in FIG.
The path is generated using the Dijkstra method as described above. 6, the current vehicle position is indicated by C (hereinafter referred to as current position C), the destination is indicated by G (hereinafter referred to as destination G), and each intersection is indicated by a number from 1 to 4. The roads are indicated by straight lines connecting the intersections. The weight w attached to the straight line indicating the road is a numerical value determined by the distance or the road width of the road, and is calculated based on the above-described equation (4).

車両の現在位置Cから到達可能な交差点までの経路を設定し、設定した経路の重みwを算出する(ステップST21)。図7(a)に示す例では、ステップST21の処理として、経路C1(構成経路)および経路C2を設定し、経路C1の重みwc1および経路C2の重みwc2を算出する。次に、ステップST21で到達した交差点からさらに到達可能な交差点を探索し、探索した交差点までの経路の重みwを加算する(ステップST22)。図7(b)に示す例では、ステップST22の処理として、経路C12、C13、C14を設定し、経路C12の重みwc1+w12、経路C13の重みwc1+w13および経路C24の重みwc2+w24を算出する。 A route from the current position C of the vehicle to the reachable intersection is set, and the weight w of the set route is calculated (step ST21). In the example shown in FIG. 7 (a), as the processing in step ST21, sets the route C1 (configuration path) and the path C2, and calculates a weight w c2 weights w c1 and path C2 path C1. Next, a further reachable intersection is searched from the intersection reached in step ST21, and the weight w of the route to the searched intersection is added (step ST22). In the example illustrated in FIG. 7B, as the process of step ST22, routes C12, C13, and C14 are set, the weight w c1 + w 12 of the route C12, the weight w c1 + w 13 of the route C13, and the weight w c2 of the route C24. + W 24 is calculated.

次に、ステップST22で加算した重みwが小さい順位に経路を並び替える(ステップST23)。図7(c)に示す例では、ステップST23の処理として、経路C13、C24、C12の順に並び替える。次に、ステップST23で並び替えた経路に目的地Gが含まれているか判定を行う(ステップST24)。経路に目的地Gが含まれていない場合(ステップST24;NO)、ステップST22の処理に戻り、上述した処理を繰り返す。   Next, the routes are rearranged in order of decreasing weight w added in step ST22 (step ST23). In the example shown in FIG. 7C, the process in step ST23 is rearranged in the order of routes C13, C24, and C12. Next, it is determined whether the destination G is included in the route rearranged in step ST23 (step ST24). When the destination G is not included in the route (step ST24; NO), the processing returns to step ST22 and the above-described processing is repeated.

一方、経路に目的地Gが含まれている場合(ステップST24;YES)、ステップST23で並び替えた経路のうち最も重みwの小さい経路を最適経路に設定し(ステップST25)、経路探索処理を終了する。図7(c)に示す例では、ステップST24として、経路C13、C24、C12に目的地Gが含まれていないと判定されることから、ステップST22の処理に戻り、さらに到達可能な交差点を探索し、経路C134、C13G、C24G、C124を設定し、各経路の重みwを算出する(図7(d)参照)。次に、ステップST23として経路C13G、C24G、C134、C124の順に並び替え、ステップST24として経路C13Gおよび経路C24Gに目的地Gが含まれていると判定されることから、ステップST25として重みwの最も小さい経路C13Gを経路に最適経路に設定し(図7(e)参照)、処理を終了する。   On the other hand, when the destination G is included in the route (step ST24; YES), the route having the smallest weight w among the routes rearranged in step ST23 is set as the optimum route (step ST25), and the route search process is performed. finish. In the example shown in FIG. 7C, since it is determined in step ST24 that the destination C is not included in the routes C13, C24, and C12, the process returns to step ST22 to search for a further reachable intersection. Then, routes C134, C13G, C24G, and C124 are set, and the weight w of each route is calculated (see FIG. 7D). Next, in step ST23, the routes C13G, C24G, C134, and C124 are rearranged in order, and in step ST24, it is determined that the destination C is included in the route C13G and the route C24G. The small route C13G is set as the optimum route (see FIG. 7E), and the process is terminated.

以上のように、この実施の形態1によれば、撮影画像から歩行者を検出する人検出部2と、歩行者の画像を抽出し、あらかじめ設定された属性に分類する属性推定部3と、属性情報、位置情報および時間情報とを統合した統合データを生成するデータ統合部5と、統合データを蓄積するデータ蓄積部6とを備えるように構成したので、走行中の道路における歩行車情報の蓄積が可能となる。   As described above, according to the first embodiment, the person detection unit 2 that detects a pedestrian from a captured image, the attribute estimation unit 3 that extracts a pedestrian image and classifies it into preset attributes, Since it comprises the data integration part 5 which produces | generates the integrated data which integrated attribute information, position information, and time information, and the data storage part 6 which accumulate | stores integrated data, it is the structure of the walking vehicle information on the road in driving | running | working Accumulation is possible.

また、この実施の形態1によれば、低遭遇確率優先の経路生成指示が入力された場合に、データ蓄積部6に蓄積された統合データを参照して歩行者との遭遇確率の低い経路を探索する経路生成部8とを備えるように構成したので、蓄積した歩行者情報に基づいて歩行者との遭遇確率の低い経路を生成することができる。これにより、歩行者との遭遇により運転者が受けるストレスを低減させることができる。また、歩行者との接触事故などの発生を防止することができる。   Further, according to the first embodiment, when a low encounter probability priority route generation instruction is input, a route with a low encounter probability with a pedestrian is referred to with reference to the integrated data stored in the data storage unit 6. Since the route generation unit 8 to be searched is provided, a route with a low encounter probability with a pedestrian can be generated based on the accumulated pedestrian information. Thereby, the stress which a driver | operator receives by encounter with a pedestrian can be reduced. Moreover, the occurrence of a contact accident with a pedestrian can be prevented.

なお、上述した実施の形態1では、歩行者を老人、大人、子供の3つの属性に分類する構成を示したが、分類する属性はこれら3つに限定されるものではなく適宜変更可能である。   In the first embodiment described above, a configuration is shown in which pedestrians are classified into the three attributes of an elderly person, an adult, and a child. However, the attributes to be classified are not limited to these three and can be changed as appropriate. .

また、上述した実施の形態1では、撮影画像から歩行者を検出し、データを収集する構成を示したが、歩行者の検出を手動で入力するように構成してもよい。   In the first embodiment described above, a configuration is shown in which a pedestrian is detected from a captured image and data is collected. However, the detection of a pedestrian may be manually input.

また、上述した実施の形態1では、歩行者を検出する手法として、HOG特徴を用いた手法を挙げて説明を行ったが、当該手法に限定されるものではない。また、学習方法としてSVMを挙げたが、当該手法に限定されるものではない。   In Embodiment 1 described above, the method using the HOG feature is described as a method for detecting a pedestrian, but the method is not limited to this method. Moreover, although SVM was mentioned as a learning method, it is not limited to the said method.

また、上述した実施の形態1では、関数fとして老人、大人、子供の確率にそれぞれ重みwを付けて算出する構成を示したが、以下の式(5)に示すように老人、大人、子供全ての確率をまとめて歩行者の遭遇確率として使用してもよい。

Figure 0005622766
In the first embodiment described above, the function f is calculated by assigning weights w to the probabilities of the elderly, adults, and children. However, as shown in the following equation (5), the elderly, adults, and children are calculated. All probabilities may be combined and used as a pedestrian encounter probability.
Figure 0005622766

実施の形態2.
この実施の形態2では、上述した実施の形態1の構成に加え、車両前方の歩行者や物体までの距離を計測する構成を備えた経路探索装置を示す。
図8はこの発明の実施の形態2による経路探索装置の構成を示すブロック図であり、図9はこの発明の実施の形態2による経路探索装置の処理動作を示す説明図である。実施の形態1で示した経路探索装置に距離センサ10を追加して設けている。なお以下では、実施の形態1による経路探索装置の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
Embodiment 2. FIG.
In this Embodiment 2, in addition to the structure of Embodiment 1 mentioned above, the route search apparatus provided with the structure which measures the distance to the pedestrian and object ahead of a vehicle is shown.
FIG. 8 is a block diagram showing the configuration of the route search apparatus according to Embodiment 2 of the present invention, and FIG. 9 is an explanatory diagram showing the processing operation of the route search apparatus according to Embodiment 2 of the present invention. A distance sensor 10 is additionally provided in the route search apparatus shown in the first embodiment. In the following description, the same or corresponding parts as the components of the route search apparatus according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted or simplified.

距離センサ10は、図2に示すように車両11の前方に配置され、車両11前方に位置する歩行者や物体までの距離を計測する。人検出部2は、カメラ1が取得した画像と、距離センサ10が取得した距離データを用いて画像13内の歩行者14を検出する。経路探索装置のその他の構成は実施の形態1と同一であるため、説明を省略する。   As shown in FIG. 2, the distance sensor 10 is disposed in front of the vehicle 11 and measures the distance to a pedestrian or object located in front of the vehicle 11. The human detection unit 2 detects the pedestrian 14 in the image 13 using the image acquired by the camera 1 and the distance data acquired by the distance sensor 10. Since the other configuration of the route search apparatus is the same as that of the first embodiment, description thereof is omitted.

次に、実施の形態2の経路探索装置のデータ収集処理の動作について説明する。
図10は、この発明に係る実施の形態2による経路探索装置のデータ収集処理の動作を示すフローチャートである。なお、以下では実施の形態1に係る経路探索装置のデータ収集処理と同一のステップには図3で使用した符号と同一の符号を付し、説明を省略または簡略化する。
カメラ1は、画像の撮影を行い、撮影した画像を人検出部2および属性推定部3に出力する(ステップST1)。また、ステップST1の処理と同時に距離センサ10は、車両前方に位置する歩行者や物体までの距離を計測して距離データを取得し、人検出部2および属性推定部3に出力する(ステップST31)。
Next, the operation of the data collection process of the route search device according to the second embodiment will be described.
FIG. 10 is a flowchart showing the data collection processing operation of the route search apparatus according to the second embodiment of the present invention. In the following, the same steps as those of the data collection process of the route search apparatus according to the first embodiment are denoted by the same reference numerals as those used in FIG. 3, and the description thereof is omitted or simplified.
The camera 1 captures an image and outputs the captured image to the person detection unit 2 and the attribute estimation unit 3 (step ST1). At the same time as the process of step ST1, the distance sensor 10 measures the distance to a pedestrian or object located in front of the vehicle, acquires distance data, and outputs the distance data to the human detection unit 2 and the attribute estimation unit 3 (step ST31). ).

人検出部2は、ステップST1およびステップST31で入力された撮影画像および距離データに基づいて、画像内の歩行者の検出処理を実行する(ステップST2´)。さらに、ステップST2´の検出結果を参照し、歩行者を検出したか否か判定を行う(ステップST3)。歩行者を検出しなかった場合(ステップST3;NO)、処理を終了し、異なるカメラからの画像取得処理へ移行する。   The human detection unit 2 performs a pedestrian detection process in the image based on the captured image and the distance data input in step ST1 and step ST31 (step ST2 ′). Further, it is determined whether or not a pedestrian has been detected with reference to the detection result of step ST2 ′ (step ST3). When a pedestrian is not detected (step ST3; NO), a process is complete | finished and it transfers to the image acquisition process from a different camera.

一方、歩行者を検出した場合(ステップST3;YES)、検出した歩行者の画像座標を取得し、属性推定部3に出力する(ステップST4)。属性推定部3は、ステップST4で入力された画像座標、およびステップST31で入力された距離情報を用いて、ステップST1で入力された撮影画像から歩行者の画像を抽出し、抽出した歩行者の画像から歩行者の属性を推定して、老人、大人、子供の3種類に分類し、分類された情報は属性情報としてデータ統合部5に出力される(ステップST5)。以降の処理は、実施の形態1と同一であるため、説明を省略する。   On the other hand, when a pedestrian is detected (step ST3; YES), the detected image coordinates of the pedestrian are acquired and output to the attribute estimation unit 3 (step ST4). The attribute estimation unit 3 uses the image coordinates input in step ST4 and the distance information input in step ST31 to extract a pedestrian image from the captured image input in step ST1, and extracts the extracted pedestrian's image. The attributes of the pedestrian are estimated from the image and classified into three types, elderly, adult and child, and the classified information is output to the data integration unit 5 as attribute information (step ST5). Since the subsequent processing is the same as that of the first embodiment, description thereof is omitted.

実施の形態2の人検出部2における歩行者の検出処理は、画像から得られるアピアランス情報と、距離データから得られる歩行者までの距離をあらかじめ機械学習により学習し、当該学習結果を用いることにより行う。距離センサ10により得られる距離データを用いることにより、歩行者のテクスチャ情報だけでなく、歩行者までの距離や歩行者の大きさなどの特徴を利用することができるため、精度の高い歩行者検出を行うことができる。実施の形態1と同様に、アピアランス情報として勾配情報を用いるHOG特徴などを利用し、学習にはSVMなどを用いればよい。   In the pedestrian detection process in the human detection unit 2 according to the second embodiment, the appearance information obtained from the image and the distance to the pedestrian obtained from the distance data are learned in advance by machine learning, and the learning result is used. Do. By using the distance data obtained by the distance sensor 10, not only the pedestrian texture information but also features such as the distance to the pedestrian and the size of the pedestrian can be used. It can be performed. As in the first embodiment, an HOG feature that uses gradient information as appearance information may be used, and SVM may be used for learning.

また、属性推定部3による分類は、歩行者の検出と同様に、アピアランス情報と距離情報を用いて機械学習を行い、その識別器にて行う。この分類は、歩行者検出と同様に、距離センサ10により得られる距離情報を用いることにより、歩行者あるいは物体の大きさなどの特徴を利用することができるため、精度の高い識別を行うことが可能となる。また、分類の手法は、実施の形態1で示した参考文献3および参考文献4に開示された手法などを適用してもよく、手段は限定されない。   Further, the classification by the attribute estimation unit 3 is performed by machine learning using appearance information and distance information, and by the discriminator, similarly to detection of a pedestrian. Similar to pedestrian detection, this classification can use features such as the size of a pedestrian or an object by using distance information obtained by the distance sensor 10, and therefore can perform identification with high accuracy. It becomes possible. Further, as the classification method, the methods disclosed in Reference Document 3 and Reference Document 4 described in Embodiment 1 may be applied, and means are not limited.

以上のように、この実施の形態2によれば、自車両前方の歩行者あるいは物体までの距離を計測する距離センサ10を設け、人検出部がカメラ1の撮影画像と、距離センサ10の距離データとを用いて歩行者を検出するように構成したので、精度の高い歩行者の識別を行うことができる。また、精度の高い歩行者情報に基づいて歩行者との遭遇確率の低い経路を生成することができる。これにより、歩行者との遭遇により運転者が受けるストレスを低減させることができる。さらに、歩行者との接触事故などの発生を防止することができる。   As described above, according to the second embodiment, the distance sensor 10 that measures the distance to the pedestrian or object ahead of the host vehicle is provided, and the human detection unit has the captured image of the camera 1 and the distance between the distance sensor 10. Since the pedestrian is detected using the data, it is possible to identify the pedestrian with high accuracy. Also, a route with a low encounter probability with a pedestrian can be generated based on highly accurate pedestrian information. Thereby, the stress which a driver | operator receives by encounter with a pedestrian can be reduced. Furthermore, the occurrence of a contact accident with a pedestrian can be prevented.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 カメラ、2 人検出部、3 属性推定部、4 GPS、5 データ統合部、6 データ蓄積部、7 操作入力部、7a 低遭遇確率優先選択部、8 経路生成部、8a 経路探索部、8b 遭遇確率算出部、8c 重み設定部、8d 経路選択部、9 経路表示部、10 距離センサ、11 車両、12,14 歩行者、13 画像、15 ナビゲーション装置、16 選択。   1 camera, 2 person detection unit, 3 attribute estimation unit, 4 GPS, 5 data integration unit, 6 data storage unit, 7 operation input unit, 7a low encounter probability priority selection unit, 8 route generation unit, 8a route search unit, 8b Encounter probability calculation unit, 8c weight setting unit, 8d route selection unit, 9 route display unit, 10 distance sensor, 11 vehicle, 12, 14 pedestrian, 13 images, 15 navigation device, 16 selection.

Claims (3)

自車両から所定の領域を撮影した撮影画像から、歩行者を検出する人検出部と、
前記人検出部が検出した歩行者情報と、自車位置情報とを統合した統合データを生成するデータ統合部と、
前記データ統合部が生成した統合データを蓄積するデータ蓄積部と、
目的地の設定および経路生成条件の指定を受け付ける操作入力部と、
前記操作入力部を介して歩行者との低遭遇確率の経路生成条件が指定されると、当該指定に基づいて前記自車両の現在位置から前記設定された目的地までの経路の探索を行う経路探索部と、前記データ蓄積部に蓄積された統合データと、前記自車位置情報とを用いて、前記経路探索部が探索した経路を構成する構成経路の遭遇確率を算出する遭遇確率算出部と、前記遭遇確率算出部が算出した遭遇確率に基づいて、前記構成経路の重みを設定する重み設定部と、前記重み設定部が設定した前記構成経路の重みを参照し、前記探索した経路のうちもっとも小さい重みを有する経路を走行経路として選択する経路選択部とを備えた経路生成部と
前記撮影画像と、前記人検出部が検出した歩行者情報とから、前記歩行者の属性を推定する属性推定部とを備え、
前記データ統合部は、前記属性推定部が推定した前記歩行者の属性情報と、前記自車位置情報とを統合して前記統合データを生成し、
前記遭遇確率算出部は、前記歩行者の属性情報毎に各経路に対する属性別遭遇確率を算出し、算出した属性別遭遇確率に前記歩行者の各属性に対してあらかじめ設定された重みを適用して前記遭遇確率を算出することを特徴とする経路探索装置。
A human detection unit that detects a pedestrian from a captured image of a predetermined area from the host vehicle;
A data integration unit that generates integrated data integrating the pedestrian information detected by the person detection unit and the vehicle position information;
A data storage unit for storing integrated data generated by the data integration unit;
An operation input unit that accepts destination setting and route generation condition specification;
When a route generation condition with a low encounter probability with a pedestrian is specified via the operation input unit, a route for searching for a route from the current position of the host vehicle to the set destination based on the specification An encounter probability calculating unit for calculating an encounter probability of a constituent route constituting the route searched by the route search unit, using the search unit, the integrated data stored in the data storage unit, and the vehicle position information; , Based on the encounter probability calculated by the encounter probability calculation unit, a weight setting unit that sets the weight of the configured route, and the weight of the configured route set by the weight setting unit, and among the searched routes A route generation unit including a route selection unit that selects a route having the smallest weight as a travel route ;
An attribute estimation unit that estimates the attribute of the pedestrian from the captured image and the pedestrian information detected by the person detection unit;
The data integration unit generates the integrated data by integrating the attribute information of the pedestrian estimated by the attribute estimation unit and the vehicle position information.
The encounter probability calculation unit calculates an attribute-specific encounter probability for each route for each attribute information of the pedestrian, and applies a preset weight for each attribute of the pedestrian to the calculated attribute-specific encounter probability And calculating the encounter probability .
前記自車両から歩行者までの距離を計測する距離センサを備え、
前記人検出部は、前記距離センサの計測結果を用いて前記撮影画像から歩行者を検出することを特徴とする請求項1記載の経路探索装置。
A distance sensor for measuring the distance from the vehicle to the pedestrian,
The route search device according to claim 1, wherein the human detection unit detects a pedestrian from the captured image using a measurement result of the distance sensor.
前記自車位置情報は、前記自車両の位置情報および時間情報で構成されることを特徴とする請求項1または請求項2記載の経路探索装置。 The vehicle position information, the route searching apparatus according to claim 1 or claim 2 wherein, characterized in that it is constituted by the position information and time information of the own vehicle.
JP2012040059A 2012-02-27 2012-02-27 Route search device Expired - Fee Related JP5622766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012040059A JP5622766B2 (en) 2012-02-27 2012-02-27 Route search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012040059A JP5622766B2 (en) 2012-02-27 2012-02-27 Route search device

Publications (2)

Publication Number Publication Date
JP2013174540A JP2013174540A (en) 2013-09-05
JP5622766B2 true JP5622766B2 (en) 2014-11-12

Family

ID=49267564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012040059A Expired - Fee Related JP5622766B2 (en) 2012-02-27 2012-02-27 Route search device

Country Status (1)

Country Link
JP (1) JP5622766B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379858B2 (en) * 2019-04-24 2023-11-15 住友電気工業株式会社 Server device and its control method, terminal and its control method, mobile support system and method, and computer program
WO2020226258A1 (en) * 2019-05-09 2020-11-12 엘지전자 주식회사 Autonomous driving vehicle and pedestrian guidance system and method using same
JP7322902B2 (en) 2021-01-13 2023-08-08 トヨタ自動車株式会社 Driving support server and system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872245B2 (en) * 2005-06-06 2012-02-08 トヨタ自動車株式会社 Pedestrian recognition device
JP4830594B2 (en) * 2006-04-05 2011-12-07 トヨタ自動車株式会社 Object detection device
JP4670805B2 (en) * 2006-12-13 2011-04-13 株式会社豊田中央研究所 Driving support device and program
JP5070880B2 (en) * 2007-02-23 2012-11-14 トヨタ自動車株式会社 Navigation device
JP4992099B2 (en) * 2007-09-03 2012-08-08 学校法人東京電機大学 Comfortable walking route search server and program

Also Published As

Publication number Publication date
JP2013174540A (en) 2013-09-05

Similar Documents

Publication Publication Date Title
JP4940168B2 (en) Parking space recognition device
JP6398347B2 (en) Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system
US8953838B2 (en) Detecting ground geographic features in images based on invariant components
JP5429380B2 (en) Driving assistance device
JP5786947B2 (en) Pedestrian behavior prediction apparatus and pedestrian behavior prediction method
US9129163B2 (en) Detecting common geographic features in images based on invariant components
JP4985142B2 (en) Image recognition apparatus and image recognition processing method of image recognition apparatus
JP2019139762A (en) Method for providing information for vehicle travel
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
JP5904925B2 (en) Vehicle periphery monitoring device
JP5760696B2 (en) Image recognition device
US8761435B2 (en) Detecting geographic features in images based on invariant components
JP2020152234A (en) On-vehicle processing device, and movement support system
US11151391B2 (en) Method and apparatus for creating a visual map without dynamic content
EP3951700A1 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
JP4609603B2 (en) 3D information display device and 3D information display method
JP2004145660A (en) Obstacle detection device
JP6431204B2 (en) State prediction apparatus and state prediction method
JP5622766B2 (en) Route search device
KR20110060315A (en) A method of recognizing self-localization for a road-driving robot
EP3051255B1 (en) Survey data processing device, survey data processing method, and program therefor
KR101361643B1 (en) Method and device for displaying object using transparent display panel
KR20200087296A (en) 3D viewer system for detecting object based on lidar sensor data
JP2017167974A (en) Estimation apparatus, method and program
JP4919172B2 (en) Vehicle guidance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R150 Certificate of patent or registration of utility model

Ref document number: 5622766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees