JP2015125669A - 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 - Google Patents

車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 Download PDF

Info

Publication number
JP2015125669A
JP2015125669A JP2013270917A JP2013270917A JP2015125669A JP 2015125669 A JP2015125669 A JP 2015125669A JP 2013270917 A JP2013270917 A JP 2013270917A JP 2013270917 A JP2013270917 A JP 2013270917A JP 2015125669 A JP2015125669 A JP 2015125669A
Authority
JP
Japan
Prior art keywords
vehicle
position information
moving body
mobile terminal
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013270917A
Other languages
English (en)
Inventor
建志 伊藤
Kenji Ito
建志 伊藤
勇樹 堀田
Yuuki Hotta
勇樹 堀田
辰昭 長船
Tatsuaki Nagafune
辰昭 長船
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2013270917A priority Critical patent/JP2015125669A/ja
Priority to PCT/JP2014/082612 priority patent/WO2015098510A1/ja
Publication of JP2015125669A publication Critical patent/JP2015125669A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】移動体が自車のカメラ装置の視界に入ったときに、即座にカメラ装置の撮像画像からその移動体を検出できるように、移動体の検出速度及び検出精度を向上するためのシステム、装置を提供する。
【解決手段】車両に搭載された自車位置測位装置から取得した位置情報と、移動体が所持する携帯端末から定期的に受信する位置情報を用いる。まず、車両自身の進行方位を特定する。さらに、車両自身の位置情報と、携帯端末の位置情報と、詳細地図の情報をもとに、車両自身と携帯端末の移動経路を予測し、車両自身と携帯端末を所持する移動体が衝突する危険性があるか判断する。そして、衝突する危険性があると判断した移動体の携帯端末の位置情報と車両自身の進行方位をもとに、カメラ装置の撮像画像内にその移動体を検出するための領域を設定し、移動体の検出処理を行う。
【選択図】 図1

Description

本発明は、無線通信により、自車周辺の携帯端末を所持する移動体を認識し、移動体が自車と衝突する危険性が高いと判断した場合に、自車搭載のカメラの視界内にその移動体が入った時に、その移動体を検出する速度及び精度を向上する安全運転支援システムに関する。
日本国内の交通事故における死者数のうち、歩行者は全体の約30%、自転車は全体の約15%を占めている。このような死亡事故を低減するためには、レーダやカメラなどの環境認識センサを利用した安全運転支援システムが有効である。
安全運転支援システムは、自車搭載のカメラ装置の撮像画像内で歩行者や自転車等移動体を検出した時、自車の運転者に報知したり自車のブレーキを自動制御したりすることで、自車がその移動体に衝突することを防止する。このため安全支援システムにおいて、カメラ装置の撮像画像内で特に危険な移動体を検出する速度及び精度が特に重要である。ここで、危険な移動体とは、自車と衝突する可能性が高い歩行者や自転車等を指す。
特開2010−250501号公報では、レーダ装置とカメラ装置を用いて歩行者を検知するシステムが提案されている。この方法によれば、自車の予測進路と、レーダにより検知した複数の物体の情報と、に基づき、検知した物体が自車に衝突する危険度を演算する。さらに、この危険度が閾値以上である物体の中から、自車との相対距離または衝突予測時間が最小となる物体を選択し、その物体に対して画像情報を用いて歩行者か否かの判定を行うことにより、歩行者判定手段の処理負荷を減少しつつ安全性を確保している。
特開2010−250501号公報
しかしながら、特許文献1に記載の技術では、レーダ装置及びカメラ装置を用いて移動体を検出しているが、レーダ装置やカメラ装置では、自車から見て車両や壁や建物等の障害物の向こう側や、多数の歩行者や自転車の中に存在する危険な歩行者や自転車の検出が困難である。
このように、特許文献1に記載の技術では、建物等の障害物の向こう側に歩行者等の移動体が存在するケースにおいて、移動体が自車搭載のカメラ装置やレーダ装置の視界に入るまで、移動体の検出や認識が困難である。さらに、移動体が自車の視界内に入った後、レーダ装置がその移動体をとらえ、カメラ装置の撮像画像から移動体として検出する処理が必要であるため、自車の安全運転支援システムがその移動体を検出するまでに遅延が生じる可能性がある。
例えば飛び出しのように、移動体が自車にとって死角となっている箇所から自車の進路上に突然飛び出す場合には早急な処理が求められるため、移動体の検出速度が速い安全運転システムが望まれる。
また、多数の歩行者や自転車等の移動体が存在するような環境でも、自車と衝突する危険な移動体が存在することがあり、そのような環境では、多数の移動体の検出処理の負荷が大きく、カメラ装置及びレーダ装置がその移動体を検出することが困難である、もしくは検出できるまでに遅延が生じてしまう。
本発明は、上記の点に鑑みてなされたものである。その目的とするところは、危険な移動体が自車周辺の自車から見えない箇所に存在する場合や、多数の移動体の中に危険な移動体が存在する場合であっても、危険な移動体が自車搭載カメラ装置の撮像画像内に登場後、迅速に安全運転システムがその移動体を検出可能にすることである。すなわち、自車搭載の安全運転支援システムにて、自車と衝突する可能性がある、移動体の検出の速度及び精度を向上することを目的とする。
上記目的を達成するために、本発明の一つの観点から、車両に搭載される車両制御装置が提供される。当該車両制御装置は、車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得する通信部と、第一の位置情報及び第二の位置情報が格納される記憶部と、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、車両に搭載されたカメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する処理部と、を有する。
本発明の別の観点によれば、車両制御装置とカメラ装置とが搭載される車両が提供される。当該車両は、車両の位置情報である第一の位置情報を取得する位置情報取得部と、通信網を介して携帯端末の位置情報である第二の位置情報を受信する通信部と、を有し、車両制御装置は、第一の位置情報及び第二の位置情報が格納される記憶部と、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、カメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する処理部と、を有する。
本発明のさらに別の観点によれば、車両に搭載されるカメラ装置によって撮像される撮像画像から移動体を検出する移動体検出方法が提供される。当該移動体検出方法は、車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得し、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、カメラ装置による撮像画像において移動体の検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する。
本発明によれば、危険な移動体が自車周辺の自車から見えない箇所に存在する場合や、多数の移動体の中に危険な移動体が存在する場合であっても、危険な移動体の検出の高速化・高精度化が可能になる。
本発明のシステム構成の一例 位置情報データベースの構成の一例 詳細地図情報の構成の一例 位置情報管理部の処理の一例を示す処理フロー 自車方位特定部の処理の一例を示す処理フロー 危険移動体抽出部の処理の一例を示す処理フロー 危険移動体検出部の処理の一例を示す処理フロー 画像内移動体検出部の処理の一例を示す処理フロー 歩行者及び車両の位置関係を示す図 車両振動検出部の処理の一例を示す処理フロー 本発明の具体例を示す図
以下、図面を参照して、本発明の実施例について説明する。
図1は本発明のシステム構成の一例を示す機能ブロック図である。
図1に示すように、1台以上の車両10及び1台以上の携帯端末11が無線ネットワーク12を介して接続されている。無線ネットワーク12には、他に路側装置等が接続されてもよい。
無線ネットワーク12は、具体的には車両同士や路側装置間で通信する路車間通信ネットワークを想定しているが、LTE(Long Term Evolution)等の長距離無線通信規格で通信されるネットワーク、あるいは無線LAN(Local Area Network)ネットワークでもよい。
携帯端末11は、歩行者や自転車等の移動体が携帯する端末であり、無線通信装置150及び位置測位装置151を備える。携帯端末11は、例えば携帯電話やPDA(Personal Digital Assistant)が相当する。自転車等の移動体の場合は、自転車に取り付けられた携帯端末でもよいし、自転車の運転者が携帯する携帯端末でもよい。
無線通信装置150は、無線ネットワーク12に接続して車両10や他の携帯端末11と通信するために用いる装置であり、ネットワークインターフェースカードが相当する。 位置測位装置151は、携帯端末11の地理的な位置を測位し、その情報を提供する装置である。位置測位装置151は、例えば、準天頂衛星等の衛星から受信する電波に基づいた測位結果を提供する装置やGPS受信装置が相当する。位置測位装置151は、単純に衛星から受信する電波に基づいた測位結果を提供するように構成されてもよいし、図1には図示されていないが、携帯端末11が管理する地図情報等の情報から位置補完及び誤差補正を行うように構成されていてもよい。
携帯端末11は、定期的に携帯端末11自身の位置情報を位置測位装置151から取得し、携帯端末11を一意に識別するためのID200、携帯端末11の種類(例:歩行者)を識別するためのタイプ201、携帯端末11の位置情報等を含む情報を定期的に無線ネットワーク12に送信する。携帯端末の位置情報は、例えば携帯端末の緯度203、経度204が相当するが、それ以外の地理的な位置を示す情報を含んでもよい。また、携帯端末11が定期的に送信する情報は上記に限定されず、例えば携帯端末11の移動速度や移動方向等の情報を含んでもよい。
車両10は、車載用制御装置101、無線通信装置102、自車位置測位装置103、カメラ装置104、センサ群105により構成される。また、車両10に他の装置を含んでもよい。
車載用制御装置101は、例えば、車両10に搭載されたECU(Electronic Control Unit)等であり、通信部110、処理部111、記憶部112で構成される。車載用制御装置101の形態に特に制限はなく、例えば、車両10の先進運転支援システム(ADAS:Advanced Driver Assistance Systems)を実現するための走行制御装置でもよいし、カメラ装置104の撮像画像から周辺物体の検出を行う周辺物体検出処理装置でもよいし、車両10のユーザが車載ネットワークに接続したスマートフォン等の外部装置でもよい。
通信部110は、例えば、Ethernet(登録商標)またはCAN(Controller Area Network)等の通信規格に準拠したネットワークカード等を含んで構成され、車両10に搭載された他の装置と各種プロトコルに基づきデータの送受信を行う。なお、通信部110と車両10に搭載された他の装置との間の接続形態は、Ethernetのような有線接続に限定されることはなく、Bluetooth(登録商標)や無線LANなどの近距離無線技術であってもよい。また、通信部110が複数存在し、各通信部110がそれぞれ車両10の他の各装置と別々のネットワークで接続されてもよい。
処理部111は、例えば、CPU(Central Processing Unit)及びRAM(Random Access Memory)などを含んで構成され、所定の動作プログラムを実行することで、車載用制御装置101の機能を実現する処理を行う。処理部111には、自車情報送信部130、位置情報管理部131、自車方位特定部132、ランドマーク検出部133、危険移動体抽出部134、危険移動体検出部135、画像内移動体検出部136、車両振動検出部137、等が含まれる。これらの処理の一部が車両10内の他の装置で実現されてもよい。例えば、ランドマーク検出部133が、カメラ装置104で実現されてもよいし、車両振動検出部135が車両の振動を検出するセンサとして後述するセンサ群105に含まれることで実現されてもよい。また、これらはソフトウェアで実現されていてもよいし、FPGA(Field−Programmable Gate Array)等としてハードウェアで実装されてもよい。
記憶部112は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置を含んで構成され、処理部111が実行するプログラム、及び本システムの実現に必要なデータなどが格納される。記憶部112には、本システムの実現に必要なデータとして、位置情報データベース120と、詳細地図情報121、撮像画像データベース122とを含む。記憶部112に格納される情報は上記に限定されず、それ以外の情報が格納されてもよい。
無線通信装置102は、無線ネットワーク12に接続して他の車両10や携帯端末11と通信するために用いる装置であり、ネットワークインターフェースカードが相当する。
自車位置測位装置103は、車両10自身の地理的な位置を測位し、その情報を提供する装置である。自車位置測位装置103は、例えば、準天頂衛星等の衛星から受信する電波に基づいた測位結果を提供する装置やGPS受信装置が相当する。自車位置測位装置103は、単純に衛星から受信する電波に基づいた測位結果を提供するように構成されてもよいし、センサ群105の情報(例:車速)等から位置補完及び誤差補正を行うように構成されていてもよい。
カメラ装置104は、車両10の外部を撮像できるように車両10に搭載され、車両10の周辺状況を撮像した画像データあるいは動画像データを、車載ネットワーク等を通じて、車載用制御装置101に提供できるように構成されている。なお、カメラ装置104は、単眼カメラでもよいし、複数の撮像素子を搭載したステレオカメラでもよいし、単眼カメラとステレオカメラの任意の組み合わせでもよいし、カメラと他の処理を行うECU(Electronic Control Unit)を統合したものでもよい。
センサ群105は、車両10の各種部品の状態(例:走行速度、操舵角、アクセルの操作量、ブレーキの操作量等)を検出する装置であり、例えば、CAN等の車載ネットワークに検出した状態量を定期的に送信している。
ところで、処理部111の自車情報送信部130は、定期的に自車位置測位装置103、センサ群105から車両10の位置情報や各種部品の状態等を含む情報を取得し、車両10自身に設定されているID200やタイプ201を含めた情報を、無線通信装置102を介して他の車両10や携帯端末11に定期的に送信する。
また、撮像画像データベース122は、カメラ装置104が撮像した画像を時刻情報とともに保存するデータベースであり、この情報は主に車両振動検出部137により用いられる。
以下、図2及び図3を用いて記憶部112の位置情報データベース120と詳細地図情報121について説明する。
図2は、位置情報データベース120の構成の一例を示す図である。位置情報データベース120は、ID200、タイプ201、時刻202、緯度203、経度204、危険フラグ205、とで構成されるが、上記に限定されず、移動速度及び移動方向等の情報を含んでもよい。また、車両10や携帯端末11の移動履歴を確認するために、時刻202、緯度203、経度204の組み合わせを1組として、複数組の情報が登録されることがある。位置情報データベース120には、車両10自身の情報や、無線通信装置102を介して他の車両10及び携帯端末11から受信した情報が登録される。
ID200は、車両10や携帯端末11を一意に識別可能なIDであり、車両10や携帯端末11に設定される値であり、例えば整数で表現される値である。ID200は位置情報データベース120の主キーである。
タイプ201は、ID200が指す車両10または携帯端末11の種類を識別可能な情報であり、例えば整数で表現される。タイプ201として、例えば、車両10であれば、通常車両(四輪車)、トラック、二輪車等を示す情報が、携帯端末11であれば歩行者等を示す情報が設定される。タイプ201の区分は上記に限定されず、さらに細分化されてもよいし、逆に複数の区分を1つの区分として区分してもよい。
時刻202は、ID200が車両10自身を指す場合は、車両10自身の情報を自車位置測位装置103等から取得した時刻である。一方、ID200が他の車両10または携帯端末11を指す場合は、無線通信装置102を介してその情報を受信した時刻であってもよいし、無線ネットワーク12で受信した情報に含まれている、他の車両10や携帯端末11が自身の自車位置測位装置103または位置測位装置151から取得した時刻であってもよい。時刻202は例えば年、月、日、時、分、秒で表現されてもよいし、ある特定の時刻からの経過秒数で表現されてもよい。
緯度203及び経度204は、ID200が指す車両10または携帯端末11の、時刻202の時点での位置情報である。この位置情報は、自車位置測位装置103または位置測位装置151により取得された情報である。
危険フラグ205は、危険移動体抽出部134により設定される値であり、タイプ201の値が携帯端末11を示す値である場合に有効な項目である。危険フラグ205には、その携帯端末11を所持する移動体が車両10自身にとってどの程度危険であるかを示す値、例えば、移動体と車両10自身の衝突の危険性を示す値、である。危険フラグ205は、例えば危険度のレベルを表す整数で表現されてもよいし、危険かどうかを表す二値で表現されてもよい。位置情報データベース120に新しく携帯端末11の情報が設定される時点では、危険でないことを示す値が設定される。
図3は、詳細地図情報121の構成の一例を示す図である。図3では、詳細地図情報121の情報の一部分である部分地図情報300をもとにして説明する。部分地図情報300は、ある交差点302を中心とした詳細地図情報である。
詳細地図情報121は、地図上の北を示す方位情報301、交差点302周辺の道路形状、交差点302周辺に存在する物体(信号機303、停止線304、横断歩道305、道路上にペイントされる道路標示306、道路標識307等)の種類や位置情報(緯度、経度)といった情報が設定される。他にも、道路周辺に存在する特徴のある建物等の情報が設定されてもよいし、後述するランドマーク検出に用いる、交差点302周辺に存在する物体のイメージ画像の情報を含んでもよい。
以下、図4から図7を用いて、車載用制御装置101の処理部111の具体的な処理について説明する。
図4は、位置情報管理部131の処理フローを示す図である。位置情報管理部131は、一定時間ごとに図4に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
位置情報管理部131は、自車位置測位装置103から緯度203及び経度204を含む車両10自身の位置情報を取得する(400)。
次に位置情報管理部131は、無線通信装置102を介して、他の車両10や携帯端末11から新しく受信した情報がないかを確認する(401)。
新しく受信した情報がある場合(401でYes)、その受信情報に含まれる、他の車両10や携帯端末11のID200、タイプ201、緯度203、経度204等の情報を取得する(402)。ここで、受信情報に、他の車両10や携帯端末11が緯度203及び経度204を受信した時刻202の情報が含まれていれば、それも取得する。
新しく受信した情報がない場合(401でNo)や、他の車両10や携帯端末11の情報を取得した(402)後、位置情報管理部131は、位置情報データベース120に、ステップ400及び402で取得した車両10自身や他の車両10や携帯端末11の情報を登録もしくは更新する(403)。具体的には、位置情報データベース120に、車両10や携帯端末11のID200を含む行が既に存在している場合、その行の情報を最新の情報に更新する。この時、時刻202、緯度203、経度204の組が複数組登録可能な場合は、取得した情報を新しい組として登録してもよい。一方、車両10や携帯端末11のID200に対応する行が存在しない場合は、位置情報データベース120に、ID200を含む行を追加する。なお、危険フラグ205については、危険でないことを示す初期値を設定する。
さらに、位置情報管理部131は、位置情報データベース120に登録されている全ての行に対して、時刻202と現在の時刻の情報をもとに、最後に更新された時刻202から一定時間経過していないか確認する。もし一定時間以上経過した行が存在する場合、位置情報管理部131はその行を位置情報データベース120から削除し(404)、位置情報管理部131の処理を終了する。
図5は、自車方位特定部132の処理フローを示す図である。自車方位特定部132は、一定時間ごとに図5に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。当該処理フローは、高精度に自車の進行方位情報を算出することができ、後述する移動体検出領域の計算に適している。但し、自車の進行方位を高精度に求めることができるならば、方位センサなどのセンサを用いてもよい。
自車方位特定部132は、まず位置情報データベース120から、車両10自身のID200をキーとして検索し、車両10自身の緯度203及び経度204の情報を取得する(500)。
自車方位特定部132は、次に詳細地図情報121において、ステップ500で取得した緯度203及び経度204が指す車両10自身の位置の周辺に存在するランドマークを1つ選択する(501)。周辺のランドマークの選択にあたっては、例えば、車両10自身の周辺から特定の距離以内に存在するランドマークを検索し、その中でも車両10に最も近いものを選択する方法がある。ここで、ランドマークとは、道路標示306や道路標識307等、詳細地図情報121から取得可能な特徴的な物体やペイント情報のことであり、ランドマークの緯度及び経度の情報は詳細地図情報121から取得できる。自車方位特定部132は、ランドマークを用いて車両10自身の方位を特定するため、ランドマークの中でも横幅が小さいもの(例:道路標識307)が望ましく、さらに、周辺に同種類のものが複数存在しないものを選択することが望ましい。
自車方位特定部132は、ランドマーク検出部133を用いて、カメラ装置104の撮像画像データに対してランドマーク検出処理を行う。具体的には、ランドマーク検出部133は、詳細地図情報121から取得可能なランドマークの種類の情報を用いて、カメラ装置104の撮像画像データから、ステップ501で選択したランドマークを検出する(502)。ランドマーク検出部133は、例えば、ランドマークの種類が駐車禁止を示す道路標識307であれば、駐車禁止標識の画像を用いて、カメラ装置104の撮像画像データを走査して、パターンマッチング処理を行う。そして、マッチング箇所とランドマーク画像(例:駐車禁止標識画像)との合致度を算出し、合致度が所定値を超えた場合に、マッチング箇所に当該ランドマークが存在すると判断することで、ランドマークを検出する。なお、ランドマークの画像として、詳細地図情報121から取得できるランドマークのイメージ画像を用いてもよい。
自車方位特定部132は、ステップ502においてランドマークを検出できなかった場合(503でNo)、再度詳細地図情報121から別のランドマークを選択し、ステップ501〜502の処理を繰り返す。
自車方位特定部132は、ランドマークを検出できた場合(503でYes)、カメラ装置104の撮像画像データ内のランドマークの位置から、車両10自身の進行方位を0度としたときの、車両10からランドマークが存在する方角θを計算する(504)。例えば、単眼カメラの場合、カメラ装置104の横軸の画角と、撮像画像内のランドマークの横軸の位置をもとに、カメラ装置104の撮像方角を0度としたときのランドマークが存在する位置の方角を計算できる。さらに、カメラ装置104の撮像方角が車両10自身の進行方位と一致しない場合、カメラ装置104の撮像方角と車両10自身の進行方位の相対角度の情報を車載用制御装置101が把握していれば、方角θを計算できる。なお、ランドマークが存在する方角θの計算方法は上記に限定されず、他の方法を用いて計算してもよい。
次に、自車方位特定部132は、位置情報データベース120から取得する車両10自身の緯度203及び経度204の情報と、詳細地図情報121から取得する当該ランドマークの緯度及び経度の情報をもとに、北を0度としたときの車両10自身から見たときのランドマークが存在する方位θ’を計算する(505)。
その後、自車方位特定部132は、北を0度としたときの車両10自身の進行方位φを計算する(506)。具体的には、ステップ504及び505で取得した方角θ及び方位θ’の情報をもとにφ=θ’−θとして算出する。そして、自車方位特定部132の処理を終了する。
図6は、危険移動体抽出部134の処理フローを示す図である。危険移動体抽出部134は一定時間ごとに図6に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
危険移動体抽出部134は、まず車両10自身の現時点から一定時間以内の移動経路を予測する(600)。例えば、位置情報データベース120から取得する車両10自身の緯度203及び経度204の時系列情報をもとに車両10自身の移動ベクトルを計算し、移動ベクトルをもとに車両10自身の今後の移動経路を予測してもよいし、車両10自身の緯度203、経度204、詳細地図情報121、センサ群105等の情報をもとに、車両10が現在走行している車線を求め移動経路を予測してもよいし、ウィンカー点滅情報から左折または右折等を判断して移動経路を予測してもよい。車両10自身の移動経路予測方法は上記に限定されず、他の方法を用いて予測してもよい。
次に、危険移動体抽出部134は、位置情報データベース120の全ての行を探索し、タイプ201から携帯端末11であると推測される行を1つ選択する(601)。例えば、タイプ201が歩行者であることを示しているか、自動車以外であることを示しているかどうかで判断し、その中で最初に見つかった行を選択すればよい。
次に、危険移動体抽出部134は、ステップ601で選択した携帯端末11を所持する移動体の現時点から一定時間以内の移動経路を予測する(602)。例えば、携帯端末11の緯度203及び経度204の時系列情報を位置情報データベース120から取得して移動ベクトルを計算し、移動ベクトルをもとに携帯端末11の今後の移動経路を予測してもよいし、緯度203、経度204、詳細地図情報121の情報をもとに予測してもよい。詳細地図情報121の情報をもとに予測の方法として、歩道もしくは道路に平行して携帯端末11が移動していれば、歩道に平行して移動すると予測し、そうでなければ移動ベクトルにあわせて移動すると予測してもよい。
危険移動体抽出部134は、ステップ600及びステップ602で予測した車両10自身と携帯端末11の移動経路が交差するかどうかを判断する(603)。移動経路が交差する場合(603でYes)、危険移動体抽出部134は、車両10自身がその携帯端末11を所持する移動体と衝突する危険性があると判断し、位置情報データベース120の危険フラグ205に危険であることを示す値を設定する(604)。このとき、例えば、車両10自身が携帯端末11を所持する移動体の衝突までの時間や、携帯端末11が歩道を移動中かなどに応じて、危険レベルの高低を調整し、その値を位置データベース120の危険フラグ205に設定してもよい。
ステップ603でNoの場合またはステップ604の後、危険移動体抽出部134は、位置情報データベース120を確認し、他にステップ602〜604の処理を行っていない携帯端末11が存在するか確認する(605)。当該携帯端末11が存在する場合(605でYes)、ステップ601に戻り、他の携帯端末11に対してステップ602〜604の処理を行う。一方、他に携帯端末11が存在しない場合(605でNo)、危険移動体抽出部134の処理を終了する。
図7は、危険移動体検出部135の処理フローを示す図である。危険移動体検出部135は一定時間ごとに図7に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
危険移動体検出部135は、まず車両10自身のID200をキーとして、位置情報データベース120から車両10自身の緯度203及び経度204を取得する(700)。
次に、危険移動体検出部135は、位置情報データベース120を探索し、タイプ201から携帯端末11であることが推測され、かつ危険フラグ205が危険であることを示す値となっている行を探索して、例えば最初に見つかった行を選択する(701)。そして、危険移動体検出部135は、その携帯端末11の緯度203及び経度204の情報を位置情報データベース120から取得する(702)。
危険移動体検出部135は、次に、ステップ700及びステップ702で取得した、車両10自身及び携帯端末11の緯度203及び経度204の情報をもとに、北を0度とした時の車両10自身から見た時に携帯端末11が存在する方位φ’及び車両10自身と携帯端末11の間の距離dを計算する(703)。
さらに、危険移動体検出部135は、画像内移動体検出部136を呼び出し、画像内移動体検出部136がカメラ装置104の撮像画像内から、携帯端末11を所持する移動体を検出する(704)。このステップ704の処理については後述する。
そして、危険移動体検出部135は、位置情報データベース120を確認し、危険フラグ205の値が危険であることを示している携帯端末11の中で、まだステップ702〜704の処理を行っていないものが存在するか確認する(705)。他にも携帯端末11が存在する場合(705でYes)、再度ステップ701で携帯端末11を選択し、ステップ702〜704の処理を行う。一方、全ての携帯端末11を確認した場合(705でNo)、危険移動体検出部135の処理を終了する。
図8は、画像内移動体検出部136の処理フローの一例を示す図である。画像内移動体検出部136は、危険移動体検出部135の処理のステップ704の中で、図8に示す処理フローの処理を行う。
画像内移動体検出部136は、危険移動体検出部135のステップ703において計算した、車両10自身から見た携帯端末の存在する方位φ’及び距離dをもとに、カメラ装置104の撮像画像内において、危険移動体検出部135で選択中の携帯端末11を所持する移動体を検出するための、移動体検出領域を計算する(800)。移動体検出領域とは、移動体を検出するために撮像画像におけるパターンマッチングを行う領域、又は、優先的にパターンマッチングを行う領域のことをいい、例えば、歩行中の人間のイメージ画像を用いてパターンマッチングするために撮像画像を走査する領域のことをいう。移動体検出領域を設け、撮像画像内のパターンマッチングする範囲を絞ることで、危険移動体検出部135で選択された移動体の検出時間を短縮することが可能になる。移動体検出領域の具体的な計算例は図9にて後述する。
次に、画像内移動体検出部136は、移動体検出領域の推定にあたって車両振動情報を利用するか確認する(801)。これは、車両振動検出部137または車両振動検出機能を持つセンサ群105から、車両10自身の走行時の縦の振動幅情報を取得し、その情報を活用して移動体検出領域拡大処理を行うかどうかを決めるものである。この処理を行うかどうかは、例えば、安全運転支援システムのシステム管理者もしくは車両10のユーザが事前に決定しておき、パラメータとして設定する。この車両振動検出部137の処理については後述する。
車両振動情報を利用する場合(801でYes)、画像内移動体検出部136は、走行時の縦の車両振動幅の情報を車両振動検出部136やセンサ群105から取得する(802)。例えば、車両振動検出部136は、車両走行中の縦の振動により、カメラ装置104の画像内で検出済みのランドマークが上下にどの程度のピクセル幅で振動しているかの情報を取得する。ここで取得する情報は上記に限らず、例えば、車両自身の振動幅の測定値でもよく、この場合はその情報をもとに、上下のピクセル幅の振幅幅を計算すればよい。
画像内移動体検出部136は、ステップ802で取得した情報を用いて、移動体検出領域を縦方向に拡大する(803)。例えば、ステップ802で取得した上下の振動のピクセル幅の分だけ、画像内移動体検出部136は移動体検出領域を縦方向である上下に拡大する。他にも、上記に加えて、さらにマージンを考慮し、そのマージンの分だけ移動体検出領域を拡大してもよい。
そして、ステップ801でNoの場合またはステップ803の後に、画像内移動体検出部136は、移動体検出領域に対してパターンマッチングを行うことにより、移動体を検出し(804)、画像内移動体検出部136の処理を終了する。例えば、歩行中の人間のイメージ画像を用いて、カメラ装置104の撮像画像データを走査して、パターンマッチング処理を行う。マッチング箇所と歩行中の人間のイメージ画像との合致度を算出し、合致度が所定値を超えた場合に、マッチング箇所に移動体が存在すると判断し、移動体を検出する。なお、パターンマッチングに用いる画像は、歩行中の人間のイメージ画像に限定されるものではなく、死角から飛び出してくる場合や自転車に乗っている場合等を考慮して、人間の手等、人間の一部のイメージ画像であってもよいし、自転車等の乗り物やその乗り物のタイヤ等の一部のイメージ画像であってもよい。ここで検出した移動体を車載用制御装置101に渡すことで、車載用制御装置101は、安全運転支援システムなどの処理を行う。
図9は、車両10自身及び携帯端末11を所持する歩行者の位置関係を示す図であり、図9をもとにしてカメラ装置104の撮像画像データ内における移動体検出領域の計算方法の一例を説明する。なお、移動体検出領域の計算は、本説明の方法に限らないものであって、それ以外の方法で計算してもよい。また、本説明は単眼カメラを用いる場合を例として説明する。
上の図900は、詳細地図情報121において、車両10自身及び携帯端末11を所持する歩行者911が存在する場合におけるイメージ図である。図900をもとに、まず移動体検出領域の横軸の位置(地面に対して水平方向の位置)の計算方法の一例を説明する。なお、本来は詳細地図情報121には道路や他の建築物なども存在するが、本説明では不要のため省略した。
図900において車両10自身の進行方位φ(912)は、自車方位特定部132のステップ506で既に計算されている。また、北を0度としたときの、車両10自身から歩行者911が存在する方位φ’は危険移動体検出部135のステップ703でφ’として計算されている。そして、このφ及びφ’から、車両10自身の進行方位φ(912)を0度としたときの、車両10自身から見て歩行者911が存在する方角δ(921)は、δ=φ’−φとして求められる。
カメラ装置104の撮像画像内において、歩行者911の移動体検出領域の横軸の中心位置は、例えば、方角δ(921)が0〜90度の範囲であれば撮像画像の右側、−90〜0度の範囲であれば撮像画像の左側にあり、さらにその左側または右側の横軸の中心位置は、カメラ装置104の横軸の画角920に対する方角δ(921)の割合によって計算可能である。
また、移動体検出領域の横幅(地面に対して水平方向の幅)は、車両10自身及び歩行者911間の距離dと車載用制御装置101が設定するパラメータにより設定すればよく、例えば、横幅は距離dによらず一定であってもよいし、距離dが小さければ横幅を大きくとり、距離dが大きければ横幅を小さくとるようにしてもよい。
次に、下の図901は、図900において車両10自身と歩行者911を結ぶ線に沿って、高さ方向に切り取った場合の断面図である。図900をもとに、移動体検出領域の縦軸の位置(地面に対して高さ方向の位置)の計算方法の一例を説明する。
図901では、車両10及び歩行者911の間の距離d(931)、車両10自身のカメラ装置104が設定されている高さ(933)、歩行者911の身長とカメラ装置104が設置されている高さの差分(932)を図示している。なお、歩行者911の身長は、携帯端末11から一般的に取得できないが、例えば人間の平均身長などの情報を用いてもよい。さらに、歩行者911の身長に限る必要はなく、例えば、位置情報データベース120のタイプ201から自転車であると判明している場合は、自転車に乗車中の歩行者の最大の高さの値を用いてもよい。
ここで、カメラ装置104の位置から歩行者911の最上部を見るときの仰俯角940は、距離d(931)と高さの差分932から三角関数を用いて計算できるし、歩行者911の最下部(地面)の仰俯角941は距離d(931)と高さ933から三角関数を用いて計算可能できる。
よって、カメラ装置104の撮像画像データ内において、歩行者911の検出領域の縦の範囲(地面に対して高さ方向の範囲)は、カメラ装置104の縦軸の画角に対する、仰俯角940及び941の割合によって計算できる。
図10は、車両振動検出部137の処理フローの一例を示す図である。車両振動検出部137は一定時間ごとに図10に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
まず、車両振動検出部137は、撮像画像データベース122から直近の一定時間内のカメラ104装置の撮像画像を取得し、その撮像画像内から基準となる画像を選択する(1000)。例えば、一定時間内の複数枚の撮像画像内から、既にランドマーク検出部133により検出したランドマークの縦方向の位置が一致する画像の枚数が最も多いものから1枚選択し、それを基準画像とすればよい。
次に、車両振動検出部137は、撮像画像データベース122の直近の一定時間内の複数枚の撮像画像とステップ1000で選択した基準画像を比較して車両の上限の最大振動幅を計算し(1001)、車両振動検出部137の処理を終了する。例えば、撮像画像データベース122の直近の一定時間内の複数枚の撮像画像の中から、ステップ1000で選択した基準画像におけるランドマークの位置に対して、ランドマークが最も上に移動した画像と、最も下に移動した画像を選択し、基準画像におけるランドマークの位置とのピクセル幅の差分を計算する。
上記の説明では、ランドマークの位置をもとに計算したが、ランドマークに限定されるものではなく、例えば、撮像画像内に存在するランドマークではないオブジェクトや、地平線などをもとに検出してもよい。
図11は、図1〜図10で説明した本発明の効果的なケースを示す図である。図11を用いて、これまでに説明した本発明の具体例を説明する。図11では、車両10が道路1112を走行中に、道路1113から歩行者1110が接近中である場合を例として説明する。
図11の上の図1100は、詳細地図情報121において、車両10自身及び携帯端末11を所持する移動体である歩行者1110が存在する場合におけるイメージ図である。図1100では、車両10が道路1112を右下(南東)に向かって走行中であり、歩行者1110は携帯端末11を所持しており左下(南西)に向かって移動中である。また、交差点1115周辺では、ランドマークとして道路標識1111が存在し、さらに交差点の北側には建物1114が存在する。この建物1114のために、車両10から歩行者1110は見えないといった状況である。
下の画像1101は、車両10の前方に搭載されたカメラ装置104の撮像画像である。画像1101には、道路標識1111及び建物1114が表示されているが、歩行者1110は建物1114のために表示されない。
図1100において、歩行者1110が所持する携帯端末11は、定期的に位置測位装置151により携帯端末11自身の緯度203及び経度204の情報を取得する。携帯端末11は、緯度203及び経度204の情報に加えて、携帯端末11自身を一意に識別するためのID200、例えば歩行者であることを示すタイプ201の情報を、周辺に存在する車両10に対して送信する。
車両10の位置情報管理部131は、定期的にステップ400により自車位置測位装置103から緯度203及び経度204の情報を取得し、ステップ403により、位置情報データベース120に、車両10自身を一意に識別するID200、車両10が例えば普通の乗用車であることを示すタイプ201、取得した時刻202、緯度203、経度204の情報を更新する。
さらに、車両10の位置情報管理部131は、ステップ401〜403により、歩行者1110が所持する携帯端末11から定期的に情報を受信し、位置情報データベース120に、携帯端末のID200、タイプ201、受信時刻202、緯度203、経度204の情報を登録または更新する。
上記に並行して、車両10の自車方位特定部132は、ステップ500及び501により、定期的に位置情報データベース120に登録された車両10自身の緯度203及び経度204の情報と詳細地図情報121をもとに、車両10自身の周辺に存在するランドマークを検索し、ここでは道路標識1111の情報(緯度、経度、道路標識の種類)を取得する。
車両10の自車方位特定部132は、ステップ502により、詳細地図情報121から取得する道路標識の種類情報をもとに想定されるイメージ画像をもとに、カメラ装置104の撮像画像データである画像1101のパターンマッチングを行い、領域1130内にランドマークである道路標識1111が存在することを検出する。
さらに、車両10の自車方位特定部132は、ステップ504により、例えば、車両10に搭載したカメラ装置104の横の画角及び画像1101内の領域1130の位置から、車両10自身の進行方位1120を0度としたときの、車両10自身から見た時の道路標識1111の方角θ(1122)を計算する。
車両10の自車方位特定部132は、次に、ステップ505により、位置情報データベース120に登録された車両10自身の緯度203及び経度204の情報と、詳細地図情報121から取得可能な道路標識1111の緯度及び経度の情報をもとに、北を0度とした時の、車両10自身から見た時の道路標識1111が存在する方位θ’(1123)を計算する。そして、車両10の自車方位特定部132は、ステップ506により、北を0度としたときの車両10自身の進行方位であるφ(1120)を、φ=θ’(1123)−θ(1122)により計算する。
また、上記と並行して、車両10の危険移動体抽出部134は、ステップ600〜602により、位置情報データベース120から取得できる車両10自身と携帯端末11の緯度203及び経度204の時系列情報から、車両10及び携帯端末11がいずれも交差点1115に向かうと予測する。そして、ステップ603〜604により、危険移動体抽出部134は、車両10自身と携帯端末11の移動経路が交差すると判断し、位置情報データベース120の危険フラグ205に危険を示す値を設定する。
さらに、上記と並行して、車両10の危険移動体検出部135は、ステップ701により位置情報データベース120の危険フラグ205の値を確認することで、携帯端末11が車両10自身と衝突する危険性があることを認識し、その携帯端末11を選択する。
車両10の危険移動体検出部135は、位置情報データベース120から車両自身10及び携帯端末11の緯度203及び経度204の情報を取得(ステップ700及び702)し、その情報をもとに、ステップ703により、北を0度としたときの車両10自身から見たときの歩行者1110の方位φ’(1124)と、車両10自身と携帯端末11の間の距離dを計算する。
そして、車両10の画面移動体検出部136は、ステップ800により歩行者1110が存在する、画像1101内の移動体検出領域1131を推定する。ここで、車両10自身の進行方位φ(1120)を0度としたときの、車両10自身から携帯端末11が存在する方角δ(1125)はφ’(1124)−φ(1120)で計算できる。画像1101内の移動体検出領域1131の横軸の中心位置は、カメラ装置104の横軸の画角と、方角δ(1125)の値をもとに計算すればよい。また、移動体検出領域1131の横幅及び縦幅は、図9を用いて説明した方法を一例として計算すればよい。
さらに、車両振動検出部137の情報を用いる場合、ステップ803、804により、車両10の画面移動体検出部136は、車両振動検出部137から、例えば、画像1101内の道路標識1111の上下の最大振動ピクセル幅の情報を取得し、その幅の分だけ移動体検出領域1131の上下の幅を拡大する。
そして、車両10の画面移動体検出部136は、移動体検出領域1131に対して、歩行者や自転車等の全体のイメージ画像またはその一部のイメージ画像のパターンマッチングを行うことで、歩行者1110の検出処理を行う。
ただし、図11の時点では歩行者1110は建物1114の後ろに存在するため、車両10の画面移動体検出部136は歩行者1110を検出できないが、ここまで説明した処理を定期的に行っていれば、歩行者1110が建物1114から出てきた時点ですぐに歩行者1110を車両10の車載用制御装置101が認識できる。
このように、本発明を用いることで、携帯端末11を所持する移動体が建物等障害物により車両10から見えない場所に存在するために、カメラ装置104の撮像画像から検出できない場合であっても、無線通信により認識できた歩行者情報を用いることで、車両10のカメラ装置104の撮像画像に登場した時点ですぐに画面移動体検出部136により認識できることを説明した。
さらに、これまでの説明で、移動体が所持する携帯端末11から無線通信情報を介して受信した情報用いるため、自車と衝突する歩行者が視界にいない場合でも、移動体の情報からカメラ装置104の撮像画像の移動体検出領域を設定することを説明した。すなわち、本発明を用いれば、例えば多数の歩行者や自転車などの移動体が存在する環境であっても、携帯端末11から受信した情報を用いて、車両10と衝突する可能性がある危険な移動体の移動体検出領域を設定するため、カメラ装置104の撮像画像からの危険な移動体の検出速度及び検出精度を向上できることは容易に想像できる。
また、本発明では、自車方位特定部132は、カメラ装置104の撮像画像内でランドマーク検出部133により認識したランドマークを用いて車両10自身の方位を特定する処理を行っているが、自車方位特定部132において、高精度ジャイロ等を用いることで自車方位を特定する方法に置き換えてもよい。
10 車両
11 携帯端末
12 無線ネットワーク
101 車載用制御装置
102 無線通信装置
103 自車位置測位装置
104 カメラ装置
105 センサ装置
110 通信部
111 処理部
112 記憶部
130 自車情報送信部
131 位置情報管理部
132 自車方位特定部
133 ランドマーク検出部
134 危険移動体抽出部
135 危険移動体検出部
136 画像内移動体検出部
137 車両振動検出部
150 無線通信装置
151 位置測位装置
200 ID
201 タイプ
202 時刻
203 緯度
204 経度
205 危険フラグ
300 詳細地図情報(一部)
301 方位情報
302 交差点
303 信号
304 停止線
305 横断歩道
306 道路標示
307 道路標識
911 歩行者
1110 歩行者
1111 道路標識
1112 道路
1113 道路
1114 建物
1115 交差点

Claims (15)

  1. 車両に搭載される車両制御装置であって、
    前記車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得する通信部と、
    前記第一の位置情報及び前記第二の位置情報が格納される記憶部と、
    前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、該判定の結果に基づいて、前記車両に搭載されたカメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、前記移動体検出領域内の前記移動体の画像を検出する処理部と、
    を有することを特徴とする車両制御装置。
  2. 請求項1に記載の車両制御装置であって、
    前記処理部は、前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、ことを特徴とする車両制御装置。
  3. 請求項1に記載の車両制御装置であって、
    前記記憶部には、複数の前記携帯端末各々に対応する前記第二の位置情報が記憶され、 前記処理部は、複数の前記携帯端末に対して前記衝突危険性を判定し、該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、ことを特徴とする車両制御装置。
  4. 請求項1に記載の車両制御装置であって、
    前記処理部は、前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、ことを特徴とする車両制御装置。
  5. 請求項1に記載の車両制御装置であって、
    前記処理部は、前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、ことを特徴とする車両制御装置。
  6. 車両制御装置とカメラ装置とが搭載される車両であって、
    前記車両の位置情報である第一の位置情報を取得する位置情報取得部と、
    通信網を介して携帯端末の位置情報である第二の位置情報を受信する通信部と、を有し、
    前記車両制御装置は、
    前記第一の位置情報及び前記第二の位置情報が格納される記憶部と、
    前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、該判定の結果に基づいて、前記カメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、前記移動体検出領域内の前記移動体の画像を検出する処理部と、
    を有することを特徴とする車両。
  7. 請求項6に記載の車両であって、
    前記処理部は、前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、ことを特徴とする車両。
  8. 請求項6に記載の車両であって、
    前記記憶部には、複数の前記携帯端末各々に対応する前記第二の位置情報が記憶され、
    前記処理部は、複数の前記携帯端末に対して前記衝突危険性を判定し、該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、ことを特徴とする車両。
  9. 請求項6に記載の車両であって、
    前記処理部は、前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、ことを特徴とする車両。
  10. 請求項6に記載の車両であって、
    前記処理部は、前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、ことを特徴とする車両。
  11. 車両に搭載されるカメラ装置によって撮像される撮像画像から移動体を検出する移動体検出方法であって、
    前記車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得し、
    前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する前記移動体との衝突の危険性である衝突危険性を判定し、
    該判定の結果に基づいて、前記カメラ装置による前記撮像画像において前記移動体の検出処理が行われる移動体検出領域を設定し、
    前記移動体検出領域内の前記移動体の画像を検出する、
    ことを特徴とする移動体検出方法。
  12. 請求項11に記載の移動体検出方法であって、
    前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、
    算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、
    ことを特徴とする車両制御装置。
  13. 請求項11に記載の移動体検出方法であって、
    複数の前記携帯端末各々に対応する前記第二の位置情報を取得し、
    複数の前記携帯端末に対して前記衝突危険性を判定し、
    該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、
    ことを特徴とする移動体検出方法。
  14. 請求項11に記載の移動体検出方法であって、
    前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、
    前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、
    ことを特徴とする移動体検出方法。
  15. 請求項11に記載の移動体検出方法であって、
    前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、
    ことを特徴とする移動体検出方法。
JP2013270917A 2013-12-27 2013-12-27 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 Pending JP2015125669A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013270917A JP2015125669A (ja) 2013-12-27 2013-12-27 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法
PCT/JP2014/082612 WO2015098510A1 (ja) 2013-12-27 2014-12-10 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270917A JP2015125669A (ja) 2013-12-27 2013-12-27 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法

Publications (1)

Publication Number Publication Date
JP2015125669A true JP2015125669A (ja) 2015-07-06

Family

ID=53478374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270917A Pending JP2015125669A (ja) 2013-12-27 2013-12-27 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法

Country Status (2)

Country Link
JP (1) JP2015125669A (ja)
WO (1) WO2015098510A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049687A (ja) * 2015-08-31 2017-03-09 株式会社東芝 検出装置、検出方法、検出プログラムおよび情報処理システム
JP2017228284A (ja) * 2016-05-18 2017-12-28 ザ・ボーイング・カンパニーThe Boeing Company 衝突回避のためのシステム及び方法
WO2019044208A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
WO2019044007A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
JP2019086393A (ja) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 物体認識装置
WO2020075839A1 (ja) * 2018-10-12 2020-04-16 京セラ株式会社 交通通信システム、路側機、及び方法
JP2020154666A (ja) * 2019-03-20 2020-09-24 日立オートモティブシステムズ株式会社 外界センシング情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022045520A (ja) * 2020-09-09 2022-03-22 トヨタ自動車株式会社 情報管理システムおよびこれに用いられる車載装置、画像管理サーバ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2004268829A (ja) * 2003-03-11 2004-09-30 Denso Corp 車両用歩行者衝突危険判定装置
JP2011027457A (ja) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd 物体検出装置、情報処理方法、および、情報処理システム
JP2011227582A (ja) * 2010-04-15 2011-11-10 Toyota Motor Corp 車両用衝突予測装置
JP2012242263A (ja) * 2011-05-20 2012-12-10 Mazda Motor Corp 移動体位置検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2004268829A (ja) * 2003-03-11 2004-09-30 Denso Corp 車両用歩行者衝突危険判定装置
JP2011027457A (ja) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd 物体検出装置、情報処理方法、および、情報処理システム
JP2011227582A (ja) * 2010-04-15 2011-11-10 Toyota Motor Corp 車両用衝突予測装置
JP2012242263A (ja) * 2011-05-20 2012-12-10 Mazda Motor Corp 移動体位置検出装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049687A (ja) * 2015-08-31 2017-03-09 株式会社東芝 検出装置、検出方法、検出プログラムおよび情報処理システム
JP2017228284A (ja) * 2016-05-18 2017-12-28 ザ・ボーイング・カンパニーThe Boeing Company 衝突回避のためのシステム及び方法
US10636308B2 (en) 2016-05-18 2020-04-28 The Boeing Company Systems and methods for collision avoidance
WO2019044007A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
WO2019044208A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
CN111279403A (zh) * 2017-08-29 2020-06-12 松下电器产业株式会社 终端装置、路侧装置、通信系统以及通信方法
JPWO2019044208A1 (ja) * 2017-08-29 2020-10-15 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
US11212653B2 (en) 2017-08-29 2021-12-28 Panasonic Corporation Terminal device, roadside device, communications system, and communications method
JP7231547B2 (ja) 2017-08-29 2023-03-01 パナソニックホールディングス株式会社 端末装置、通信システム、および通信方法
TWI797146B (zh) * 2017-08-29 2023-04-01 日商松下控股股份有限公司 終端裝置、路側裝置、通訊系統、及通訊方法
JP2019086393A (ja) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 物体認識装置
WO2020075839A1 (ja) * 2018-10-12 2020-04-16 京セラ株式会社 交通通信システム、路側機、及び方法
JP2020154666A (ja) * 2019-03-20 2020-09-24 日立オートモティブシステムズ株式会社 外界センシング情報処理装置
JP7199269B2 (ja) 2019-03-20 2023-01-05 日立Astemo株式会社 外界センシング情報処理装置

Also Published As

Publication number Publication date
WO2015098510A1 (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
WO2015098510A1 (ja) 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法
CN109895850B (zh) 弯道导向方法、装置、电子装置及计算机可读记录介质
JP6872959B2 (ja) 通信システム、車両搭載器及びプログラム
JP5997797B2 (ja) 車両の地図データ処理装置
CN109313856B (zh) 物体检测方法及物体检测装置
JP6149846B2 (ja) 注意喚起装置
JP5472163B2 (ja) 速度規制値通知装置及び速度規制値通知システム
US9140792B2 (en) System and method for sensor based environmental model construction
JP2011013039A (ja) 車線判定装置及びナビゲーションシステム
WO2018116795A1 (ja) 運転支援システム及び運転支援装置
WO2018109865A1 (ja) 路側機および路車間通信システム
WO2017076439A1 (en) Method of providing traffic related information and device, computer program and computer program product
JP6520687B2 (ja) 運転支援装置
JP2013019680A (ja) 走行制御装置
JP2014067165A (ja) 運転支援装置
JP2019078562A (ja) 自車位置推定装置
JP5862777B2 (ja) 交通情報提供システム及び交通情報提供方法
WO2018230496A1 (ja) 地図更新装置、地図更新システム、地図更新方法、及びプログラム
JP2014016919A (ja) 交通情報提供システム及び交通情報提供方法
JP4900120B2 (ja) 駐停車判定装置
JP5251467B2 (ja) 車両用の情報提供装置及び情報提供方法
JP2015109003A (ja) 歩行者情報提供システム
JP5014308B2 (ja) 運転支援装置
JP6714944B2 (ja) 運転支援装置、運転支援プログラム、運転支援方法および運転支援システム
JPWO2019198223A1 (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180904