JP2014056536A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2014056536A
JP2014056536A JP2012202273A JP2012202273A JP2014056536A JP 2014056536 A JP2014056536 A JP 2014056536A JP 2012202273 A JP2012202273 A JP 2012202273A JP 2012202273 A JP2012202273 A JP 2012202273A JP 2014056536 A JP2014056536 A JP 2014056536A
Authority
JP
Japan
Prior art keywords
processing
area
lane
region
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012202273A
Other languages
English (en)
Other versions
JP5811975B2 (ja
JP2014056536A5 (ja
Inventor
Takahiro Mae
孝宏 前
Takamitsu Watanabe
孝光 渡辺
Takahiro Watanabe
孝弘 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2012202273A priority Critical patent/JP5811975B2/ja
Priority to US14/428,352 priority patent/US9946950B2/en
Priority to PCT/JP2013/063446 priority patent/WO2014041848A1/ja
Publication of JP2014056536A publication Critical patent/JP2014056536A/ja
Publication of JP2014056536A5 publication Critical patent/JP2014056536A5/ja
Application granted granted Critical
Publication of JP5811975B2 publication Critical patent/JP5811975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】交通量の計測精度を安定させることが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】上記課題を解決するために、本発明のある観点によれば、車両が通行する道路が描かれた撮像画像を取得する画像取得部と、撮像画像と、道路に関する道路情報とに基づいて、撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するキャリブレーション部と、撮像画像と、道路パラメータとに基づいて、撮像画像から車線領域を検出する車線領域検出部と、車線領域に基づいて、車両通過が検知される処理領域を車線上に設定する処理領域設定部と、を備えることを特徴とする、情報処理装置が提供される。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
例えば特許文献1に開示されるように、監視カメラからの撮像画像に基づいて、交通量を計測する技術が知られている。従来の技術は、まず、撮像画像のキャリブレーションを行う。このキャリブレーションにより、撮像画像中の道路領域が特定される。また、撮像画像中の座標を実空間上の座標に変換する道路パラメータが算出される。そして、従来の技術は、撮像画像から車線領域を検出し、車線領域に基づいて処理領域を設定する。処理領域は、車両の通過が観測される領域である。すなわち、処理領域に車両が重畳した際に、車両が検出される。処理領域が設定されることで、処理時間が短縮し、計測精度が向上する。
特開2011−198030号公報
しかし、処理領域の設定は、監視カメラ等のシステムが設置される際にユーザによって手動で行われていた。したがって、処理領域の特性(位置、大きさ等)は、ユーザのスキル(例えば、システム特性の理解度)に応じてばらついてしまっていた。一方、処理領域の特性は計測精度に大きな影響を与える。したがって、従来の技術では、ユーザのスキルに応じて処理領域の特性がばらつき、この結果、計測精度がばらつくという問題があった。このため、交通量の計測精度を安定させることができる技術が求められていた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、交通量の計測精度を安定させることが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、車両が通行する道路が描かれた撮像画像を取得する画像取得部と、撮像画像と、道路に関する道路情報とに基づいて、撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するキャリブレーション部と、撮像画像と、道路パラメータとに基づいて、撮像画像から車線領域を検出する車線領域検出部と、車線領域に基づいて、車両通過が検知される処理領域を車線領域上に設定する処理領域設定部と、を備えることを特徴とする、情報処理装置が提供される。
ここで、処理領域設定部は、車線領域の手前側の端部に処理領域を設定してもよい。
また、処理領域設定部は、処理領域の手前側の端部全体を撮像画像の内部に配置するようにしてもよい。
また、車線領域の一部を遮蔽する遮蔽物に基づいて、処理領域を調整する処理領域調整部を備えるようにしてもよい。
また、処理領域調整部は、遮蔽物を避けた位置に処理領域を設定するようにしてもよい。
また、処理領域調整部は、処理領域を遮蔽物の奥側の領域のうち、手前側の端部に配置するようにしてもよい。
また、処理領域調整部は、遮蔽物が処理領域の一部を遮蔽する場合、処理領域のうち、遮蔽物によって遮蔽された部分をマスクするようにしてもよい。
また、処理領域調整部は、処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、処理領域の位置による検知精度の低下量とに基づいて、マスク部分の大きさと処理領域の位置とを決定するようにしてもよい。
また、処理領域調整部は、処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、処理領域の位置による検知精度の低下量とを合計した値が最小となるように、マスク部分の大きさと処理領域の位置とを決定するようにしてもよい。
また、車線領域は複数存在し、処理領域調整部は、遮蔽物により遮蔽されていない車線領域中の処理領域を、遮蔽物により遮蔽された車線領域の処理領域に基づいて設定するようにしてもよい。
また、処理領域設定部は、車線領域と路側帯領域との境界部分を2輪車検知用処理領域として設定するようにしてもよい。
また、処理領域設定部は、2輪車検知用処理領域を避けた位置に2輪車以外の車両用の処理領域を設定するようにしてもよい。
また、処理領域設定部は、ユーザ操作に基づいて、処理領域を調整するようにしてもよい。
また、車線領域検出部は、ユーザ操作に基づいて、撮像画像から車線領域を検出するようにしてもよい。
本発明の他の観点によれば、車両が通行する道路が描かれた撮像画像を取得するステップと、撮像画像と、道路に関する道路情報とに基づいて、撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するステップと、撮像画像と、道路パラメータとに基づいて、撮像画像から車線領域を検出するステップと、車線領域に基づいて、車両通過が検知される処理領域を車線上に設定するステップと、を含むことを特徴とする、情報処理方法が提供される。
本発明の他の観点によれば、コンピュータに、車両が通行する道路が描かれた撮像画像を取得する画像取得機能と、撮像画像と、道路に関する道路情報とに基づいて、撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するキャリブレーション機能と、撮像画像と、道路パラメータとに基づいて、撮像画像から車線領域を検出する車線検出機能と、車線領域に基づいて、車両通過が検知される処理領域を車線領域上に設定する処理領域設定機能と、を実現させることを特徴とする、プログラムが提供される。
以上説明したように本発明によれば、処理領域を自動で設定するので、ユーザのスキルによらず、適切な処理領域を設定することができる。このため、情報処理装置は、ユーザのスキルによらず、交通量の計測精度を安定させることができる。
本発明の第1の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第3の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第1の実施形態に係る情報処理装置による処理の手順を示すフローチャートである。 本発明の第2実施形態に係る情報処理装置による処理の手順を示すフローチャートである。 第1の実施形態における処理領域の設定例を示す説明図である。 第1の実施形態における処理領域の設定例を示す説明図である。 第2の実施形態における処理領域の設定例を示す説明図である。 車両のダブルカウントの問題を説明する説明図である。 第2の実施形態における処理領域の設定例を示す説明図である。 第3の実施形態における処理領域の設定例を示す説明図である。 データベースの構成の一例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.第1の実施形態>
(情報処理装置の構成)
まず、図1等に基づいて、第1の実施形態に係る情報処理装置1−1の構成について説明する。情報処理装置1−1は、画像取得部10と、キャリブレーション部20と、車線領域検出部30と、処理領域設定(算出)部40と、処理領域表示部50とを備える。なお、情報処理装置1−1は、CPU、ROM、RAM、ハードディスク、ディスプレイ、各種入力装置(キーボード、マウス等)等のハードウェア構成を有する。ROMには、情報処理装置1−1に画像取得部10と、キャリブレーション部20と、車線領域検出部30と、処理領域設定部40と、処理領域表示部50とを実現させるためのプログラムが記録されている。CPUは、ROMに記録されたプログラムを読みだして実行する。したがって、これらのハードウェア構成により、画像取得部10と、キャリブレーション部20と、車線領域検出部30と、処理領域設定部40と、処理領域表示部50とが実現される。
(画像取得部)
画像取得部10は、図示しない撮像装置から撮像画像を取得し、キャリブレーション部20、車線領域検出部30、処理領域設定部40、及び処理領域表示部50に出力する。ここで、撮像装置は、道路脇の地表面よりも高い位置に設置されている。撮像装置は、車両(4輪車、2輪車等)が通行する道路を撮像する。これにより、撮像装置は、道路が描かれた撮像画像を取得する。撮像装置は、取得した撮像画像を画像取得部10に出力する。撮像画像の一例を図6に示す。図6は、撮像画像の一例として、撮像画像200を示す。撮像画像200には、道路領域205が描かれている。道路領域205は、複数の車線領域221〜223からなる。また、道路領域205の脇には路側帯領域300が描かれている。複数の車線領域221〜223は、路側帯領域300に近い側から第1レーン、第2レーン、第3レーンとなる。後述するように、各車線領域221〜223に処理領域230〜250が設定される。撮像画像には、xy軸が設定されており、横方向の軸がx軸、垂直方向の軸がy軸となっている。また、撮像画像を構成する各画素は、xy座標及び画素値(輝度等)を有する。
(キャリブレーション部)
キャリブレーション部20は、撮像画像と、ユーザから入力された道路情報とに基づいて、撮像画像のキャリブレーションを行う。ここで、道路情報としては、例えば道路領域の両端の直線、撮像画像に描かれた2つのオブジェクト間の既知の距離、各種のカメラパラメータ等が挙げられる。カメラパラメータは、撮像装置に関する各種の情報であり、例えば、撮像装置の設置位置、設置角度(光軸と地表面とがなす角度)、CCDサイズ等が挙げられる。
また、ユーザが道路情報を入力する方法としては、以下の方法が挙げられる。すなわち、処理領域表示部50は、撮像画像を表示する。これに応じて、ユーザは、マウスを用いて道路領域の両端の直線を指定する。例えば、処理領域表示部50は、図6に示す撮像画像200を表示する。ユーザは、マウスを操作することで、道路領域205の両端を構成する直線210を指定する。また、ユーザは、マウス等を用いて撮像画像中の2つのオブジェクトを指定し、その後、キーボードを用いて2つのオブジェクト間の実空間上での距離を入力する。また、ユーザは、キーボードを用いてカメラパラメータを入力する。
キャリブレーション部20は、撮像画像をキャリブレーションすることで、道路パラメータを算出する。ここで、道路パラメータは、撮像画像中の2次元座標を実空間上の3次元座標に変換するための方程式である。キャリブレーションの具体的な方法は特に限定されない。例えば、特許文献1に開示された方法でキャリブレーションが行われてもよい。キャリブレーション部20は、道路パラメータ及び道路情報を含むキャリブレーション情報を車線領域検出部30に出力する。
(車線領域検出部)
車線領域検出部30は、撮像画像と、キャリブレーション情報とに基づいて、撮像画像から車線領域を検出する。具体的な車線領域検出方法は特に限定されない。例えば、車線領域検出部30は、特開2004−240636号公報に開示された方法により車線領域を検出する。具体的には、車線領域検出部30は、道路情報(特に、道路領域の両端の直線)に基づいて、道路領域を認識する。そして、車線領域検出部30は、道路領域中から白線を示すエッジ情報を検出する。図6に示す例では、エッジ情報は直線220上に存在する。そして、車線領域検出部30は、エッジ情報を道路パラメータから計算される道路長さ方向に射影することで、道路長さ方向上に白線エッジ候補のヒストグラムを作成する。そして、車線領域検出部30は、そのヒストグラムに基づいて、車線領域を検出する。
また、車線領域検出部30は、道路領域の両端の直線と、車線平均幅(実空間での車線幅の平均値であり、予め車線領域検出部30に記憶される)とに基づいて、車線候補領域を限定する。そして、車線領域検出部30は、車線候補領域の間から車線方向のエッジ情報(このエッジ情報は白線に相当する)を検出し、エッジ情報にハフ変換等の直線検出処理を施すことで、車線領域を検出してもよい。
その他、車線領域検出部30は、ユーザが手動で(例えばマウスを用いて)道路領域上の1点を指定した場合、その点と道路パラメータとに基づいて、車線領域を検出することもできる。車線領域検出部30は、検出した車線領域に基づいて、車線数及び車線領域の位置を認識する。例えば、車線領域検出部30は、図6に示す撮像画像200から車線領域221〜223を検出し、車線数が3であると認識する。車線領域検出部30は、車線領域を処理領域設定部40に出力する。
(処理領域設定部)
処理領域設定部40は、撮像画像及び車線領域に基づいて、処理領域を車線領域上に設定する。処理領域は、車両通過が検知される領域である。すなわち、車両通過は、処理領域を車両が通過したことにより検知される。車両通過は情報処理装置1−1とは別の装置で行われても良いが、情報処理装置1−1内で行われるようにしてもよい。
処理領域を設定する基準は特に制限されないが、第1の実施形態では、処理領域設定部40は、車線領域の手前側の端部に処理領域を設定する。ここで、「手前側の端部」とは、車線領域の長さ方向の両端部のうち、y座標が大きい(図6中、より下側に配置される)端部である。言い換えれば、「手前側の端部」は、実空間上で「奥側の端部」よりも撮像装置に近い位置に存在する。
ここで、設定の具体例を図6に基づいて説明する。処理領域設定部40は、車線領域221〜223にそれぞれ処理領域230〜250を設定する。処理領域230は、車線領域221の幅と略同一の幅を有する。さらに、処理領域230の手前側の端部230aのうち、一方の頂点230a−1は撮像画像200の端部に配置され、他方の頂点230a−2は、一方の頂点230a−1から車線領域221の幅方向に伸びる。このように、処理領域230の手前側の端部230aは、全て撮像画像200内に配置される。また、処理領域230の長さは、車両の平均長さ(バス、自家用車、トラック等の長さを算術平均した値)以上の長さとなることが好ましい。また、処理領域の奥側の車両が1フレームの間に処理領域の奥側(すなわち撮像画像外)に出てしまうことを防ぐ観点からは、処理領域230の長さはなるべく長くする必要がある。しかし、長すぎると処理領域にノイズが乗る可能性がある。そこで、処理領域設定部40は、これらの事情を考慮した長さを決定する。処理領域230の長さは、例えば実空間上で10m程度となればよい。
処理領域240、250も同様に設定される。すなわち、処理領域240の手前側の端部240aのうち、一方の頂点240a−2は撮像画像200の端部に配置され、他方の頂点240a−1は、一方の頂点240a−2から車線領域222の幅方向に伸びる。処理領域250の手前側の端部250aのうち、一方の頂点250a−1は撮像画像200の端部に配置され、他方の頂点250a−2は、一方の頂点250a−1から車線領域223の幅方向に伸びる。処理領域240、250の長さは処理領域230と同様に決定される。
このように、第1の実施形態では、処理領域設定部40は、車線領域の手前側の端部に処理領域を設定する。これは以下の理由による。すなわち、撮像画像中の車両は、車線領域の最も手前側に到達した際に、後続車両との重なりが解消されやすい。すなわち、誤検出が生じにくい。このため、処理領域設定部40は、車線領域の手前側の端部に処理領域を設定することとした。処理領域設定部40は、処理領域に関する処理領域情報を処理領域表示部50及び車両通過を検知する装置に出力する。また、処理領域設定部40は、後述するように、ユーザが処理領域の位置等に関する情報を入力した場合、その情報に基づいて、処理領域の位置及び大きさ等を修正する。
(処理領域表示部)
処理領域表示部50は、処理領域を撮像画像に重畳して表示する。これにより、処理領域表示部50は、処理領域が明らかに間違ったものになっていないかどうかをユーザに確認してもらう。ユーザは、処理領域の位置及び大きさ等が明らかに間違っている(例えば、処理領域が車線をまたいでいる、処理領域が車線領域から大きく逸脱している等)場合には、マウス等の入力装置を用いて正しい位置及び大きさ等を入力する。
(処理領域の変形例)
図6では処理領域が平面となっているが、処理領域は、図7に示すように立体であってもよい。図7に示す例では、立体の処理領域230’〜250’が設定されている。処理領域設定部40は、処理領域を平面にしても立体にしても良い。ただし、例えば車両通過を検知する装置が車両のサイズも検知する場合、処理領域設定部40は、処理領域を立体にする。一方、処理領域設定部40は、車両通過を検知する装置が車両の通過だけを検知する場合、処理領域を平面に設定してもよい。
(情報処理装置による処理の手順)
次に、情報処理装置1−1による処理の手順を、図4に示すフローチャートに沿って説明する。
ステップS10において、画像取得部10は、図示しない撮像装置から撮像画像を取得し、キャリブレーション部20、車線領域検出部30、処理領域設定部40、及び処理領域表示部50に出力する。
ステップS20において、キャリブレーション部20は、撮像画像と、ユーザから入力された道路情報とに基づいて、撮像画像のキャリブレーションを行う。これにより、キャリブレーション部20は、道路パラメータを算出する。ここで、道路パラメータは、撮像画像中の2次元座標を実空間上の3次元座標に変換するための方程式である。キャリブレーション部20は、道路パラメータ及び道路情報を含むキャリブレーション情報を車線領域検出部30に出力する。
ステップS30において、車線領域検出部30は、撮像画像と、キャリブレーション情報とに基づいて、撮像画像から車線領域を検出する。車線領域検出部30は、検出した車線領域に基づいて、車線数及び車線領域の位置を認識する。車線領域検出部30は、車線領域を処理領域設定部40に出力する。
ステップS40において、処理領域設定部40は、撮像画像及び車線領域に基づいて、処理領域を車線領域上に設定する。第1の実施形態では、処理領域設定部40は、車線領域の手前側の端部に処理領域を設定する。処理領域の車線領域手前側の端部は、全て撮像画像内に配置される。処理領域設定部40は、処理領域に関する処理領域情報を処理領域表示部50及び車両通過を検知する装置に出力する。
ステップS50において、処理領域表示部50は、処理領域を撮像画像に重畳して表示する。これにより、処理領域表示部50は、処理領域が明らかに間違ったものになっていないかどうかをユーザに確認してもらう。ユーザは、処理領域の位置及び大きさ等が明らかに間違っている場合には、マウス等の入力装置を用いて正しい位置及び大きさ等を入力する。処理領域設定部40は、ユーザが処理領域の位置等に関する情報を入力した場合、その情報に基づいて、処理領域の位置及び大きさ等を修正する。処理領域設定部40は、修正後の処理領域に関する処理領域情報を処理領域表示部50及び車両通過を検知する装置に出力する。その後、情報処理装置1−1は、本処理を終了する。
以上により、第1の実施形態では、情報処理装置1−1は、処理領域を自動で設定するので、ユーザのスキルによらず、適切な処理領域を設定することができる。このため、情報処理装置1−1は、ユーザのスキルによらず、交通量の計測精度を安定させることができる。
さらに、情報処理装置1−1は、車線領域の手前側の端部に処理領域を設定するので、車両領域の重なりによる誤検出が生じる可能性を低減することができる。
さらに、情報処理装置1−1は、処理領域の手前側の端部全体を撮像画像の内部に配置するので、処理領域の欠落を防止することができ、ひいては、車両通過の検知精度を向上させることができる。
さらに、情報処理装置1−1は、ユーザ操作に基づいて、処理領域を調整するので、より適切な処理領域を設定することができる。
<2.第2の実施形態>
(情報処理装置の構成)
次に、本発明の第2の実施形態について説明する。まず、図2等に基づいて、第2の実施形態に係る情報処理装置1−2の構成について説明する。情報処理装置1−2は、情報処理装置1−1に遮蔽物領域入力受付部60と、遮蔽車線処理領域調整部70と、全車線処理領域調整部80と、データベース100とを追加したものである。遮蔽車線処理領域調整部70と、全車線処理領域調整部80とは、処理領域調整部を構成する。情報処理装置1−2は、概略的には、遮蔽物を避ける位置に処理領域を設定する処理を行う。
(遮蔽物領域入力受付部)
遮蔽物領域入力受付部60は、ユーザによる遮蔽物指定操作を受け付ける。すなわち、撮像装置と道路との間に遮蔽物(例えば、街路樹、信号機、標識、看板等)が存在する場合、撮像画像中の車線領域が遮蔽物によって遮蔽される可能性がある。この例を図8に示す。図8に示す例では、撮像画像201に遮蔽物400が描かれており、この遮蔽物400によって車線領域221の一部が遮蔽されている。なお、撮像画像201は撮像画像200に遮蔽物400が追加されたものである。特に、この例では、車線領域221の手前側の端部が遮蔽物によって遮蔽されている。したがって、処理領域230も遮蔽される。この場合、特に処理領域230において車両通過の検知精度が低下する可能性がある。
そこで、ユーザは、処理領域表示部50によって表示された撮像画像を参照して、遮蔽物を指定する。遮蔽物の指定方法は特に制限されないが、例えば以下の方法が挙げられる。(1)マウスポインタが遮蔽物のエッジをなぞるように、ユーザがマウスを操作する。(2)ユーザがマウスを操作することで、遮蔽物を矩形(または任意の図形)で囲む。(3)ユーザが遮蔽物内の1点を指定する。この場合、遮蔽物領域入力受付部60は、ユーザが指定した点と類似した画素値を有する連続した領域を遮蔽物と認識する。遮蔽物領域入力受付部60は、遮蔽物を遮蔽車線処理領域調整部70に出力する。
(遮蔽車線処理領域調整部)
遮蔽車線処理領域調整部70は、遮蔽物に基づいて、処理領域を調整する。ここで、調整する方法としては、以下の3つが挙げられる。
(1)遮蔽物を避けた位置に処理領域を設定する。具体的には、処理領域を遮蔽物の奥側の領域のうち、手前側の端部に設定する。
具体例を図8に基づいて説明する。図8に示す例では、上述したように、処理領域230が遮蔽物400によって遮蔽されている。そこで、遮蔽車線処理領域調整部70は、処理領域230を、遮蔽物400の奥側の領域のうち手前側の端部に移動させることで、新たに処理領域231を設定する。これにより、遮蔽物による影響を防止しつつ、車両通過の検知精度を向上させることができる。
(2)処理領域のうち、遮蔽物によって遮蔽された部分をマスクする。この処理によっても、遮蔽物による影響を防止しつつ、車両通過の検知精度を向上させることができる。
(3)処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、処理領域の位置による検知精度の低下量とに基づいて、マスク部分の大きさと処理領域の位置とを決定する。
この処理では、データベース100に記憶された情報のうち、位置修正時の精度低下の統計情報101と、マスク時の精度低下の統計情報102とが使用される。データベース100は、位置修正時の精度低下の統計情報101と、マスク時の精度低下の統計情報102と、車両移動の統計情報103とを記憶する。
統計情報101の例を図12に示す。統計情報101は、車線領域(レーン)の区分と、初期位置からの距離と、精度低下量との対応関係を示す。車線領域の区分はアルファベットで示される。もちろん、区分を示す情報はこれに限られない。アルファベットの順番が若いほど、そのアルファベットが示すレーンは路側帯に近くなる。初期位置は、処理領域設定部40によって設定される位置(処理領域の手前側端部の位置)を示す。初期位置からの距離は、遮蔽車線処理領域調整部70によって設定される処理領域の手前側端部から初期位置までの距離を示す。また、例えば「0m〜2m」は、0m以上2m未満を意味する。精度低下量は、初期位置での検知精度を100%とした時の相対的な低下量を示す。
検知精度は、以下のように算出(シミュレーション)される。すなわち、処理領域に相当する実空間上に車両相当の直方体を配置する。さらに、その後方7−8mの実空間に同様の直方体を配置する。ここで、7−8mは車間距離として想定される値である。したがって、この値は他の値であってもよい。そして、撮像装置によってこれらの直方体がどの程度重なって撮像されるかを算出する。そして、重なり具合と、車両通過の検知を行う装置の性能とに基づいて、精度低下量を算出する。図12に示されるように、初期位置からの距離が大きいほど、精度低下が大きくなる。初期位置からの距離が大きくなるほど、車両の重なり具合が大きくなるからである。また、車線と路側帯との距離が離れるほど、精度低下が抑えられる。この場合、撮像装置と車線との距離が大きくなるので、撮像画像中の車両の重なりが抑えられるからである。
統計情報102は、統計情報101と同様の構成を有する。統計情報102は、車線領域(レーン)の区分と、マスク部分の大きさと、精度低下量との対応関係を示す。精度低下量は、処理領域がマスクされていない(具体的には、処理領域が全く遮蔽されていない)場合での検知精度を100%とした時の相対的な低下量を示す。
なお、処理領域の位置及びマスク部分の大きさによる精度低下量は、キャリブレーションの内容、具体的には道路パラメータによって異なる。そこで、データベース100は、道路パラメータ毎に統計情報101、102を記憶する。遮蔽車線処理領域調整部70は、キャリブレーション部20により算出された道路パラメータに基づいて、統計情報101、102を選択する。
そして、遮蔽車線処理領域調整部70は、処理領域をマスクするマスク部分の大きさによる検知精度の低下量(すなわち統計情報102が示す精度低下量)と、処理領域の位置による検知精度の低下量(すなわち統計情報101が示す精度低下量)とを合計した値が最小となるように、マスク部分の大きさと処理領域の位置とを決定する。すなわち、処理領域の位置をずらすことで、遮蔽物による遮蔽部分の大きさが変動する(すなわち、マスクが必要な部分の大きさが変動する)。そこで、遮蔽車線処理領域調整部70は、処理領域の位置をずらしながら、精度低下量の合計値を算出し、この合計値が最小となる位置を探索する。そして、遮蔽車線処理領域調整部70は、マスク部分の大きさ及び処理領域の位置を決定された値に調整する。
遮蔽車線処理領域調整部70は、上記(1)〜(3)のいずれの処理を行なってもよい。遮蔽車線処理領域調整部70は、調整後の処理領域に関する処理領域情報を全車線処理領域調整部80に出力する。なお、遮蔽車線処理領域調整部70は、上記以外の処理によって処理領域を調整してもよい。遮蔽車線処理領域調整部70は、最終的には、遮蔽物による影響を最小にしつつ、検知精度が向上するように、処理領域を調整すればよい。
(全車線処理領域調整部)
全車線処理領域調整部80は、遮蔽物により遮蔽されていない車線領域上の処理領域を調整する。なお、この処理が必要になる理由を図9に基づいて説明する。この例では、図8に示す調整が行われている。図9に示すように、車両500は、車線領域221上の処理領域231を通過した後、車線変更して処理領域240を通過する場合がある。矢印510は車両500の移動軌跡を示す。この場合、同じ車両500が異なる処理領域231、240でそれぞれ検知される可能性、すなわちダブルカウントされる可能性がある。ダブルカウントは検知精度の低下につながる。
一方、車両500は、いずれの処理領域231、240も通過しない場合も想定される。例えば、車両500が処理領域240の直前まで車線領域222を移動し、その後、車線領域221に移動した場合、車両500はいずれの処理領域231、240も通過しない。この場合も検知精度が低下する。そこで、全車線処理領域調整部80は、遮蔽物により遮蔽されていない車線領域上の処理領域を調整することで、ダブルカウントが発生する可能性及び車両がいずれの処理領域も通過しない可能性を低減させる。
具体的な処理としては、以下の2つが挙げられる。(1)すべての処理領域の手前側端部を同じ位置に揃える。(2)車両領域が処理領域を1つだけ通過するという条件のもとで、処理領域をなるべく車線領域の手前側の位置に配置する。
(2)の処理では、統計情報103が利用される。統計情報103は、各車線で車両が車線変更する位置等を示す情報を有する。この情報により、全車線処理領域調整部80は、各車線で車両が車線変更する位置がわかるので、処理領域をどこに設定すれば車両領域が処理領域を1つだけ通過するかを予測することができる。(2)の処理により調整された処理領域の具体例を図10に示す。図10に示す例では、処理領域240が調整されることで新たに処理領域241となり、処理領域250が調整されることで新たに処理領域251となっている。図10に示すように、処理領域231〜251は互いに近接するので、ダブルカウントが発生する可能性及び車両領域がいずれの処理領域も通過しない可能性が低減される。
全車線処理領域調整部80は、上記(1)〜(2)のいずれの処理を行なってもよい。全車線処理領域調整部80は、調整後の全処理領域に関する情報を車両通過の検知を行う装置に出力する。なお、全車線処理領域調整部80は、上記以外の処理によって処理領域を調整してもよい。全車線処理領域調整部80は、最終的には、遮蔽物による影響を最小にしつつ、検知精度が向上するように、処理領域を調整すればよい。
(情報処理装置による処理の手順)
次に、情報処理装置1−2による処理の手順を図5に示すフローチャートに沿って説明する。
ステップS100〜S140において、情報処理装置1−2は、図4に示すステップS10〜S50と同様の処理を行う。
ステップS150において、遮蔽物領域入力受付部60は、ユーザによる遮蔽物指定操作を受け付ける。遮蔽物領域入力受付部60は、遮蔽物を遮蔽車線処理領域調整部70に出力する。
ステップS160において、遮蔽車線処理領域調整部70は、遮蔽物に基づいて、前記処理領域を調整する。具体的には、遮蔽車線処理領域調整部70は、上述した3つの処理の内、いずれかを行う。遮蔽車線処理領域調整部70は、調整後の処理領域に関する処理領域情報を全車線処理領域調整部80に出力する。
ステップS170において、全車線処理領域調整部80は、遮蔽物により遮蔽されていない車線領域上の処理領域を調整する。具体的には、全車線処理領域調整部80は、上述した2つの処理の内、いずれかを行う。全車線処理領域調整部80は、調整後の全処理領域に関する情報を車両通過の検知を行う装置に出力する。
以上により、情報処理装置1−2は、車線領域の一部を遮蔽する遮蔽物に基づいて、処理領域を調整するので、遮蔽物による検知精度低下を抑制することができる。
さらに、情報処理装置1−2は、遮蔽物を避けた位置に処理領域を設定するので、遮蔽物による検知精度低下をより確実に抑制することができる。
さらに、情報処理装置1−2は、処理領域を遮蔽物の奥側の領域のうち、手前側の端部に配置するので、遮蔽物による検知精度低下をより確実に抑制することができる。
さらに、情報処理装置1−2は、遮蔽物が処理領域の一部を遮蔽する場合、処理領域のうち、遮蔽物によって遮蔽された部分をマスクするので、遮蔽物による検知精度低下をより確実に抑制することができる。
さらに、情報処理装置1−2は、処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、処理領域の位置による検知精度の低下量とに基づいて、マスク部分の大きさと処理領域の位置とを決定する。したがって、情報処理装置1−2は、遮蔽物による検知精度低下をより確実に抑制することができる。
さらに、情報処理装置1−2は、処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、処理領域の位置による検知精度の低下量とを合計した値が最小となるように、マスク部分の大きさと処理領域の位置とを決定する。したがって、情報処理装置1−2は、遮蔽物による検知精度低下をより確実に抑制することができる。
さらに、情報処理装置1−2は、遮蔽物により遮蔽されていない車線領域の処理領域を、遮蔽物により遮蔽された車線の処理領域に基づいて設定するので、遮蔽物による検知精度低下をより確実に抑制することができる。
<3.第3の実施形態>
次に、本発明の第3の実施形態を説明する。まず、図3に基づいて、第3の実施形態に係る情報処理装置1−3の構成について説明する。情報処理装置1−3は、情報処理装置1−1の処理領域設定部40を処理領域設定部110に変更したものである。情報処理装置1−3は、概略的には、2輪車用の処理領域を設定する。
(処理領域設定部)
処理領域設定部110は、車線領域と路側帯領域との境界部分を2輪車用の処理領域、すなわち2輪車検知用処理領域として設定する。2輪車としては、例えば、バイク、原動機付き自転車、自転車等が挙げられる。2輪車は、路側帯近傍を通過することが多いので、このような設定が可能になる。また、処理領域設定部110は、路側帯画像に隣接する車線領域の処理領域を、2輪車検知用処理領域を避ける位置に設定する。2輪車以外の車両、例えば4輪車は2輪車を避けて通行するからである。具体的には、処理領域設定部110は、まず、第1の実施形態と同様に処理領域を設定し、路側帯領域に隣接する処理領域についてのみ、路側帯領域側の一部を2輪車検知用処理領域とすればよい。
図11に具体例を示す。この例では、処理領域設定部110は、路側帯領域300と車線領域221との境界に2輪車検知用処理領域260を設定し、2輪車検知用処理領域260を避ける位置に処理領域230を設定する。
処理領域設定部110は、処理領域に関する処理領域情報を処理領域表示部50及び車両通過を検知する装置に出力する。また、処理領域設定部110は、ユーザが処理領域の位置等に関する情報を入力した場合、その情報に基づいて、処理領域の位置及び大きさ等を修正する。
(情報処理装置による処理の手順)
次に、情報処理装置1−3による処理の手順は、図4に示すステップS40のみが第1の実施形態と異なる。そこで、ステップS40の処理についてのみ説明する。ステップS40において、処理領域設定部110は、車線領域と路側帯領域との境界部分を2輪車用の処理領域、すなわち2輪車検知用処理領域として設定する。さらに、処理領域設定部110は、路側帯領域に隣接する車線領域の処理領域を、2輪車検知用処理領域を避ける位置に設定する。処理領域設定部110は、処理領域に関する処理領域情報を処理領域表示部50及び車両通過を検知する装置に出力する。
以上により、第3の実施形態では、情報処理装置1−3は、車線領域と路側帯領域との境界部分を2輪車検知用処理領域として設定するので、2輪車も検知することが可能となる。
さらに、情報処理装置1−3は、2輪車検知用処理領域を避けた位置に2輪車以外の車両用の処理領域を設定するので、交通事情(4輪車は2輪車を避けて通行する)を考慮した処理領域の設定が可能となる。言い換えれば、2輪車による誤検出を抑制することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 画像取得部
20 キャリブレーション部
30 車線領域検出部
40 処理領域設定部
50 処理領域表示部
60 遮蔽物領域入力受付部
70 遮蔽車線処理領域調整部
80 全車線処理領域調整部
100 データベース
110 処理領域設定部

Claims (16)

  1. 車両が通行する道路が描かれた撮像画像を取得する画像取得部と、
    前記撮像画像と、前記道路に関する道路情報とに基づいて、前記撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するキャリブレーション部と、
    前記撮像画像と、前記道路パラメータとに基づいて、前記撮像画像から車線領域を検出する車線領域検出部と、
    前記車線領域に基づいて、車両通過が検知される処理領域を前記車線領域上に設定する処理領域設定部と、を備えることを特徴とする、情報処理装置。
  2. 前記処理領域設定部は、前記車線領域の手前側の端部に前記処理領域を設定する、請求項1記載の情報処理装置。
  3. 前記処理領域設定部は、前記処理領域の手前側の端部全体を前記撮像画像の内部に配置することを特徴とする、請求項2記載の情報処理装置。
  4. 前記車線領域の一部を遮蔽する遮蔽物に基づいて、前記処理領域を調整する処理領域調整部を備えることを特徴とする、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記処理領域調整部は、前記遮蔽物を避けた位置に前記処理領域を設定することを特徴とする、請求項4記載の情報処理装置。
  6. 前記処理領域調整部は、前記処理領域を前記遮蔽物の奥側の領域のうち、手前側の端部に配置することを特徴とする、請求項5記載の情報処理装置。
  7. 前記処理領域調整部は、前記遮蔽物が前記処理領域の一部を遮蔽する場合、前記処理領域のうち、前記遮蔽物によって遮蔽された部分をマスクすることを特徴とする、請求項4記載の情報処理装置。
  8. 前記処理領域調整部は、前記処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、前記処理領域の位置による検知精度の低下量とに基づいて、前記マスク部分の大きさと前記処理領域の位置とを決定することを特徴とする、請求項7記載の情報処理装置。
  9. 前記処理領域調整部は、前記処理領域をマスクするマスク部分の大きさによる検知精度の低下量と、前記処理領域の位置による検知精度の低下量とを合計した値が最小となるように、前記マスク部分の大きさと前記処理領域の位置とを決定することを特徴とする、請求項8記載の情報処理装置。
  10. 前記車線領域は複数存在し、
    前記処理領域調整部は、前記遮蔽物により遮蔽されていない車線領域の処理領域を、前記遮蔽物により遮蔽された車線領域の処理領域に基づいて設定することを特徴とする、請求項4〜9のいずれか1項に記載の情報処理装置。
  11. 前記処理領域設定部は、前記車線領域と路側帯領域との境界部分を2輪車検知用処理領域として設定することを特徴とする、請求項1〜10のいずれか1項に記載の情報処理装置。
  12. 前記処理領域設定部は、前記2輪車検知用処理領域を避けた位置に2輪車以外の車両用の処理領域を設定することを特徴とする、請求項11記載の情報処理装置。
  13. 前記処理領域設定部は、ユーザ操作に基づいて、前記処理領域を調整することを特徴とする、請求項1〜12のいずれか1項に記載の情報処理装置。
  14. 前記車線領域検出部は、ユーザ操作に基づいて、前記撮像画像から車線領域を検出することを特徴とする、請求項1〜13のいずれか1項に記載の情報処理装置。
  15. 車両が通行する道路が描かれた撮像画像を取得するステップと、
    前記撮像画像と、前記道路に関する道路情報とに基づいて、前記撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するステップと、
    前記撮像画像と、前記道路パラメータとに基づいて、前記撮像画像から車線領域を検出するステップと、
    前記車線領域に基づいて、車両通過が検知される処理領域を前記車線領域上に設定するステップと、を含むことを特徴とする、情報処理方法。
  16. コンピュータに、
    車両が通行する道路が描かれた撮像画像を取得する画像取得機能と、
    前記撮像画像と、前記道路に関する道路情報とに基づいて、前記撮像画像中の座標を実空間上の座標に変換する道路パラメータを算出するキャリブレーション機能と、
    前記撮像画像と、前記道路パラメータとに基づいて、前記撮像画像から車線領域を検出する車線検出機能と、
    前記車線領域に基づいて、車両通過が検知される処理領域を前記車線領域上に設定する処理領域設定機能と、を実現させることを特徴とする、プログラム。


JP2012202273A 2012-09-14 2012-09-14 情報処理装置、情報処理方法、及びプログラム Active JP5811975B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012202273A JP5811975B2 (ja) 2012-09-14 2012-09-14 情報処理装置、情報処理方法、及びプログラム
US14/428,352 US9946950B2 (en) 2012-09-14 2013-05-14 Data processing apparatus, data processing method, and program
PCT/JP2013/063446 WO2014041848A1 (ja) 2012-09-14 2013-05-14 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012202273A JP5811975B2 (ja) 2012-09-14 2012-09-14 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2014056536A true JP2014056536A (ja) 2014-03-27
JP2014056536A5 JP2014056536A5 (ja) 2015-03-26
JP5811975B2 JP5811975B2 (ja) 2015-11-11

Family

ID=50277984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012202273A Active JP5811975B2 (ja) 2012-09-14 2012-09-14 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US9946950B2 (ja)
JP (1) JP5811975B2 (ja)
WO (1) WO2014041848A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006286A1 (ja) * 2014-07-09 2016-01-14 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP2017129942A (ja) * 2016-01-19 2017-07-27 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP2017151706A (ja) * 2016-02-24 2017-08-31 沖電気工業株式会社 検出領域変更装置、検出領域変更方法およびプログラム
JP2020010340A (ja) * 2015-03-23 2020-01-16 日本電気株式会社 監視装置、監視システム、監視方法、及びプログラム
CN112833940A (zh) * 2020-12-17 2021-05-25 山东省交通规划设计院集团有限公司 一种真实路用环境下道路多功能测试系统及方法
CN115272182A (zh) * 2022-06-23 2022-11-01 禾多科技(北京)有限公司 车道线检测方法、装置、电子设备和计算机可读介质
WO2023145492A1 (ja) * 2022-01-27 2023-08-03 京セラ株式会社 状態推定装置、状態推定方法及び状態推定プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504913B (zh) * 2014-12-25 2017-03-15 珠海高凌信息科技有限公司 视频车流检测方法及装置
KR20180078361A (ko) * 2016-12-29 2018-07-10 (주)캠시스 차량 주변 물체 알림 방법 및 장치
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212791A (ja) * 1996-02-07 1997-08-15 Babcock Hitachi Kk 路面監視方法と装置
JPH10187975A (ja) * 1996-12-19 1998-07-21 Matsushita Electric Ind Co Ltd 物流計測装置
JP2003288695A (ja) * 2002-03-27 2003-10-10 Natl Inst For Land & Infrastructure Management Mlit 出会い頭衝突防止支援システム
JP2005062924A (ja) * 2003-08-08 2005-03-10 Omron Corp 三次元物体認識装置およびその設定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0710387B1 (en) * 1993-07-22 1997-12-03 Minnesota Mining And Manufacturing Company Method and apparatus for calibrating three-dimensional space for machine vision applications
JP2001043483A (ja) 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd 交通流計測システム
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
JP4223320B2 (ja) * 2003-04-17 2009-02-12 富士重工業株式会社 車両用運転支援装置
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
CN101042802A (zh) * 2006-03-23 2007-09-26 安捷伦科技有限公司 交通信息传感器、交通信息检测方法和系统
JP2008168811A (ja) * 2007-01-12 2008-07-24 Honda Motor Co Ltd 車線認識装置、車両、車線認識方法、及び車線認識プログラム
WO2008117560A1 (ja) * 2007-03-28 2008-10-02 Fujitsu Limited 受光装置、遮蔽板、通行支援プログラム、通行支援方法および通行支援装置
US8379926B2 (en) * 2007-12-13 2013-02-19 Clemson University Vision based real time traffic monitoring
US8174406B2 (en) * 2008-07-02 2012-05-08 International Business Machines Corporation Detecting and sharing road traffic condition information
JP5297407B2 (ja) 2010-03-19 2013-09-25 三菱電機株式会社 交通流計測装置
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
KR20120127830A (ko) * 2011-05-16 2012-11-26 삼성전자주식회사 차량용 단말을 위한 사용자 인터페이스 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212791A (ja) * 1996-02-07 1997-08-15 Babcock Hitachi Kk 路面監視方法と装置
JPH10187975A (ja) * 1996-12-19 1998-07-21 Matsushita Electric Ind Co Ltd 物流計測装置
JP2003288695A (ja) * 2002-03-27 2003-10-10 Natl Inst For Land & Infrastructure Management Mlit 出会い頭衝突防止支援システム
JP2005062924A (ja) * 2003-08-08 2005-03-10 Omron Corp 三次元物体認識装置およびその設定方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006286A1 (ja) * 2014-07-09 2016-01-14 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP2016018411A (ja) * 2014-07-09 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP2020010340A (ja) * 2015-03-23 2020-01-16 日本電気株式会社 監視装置、監視システム、監視方法、及びプログラム
US10957052B2 (en) 2015-03-23 2021-03-23 Nec Corporation Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium
US11842499B2 (en) 2015-03-23 2023-12-12 Nec Corporation Monitoring apparatus, monitoring system, monitoring method, and computer-readable storage medium
JP2017129942A (ja) * 2016-01-19 2017-07-27 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP2017151706A (ja) * 2016-02-24 2017-08-31 沖電気工業株式会社 検出領域変更装置、検出領域変更方法およびプログラム
CN112833940A (zh) * 2020-12-17 2021-05-25 山东省交通规划设计院集团有限公司 一种真实路用环境下道路多功能测试系统及方法
WO2023145492A1 (ja) * 2022-01-27 2023-08-03 京セラ株式会社 状態推定装置、状態推定方法及び状態推定プログラム
CN115272182A (zh) * 2022-06-23 2022-11-01 禾多科技(北京)有限公司 车道线检测方法、装置、电子设备和计算机可读介质

Also Published As

Publication number Publication date
WO2014041848A1 (ja) 2014-03-20
US9946950B2 (en) 2018-04-17
JP5811975B2 (ja) 2015-11-11
US20150363659A1 (en) 2015-12-17

Similar Documents

Publication Publication Date Title
JP5811975B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109086650B (zh) 校准方法和校准设备
US8964189B2 (en) Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
US9288381B2 (en) In-vehicle image recognizer
US7920721B2 (en) Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system
JP5413516B2 (ja) 立体物検出装置及び立体物検出方法
US9740943B2 (en) Three-dimensional object detection device
US20130016915A1 (en) Crosswalk detection device, crosswalk detection method and recording medium
US10339396B2 (en) Vehicle accessibility determination device
KR102022402B1 (ko) 캘리브레이션 방법 및 장치
JP6483446B2 (ja) 複合線判定装置及び複合線判定方法
EP3548838B1 (en) Wire rope measuring device and wire rope measuring method
US10338211B2 (en) Apparatus for measuring distance
JP2013186663A (ja) 横断歩道認識装置および横断歩道認識方法
JP6561670B2 (ja) 段差検出装置及び段差検出方法
CN105809669A (zh) 一种用于校准图像检测设备的方法和装置
JP2013186664A (ja) 横断歩道認識装置および横断歩道認識方法
US8199970B2 (en) Moving amount calculation system and obstacle detection system
CN111316322B (zh) 路面区域检测装置
JP2013190842A (ja) レーンマーク検出装置およびレーンマーク検出方法
JP5936527B2 (ja) 画像処理装置および画像処理方法
US10339394B2 (en) Step detection device and step detection method
CN112784633B (zh) 一种车道边界的处理方法、装置、电子设备和存储介质
CN112734779A (zh) 一种圆点标定板边缘亚像素检测方法
JP4969628B2 (ja) 走行区分線検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150907

R150 Certificate of patent or registration of utility model

Ref document number: 5811975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150