JP6102213B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6102213B2
JP6102213B2 JP2012255936A JP2012255936A JP6102213B2 JP 6102213 B2 JP6102213 B2 JP 6102213B2 JP 2012255936 A JP2012255936 A JP 2012255936A JP 2012255936 A JP2012255936 A JP 2012255936A JP 6102213 B2 JP6102213 B2 JP 6102213B2
Authority
JP
Japan
Prior art keywords
image
feature
moving body
reflection
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012255936A
Other languages
English (en)
Other versions
JP2014102775A (ja
Inventor
徹洋 加藤
徹洋 加藤
▲収▼文 中山
▲収▼文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012255936A priority Critical patent/JP6102213B2/ja
Priority to US14/036,790 priority patent/US9600988B2/en
Priority to EP13186367.2A priority patent/EP2735996B1/en
Publication of JP2014102775A publication Critical patent/JP2014102775A/ja
Application granted granted Critical
Publication of JP6102213B2 publication Critical patent/JP6102213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19697Arrangements wherein non-video detectors generate an alarm themselves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本明細書に開示する技術は、画像処理技術に関する。
近年、ドライバーによる安全運転を支援するために、さまざまな技術が開発されている。そのひとつとして、車両に搭載されたカメラが撮影した画像から、認識対象物を認識する技術がある。そして、認識対象物が認識された場合に、ドライバーに対する警報などが実施される。
ここで、カメラが車内に設置されている場合などには、カメラは、ガラス越しに車外を撮影することとなる。太陽などの強い光源が存在する環境において撮像された画像には、いわゆる映り込みが発生することがある。映り込みとは、車内の物体からの光がガラスなどの表面で反射されて車内カメラのセンサに感知されることにより、車内の物体の全体または一部の像が、画像に撮像されることである。なお、映り込みは、車内カメラのように、カメラの撮像方向に、ガラスのように、表面で光を反射する物体が存在する場合に発生する。以下、映り込みがある画像を映り込み画像と称する。
映り込み画像に対して、認識対象物の認識を実施する場合には、認識精度が低下する。そこで、映り込み画像からでも認識対象物を正しく認識するための物体認識装置がある(例えば、特許文献1)。当該物体認識装置は、車両周辺の所定方向の領域を連続的に撮像するとともに、各画像から複数の特徴点を抽出する。さらに、物体認識装置は、各画像において座標が同一の固定特徴点を、最新の画像から抽出された複数の特徴点より除去する。そして、物体認識装置は、固定特徴点が除去された最新の画像の特徴点に基づいて、物体認識を行う。
特開2010−61375号公報
映り込み由来の特徴点は連続的に撮像された画像において同一の座標に存在するということに着目した上記物体認識装置は、連続的に撮像された画像における固定特徴点を除去することができる。
しかし、当該物体認識装置は、映り込みを除去するには精度が不十分である。つまり、物体認識装置は、映り込みを精度よく検出できない。
そこで、本実施例に開示の技術は、精度よく映り込みを検出することを目的とする。
1つの態様では、画像処理装置、移動体とともに移動する撮像装置であって、該移動体の所定の移動方向を撮像方向とする撮像装置によって、それぞれ異なるタイミングで撮影された複数の画像の画像データを取得する取得部と、前記複数の画像に含まれる、前記撮像方向とは異なる方向へ前記移動体が移動したと判定された画像データと前記撮像方向とは異なる方向への前記移動体の移動がないと判定された画像データのうちの、前記異なる方向へ前記移動体が移動したと判定された画像データのみにおける特徴の位置情報に基づき、該特徴の中から映り込みに起因する特徴を検出する検出部とを有することを特徴とする。
本発明の一観点によれば、精度よく映り込みを検出することが可能になる。
図1Aおよび図1Bは、映り込みを説明するための図である。 図2は、本実施例にかかる画像処理装置を含む運転支援装置の機能ブロック図である。 図3は、蓄積情報の例を示す図である。 図4は、特徴を蓄積する処理を説明するための図である。 図5は、特徴を確認する処理を説明するための図である。 図6は、画像処理の処理フロー(その1)である。 図7は、画像処理の処理フロー(その2)である。 図8は、特徴蓄積処理のフローチャートである。 図9は、特徴確認処理のフローチャートである。 図10は、映り込み検出処理のフローチャートである。 図11は、画像処理装置のハードウェア構成の一例を示す図である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。
先に述べたとおり、映り込み由来の特徴は、連続的に撮像された画像において同一の位置に存在することが知られている。しかし、発明者らは、映り込み由来の特徴以外でも、複数の画像において、同一の位置となるような特徴が存在することに着目した。
例えば、移動体の進行方向に平行に存在する物体に由来する特徴は、複数の画像において、同一の位置に存在する。例えば、当該特徴は、移動体が車両であって進行方向が車両前方である場合には、車線を形成するラインや、ガードレールなどに由来する特徴である。つまり、先に述べた物体認識装置は、映り込み以外の物体に由来する特徴であっても固定特徴点として認識してしまうため、当該特徴については、除去する。
また、映り込みの検出精度が不十分であることは、結果として、物体の認識精度の低下をも招く。例えば、認識対象の物体の特徴が固定特徴点として除去された画像に対して、物体認識が実行された場合、当該物体認識装置は、認識対象を認識することができない。
そこで、以下の本実施例では、映り込みに由来する特徴と映り込み以外の物体に由来する特徴とを、より正確に区別することで、正確に映り込みを検出する。
図1Aおよび図1Bは、映り込みを説明するための図である。図1Aは、移動体に設置された撮像装置と、映り込みの元となる物体と、物体からの光を反射するガラスの位置関係を説明するための図である。本実施例においては、移動体は車両1である。そして、本実施例においては、車両1は、撮像装置11を車内に備える。撮像装置11は、例えば、カメラである。
また、撮像装置11は、車両の所定の移動方向を含む方向を撮像方向とし、連続的に撮像方向の画像を取得する。本実施例においては、撮像装置11は、車両の前進方向の路面および風景を撮像するため、車両の前進方向かつ下方方向に光軸を合わせて設置される。つまり、本実施例においては、車両の前進方向を含む方向を、撮像方向とする。
ただし、光軸の向きが、必ずしも、車両の前進方向と完全に一致する必要はない。つまり、撮像装置11の撮像方向と、車両の所定の移動方向とは角度的に完全に一致する必要はなく、撮像方向は、所定の移動方向の路面および風景を撮像可能な向きであればよい。
撮像方向が前進方向である場合には、映り込みを発生させる原因となるガラスは、例えば車両のフロントガラス2に相当する。ここで、撮像装置11と、物体3とが、フロントガラス2に対して同じ側に存在する場合、物体3の映り込みが発生する。例えば、車内に撮像装置11と物体3が存在する場合である。図1Bは、映り込みが発生した画像の例である。
画像は、フロントガラス2を通して撮像された車外領域100を含む。ただし、車外領域100には、本来車外には存在しない映り込み101の像も含まれる。映り込み101は、物体3(画像における像3´)の縁部分104で太陽光が反射したことによって、線状に物体3の一部(画像における104)が映りこんだものである。
ここで、映り込み101の画像における位置は、光源と物体3との位置関係によって決まる。光源は太陽であるため、光源は無限遠に存在する。よって、物体3が動かない状況下では、映り込み101の位置は、太陽の位置の移動と比較して短い時間内では、車両1が移動しても移動しない。
一方、車外領域100には、車線を形成するライン102やガードレール103の像も存在する。なお、以下、車線を形成するラインを、単に車線と称する。車両1が撮像装置11の撮像方向と平行に移動している場合は、車両1が前進しても、画像の同位置においては、車線102由来の特徴が存在する。ガードレール103についても同様である。
ここで、車両が車線から逸脱したことによる事故を防止するために、車両の車線からの逸脱を警報する警報装置がある。当該警報装置は、いわゆる車線逸脱警報機能を備えた装置である。警報装置は、車線に対する自車両の相対距離に基づき、車両が車線を逸脱する可能性がある場合、警報を行うことで、ドライバーの注意を喚起する。
特開2010−61375号に開示された物体認識装置を前記警報装置に適用した場合に、固定特徴点を最新画像から削除するため、車線由来の特徴点が除去される可能性がある。したがって、車線由来の特徴点が除去された画像では、車線を検出することができないため、警報装置は、適切に警報を行うことができない。
そこで、本実施例に開示の画像処理装置は、映り込み101と車線102やガードレール103などとを区別する。そして、映り込み101が除去された画像を生成する。そして、警報装置に出力するために、映り込みが適切に除去された画像に基づき、車線に対する自車両の相対距離が算出される。そして、画像処理装置は、車線に対する自車両の相対距離を警報装置に対して出力する。しかし、これに限らず、画像処理装置は、映り込みが除去された画像を、他の装置へ出力するとしてもよい。
図2は、本実施例にかかる画像処理装置を含む運転支援装置の機能ブロック図である。運転支援装置10は、撮像装置11、画像処理装置12、警報装置19を含む。撮像装置11は、撮像方向の領域を連続的に撮像する。さらに、撮像装置11は、連続的に撮像された複数の画像各々についての画像データを、順次、画像処理装置12へ出力する。
画像処理装置12は、映り込み除去処理を実行する。なお、本実施例においては、さらに、画像処理装置12は、車線の認識処理、車線に対する自車両の相対距離の算出処理を実行する。各処理の詳細については、後述する。そして、画像処理装置12は、相対距離を警報装置19へ出力する。警報装置19は、相対距離に基づき、ドライバーに対する警報を実行する。
画像処理装置12について、より詳細に説明する。画像処理装置12は、取得部13、判定部14、検出部15、認識部16、算出部17、記憶部18を有する。
取得部13は、撮像装置11から、順次、画像データを取得する。さらに、取得部13は、取得した画像データに基づき、各画素の特徴量を算出する。なお、本実施例においては、特徴量として各画素におけるエッジ強度を算出する際に、取得部13は、既存のアルゴリズムを適用して、エッジを抽出する処理を実行する。
判定部14は、撮像方向とは異なる方向への移動の有無を判定する。つまり、車両の所定の移動方向とは異なる方向への移動の有無を判定する。本実施例においては、撮像方向は、車両の前進方向であるため、判定部14は、車両の横方向への移動の有無を判定する。詳細は後述するが、判定部14は、過去の相対距離の算出処理において算出された相対距離を利用して、ある時点での横移動の有無を判定する。また、判定部14は、舵角センサ、車速センサ、タイヤ角センサ、ヨーレートセンサ等からの出力に応じて横移動の有無を判定してもよい。
検出部15は、判定部14が、撮像方向とは異なる方向への移動があると判定した場合の画像における特徴の位置情報に基づき、映り込みを検出する。例えば、検出部15は、横移動があると判定された場合の画像を対象として、画像に存在する特徴を検出する。検出部15は、各画素の特徴量が閾値以上である場合に、特徴が存在すると判定する。
そして、検出部15は、蓄積情報を蓄積する。蓄積情報は、処理対象の画像の各位置に特徴が存在した頻度に依存する情報である。例えば、蓄積情報は、位置情報と、存在強度とを含む。存在強度は、ある位置に特徴が存在する頻度が高いほど、大きな値となる。つまり、大きな存在強度は、撮像方向とは異なる方向への移動があると判定した場合の画像において、高い頻度で同じ位置に特徴が存在したことを示している。蓄積情報は、記憶部18に記憶される。
次に、検出部15は、蓄積情報に基づき、処理対象の画像データから映り込みを検出する。さらに、検出部15は、検出した映り込みを、処理対象の画像から除去する。
認識部16は、認識対象を認識する。本実施例においては、認識部16は、車線を認識する。なお、車線を認識する処理は、従来の方法が適用される。また、認識対象を、ガードレールなど他の対象とすることもできる。
算出部17は、認識処理の結果に基づき、各種値を算出する。本実施例においては、算出部17は、認識された車線の画像上での位置に基づき、自車両の道路中心からの相対距離を算出する。相対距離は、ある時刻tにおける車両位置Xtとして、記憶部18に記憶される。
記憶部18は、蓄積情報や、車両位置の情報、各種閾値の情報を記憶する。蓄積情報は、例えば、テーブル形式で記憶される。また、車両位置の情報は、少なくとも最新の2時点における車両位置の情報を含み、新たな車両位置が算出されるたびに、古い方から更新されるとしてもよい。また、各種閾値については、後述する。
図3は、蓄積情報のデータテーブルの一例を示す図である。画素の位置i(Xj,Yk)ごとに、存在強度Qiが対応付けて記憶される。図3は、例えば、位置(0,0)は、Q(0,0)の存在強度を有することを示している。存在強度Qは、検出部15により、適宜更新される。そして、各位置i(Xj,Yk)の存在強度Qiの大きさに基づき、映り込みが検出される。
ここで、検出部15による特徴蓄積処理について、図4を利用して説明する。図4は、特徴を蓄積する処理を説明するための図である。なお、図4においては、時刻t1においては、車両の横移動はなかったと判定され、時刻t2および時刻t3においては、車両の横移動があったと判定されたと仮定する。横移動がある場合に、検出部15は、特徴が存在する位置の存在強度を、より大きな値に更新する。
31、32、33は、各時刻におけるエッジ画像である。エッジ画像は、撮像装置から受信した画像データに基づき、エッジ抽出処理が実行されることで生成される。例えば、エッジ画像31は、時刻t1において、エッジ311、312、313が抽出されたことを示す。なお、実際には、エッジ311および312は、車線由来のエッジであり、エッジ313は、映り込み由来のエッジであるが、エッジ画像31においては、これらのエッジは区別されない。
次に、35、36、37は、各時刻における蓄積情報に基づくイメージ画像である。イメージ画像は、各位置iの画素に、存在強度Qi相当の画素値を与え、仮想的に描かれたエッジのイメージ画像である。つまり、存在強度Qiが大きいほど、より大きな画素値が与えられるため、より濃度が高いエッジが描かれる。
また、各時刻tにおける蓄積情報は、当該時刻tにおける画像の特徴が、一時刻前(時刻t−1)までの蓄積情報に、蓄積されたものである。例えば、時刻t3における蓄積情報は、時刻t2までに蓄積された蓄積情報に、時刻t3の画像のエッジに関する特徴が、蓄積されたものとなる。
ここで、時刻t1(横移動がなし)では、検出部15は、時刻t1の画像における特徴の情報を、蓄積情報に蓄積しない。つまり、エッジ311,312,313を形成する各画素の位置について、存在強度Qは、より大きな値に更新されることはない。時刻t1までの各位置の存在強度が0であれば、0のままとなる。
次に、時刻t2(横移動があり)では、検出部15は、時刻t2における画像の特徴の情報を、蓄積情報に蓄積する。つまり、エッジ321、322、323に対応する位置の存在強度Qに、所定の値が加算される。イメージ画像36のように、時刻t2では、エッジ321、322、323に対応する位置に、エッジ361、362、363が描かれる。なお、エッジ画像32における点線は時刻t1に存在したエッジの位置を、仮想的に表したものである。つまり、車両が横移動すると、車線由来のエッジは、時刻t1の位置とは異なる位置に存在する。
次に、時刻t3(横移動があり)では、検出部15は、時刻t3における画像の特徴の情報を、蓄積情報に蓄積する。つまり、エッジ331、332、333に対応する画素の位置について、対応する存在強度Qに、所定の値が加算される。イメージ画像37のように、時刻t3では、エッジ331、332、333に対応する位置に、エッジ371、372、373が描かれる。
ここで、エッジ333に対応する位置については、時刻t2で所定の値が加算された存在強度Qに、さらに時刻t3で所定の値が加算されるため、イメージ画像37における時刻t3のエッジ373は、イメージ画像36におけるエッジ363よりも濃いものとなる。一方、時刻t2におけるエッジ321および322は、時刻t3では、同一の位置に抽出されない。したがって、イメージ画像36における、エッジ361および362について、存在強度Qに所定の値が加算されることはない。
なお、本実施例においては、特徴の情報を蓄積する際に、特徴が存在しない位置の存在強度Qから、所定の値を減算する。よって、過去に特徴が抽出されたことで存在強度Qに所定の値が加算された位置であっても、それ以降、特徴が存在しなければ、存在強度Qは小さな値に更新される。ただし、存在強度Qの最小値は0とする。
ここで、撮像方向とは異なる方向への移動がない場合については、検出部15は、特徴の情報を蓄積する処理を実行しない。ただし、車両の環境が変化したことにともない、映り込みが消失する可能性がある。例えば、車両が陸橋の下を通過した場合や、屋内に入った場合など、車両の環境が、太陽光がなんらかの物体によりさえぎられる状況へ変化した場合である。
映り込みが消失した場合には、映り込みの消失を認識し、早期に存在強度を小さくする処理が有効である。つまり、後述のように、映り込みを検出する際には、存在強度が大きい位置について、映り込みが発生している位置と認識するため、映り込みが消失した場合でも、存在強度が大きければ、その位置に映り込みが発生していると認識されてしまう。
したがって、撮像方向とは異なる方向への移動がない場合であっても、消失した特徴の情報を利用して、存在強度を小さくする処理を行ってもよい。つまり、検出部15は、最新の画像において特徴が消失していないかを確認する確認処理を実行する。
図5は、特徴を確認する処理を説明するための図である。なお、図5において、時刻t1においては、横移動がありと判定され、時刻t2および時刻t3においては、横移動がないと判定されたと仮定する。確認処理において、検出部15は、例えば、一定以上の存在強度を有する位置について、最新画像において特徴が消失している場合には、存在強度を、より小さな値となるように更新する。
41、42、43は、各時刻におけるエッジ画像である。また、45、46、47は、各時刻における蓄積情報に基づくイメージ画像である。時刻t1(横移動があり)においては、エッジ画像41に基づき蓄積情報が蓄積される。また、蓄積情報のイメージ画像は、イメージ画像45のようになる。
ここで、時刻t2(横移動がない)において、まず、検出部15は、時刻t1までの蓄積情報を参照する。そして、検出部15は、時刻t2の画像において、一定以上の存在強度Qを示す位置に、エッジが存在するかを確認する。つまり、検出部15は、イメージ画像45におけるエッジを形成する各画素の位置について、エッジ画像42でも、エッジが存在するかを判定する。
エッジが存在する場合には、存在強度Qは維持される。つまり、エッジ画像42とイメージ画像45は、同様の位置にエッジが存在するため、時刻t2における蓄積情報は、時刻t1における蓄積情報と同様になる。つまり、イメージ画像45とイメージ画像46は、同様となる。
次に、時刻t3(横移動がない)において、エッジ画像43のように、時刻t2時点では存在したエッジ423が、消失した場合を考える。検出部15は、時刻t2までの蓄積情報を参照し、時刻t3の画像において、一定以上の存在強度Qを示す位置に、エッジが存在するかを確認する。
イメージ画像46におけるエッジ463は、時刻t3のエッジ画像43に確認されない。したがって、時刻t3では、該当する位置の存在強度Qから、所定の値が算出される。所定の値が減算された結果、蓄積情報のイメージは、時刻t3の時点で、イメージ画像47のようになる。なお、加算する値および減算する値は、同一である必要はないが、図4および5については、説明上、同一の値とした。
なお、撮像方向とは異なる方向への移動がない場合には、存在強度を、より大きな値となるように更新する蓄積処理は行わない。存在強度が大きくなるほど、映り込みとして認識される確率が大きくなるが、映り込みとその他の特徴とを区別できない環境で撮像された画像を利用して、蓄積処理を行うことは、誤除去につながるためである。
次に、本実施例における画像処理の流れについて説明する。図6および図7は、画像処理の処理フローである。まず、取得部13は、撮像装置11から画像データを取得する(Op.1)。なお、取得した画像データは、時刻tに撮像された画像の画像データである。そして、取得部13は、取得した画像データに基づき、各画素の特徴量Miを算出する(Op.2)。なお、本実施例においては、特徴量Miは、各画素のエッジ強度である。
次に、判定部14は、過去の2時点の車両位置の情報が、存在するかを判定する(Op.3)。例えば、判定部14は、記憶部18を参照し、1時刻前の車両位置X_t−1と、2時刻前の車両位置X_t−2とが格納されているかを判定する。なお、ここでは、最新の時刻tの一時刻前および二時刻前の車両位置を利用することとしたが、本判定の処理はこれに限られない。
例えば、記憶部18に過去に算出された毎時刻の車両位置が記憶される場合に、判定部14は、一時刻前の車両位置および、n時刻前の車両位置が格納されているかを判定してもよい。また、記憶部18には、基準となる車両位置X_baseと一時刻前のX_t−1とが記憶される場合には、判定部14は、X_baseおよびX_t−1が格納されているかを判定してもよい。以下の処理により車両が撮像方向とは異なる方向へ移動したと判定された場合に、当該時点の車両位置がX_baseに格納される。なお、異なる方向へ移動したと判定されるたびに、X_baseは更新される。
過去の2時点の車両位置の情報が存在する場合(Op.3Yes)、判定部14は、移動距離ΔXを算出する(Op.4)。移動距離は、撮像方向とは異なる方向への移動距離である。つまり、本実施例においては、横移動の移動距離である。なお、本実施例においては、一時刻前における横移動の移動距離ΔXを利用する。これは、撮像装置のフレーム間隔を考慮すると、一時刻前の情報であっても、時刻tにおける横移動の判定には十分であるためである。ただし、舵角センサなどを利用して、リアルタイムな横移動を判定してもよい。
次に、判定部14は、移動距離ΔXが閾値Txよりも大きいかを判定する(Op.5)。移動距離ΔXが閾値Txよりも大きい場合は、横移動ありと判定される。ΔXが閾値Tx以下である場合は、横移動なしと判定される。閾値Txは、撮像装置の解像度などの内部パラメータや、取り付け条件を考慮して決定される。例えば、本実施例においては、閾値Txは200mmとする。
移動距離ΔXが閾値Txよりも大きい場合(Op.5Yes)、すなわち、横移動ありの場合、検出部15は、特徴の蓄積処理を実行する(Op.6)。ここで、蓄積処理について、詳細に説明する。図8は、特徴の蓄積処理のフローチャートである。
まず、検出部15は、未処理の位置iを、対象位置に設定する(Op.61)。次に、検出部15は、時刻tの画像における対象位置iの特徴量Miを取得する(Op.62)。次に、検出部15は、対象画素の特徴量Miが、閾値Tm1以上であるかを判定する(Op.63)。
閾値Tm1は、例えば、撮像装置の内部パラメータや、特徴抽出のアルゴリズムに応じて決定される。例えば、本実施例においては、特徴量であるエッジ強度は0から255までの値をとるとし、閾値Tm1を、10とする。
特徴量Miが閾値Tm1以上である場合(Op.63Yes)、検出部15は、蓄積情報を参照し、対象位置iに対応する存在強度Qiに所定の値Vpを加算する(Op.64)。一方、特徴量Miが閾値Tm1よりも小さい場合(Op.63No)、検出部15は、蓄積情報を参照し、対象位置iに対応する存在強度Qiから所定の値Vn1を減算する(Op.65)。ただし、存在強度Qiが0以下となる場合は、0とする。
つまり、時刻tの画像において、位置iに特徴が存在する場合は、検出部15は、蓄積情報における存在強度Qiを大きな値へ更新する。一方、時刻tの画像において、位置iに特徴が存在しない場合は、検出部15は、蓄積情報における存在強度Qを小さな値へ更新する。
次に、検出部15は、全位置iについて処理を終了したかを判定する(Op.66)。終了していない場合は(Op.66No)、Op.61へ戻るとともに、新たな位置iについて、同様の処理を行う。一方、終了している場合には(Op.66Yes)、特徴蓄積処理を終了する。そして、検出部15は、後述の映り込み検出処理を実行する。
図6に戻り、過去の2時点の車両位置の情報が存在しない場合(Op.3No)や、移動距離ΔXが閾値Tx以下である場合(Op.5No)、検出部15は、特徴の確認処理を実行する(Op.7)。ここで、特徴確認処理について、詳細に説明する。図9は、特徴の確認処理のフローチャートである。
検出部15は、未処理の位置iを対象位置に設定する(Op.71)。検出部15は、記憶部18に記憶された蓄積情報から、対象位置iの存在強度Qiを取得する(Op.72)。次に、検出部15は、存在強度Qiが閾値Tq1以上であるかを判定する(Op.73)。
閾値Tq1は、適用するシステムに応じて適当な値が設定される。存在強度Qiの取りうる値の範囲に基づき、閾値Tq1は設定される。本実施例においては、Qは0から255の値をとり(Vpは0.5)、閾値Tq1は3である。さらに、例えば、映り込み以外の誤除去の可能性をさらに低下させたい場合には、より小さな値が設定されてもよい。
存在強度Qiが閾値Tq1以上である場合は(Op.73Yes)、検出部15は、時刻tにおける画像の対象位置iに対応する画素の特徴量Miを取得する(Op.74)。そして、検出部15は、特徴量Miが閾値Tm2より小さいかを判定する(OP.75)。
つまり、過去の画像群において、一定以上の存在強度で、特徴が存在していた場合に、検出部15は、当該位置に、時刻t時点でも特徴が存在するかを確認する。閾値Tm2は、たとえは、撮像装置の内部パラメータや、特徴抽出のアルゴリズムに応じて決定される。例えば、閾値Tm2は、閾値Tm1と同じ値であってもよい。
特徴量Miが閾値Tm2より小さい場合は(Op.75Yes)、検出部15は、対象位置iの存在強度Qiから、所定の値Vn2を減算する(Op.76)。つまり、映り込みの消滅の可能性を検知した場合に、検出部15は、映り込みである可能性が高い位置について、存在強度Qiを低下させる。
次に、検出部15は、全位置iについて処理を終了したかを判定する(Op.77)。終了していない場合は(Op.77No)、Op.71へ戻るとともに、新たな位置iについて、同様の処理を行う。一方、終了している場合には(Op.77Yes)、特徴確認処理を終了する。そして、検出部15は、後述の映り込み検出処理を実行する。
また、存在強度Qiが閾値Tq1よりも小さい場合(Op.73No)や、特徴量Miが閾値Tm2以上である場合も(Op.75No)、検出部15は、処理Op.77を実行する。
ここで、Vp、Vn1、Vn2の関係について説明する。Vpは、Vn1およびVn2に対して大きく設定される。また、適用されるシステムに応じて、適宜Vpと、Vn1およびVn2の関係が決定される。つまり、誤除去の防止と映り込み除去のいずれを優先させたいかによって、両者の関係が決定される。
例えば、映り込み除去を優先する場合は、VpをVn1やVn2に対して、より大きく設定する。つまり、横移動がある画像が撮像された場合に、より小さな遅延で、映り込み除去の対象となる閾値Tq2に、存在強度Qiが到達する。
本実施例では、例えば、VpはVn1の2倍に設定する。なお、Vn1は、Qiの値が取る幅を考慮して、適宜設定される。また、Vn2は、例えば、Vn1の半分に設定される。
次に、特徴蓄積処理(Op.6)または特徴確認処理(Op.7)が終了後、検出部15は、映り込み検出処理を実行する(OP.8)。次に、映り込み検出処理について、詳細に説明する。図10は、映り込み検出処理のフローチャートである。なお、特徴蓄積処理および特徴確認処理は、毎時刻実施されてもよいし、所定時間ごとに実施されても良い。
まず、検出部15は、未処理の位置iを対象位置に設定する(Op.81)。次に、検出部15は、記憶部18に記憶された蓄積情報から、対象位置iの存在強度Qiを取得する(Op.82)。次に、存在強度Qiが閾値Tq2以上であるかを判定する(Op.83)。
閾値Tq2は、VpやVn1、Vn2を考慮して決定される。例えば、映り込みの除去を、より遅延が小さく実行したい場合は、閾値Tq2は小さな値に設定される。本実施例においては、閾値Tq2は、Vpの5倍に設定する。
存在強度Qiが閾値Tq2以上である場合には(Op.83Yes)、時刻tにおける画像の位置iに存在する特徴を映り込みとして検出する。つまり、検出部15は、対象位置iの画素の特徴量Miを0に設定する(Op.84)。つまり、時刻tの画像から映り込み由来の特徴が除去される。本実施例においては、エッジ画像におけるエッジ強度を、0に設定することで、エッジが除去される。
なお、本実施例においては、映り込みを検出した場合に、当該映り込みを除去する。しかし、これに限らず、後段の処理によっては、除去を行わずに、検出結果のみを出力するとしてもよい。
次に、検出部15は、全位置iについて処理を終了したかを判定する(Op.85)。なお、存在強度Qiが閾値Tq2より小さい場合にも(Op.83No)、処理Op.85が実行される。
全位置iについて処理が終了していない場合は(Op.85No)、Op.81へ戻るとともに、新たな位置iについて、同様の処理を行う。一方、終了している場合には(Op.85Yes)、映り込み検出処理を終了する。そして、検出部15は、検出された映り込みが除去された画像を、後段の処理を実行する処理部へ出力する。
図6における映り込み検出処理(Op.8)が終了すると、図7のOp.9以降の処理が実行される。まず、認識部16は、映り込みが除去された画像に対して、認識対象物を認識する(Op.9)。なお、認識対象物に応じて、従来知られている各種アルゴリズムが適用される。例えば、認識部16は、車線認識アルゴリズムを適用して、車線を認識する。そして、認識部16は、認識結果を、後段の処理へ出力する。
次に、算出部17は、車線の位置情報、および各種パラメータに基づき、時刻tにおける車両位置Xtを算出する(Op.10)。なお、車線の位置を利用した車両位置Xtの算出方法は、従来の手法が適用される。
例えば、算出部17は、路面上の車線位置のモデル化を行う。そして、画像上での車線位置から路面上の車線位置Xを算出する。以下の式が適用される。
Figure 0006102213
xは、画像上での車線のx座標である。yは、画像上での車線のy座標である。fは、撮像装置のレンズの焦点距離である。Hは、撮像装置の取り付け高さである。Wは、道路交通法などで定められた車線の横幅である。θは、撮像装置のヨー角である。φは、カメラのピッチ角である。cは、道路の曲率である。kは、車線方向に依存した定数であって、左側車線であれば−1、右側車線であれば+1となる。
xおよびyは、認識結果から取得される値である。f、H、W、kはあらかじめ設定される値である。上記式を利用し、線形近似による繰り返し演算を行うことにより、車両位置Xをはじめ、ヨー角θ、ピッチ角φ、道路の曲率cが算出される。本実施例においては、後段の処理において車両位置Xのみを利用するため、車両位置Xを出力するが、ヨー角θ、ピッチ角φ、道路の曲率cを出力するとしてもよい。
算出部17は、算出した車両位置Xtを、警報装置19へ出力するとともに、記憶部18へ記憶する(Op.11)。例えば、警報装置19は、車両位置Xtが、車両が車線を逸脱していることを示す場合に、スピーカーを通して、警報音を出力する。
そして、算出部17は、画像処理を終了するかを判定する(Op.12)。画像処理を終了する場合には(Op.12Yes)、一連の処理を終了する。一方、画像処理を継続する場合には(Op.12No)、Op.1へ戻り、新たな画像について処理を繰り返す。例えば、エンジンが停止した場合には、画像処理を終了する。
このように、映り込み画像から映り込みを除去する技術において、画像処理装置12は、撮像方向とは異なる方向への車両が移動した場合の画像を対象として、映り込みを検出することができる。つまり、撮像方向とは異なる方向への車両が移動した場合の画像間で同位置に存在する特徴が、映り込みとして検出される。したがって、画像処理装置12は、映り込みと映り込み以外の物体を正確に区別することができる。
図11は、画像処理装置12として機能するコンピュータ200のハードウェア構成の一例を示す図である。なお、コンピュータ200は、カメラ207とともに、運転支援装置10として機能する場合もある。
コンピュータ200は、カメラ207、スピーカー208と接続される。カメラ207は、撮像装置11の一例である。スピーカー208は、警報装置19が警報を行う際に、警報装置19の制御の下、警報音を出力する装置である。
コンピュータ200はCPU(Central Processing Unit)201、ROM(Read Only Memory)202,RAM(Random Access Memory)203,HDD(Hard Disk Drive)204、通信装置205を有する。なお、コンピュータ200は、さらに、媒体読取装置を有していてもよい。
各部はバス206を介して相互に接続されている。そして、各部は、CPU201による管理下で相互にデータの送受を行うことができる。
図6および7に示される画像処理方法が記述されたプログラムが、コンピュータ200が読み取り可能な記録媒体に記録される。コンピュータ200が読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。
光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc − Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto − Optical disk)などがある。このプログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。
そして、例えば媒体読取装置が、画像処理プログラムを記録した記録媒体から、該プログラムを読み出す。CPU201は、読み出されたプログラムをHDD204に格納する。また、各種プログラムはCPU201とアクセス可能なROM202やRAM203に格納されていても良い。
CPU201は、コンピュータ200の全体の動作制御を司る中央処理装置である。そして、CPU201が、各種プログラムをHDD204から読み出して実行することで、CPU201は、取得部13、判定部14、検出部15、認識部16、算出部17として機能する。
さらにHDD204は、CPU201の管理下で記憶部18として機能する。プログラム同様、記憶部18の情報はCPU201とアクセス可能なROM202やRAM203に格納されても良い。また、RAM203は、処理の過程で一時的に生成された情報を記憶する。通信装置205は、インタフェースを介して接続される他のデバイスと情報の授受を行う。つまり、通信装置205が、取得部13の一部の機能を担ってもよい。
10 運転支援装置
11 撮像装置
12 画像処理装置
13 取得部
14 判定部
15 検出部
16 認識部
17 算出部
18 記憶部
19 警報装置
200 コンピュータ
201 CPU
202 ROM
203 RAM
204 HDD
205 通信装置
206 バス
207 カメラ
208 スピーカー

Claims (7)

  1. 移動体とともに移動する撮像装置であって、該移動体の所定の移動方向を撮像方向とする撮像装置によって、それぞれ異なるタイミングで撮影された複数の画像の画像データを取得する取得部と、
    前記複数の画像に含まれる、前記撮像方向とは異なる方向へ前記移動体が移動したと判定された画像データと前記撮像方向とは異なる方向への前記移動体の移動がないと判定された画像データのうちの、前記異なる方向へ前記移動体が移動したと判定された画像データのみにおける特徴の位置情報に基づき、該特徴の中から映り込みに起因する特徴を検出する検出部と
    を有することを特徴とする画像処理装置。
  2. 前記複数の画像それぞれについて、前記異なる方向への前記移動体があるか否かを判定する判定部をさらに備え、
    前記検出部は、前記異なる方向へ前記移動体が移動したと判定された複数の画像データにおける前記特徴の前記位置情報に対して、該特徴が存在する頻度に依存する存在強度を、より大きな値に更新するとともに、該存在強度が閾値以上となる位置に前記映り込みに起因する特徴を検出することを特徴とする請求項1記載の画像処理装置。
  3. 前記所定の移動方向は、前記移動体の前進方向であって、前記異なる方向は、横方向であることを特徴とする請求項1または2記載の画像処理装置。
  4. 前記検出部は、検出された前記映り込みに起因する特徴を、前記複数の画像データから除去するとともに、
    前記映り込みが除去された前記複数の画像データに対して、対象物を認識する処理を実行する認識部をさらに備えることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記対象物は車線を形成するラインであって、前記移動体は車両であることを特徴とする請求項4記載の画像処理装置。
  6. 移動体とともに移動する撮像装置であって、該移動体の所定の移動方向を撮像方向とする撮像装置と通信可能なコンピュータが、
    前記撮像装置によって、それぞれ異なるタイミングで撮影された複数の画像の画像データを取得し、
    前記複数の画像に含まれる、前記撮像方向とは異なる方向へ前記移動体が移動したと判定された画像データと前記撮像方向とは異なる方向への前記移動体の移動がないと判定された画像データのうちの、前記異なる方向へ前記移動体が移動したと判定された画像データのみにおける特徴の位置情報に基づき、該特徴の中から映り込みに起因する特徴を検出する処理を実行することを特徴とする画像処理方法。
  7. 移動体とともに移動する撮像装置であって、該移動体の所定の移動方向を撮像方向とする撮像装置と通信可能なコンピュータに、
    前記撮像装置によって、それぞれ異なるタイミングで撮影された複数の画像の画像データを取得し
    前記複数の画像に含まれる、前記撮像方向とは異なる方向へ前記移動体が移動したと判定された画像データと前記撮像方向とは異なる方向への前記移動体の移動がないと判定された画像データのうちの、前記異なる方向へ前記移動体が移動したと判定された画像データのみにおける特徴の位置情報に基づき、該特徴の中から映り込みに起因する特徴を検出する
    処理を実行させることを特徴とする画像処理プログラム。
JP2012255936A 2012-11-22 2012-11-22 画像処理装置、画像処理方法および画像処理プログラム Active JP6102213B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012255936A JP6102213B2 (ja) 2012-11-22 2012-11-22 画像処理装置、画像処理方法および画像処理プログラム
US14/036,790 US9600988B2 (en) 2012-11-22 2013-09-25 Image processing device and method for processing image
EP13186367.2A EP2735996B1 (en) 2012-11-22 2013-09-27 Image processing device and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012255936A JP6102213B2 (ja) 2012-11-22 2012-11-22 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014102775A JP2014102775A (ja) 2014-06-05
JP6102213B2 true JP6102213B2 (ja) 2017-03-29

Family

ID=49328333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012255936A Active JP6102213B2 (ja) 2012-11-22 2012-11-22 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US9600988B2 (ja)
EP (1) EP2735996B1 (ja)
JP (1) JP6102213B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI611961B (zh) * 2016-06-01 2018-01-21 緯創資通股份有限公司 車道線影像分析方法、影像分析裝置及其電腦可讀取式媒體
CN111241900B (zh) * 2019-04-12 2021-02-05 宁夏爱特云翔信息技术有限公司 交通环境现场维护方法
CN110645973B (zh) * 2019-09-24 2021-06-25 森思泰克河北科技有限公司 车辆定位方法

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415126B2 (en) * 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US4630904A (en) * 1985-01-22 1986-12-23 Ronald Pastore Combination rear view mirror and digital displays
US5910854A (en) * 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US7339149B1 (en) * 1993-02-26 2008-03-04 Donnelly Corporation Vehicle headlight control using imaging sensor
US5956181A (en) * 1997-07-18 1999-09-21 Lin; William Two way mirror with dual functions of rear view mirror and video displayer
US6087953A (en) * 1998-02-18 2000-07-11 Donnelly Corporation Rearview mirror support incorporating vehicle information display
JP3373773B2 (ja) * 1998-01-27 2003-02-04 株式会社デンソー レーンマーク認識装置、車両走行制御装置および記録媒体
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
JP3807253B2 (ja) 2001-05-25 2006-08-09 日産自動車株式会社 走行路検出装置
US7068844B1 (en) * 2001-11-15 2006-06-27 The University Of Connecticut Method and system for image processing for automatic road sign recognition
US7054491B2 (en) * 2001-11-16 2006-05-30 Stmicroelectronics, Inc. Scalable architecture for corresponding multiple video streams at frame rate
US7199767B2 (en) * 2002-03-07 2007-04-03 Yechezkal Evan Spero Enhanced vision for driving
AU2003237424A1 (en) * 2002-06-06 2003-12-22 Donnelly Corporation Interior rearview mirror system with compass
US7602413B2 (en) * 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US7221363B2 (en) * 2003-02-12 2007-05-22 Gentex Corporation Vehicle information displays
DE502005007961D1 (de) * 2004-10-26 2009-10-01 Volkswagen Ag Rückspiegel für ein kraftfahrzeug
JP2006252138A (ja) * 2005-03-10 2006-09-21 Omron Corp 運転者撮影装置および運転者監視装置
JP4616068B2 (ja) * 2005-04-28 2011-01-19 本田技研工業株式会社 車両、画像処理システム、画像処理方法及び画像処理プログラム
US7626749B2 (en) * 2005-05-16 2009-12-01 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
JP2007127525A (ja) * 2005-11-04 2007-05-24 Aisin Aw Co Ltd 移動量演算装置
JP4797588B2 (ja) * 2005-11-17 2011-10-19 アイシン精機株式会社 車両周辺表示装置
EP1968014B1 (en) * 2005-12-28 2012-12-19 Honda Motor Co., Ltd. Vehicle and lane mark detection device
US20070159531A1 (en) * 2006-01-10 2007-07-12 Anderson Margaret T Vehicle back seat monitoring apparatus
CN101460971B (zh) 2006-06-08 2012-06-27 富士通株式会社 污物检测装置
JP2007098567A (ja) * 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置
US8055079B2 (en) * 2007-03-06 2011-11-08 Sharp Kabushiki Kaisha Image processing method, image processing apparatus, and image forming apparatus
US8031062B2 (en) * 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP4883013B2 (ja) * 2008-01-17 2012-02-22 トヨタ自動車株式会社 顔画像処理装置
WO2009116242A1 (ja) * 2008-03-18 2009-09-24 パナソニック株式会社 運転者監視装置、運転者監視方法及び車両
JP5083658B2 (ja) * 2008-03-26 2012-11-28 本田技研工業株式会社 車両用車線認識装置、車両、及び車両用車線認識プログラム
JP5034087B2 (ja) 2008-03-31 2012-09-26 本田技研工業株式会社 車両走行支援装置、車両、車両走行支援プログラム
US8154418B2 (en) * 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US8751154B2 (en) * 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
JP2010061375A (ja) * 2008-09-03 2010-03-18 Toyota Central R&D Labs Inc 物体認識装置及びプログラム
EP2351351B1 (en) 2008-10-01 2015-09-16 Connaught Electronics Limited A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
JP5267101B2 (ja) 2008-12-18 2013-08-21 マツダ株式会社 車両用対象物検出装置
US8411245B2 (en) * 2009-02-06 2013-04-02 Gentex Corporation Multi-display mirror system and method for expanded view around a vehicle
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
US8576069B2 (en) * 2009-10-22 2013-11-05 Siemens Corporation Mobile sensing for road safety, traffic management, and road maintenance
JP6016322B2 (ja) * 2010-03-19 2016-10-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5743416B2 (ja) * 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5469509B2 (ja) 2010-03-31 2014-04-16 パナソニック株式会社 車線位置検出装置および車線位置検出方法
US8471691B2 (en) * 2010-06-15 2013-06-25 GM Global Technology Operations LLC Portable vision system
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5541099B2 (ja) 2010-11-05 2014-07-09 株式会社デンソー 道路区画線認識装置
JP5345999B2 (ja) 2010-11-16 2013-11-20 本田技研工業株式会社 レーンマーク認識装置
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
JP2012234257A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
US8744169B2 (en) * 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
US8791835B2 (en) * 2011-10-03 2014-07-29 Wei Zhang Methods for road safety enhancement using mobile communication device
US20130106682A1 (en) * 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US20130106894A1 (en) * 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US9349069B2 (en) * 2011-11-21 2016-05-24 Analog Devices, Inc. Dynamic line-detection system for processors having limited internal memory
JP5935435B2 (ja) * 2012-03-26 2016-06-15 富士通株式会社 画像処理装置、画像処理方法
US8825259B1 (en) * 2013-06-21 2014-09-02 Google Inc. Detecting lane closures and lane shifts by an autonomous vehicle

Also Published As

Publication number Publication date
JP2014102775A (ja) 2014-06-05
EP2735996B1 (en) 2018-02-21
EP2735996A3 (en) 2015-03-11
EP2735996A2 (en) 2014-05-28
US20140139673A1 (en) 2014-05-22
US9600988B2 (en) 2017-03-21

Similar Documents

Publication Publication Date Title
JP6440411B2 (ja) 物体検出装置
KR101609303B1 (ko) 카메라 캘리브레이션 방법 및 그 장치
US9665781B2 (en) Moving body detection device and moving body detection method
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6769477B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2008165765A (ja) 車両側面画像取得方法及び装置、車灯誤識別検出方法及び安全運転予測方法
JP2014067198A (ja) 移動物体認識装置
JP6331811B2 (ja) 信号機検出装置及び信号機検出方法
KR102304851B1 (ko) Ecu, 상기 ecu를 포함하는 무인 자율 주행 차량, 및 이의 주변 차량 인지 방법
JP2014009975A (ja) ステレオカメラ
WO2018058355A1 (zh) 汽车可行驶区域实时检测方法和系统
JP6102213B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6516012B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2007249257A (ja) 移動体検出装置および移動体検出方法
JP3651419B2 (ja) 環境認識装置
JP2019066333A (ja) 車両用外界認識装置
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP4502733B2 (ja) 障害物測定方法及び障害物測定装置
JP6992356B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP5261752B2 (ja) ドライブレコーダ
JP6763198B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP5345999B2 (ja) レーンマーク認識装置
WO2020036039A1 (ja) ステレオカメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150