JP2004272694A - Apparatus and method for object recognition - Google Patents
Apparatus and method for object recognition Download PDFInfo
- Publication number
- JP2004272694A JP2004272694A JP2003063909A JP2003063909A JP2004272694A JP 2004272694 A JP2004272694 A JP 2004272694A JP 2003063909 A JP2003063909 A JP 2003063909A JP 2003063909 A JP2003063909 A JP 2003063909A JP 2004272694 A JP2004272694 A JP 2004272694A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- traffic
- imaging
- sign
- normal vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像画像から認識対象物を認識する物体認識装置および物体認識方法に関する。
【0002】
【従来の技術】
従来、自動車等の移動体にカメラを設置し、このカメラにより撮像された画像に基づいて信号機や交通標識等の認識対象物を認識する技術が提案されている。例えば、特許文献1には、撮像された画像から道路領域を認識し、認識した道路領域に対して予め定められた位置関係にある探索領域内から信号機や道路標識を認識する技術が開示されている。
【0003】
【特許文献1】
特開平1−265400号公報
【0004】
【発明が解決しようとする課題】
しかしながら、特許文献1で開示された技術では、基本的には探索領域内から認識された全ての認識対象物を自車の通行に関係する信号機や道路標識であると判断している。したがって、例えば、2本の道路が鋭角に合流する交差点において、それぞれの道路に対する信号機や道路標識が両方の道路から見えるように設置されている場合には、それらの信号機や道路標識の全てが自車の通行に関係するものであると判断されてしまう。すなわち、信号機や道路標識であることが認識できても、その信号機や道路標識が向いている方向までは認識できないため、それらの信号機や道路標識が自車の通行に関係するものであるかどうかを判断することは困難であった。
【0005】
そこで、本発明は、上述した課題を解決するために、認識対象物が向いている方向を導出することができる物体認識装置および物体認識方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明の物体認識装置は、撮像画像に基づいて対象物の認識を行う物体認識装置であって、対象物を撮像する第1の撮像手段および第2の撮像手段と、第1の撮像手段および第2の撮像手段により撮像された画像に基づいて対象物の平面部の法線を算出する法線算出手段と、法線算出手段により算出された法線に基づいて対象物が向いている方向を導出する方向導出手段とを備えることを特徴とする。
【0007】
また、本発明の物体認識方法は、撮像画像に基づいて対象物の認識を行う物体認識方法であって、第1の撮像手段および第2の撮像手段により対象物を撮像する撮像工程と、撮像工程において撮像された画像に基づいて対象物の平面部の法線を算出する法線算出工程と、法線算出工程において算出された法線に基づいて対象物が向いている方向を導出する方向導出工程とを備えることを特徴とする。
【0008】
これらの発明によれば、第1の撮像手段および第2の撮像手段により撮像された画像に基づいて対象物の平面部の法線が算出されるとともに、この算出された法線に基づいて対象物が向いている方向が導出されるため、当該対象物が向いている方向を認識することができる。
【0009】
本発明の物体認識装置は、撮像画像に基づいて対象物の認識を行う物体認識装置であって、対象物を撮像する撮像手段と、撮像手段により撮像された画像および対象物の特徴を示すデータに基づいて対象物が向いている方向を導出する方向導出手段とを備えることを特徴とする。
【0010】
また、本発明の物体認識方法は、撮像画像に基づいて対象物の認識を行う物体認識方法であって、対象物を撮像する撮像工程と、撮像工程において撮像された画像および対象物の特徴を示すデータに基づいて前記対象物が向いている方向を導出する方向導出工程とを備えることを特徴とする。
【0011】
これらの発明によれば、撮像手段により撮像された画像および対象物の特徴を示すデータ(例えば、扁平度、サンプルデータ)に基づいて対象物が向いている方向が導出されるため、当該対象物が向いている方向を認識することができる。
【0012】
本発明の物体認識装置において、対象物は道路交通に関連する情報表示物体であり、撮像手段の撮像方向と方向導出手段により導出された方向に基づいて、対象物が当該物体認識装置を設置した移動体の通行に関係のある情報表示物体であるか否かを判断する判断手段をさらに備えることが好ましい。
【0013】
このようにすれば、撮像手段の撮像方向と方向導出手段により導出された方向に基づいて、対象物が当該物体認識装置を設置した移動体の通行に関係のある情報表示物体であるか否かを判断させることができるため、複数の情報表示物体の中から移動体の通行に関係する情報表示物体のみを選択することが可能になる。
【0014】
【発明の実施の形態】
以下、本発明に係る標識認識装置の各実施形態を図面に基づき説明する。なお、各図において、同一要素には同一符号を付して重複する説明を省略する。
【0015】
[第1実施形態]
まず、図1を参照して、本発明の第1実施形態における標識認識装置1の機能構成を説明する。図1に示すように、標識認識装置1は、撮像部(撮像手段)11、対象検出部12、三次元画像生成部13、法線ベクトル導出部(法線算出手段,方向導出手段)14、認識対象物選択部(判断手段)15および出力部16を有する。なお、本実施形態における標識認識装置1は、例えば、自動車等の移動体に備え付け可能な装置である。また、標識認識装置1は、信号機や道路標識(道路交通に関連する情報表示物体)を認識した場合に、その信号機の信号灯色や道路標識の内容をディスプレイ上に文字表示する等して交通に関する注意を運転者に促す装置である。以下において、各構成要素について説明する。
【0016】
撮像部11は、例えば、CCDカメラ等の撮像装置を内蔵した装置であり、標識認識装置1が取り付けられた自動車の前方付近に展開する風景を撮像し、画像を取得する。対象検出部12は、例えば、色抽出およびパターンマッチング等の公知の手法を用いて、撮像された画像から信号機や道路標識に対応する画像を認識対象として検出する。ここで、第1実施形態における標識認識装置1には2台の撮像装置が備えられており、上述した撮像部11および対象検出部12は、各撮像装置ごとに対応して備えられている機能である。
【0017】
三次元画像生成部13は、例えば、ステレオマッチング等の公知の手法を用いて、二つの対象検出部12により検出されたそれぞれの信号機や道路標識に対応する画像に基づいて、信号機や道路標識に対応する三次元画像を生成する。
【0018】
法線ベクトル導出部14は、信号機や道路標識に対応する三次元画像に基づいて、信号機や道路標識等の認識対象物ごとに法線ベクトル(法線)を算出し、さらに当該認識対象物が向いている方向を導出する。ここで、図2および図3を参照して、認識対象物である道路標識の法線ベクトルを算出し、さらに当該認識対象物が向いている方向を導出する方法について説明する。まず、図2を参照して、道路標識の表面上にある任意の3点により構成される平面(平面部)の法線ベクトルN(法線)を算出する方法について説明する。法線ベクトル導出部14は、図2に示す道路標識の表面上から任意に点P1,点P2,点P3の3点を選択する。なお、点P1の座標を(x1,y1,z1)とし、点P2の座標を(x2,y2,z2)とし、点P3の座標を(x3,y3,z3)とする。法線ベクトル導出部14は、この3点P1〜P3により構成される平面の法線ベクトルN(Nx,Ny,Nz)を、以下に記載する式1〜3を用いて算出する。
【0019】
Nx=(y2−y1)(z3−z2)−(z2−z1)(y3−y2)・・・式1
Ny=(z2−z1)(x3−x2)−(x2−x1)(z3−z2)・・・式2
Nz=(x2−x1)(y3−y2)−(y2−y1)(x3−x2)・・・式3
なお、任意に選択する3点P1〜P3は、例えば、各点間の間隔が10画素以上離れている点を選択した方が好ましい。これは、選択する各点間の間隔が小さくなるほど各点における座標値の検出誤差の影響が大きくなるからである。
【0020】
次に、図3を参照して、道路標識が向いている方向を示す代表法線ベクトルNrを導出する方法について説明する。まず、上述した法線ベクトルNの算出方法により道路標識の表面上から複数の法線ベクトルNが算出される。図3(a)には、上述した法線ベクトルNの算出方法により求められた複数の法線ベクトルNが表示されている。法線ベクトル導出部14は、これら複数の法線ベクトルNの平均を求める。これにより、図3(b)に示される代表法線ベクトルNrが導出される。
【0021】
認識対象物選択部15は、信号機や道路標識等の認識対象物ごとに導出された代表法線ベクトルNrおよび標識認識装置1を備え付けた自動車(以下、自車と記載する)の進行方向ベクトルVcに基づいて、自車の通行に関係する認識対象物を選択する。なお、自車の進行方向ベクトルVcは、自車に備え付けられた標識認識装置1の撮像部11の撮像方向を示すものであり、各標識認識装置1に固有の値として標識認識装置1のメモリ(不図示)に記憶される。
【0022】
ここで、図4を参照して、認識対象物選択部15が、認識対象物を選択する方法について具体的に説明する。認識対象物選択部15は、図4に示す道路標識の代表法線ベクトルNr1を面Mに写像することによりベクトルNd1を導出する。なお、面Mは、自車が走行している道路面と平行な面である。また、認識対象物選択部15は、図4に示す信号機の代表法線ベクトルNr2を面Mに写像することによりベクトルNd2を導出する。認識対象物選択部15は、自車の進行方向ベクトルVcにより定まる方向と、ベクトルNd1,Nd2により定まる方向に基づいて、Vc−Nd1間およびVc−Nd2間の方向差をそれぞれ算出する。具体的に説明すると、図4に示すVc−Nd1間の角度は“a1”であるため、これらの方向差は(180−a1)度であると算出される。一方、図4に示すVc−Nd2間の角度は“a2”であるため、これらの方向差は(180+a2)度であると算出される。
【0023】
認識対象物選択部15は、算出した方向差が所定の範囲内に収まるベクトルNd1,Nd2に対応する認識対象物を、自車の通行に関係する認識対象物として選択する。一方、算出した方向差が所定の範囲内に収まらないベクトルNd1,Nd2に対応する認識対象物は、自車の通行に関係のない認識対象物として排除される。すなわち、認識対象物選択部15は、算出した方向差が所定の範囲内に収まるか否かにより、ベクトルNd1,Nd2に対応する認識対象物が自車の通行に関係する認識対象物であるか否かを判断することとなる。ここで、自車の通行に関係する信号機や道路標識は、それらの正面が自車に向くように設置されていることが多いため、それらが向いている方向と自車の進行方向との方向差は、理想的には180度前後になるはずである。しかしながら、信号機や道路標識が設置されている場所や自車が走行する道路上の位置等の相違により、それらの方向差は多少異なるのが現実である。したがって、上述した所定の範囲を、(180−A)度以上(180+A)度以下として表す場合には、このAの値を45度位に設定しておけば、上述した相違がある場合でも、道路を通行している車のために設置された信号機や道路標識が、自車の通行に関係する信号機や道路標識として認識され得るようになるものと考えられる。ただし、Aの値を45度位に限定する必要はなく、Aの値は、設定により変更可能な値(例えば、30度、60度等)とすればよい。つまり、Aの値を小さく設定するほど、自車の通行に関係する信号機や道路標識が認識対象から除外されやすくなり、一方、Aの値を大きく設定するほど、自車の通行に関係しない信号機や道路標識が認識対象として選択されやすくなることを考慮してAの値を設定すればよい。
【0024】
出力部16は、認識対象物選択部15により認識された信号機の信号灯色や道路標識の内容をディスプレイ上に表示させる。なお、出力部19による出力は、信号灯色や道路標識の内容をディスプレイ上に表示させることには限定されず、例えば、信号灯色や道路標識の内容をスピーカーから音声出力することとしてもよい。
【0025】
次に、図5を参照して本実施形態における標識認識装置1の動作を説明する。
【0026】
図5に示すように、まず、標識認識装置1の撮像部11は、CCDカメラにより撮像された自車前方付近に展開する風景の画像を取得する(ステップS1)。
【0027】
次に、対象検出部12は、色抽出およびパターンマッチングを用いて、撮像部11により取得された画像から信号機や道路標識に対応する画像を検出する(ステップS2)。
【0028】
次に、三次元画像生成部13は、ステレオマッチングを用いて、各対象検出部12により検出された信号機や道路標識に対応する画像に基づいて、当該信号機や道路標識に対応する三次元画像を生成する(ステップS3)。
【0029】
次に、法線ベクトル導出部14は、三次元画像生成部13により生成された信号機や道路標識に対応する三次元画像の表面上にある任意の3点により構成される平面の法線ベクトルNを算出するとともに、算出した法線ベクトルNに基づいて、当該信号機や道路標識が向いている方向を示す代表法線ベクトルNrを導出する(ステップS4)。
【0030】
次に、認識対象物選択部15は、自車の進行方向ベクトルVcおよび法線ベクトル導出部14により導出された代表法線ベクトルNrに基づいて、進行方向ベクトルVcと代表法線ベクトルNrとの間の方向差を算出する(ステップS5)。なお、代表法線ベクトルNrは、信号機や道路標識ごとに導出される。
【0031】
次に、認識対象物選択部15は、算出した方向差が(180−A)度以上(180+A)度以下となる代表法線ベクトルNrに対応する三次元画像を、自車の通行に関係する信号機や道路標識(認識対象物)として選択する(ステップS6)。なお、算出した方向差が(180−A)度以上(180+A)度以下とはならない代表法線ベクトルNrに対応する三次元画像は、自車の通行に関係のない信号機や道路標識であるとして認識の対象から排除される。
【0032】
そして、出力部16は、認識対象物選択部15により選択された認識対象物が信号機である場合には、その信号機の信号灯色をディスプレイ上に表示させ、認識対象物が道路標識である場合には、その道路標識の内容をディスプレイ上に表示させる(ステップS7)。
【0033】
なお、上述した標識認識装置1の動作では、図5に示すステップS2において、対象検出部12が、撮像部11により取得された画像から信号機や道路標識に対応する画像を検出した後に、ステップS3において、三次元画像生成部13が、各対象検出部12により検出された信号機や道路標識に対応する画像に基づいて、当該信号機や道路標識に対応する三次元画像を生成しているが、処理をする順番はこれに限られない。例えば、三次元画像生成部13が、各撮像部11により取得された画像に基づいて、ステレオマッチングを用いて三次元画像を生成した後に、対象検出部12が、三次元画像生成部13により生成された三次元画像から信号機や道路標識に対応する三次元画像を検出することとしてもよい。
【0034】
以上のように、本実施形態における標識認識装置1では、法線ベクトル導出部14が、信号機や道路標識に対応する三次元画像上の任意の3点により構成される平面(平面部)の法線ベクトルN(法線)を算出し、この法線ベクトルNに基づいて信号機や道路標識に対応する三次元画像の法線ベクトルNr(方向)を導出するため、信号機や道路標識が向いている方向を認識することができる。また、認識対象物選択部15が、法線ベクトル導出部14により導出された法線ベクトルNrと自車の進行方向ベクトルVcとに基づいて、それらの方向差が所定の範囲内に収まる法線ベクトルNrに対応する信号機や道路標識を自車の通行に関係する信号機や道路標識として選択するため、交差点等に存在する複数の信号機や道路標識の中から自車の通行に関係する信号機や道路標識のみを選択することが可能になる。
【0035】
[第2実施形態]
次に、本発明の第2実施形態について説明する。まず、図6を参照して第2実施形態における標識認識装置2の機能構成を説明する。図6に示すように、第2実施形態における標識認識装置2は、撮像部(撮像手段)11および対象検出部12をそれぞれ一つだけ有している点と、第1実施形態における標識認識装置1が有する三次元画像生成部13および法線ベクトル導出部14を有していない点で第1実施形態における標識認識装置1と異なる。ここで、撮像部11、対象検出部12および出力部16の各機能については、第1実施形態における各機能と同様であるので、その説明は省略する。以下において第1実施形態における機能とは異なる認識対象物選択部(方向導出手段,判断手段)25について説明する。
【0036】
認識対象物選択部25は、認識対象として検出された信号機や道路標識に対応する画像に基づいて、認識対象部分の形状を識別する。認識対象部分の形状としては、例えば、信号機の形状、逆三角形の道路標識の形状、丸い道路標識の形状、ひし形の道路標識の形状、四角い道路標識の形状がある。ここで、標識認識装置2のメモリ(不図示)には、予め上述した各形状に対応づけられて、基準となる信号機や道路標識等の幅・高さ・扁平度の各値が記憶されている。扁平度とは、信号機や道路標識等の幅に対する高さの度合いをいう。この扁平度は、認識対象物である信号機や道路標識等の特徴を示すデータである。図7を参照して、逆三角形の道路標識における扁平度について説明する。図7に示すように、例えば、逆三角形の道路標識の幅を“W0”とし、高さを“H0”とした場合に、扁平度は“H0/W0”と表される。
【0037】
認識対象物選択部25は、識別した認識対象部分の形状に対応する扁平度(H0/W0)をメモリから読み出す。すなわち、認識対象物選択部25は、例えば、識別した認識対象部分の形状が逆三角形の道路標識の形状である場合には、逆三角形の道路標識の形状に対応する扁平度(H0/W0)をメモリから読み出す。
【0038】
認識対象物選択部25は、メモリから読み出した扁平度(H0/W0)に加え、認識対象部分の幅(w)および高さ(h)を計測し、これらの値を以下に記載する式4に代入することで、自車の進行方向ベクトルVcと信号機や道路標識の正面方向とがなす角Bを算出する。
【0039】
B=COS−1((H0×w)/(W0×h))・・・式4
式4により角Bを算出することで、信号機や道路標識が向いている方向が導出される。ここで、図8を参照して、自車の進行方向ベクトルVcと道路標識の正面方向とがなす角Bについて説明する。図8に示す道路標識は、認識対象部分の形状が逆三角形の道路標識の形状であるとともに、当該認識対象部分の幅が“w”であり、高さが“h”であることを示している。図8に示す角Bは、逆三角形の道路標識の扁平度“H0/W0”と、認識対象部分の幅“w”および高さ“h”とを変数とした上記式4により求められる。そして、この角Bが、図8に示す自車の進行方向ベクトルVcと道路標識の正面方向Qとがなす角度となる。
【0040】
認識対象物選択部25は、算出された角Bが所定の角度C以下となる信号機や道路標識を、自車の通行に関係する信号機や道路標識として選択する。一方、算出された角Bが所定の角度Cよりも大きくなる信号機や道路標識は、自車の通行に関係のない信号機や道路標識として排除される。すなわち、認識対象物選択部15は、算出された角Bが所定の角度以下になるか否かにより、信号機や道路標識が自車の通行に関係する認識対象物であるか否かを判断することとなる。ここで、角度Cの値は、上述した第1実施形態におけるAの値と同様の理由により、45度くらいに設定すればよい。ただし、Cの値を45度位に限定する必要がないのは、上述した第1実施形態におけるAの場合と同様である。
【0041】
次に、図9を参照して、第2実施形態における標識認識装置2の動作を説明する。なお、図9に示すステップS1,S2およびS7の各処理は、第1実施形態において詳述したステップS1,S2およびS7の各処理(図5参照)と、それぞれ同様であるので、その説明は省略する。以下において第1実施形態とは異なるステップS11〜S13の処理について説明する。
【0042】
まず、認識対象物選択部25は、上述したステップS2において対象検出部12により検出された信号機や道路標識に対応する画像に基づいて、認識対象部分の形状を識別する(ステップS11)。
【0043】
次に、認識対象物選択部25は、識別した認識対象部分の形状に対応する扁平度“H0/W0”をメモリから読み出すとともに、この扁平度と認識対象部分の幅“w”および高さ“h”に基づいて、自車の進行方向ベクトルVcと信号機や道路標識の正面方向とがなす角Bを、上述した式4を用いて算出する(ステップS12)。
【0044】
次に、認識対象物選択部25は、算出した角Bが所定の角度C以下となる信号機や道路標識を、自車の通行に関係する信号機や道路標識(認識対象物)として選択する(ステップS13)。なお、算出した角Bが所定の角度Cよりも大きくなる信号機や道路標識は、自車の通行に関係のない信号機や道路標識であるとして認識の対象から排除される。
【0045】
その後、上述したステップS7と同様にして認識対象物選択部25により選択された認識対象物に対応する内容がディスプレイ上に表示される。
【0046】
以上のように、第2実施形態における標識認識装置2では、撮像部11により撮像された画像に基づいて信号機や道路標識に対応する画像が検出され、この検出された信号機や道路標識に対応する画像から信号機や道路標識の形状が識別される。そして、この識別された信号機や道路標識の形状に対応する扁平度(対象物の基準となるデータ)に基づいて、自車の進行方向ベクトルVcと信号機や道路標識の正面方向Qとがなす角Bが算出されるため、信号機や道路標識が向いている方向を認識することができる。
【0047】
また、認識対象物選択部15が、所定の角度C以下となる角Bに対応する信号機や道路標識を、自車の通行に関係する信号機や道路標識として選択するため、交差点等に存在する複数の信号機や道路標識の中から自車の通行に関係する信号機や道路標識のみを選択することが可能になる。
【0048】
なお、第2実施形態における認識対象物選択部25は、信号機や道路標識の形状ごとに記憶された扁平度に基づいて、自車の進行方向ベクトルVcと信号機や道路標識の正面方向Qとがなす角Bを算出しているが、角Bを算出する方法は、これに限られない。例えば、信号機や道路標識を様々な角度から撮像したサンプル画像(対象物の特徴を示すデータ)を、信号機や道路標識の形状および撮像した角度(撮像角度)ごとに対応づけて予めメモリに記憶させてもよい。この場合に、認識対象物選択部25は、対象検出部12により検出された信号機や道路標識に対応する画像に最も近似するサンプル画像をメモリから選択し、この選択したサンプル画像に対応する撮像角度を、角Bとしてメモリから取得すればよい。
【0049】
これにより、信号機や道路標識に対応する画像に最も近似するサンプル画像に基づいて、自車の進行方向ベクトルVcと信号機や道路標識の正面方向とがなす角Bがメモリから取得されるため、信号機や道路標識が向いている方向を認識することができる。また、認識対象物選択部15が、所定の角度C以下となる角Bに対応する信号機や道路標識を、自車の通行に関係する信号機や道路標識として選択するため、交差点等に存在する複数の信号機や道路標識の中から自車の通行に関係する信号機や道路標識のみを選択することが可能になる。
【0050】
また、本実施形態においては、認識対象物体が信号機や道路標識である場合について説明しているが、これに限られない。例えば、認識対象物体が顔である場合にも適用可能であり、この場合には顔が向いている方向を導出することができる。すなわち、本発明は、面が決められる認識対象物体であれば適用可能であり、その面の向いている方向を導出することができる。
【0051】
【発明の効果】
本発明に係る物体認識装置および物体認識方法によれば、認識対象物が向いている方向を導出することができる。
【図面の簡単な説明】
【図1】第1実施形態における標識認識装置の機能構成図である。
【図2】法線ベクトルを示した図である。
【図3】(a)は、複数の法線ベクトルを示した図であり、(b)は、代表法線ベクトルを示した図である。
【図4】第1実施形態における認識対象物を選択する方法を説明するための図である。
【図5】第1実施形態における標識認識処理を示すフローチャートである。
【図6】第2実施形態における標識認識装置の機能構成図である。
【図7】逆三角形の道路標識における扁平度を説明するための図である。
【図8】自車の進行方向ベクトルと道路標識の正面方向とがなす角を示した図である。
【図9】第2実施形態における標識認識処理を示すフローチャートである。
【符号の説明】
1,2・・・標識認識装置、11・・・撮像部、12・・・対象検出部、13・・・三次元画像生成部、14・・・法線ベクトル導出部、15,25・・・認識対象選択部、16・・・出力部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object recognition device and an object recognition method for recognizing a recognition target from a captured image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a technology has been proposed in which a camera is installed on a moving body such as an automobile and a recognition target such as a traffic light or a traffic sign is recognized based on an image captured by the camera. For example,
[0003]
[Patent Document 1]
JP-A-1-265400
[Problems to be solved by the invention]
However, according to the technology disclosed in
[0005]
Therefore, an object of the present invention is to provide an object recognition device and an object recognition method that can derive a direction in which a recognition target is facing in order to solve the above-described problem.
[0006]
[Means for Solving the Problems]
An object recognition device according to the present invention is an object recognition device that recognizes a target based on a captured image, and includes a first imaging unit and a second imaging unit that capture an image of the target, a first imaging unit, and a first imaging unit. A normal calculating means for calculating a normal of the plane portion of the object based on the image picked up by the second imaging means, and a direction in which the object is oriented based on the normal calculated by the normal calculating means And a direction deriving unit for deriving the direction.
[0007]
Also, the object recognition method of the present invention is an object recognition method for recognizing a target object based on a picked-up image, wherein an image pickup step of picking up the target object by a first image pickup unit and a second image pickup unit; A normal line calculating step of calculating a normal line of a plane portion of the object based on an image captured in the process, and a direction of deriving a direction in which the object is oriented based on the normal line calculated in the normal line calculating step And a deriving step.
[0008]
According to these inventions, the normal of the plane portion of the object is calculated based on the images captured by the first imaging means and the second imaging means, and the target is calculated based on the calculated normal. Since the direction in which the object is facing is derived, the direction in which the object is facing can be recognized.
[0009]
An object recognition device according to the present invention is an object recognition device that recognizes an object based on a captured image, and includes an imaging unit that captures an image of the object, and data that indicates an image captured by the imaging unit and characteristics of the object. And a direction deriving unit that derives the direction in which the object is facing based on the direction.
[0010]
Further, the object recognition method of the present invention is an object recognition method for recognizing an object based on a captured image, and includes an imaging step of imaging the object, and a feature of the image and the object captured in the imaging step. And a direction deriving step of deriving a direction in which the object is directed based on the indicated data.
[0011]
According to these inventions, the direction in which the object is directed is derived based on the image captured by the imaging unit and data (for example, flatness, sample data) indicating characteristics of the object. Can be recognized in the direction in which.
[0012]
In the object recognition device of the present invention, the object is an information display object related to road traffic, and based on the imaging direction of the imaging unit and the direction derived by the direction deriving unit, the object installs the object recognition device. It is preferable to further include a determination unit that determines whether the information display object is related to the traffic of the moving object.
[0013]
According to this configuration, based on the imaging direction of the imaging unit and the direction derived by the direction deriving unit, whether the target object is an information display object related to the passage of the moving object on which the object recognition device is installed is determined. Can be determined, it is possible to select only the information display objects related to the passage of the moving object from the plurality of information display objects.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the sign recognition device according to the present invention will be described with reference to the drawings. In each of the drawings, the same elements will be denoted by the same reference symbols, without redundant description.
[0015]
[First Embodiment]
First, a functional configuration of the
[0016]
The
[0017]
The three-dimensional
[0018]
The normal vector deriving unit 14 calculates a normal vector (normal) for each recognition target such as a traffic signal or a traffic sign based on the three-dimensional image corresponding to the traffic signal or the traffic sign. Derive the facing direction. Here, a method of calculating a normal vector of a road sign as a recognition target and deriving a direction in which the recognition target is directed will be described with reference to FIGS. 2 and 3. First, a method for calculating a normal vector N (normal) of a plane (plane) formed by arbitrary three points on the surface of a road sign will be described with reference to FIG. The normal vector deriving unit 14 arbitrarily selects three points P1, P2, and P3 from the surface of the road sign shown in FIG. The coordinates of the point P1 are (x1, y1, z1), the coordinates of the point P2 are (x2, y2, z2), and the coordinates of the point P3 are (x3, y3, z3). The normal vector deriving unit 14 calculates the normal vector N (Nx, Ny, Nz) of the plane formed by the three points P1 to P3 using the following
[0019]
Nx = (y2-y1) (z3-z2)-(z2-z1) (y3-y2)
Ny = (z2-z1) (x3-x2)-(x2-x1) (z3-z2)
Nz = (x2-x1) (y3-y2)-(y2-y1) (x3-x2) Equation 3
For the three points P1 to P3 arbitrarily selected, for example, it is preferable to select a point having an interval of 10 pixels or more between the points. This is because the influence of the coordinate value detection error at each point increases as the interval between the selected points decreases.
[0020]
Next, a method for deriving the representative normal vector Nr indicating the direction in which the road sign is facing will be described with reference to FIG. First, a plurality of normal vectors N are calculated from the surface of the road sign by the above-described method of calculating the normal vector N. FIG. 3A shows a plurality of normal vectors N obtained by the method of calculating the normal vector N described above. The normal vector deriving unit 14 calculates an average of the plurality of normal vectors N. Thereby, the representative normal vector Nr shown in FIG. 3B is derived.
[0021]
The recognition target
[0022]
Here, a method in which the recognition target
[0023]
The recognition target
[0024]
The
[0025]
Next, the operation of the
[0026]
As shown in FIG. 5, first, the
[0027]
Next, the
[0028]
Next, the three-dimensional
[0029]
Next, the normal vector deriving unit 14 generates a normal vector N of a plane formed by arbitrary three points on the surface of the three-dimensional image corresponding to the traffic light and the road sign generated by the three-dimensional
[0030]
Next, based on the traveling direction vector Vc of the own vehicle and the representative normal vector Nr derived by the normal vector deriving unit 14, the recognition target
[0031]
Next, the recognition target
[0032]
When the recognition target object selected by the recognition target
[0033]
In the operation of the
[0034]
As described above, in the
[0035]
[Second embodiment]
Next, a second embodiment of the present invention will be described. First, the functional configuration of the
[0036]
The recognition target
[0037]
The recognition target
[0038]
The recognition target
[0039]
B = COS −1 ((H0 × w) / (W0 × h))
By calculating the angle
[0040]
The recognition target
[0041]
Next, the operation of the
[0042]
First, the recognition target
[0043]
Next, the recognition target
[0044]
Next, the recognition target
[0045]
Then, the content corresponding to the recognition target object selected by the recognition target
[0046]
As described above, in the
[0047]
In addition, since the recognition target
[0048]
In addition, the recognition target
[0049]
Thereby, the angle B between the traveling direction vector Vc of the own vehicle and the front direction of the traffic light or the traffic sign is obtained from the memory based on the sample image closest to the image corresponding to the traffic light or the traffic sign. And the direction of the road sign can be recognized. In addition, since the recognition target
[0050]
In the present embodiment, the case where the recognition target object is a traffic light or a road sign is described, but the present invention is not limited to this. For example, the present invention can be applied to a case where the recognition target object is a face. In this case, the direction in which the face faces can be derived. That is, the present invention is applicable to any recognition target object whose plane is determined, and can derive the direction in which the plane is facing.
[0051]
【The invention's effect】
According to the object recognition device and the object recognition method according to the present invention, it is possible to derive the direction in which the recognition target is facing.
[Brief description of the drawings]
FIG. 1 is a functional configuration diagram of a sign recognition device according to a first embodiment.
FIG. 2 is a diagram showing a normal vector.
FIG. 3A is a diagram illustrating a plurality of normal vectors, and FIG. 3B is a diagram illustrating a representative normal vector.
FIG. 4 is a diagram for explaining a method of selecting a recognition target in the first embodiment.
FIG. 5 is a flowchart illustrating a sign recognition process according to the first embodiment.
FIG. 6 is a functional configuration diagram of a sign recognition device according to a second embodiment.
FIG. 7 is a diagram for explaining flatness of an inverted triangular road sign.
FIG. 8 is a diagram illustrating an angle between a traveling direction vector of the own vehicle and a front direction of a road sign.
FIG. 9 is a flowchart illustrating a sign recognition process according to the second embodiment.
[Explanation of symbols]
1, 2 ... sign recognition device, 11 ... imaging unit, 12 ... target detection unit, 13 ... three-dimensional image generation unit, 14 ... normal vector derivation unit, 15, 25 ... A recognition target selection unit, 16 ... an output unit;
Claims (5)
前記対象物を撮像する第1の撮像手段および第2の撮像手段と、
前記第1の撮像手段および第2の撮像手段により撮像された画像に基づいて前記対象物の平面部の法線を算出する法線算出手段と、
前記法線算出手段により算出された法線に基づいて前記対象物が向いている方向を導出する方向導出手段と
を備えることを特徴とする物体認識装置。An object recognition device that recognizes an object based on a captured image,
A first imaging unit and a second imaging unit for imaging the object,
A normal line calculating unit that calculates a normal line of a plane portion of the object based on the images picked up by the first image pickup unit and the second image pickup unit;
An object recognizing device, comprising: a direction deriving unit that derives a direction in which the object is directed based on the normal line calculated by the normal line calculating unit.
前記対象物を撮像する撮像手段と、
前記撮像手段により撮像された画像および前記対象物の特徴を示すデータに基づいて前記対象物が向いている方向を導出する方向導出手段と
を備えることを特徴とする物体認識装置。An object recognition device that recognizes an object based on a captured image,
Imaging means for imaging the object;
An object recognition device, comprising: a direction deriving unit that derives a direction in which the object is directed based on an image captured by the image capturing unit and data indicating characteristics of the object.
前記撮像手段の撮像方向と前記方向導出手段により導出された方向に基づいて、前記対象物が当該物体認識装置を設置した移動体の通行に関係のある情報表示物体であるか否かを判断する判断手段をさらに備える
ことを特徴とする請求項1または2に記載の物体認識装置。The object is an information display object related to road traffic,
Based on the imaging direction of the imaging unit and the direction derived by the direction deriving unit, it is determined whether or not the target object is an information display object related to the passage of a moving object on which the object recognition device is installed. The object recognition device according to claim 1, further comprising a determination unit.
第1の撮像手段および第2の撮像手段により前記対象物を撮像する撮像工程と、
前記撮像工程において撮像された画像に基づいて前記対象物の平面部の法線を算出する法線算出工程と、
前記法線算出工程において算出された法線に基づいて前記対象物が向いている方向を導出する方向導出工程と
を備えることを特徴とする物体認識方法。An object recognition method for recognizing a target object based on a captured image,
An imaging step of imaging the object by a first imaging unit and a second imaging unit;
A normal line calculating step of calculating a normal line of a plane portion of the object based on the image captured in the image capturing step;
A direction deriving step of deriving a direction in which the object is directed based on the normal line calculated in the normal line calculating step.
前記対象物を撮像する撮像工程と、
前記撮像工程において撮像された画像および前記対象物の特徴を示すデータに基づいて前記対象物が向いている方向を導出する方向導出工程と
を備えることを特徴とする物体認識方法。An object recognition method for recognizing a target object based on a captured image,
An imaging step of imaging the object;
An object recognizing method, comprising: a direction deriving step of deriving a direction in which the object is directed based on the image captured in the image capturing step and data indicating characteristics of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003063909A JP2004272694A (en) | 2003-03-10 | 2003-03-10 | Apparatus and method for object recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003063909A JP2004272694A (en) | 2003-03-10 | 2003-03-10 | Apparatus and method for object recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004272694A true JP2004272694A (en) | 2004-09-30 |
Family
ID=33125368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003063909A Pending JP2004272694A (en) | 2003-03-10 | 2003-03-10 | Apparatus and method for object recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004272694A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026991A (en) * | 2006-07-18 | 2008-02-07 | Tokai Rika Co Ltd | Device for traffic light recognition |
JP2017102665A (en) * | 2015-12-01 | 2017-06-08 | 株式会社デンソー | Driving support device |
JP2017146711A (en) * | 2016-02-16 | 2017-08-24 | 株式会社日立製作所 | Image processing device, warning apparatus, image processing system, and image processing method |
JP2017527876A (en) * | 2014-07-25 | 2017-09-21 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method for operating a vehicle assistant system and assistant system |
JP2017211307A (en) * | 2016-05-26 | 2017-11-30 | パイオニア株式会社 | Measuring device, measuring method, and program |
JP2020126698A (en) * | 2020-05-28 | 2020-08-20 | 株式会社リコー | Information management system, information processing apparatus, program, and method for making use of questionnaire |
US11132166B2 (en) | 2016-10-14 | 2021-09-28 | Ricoh Company, Ltd. | Information processing system, information processing apparatus, and screen-sharing terminal controlling method |
-
2003
- 2003-03-10 JP JP2003063909A patent/JP2004272694A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008026991A (en) * | 2006-07-18 | 2008-02-07 | Tokai Rika Co Ltd | Device for traffic light recognition |
JP2017527876A (en) * | 2014-07-25 | 2017-09-21 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method for operating a vehicle assistant system and assistant system |
US10339803B2 (en) | 2014-07-25 | 2019-07-02 | Conti Temic Microelectronic Gmbh | Method for operating an assistance system of a motor vehicle and assistance system |
JP2017102665A (en) * | 2015-12-01 | 2017-06-08 | 株式会社デンソー | Driving support device |
JP2017146711A (en) * | 2016-02-16 | 2017-08-24 | 株式会社日立製作所 | Image processing device, warning apparatus, image processing system, and image processing method |
US10303960B2 (en) | 2016-02-16 | 2019-05-28 | Hitachi, Ltd. | Image processing device, alarming apparatus, image processing system, and image processing method |
JP2017211307A (en) * | 2016-05-26 | 2017-11-30 | パイオニア株式会社 | Measuring device, measuring method, and program |
US11132166B2 (en) | 2016-10-14 | 2021-09-28 | Ricoh Company, Ltd. | Information processing system, information processing apparatus, and screen-sharing terminal controlling method |
JP2020126698A (en) * | 2020-05-28 | 2020-08-20 | 株式会社リコー | Information management system, information processing apparatus, program, and method for making use of questionnaire |
JP7006726B2 (en) | 2020-05-28 | 2022-01-24 | 株式会社リコー | Information processing system, information processing device, program and questionnaire operation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4876118B2 (en) | Three-dimensional object appearance detection device | |
JP6171593B2 (en) | Object tracking method and system from parallax map | |
JP2002335524A (en) | Driving support device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
KR101093316B1 (en) | Method and System for Image Matching While Driving Vehicle | |
JP4893212B2 (en) | Perimeter monitoring device | |
KR101439052B1 (en) | Apparatus and method for detecting obstacle | |
EP2208021A1 (en) | Method of and arrangement for mapping range sensor data on image sensor data | |
JP2004198212A (en) | Apparatus for monitoring vicinity of mobile object | |
JP2008172535A (en) | Operation supporting system, image processing device, and deviation detecting method | |
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
WO2008044592A1 (en) | Mobile object recognizing device, mobile object recognizing method, and computer program | |
JPWO2010146695A1 (en) | Image processing apparatus and image processing method | |
CN102555905B (en) | Produce the method and apparatus of the image of at least one object in vehicle-periphery | |
JP4601505B2 (en) | Top-view image generation apparatus and top-view image display method | |
JP2007240422A (en) | Depression angle calculator, depression angle calculation method, depression angle calculation program, and image processor | |
JP2008262333A (en) | Road surface discrimination device and road surface discrimination method | |
JPWO2011013813A1 (en) | In-vehicle device and image processing program | |
JP5695000B2 (en) | Vehicle periphery monitoring device | |
JP2008026998A (en) | Obstacle location calculation system and method | |
JP2004272694A (en) | Apparatus and method for object recognition | |
JP2008004989A (en) | Vehicle perimeter display apparatus | |
JP2009146153A (en) | Moving object detection device, moving object detection method and moving object detection program | |
JP4176558B2 (en) | Vehicle periphery display device | |
JP6855254B2 (en) | Image processing device, image processing system, and image processing method |