JP4717760B2 - 物体認識装置および映像物体測位装置 - Google Patents
物体認識装置および映像物体測位装置 Download PDFInfo
- Publication number
- JP4717760B2 JP4717760B2 JP2006235944A JP2006235944A JP4717760B2 JP 4717760 B2 JP4717760 B2 JP 4717760B2 JP 2006235944 A JP2006235944 A JP 2006235944A JP 2006235944 A JP2006235944 A JP 2006235944A JP 4717760 B2 JP4717760 B2 JP 4717760B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- video information
- template
- processing means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
実際には、夜間も含めた日照変化、撮影時の画像ノイズ、遮蔽物などによる一部欠落等により画像上の対象物の見かけが変化することがあるため、画像認識を困難にしているという問題がある。これは特許文献1に記載された、入力画像とテンプレート画像の相互相関を計算するという方法では解決できない。また、特許文献1による方法は、保持しているテンプレート画像が少ない場合には認識率が低下するという問題がある。一方、特許文献2においては、案内に寄与する道路標識などをどのようにして認識するかについての方法を示唆していない。そのため、日照変化や遮蔽物が影響した画像に対しても正確に認識できる手法が望まれる。特に、例えば道路標識の種類などを効率よく特定できることが望まれる。
また、通常のGPS等の位置測位システムの場合は常に測位誤差を伴う。しかし、対象物の正確な測位が要求される設備管理効率化の支援装置の場合は、GPSの測位結果に伴う外乱やステレオ立体視に伴う測位誤差などを可能な限り除去する必要がある。
また、この発明は、物体認識装置に組み込んで使用でき、GPSの測位誤差、画像認識に伴う誤差を低減して精度良く映像上の物体を測位する映像物体測位装置を得ることを目的とする。
この発明の説明において、「地理座標」とは、地理座標系における緯度、経度、標高のことを指すものとする。また、「画像座標」とは、2次元の画像上の座標(正規化カメラ座標)のことを指すものとする。また、「対象物」とは、画像上の認識の目的となっている物体のことを指すものとする。例えば、道路設備管理に用いる画像の場合の「対象物」としては、道路標識、道路白線、路面標識、マンホール、照明灯、信号機等がある。
図において、映像情報取得装置90は、カメラを用いて路上を撮像した映像情報およびこの映像情報を撮影したカメラの位置情報と姿勢情報を取得収集する手段である。映像情報データベース100は、映像情報取得装置90で取得した、道路上をカメラで撮影した映像情報および当該映像情報に同期した当該映像情報を撮影したカメラの位置情報と姿勢情報を格納する手段である。
この映像情報取得装置90は、例えば図2に示すように、移動体(車両)204に、高精度測位装置201、カメラ202および方位センサ203を搭載した構成からなる。また、一緒に映像情報データベース100も移動体(車両)204に搭載されている。情報収集対象地域の路上に車両204を走行させて、カメラ202により路上の映像情報を取得する。その際、カメラ202の位置情報をGPS等の高精度測位装置201で計測すると共に、カメラ202の姿勢を方位センサ203で計測する。さらに、この計測したカメラの位置情報とカメラの姿勢情報を、そのとき取得した路上映像情報の各フレームに同期させて映像情報データベース100に記録していく。この場合の同期をとる方法としては、例えば
、映像情報データベース100に映像情報を時々刻々と記録する際に、その各時刻におけるコンピュータのシステム時間を映像情報の画像ヘッダに、あるいは映像に対応する音声トラックに記録していく。同様に、GPSの測位結果などの位置情報を時々刻々と記録する際にも、その各時刻におけるコンピュータのシステム時間を位置情報に付与して記録していく。したがって、映像情報データベース100には、コンピュータのシステム時間に同期した映像情報、GPSの測位結果(カメラの地理座標)およびカメラ姿勢情報が記録されることになる。なお、GPSの測位結果と映像情報の同期を取るための基準信号としては、コンピュータのシステム時間以外に、ビデオキャプチャプログラムの内部時間、GPSの時計時間などの信号を使用してもよい。
まず、画像取得部101では、映像情報データベース100に格納された映像情報から任意のフレーム画像を取得する(ステップST101)。この入力画像の取得は、映像情報取得装置90からの映像情報の収集中にリアルタイムに行ってもよいし、予め収集しておいた映像情報から行ってもよい。次に、画像認識処理部102では、画像取得部101が取得したフレーム画像から認識対象とする入力画像を抽出し、その入力画像に対してテンプレート画像格納部105に予め用意した対象物の複数のテンプレート画像を用い、後述する処理により、目的の対象物を認識し、認識した対象物の画像座標を求める(ステップST102)。測位処理部103では、後述する方法により、画像認識処理部102で認識した対象物に対する地理座標を求める(ステップST103)。なお、ここで認識が失敗したり、認識対象外の物体を測位したりする場合もあるので、その場合は、手動により映像フレームから物体の画像を選択することもある。次に、表示処理部104では、表示データ格納部120から読み込んだ各種地図情報、映像情報データベース100の実写映像などの表示対象データを、測位処理部103で求めた対象物の地理座標に同期させてディスプレイ110で表示する処理を行う。また、その際に、画像認識処理部107で求めた対象物を表すアイコンなどの表示情報を、同期した表示対象データ上の対象物の位置に重畳し表示する処理を行う(ステップST104)。
画像認識処理部102は、画像取得部101が取得したフレーム画像から目的の対象物(例、道路標識)を、画像特徴量の相関係数行列を利用して認識する。この場合の画像認識処理部102の動作は図4に示す手順に従って行われる。
はじめに、画像認識処理部102では、認識するために必要な対象物の画像、すなわち道路標識に関する種類別の複数のテンプレート画像をテンプレート画像格納部105から読み込む(ステップST401)。画像認識処理部102は、次に各テンプレート画像について複数の画像特徴量をそれぞれ抽出する(ステップST402)。ここで求める画像特徴量は、例えば水平方向の画像座標、垂直方向の画像座標、テンプレート画像のYプレーン(輝度成分)における画素値、Cbプレーン(色差成分)における画素値、Crプレーン(色差成分)における画素値、垂直方向のエッジと水平方向のエッジ(エッジ情報)等である。
例えば、画像座標(x,y)における特徴量ベクトルf(x,y)を、次の(1)式ように定義する。
f(x,y)=[x,y,Y(x,y),Cb(x,y),Cy(x,y),He(x,y),Ve(x,y)] (1)
ここで、xは水平方向の画像座標、yは垂直方向の画像座標、Y(x,y)は画像座標(x,y)におけるYプレーンの値、Cb(x,y)は画像座標(x,y)におけるCbプレーンの値、Cy(x,y)は画像座標(x,y)におけるCrプレーンの値、He(x,y)は画像座標(x,y)における水平方向のエッジの値、Ve(x,y)は画像座標(x,y)における垂直方向のエッジの値である。
ここで、上記の一般化固有値について説明する。一般化固有値は、入力矩形画像の相関係数行列をテンプレート画像の相関係数行列にアファイン変換する際の縮尺量(スケール)を意味している。一般化固有値が1に近いほど小さい縮尺量でアファイン変換可能であり、二つの相関係数行列は似通っていると判断できる。一方、一般化固有値が1から離れるほど大きな縮尺量でアファイン変換可能する必要があり、二つの相関係数行列は似通っていないと判断できる。
図5は、同じ道路標識に関する互いに見かけが異なる3つの画像、各々の画像における赤色の平均値、青色の平均値、および赤色と青色の相関係数を示したものである。図5に例示された3つの画像は、撮影時の状況が異なるため、輝度変化やノイズの影響により赤と青の平均値が大きく変化していることを表している。一方、各画像の相関係数は、輝度変化やノイズによる大きな影響を受けないほぼ一定した値になること表している。また、同様に、エッジなどの相関係数に関しても画像のコントラスト変化に影響を受けにくい値を持っている。すなわち、輝度変化等の影響を受けない相関係数を用いることで、見かけが異なる画像から正確に対象物を認識可能であることを意味している。したがって、画像特徴量間の相関係数行列を利用して、テンプレート画像と入力画像のマッチングをとる画像認識処理部102によれば、日照変化等がある状況下で撮影した画像に対しても対象物を正確に認識することが可能である。
まず、測位処理部103では、入力として、画像認識処理部102で認識した対象物の画像座標を取得する(ステップST901)。なお、この入力として取得する対象物の画像座標は、画像認識処理部102で認識に失敗した場合には、ユーザが映像を確認してマウスやタッチペンなどの入力デバイスを用いて選択した画像の画像座標でもよい。次に、測位処理部103では、取得した画像認識処理部102で認識した対象物が写るフレーム画像の前後数フレームから、ステップST901で画像座標を取得した対象物と同一の対象物を検出し、それら対象物の画像座標を取得する(ステップST902)。この同一の対象物を検出する方法としては、例えば前述の画像認識処理部102における画像特徴量の相関係数行列によるマッチングを利用するか、あるいは、Tuzel, O.; Porikli, F.; Meer, P., “Region Covariance: A Fast Descriptor for Detection and Classification”, European Conference on Computer Vision (ECCV), May 2006 (ECCV 2006)に記載されている、画像特徴量の分散共分散行列によるマッチングを利用すればよい。
上記(6)式に示すコスト関数Eの第一項は対象物の画像座標誤差を最小にする項であり、第二項はGPSの測位誤差を最小にする項であり、第三項はカメラ姿勢角の計測誤差を最小化するための項である。
図1の映像情報取得装置90の動作で説明したように、映像情報データベース100には、コンピュータのシステム時間に同期した映像情報、GPSの測位結果(カメラの地理座標)およびカメラ姿勢情報が記録されている。したがって、表示処理部104では、これらのコンピュータのシステム時間を参照することで映像情報に対応付けてカメラの地理座標やカメラ姿勢情報を読み出すことができる。すなわち、実写映像に対するその実写映像(カメラの地理座標)の地理座標を決めることができる。
一方、表示データ格納部120に格納されている地図データ、例えばカーナビゲーション地図、配管地図のような二次元地図も各地点の地理座標を持っている。そこで、表示処理部104は、実写映像を表示する際に、そのフレーム画像の地理座標と一致した地理座標を持つ地図データを読み出し、同じディスプレイの表示画面に一緒に表示する処理を行う。したがって、対応する両画像を同期させて表示することができる。
さらに、表示処理部104は、測位処理部103で測位処理した、認識された対象物あるいは映像上で指定した対象物の地理座標および画像座標に基づいて、これらの対象物の位置を、コンピュータグラフィックスで作成した対象物の図形や位置マークを重畳表示する処理を行うようにしてもよい。
図7は、設備管理図として、実写映像(車両映像とマンホール認識結果)、カメラ視点変換映像、二次元地図、配管図(これも二次元地図)、設備情報を全て地理座標に基づいて同期させてディスプレイ110の同一画面で表示している状態を表している。カメラ視点変換映像は、表示処理部104により、実写映像をカメラ視点を変換させることにより生成したものである。設備情報は、マンホールの番号、種類(上水用、下水用、大きさ、形など)、設置番地などを記載しており、地理座標に対応付けられている。したがって、他の表示画像に対応したデータが表示されるようになっている。実写映像上には、画像認識処理部102で認識され、測位処理部103で自動測位した対象物(この例ではマンホール)が、例えば色分けして囲んだ矩形枠で表示されている。同様に、二次元地図や配管図上には、認識して自動測位した対象物が、例えば色分けしたアイコンで表示されている。また、二次元地図には、実写映像を写しているカメラの位置を、その撮影方向(カメラの姿勢角)を表すアイコンで表示されている。さらに、実写映像上には、配管図などから読み取った道路に埋設された下水道管などの配管の位置を、例えば重畳した破線で表示している。
さらに、この実施の形態1の物体認識装置によれば、表示処理部104において、映像情報データベース100から取得した実写映像および/もしくは表示データ格納部120から取得した各種地図情報を、前記測位処理部104で算出した対象物の地理座標に同期させてディスプレイ110で表示するようにし、かつ、対象物の位置を地図および実写映像上にアイコンやCG表示するようにしている。したがって、自動的に認識・測位した特定の対象物を視覚的に判りやすく映像表示することができ、設備管理作業などの効率化に寄与する。
この実施の形態2では、画像認識処理部102が、実施の形態1と同様にして取得した入力画像とテンプレート画像の共通する部分領域ごとに相関係数行列の比較を行うことで、目的とする対象物を認識する方法を用いることについて説明する。
図9は実施の形態2に係る画像認識処理部102のマッチングの動作例を示す。この場合、画像認識処理部102は、テンプレート画像格納部105の複数のテンプレート画像のそれぞれについて、画像の部分領域を複数指定する。そして、指定した各部分領域について複数の画像特徴量をそれぞれ抽出し、抽出した画像特徴量間の相関係数行列を部分領域ごとにそれぞれ算出する。次に、画像取得部101で取得したフレーム画像から認識対象とする入力画像を抽出する。この入力画像について、テンプレート画像と対応させた複数の部分領域を指定し、部分領域ごとに複数の画像特徴量を抽出し、画像特徴量間の相関係数行列をそれぞれ求める。次に、テンプレート画像の部分領域の相関係数行列と入力画像の対応する部分領域の相関係数行列を比較して両部分領域間の距離をそれぞれ算出する。
また、入力画像とk番目のテンプレート画像との間の距離は、次の(10)式を用いて求めてもよい。
この実施の形態3では、画像認識処理部102が、同一または同一種類の対象物に対する複数のテンプレート画像から特徴的な画像特徴量間の相関関係を相関パターンとして生成し、生成した相関パターンを利用して目的の対象物の画像を認識する方法について説明する。
図10は実施の形態3に係る画像認識処理部102の動作手順を示す。
まず、画像認識処理部102は、テンプレート画像格納部105から、予め準備された同一または同一種類の対象物に対する複数のテンプレート画像を読み込む(ステップST701)。次に、この読み込んだ複数のテンプレート画像に共通する任意のサイズの部分領域を複数選択し、選択した共通部分領域ごとに、その部分領域における有意な相関関係を持つ画像特徴量を2つ選び、選択した2つの画像特徴量間の相関係数を求め、求めた相関係数の値に基づいて類似度を算出する関数(以下、類似度算出関数と呼ぶ)を作成する(ステップST702)。
選択し、それぞれの部分領域に対して、相関係数および類似度算出関数を求めて相関パターンを生成して保持しておく。さらに、この複数の相関パターンの生成を、各種類のテンプレート画像に対してもそれぞれ行う)。なお、この相関パターンの生成方法としては、例えば、Jerome Friedman, Trevor Hastie and Robert Tibshirani “Additive Logistic Regression: a Statistical View of Boosting”. Ann. Statist. 28, no. 2 (2000), 337407に記載されているAdaboostあるいはLogitboostと呼ばれる学習アルゴリズムを用いてもよいし、あるいはサポートベクトルマシンやニューラルネット等、その他の方法を用いもよい。
Claims (17)
- 映像情報を記憶する映像情報データベースと、
前記映像情報データベースの映像情報から任意のフレーム画像を取得する画像取得手段と、
種類別に対象物に関する複数のテンプレート画像を予め格納するテンプレート画像格納手段と、
前記テンプレート画像格納手段の複数のテンプレート画像のそれぞれについて、複数の画像特徴量をそれぞれ抽出し、抽出した画像特徴量間の相関係数行列を求め、次に前記画像取得手段で取得したフレーム画像から認識対象とする入力画像を抽出し、当該入力画像について、前記テンプレート画像と同様に複数の画像特徴量を抽出して画像特徴量間の相関係数行列を求め、求めた入力画像の相関係数行列と複数のテンプレート画像の相関係数行列を比較して入力画像と複数のテンプレート画像間の距離をそれぞれ算出し、算出した距離が最も小さいテンプレート画像の対象物を、入力画像の対象物として認識する画像認識処理手段とを備えたことを特徴とする物体認識装置。 - 画像認識処理手段で抽出する画像特徴量は、画像座標、輝度情報、色情報およびエッジ情報とすることを特徴とする請求項1記載の物体認識装置。
- 映像情報を記憶する映像情報データベースと、
前記映像情報データベースの映像情報からから任意のフレーム画像を取得する画像取得手段と、
種類別に対象物に関する複数のテンプレート画像を予め格納するテンプレート画像格納手段と、
前記テンプレート画像格納手段の複数のテンプレート画像のそれぞれについて、画像の部分領域を複数指定し、指定した各部分領域について複数の画像特徴量をそれぞれ抽出し、抽出した画像特徴量間の相関係数行列を部分領域ごとにそれぞれ求め、次に前記画像取得手段で取得したフレーム画像から認識対象とする入力画像を抽出し、当該入力画像について、前記テンプレート画像と同様に指定した複数の部分領域ごとに複数の画像特徴量を抽出して画像特徴量間の相関係数行列をそれぞれ求め、テンプレート画像の部分領域の相関係数行列と入力画像の対応する部分領域の相関係数行列を比較して両部分領域間の距離をそれぞれ算出し、算出した各部分領域間の距離に基づいて入力画像と各テンプレート画像間の距離をそれぞれ算出し、算出した画像間の距離が最も小さいテンプレート画像の対象物を、入力画像の対象物として認識する画像認識処理手段を備えたことを特徴とする物体認識装置。 - 画像認識処理手段で抽出する画像特徴量は、画像座標、輝度成分、色情報およびエッジ情報とすることを特徴とする請求項3記載の物体認識装置。
- 画像認識処理手段は、算出した各部分領域間の距離の合計値を、入力画像とテンプレート画像間の距離とすることを特徴とする請求項3または請求項4記載の物体認識装置。
- 画像認識処理手段は、算出した各部分領域間の距離の中で、最も大きい距離を取り除いた残りの和を、入力画像とテンプレート画像間の距離とすることを特徴とする請求項3または請求項4記載の物体認識装置。
- 画像認識処理手段は、算出した各部分領域間の距離の中で、最も小さい距離の上位数個の和を、入力画像とテンプレート画像間の距離とすることを特徴とする請求項3または請求項4記載の物体認識装置。
- 画像認識処理手段は、相関係数行列を比較する際に一般化固有値を用いて距離を算出することを特徴とする請求項1から請求項7のうちのいずれか1項記載の物体認識装置。
- 映像情報を記憶する映像情報データベースと、
前記映像情報データベースの映像情報からから任意のフレーム画像を取得する画像取得手段と、
種類別に対象物に関する複数のテンプレート画像を予め格納するテンプレート画像格納手段と、
テンプレート画像格納手段から読み込んだ同一種類の対象物に対する複数のテンプレート画像について、共通する任意のサイズの部分領域を複数選択し、選択した共通部分領域ごとに、その部分領域における有意な相関関係を持つ2つの画像特徴量を選び、選択した2つの画像特徴量間の相関係数を求め、求めた相関係数の値に基づいて類似度を算出する類似度算出関数を作成し、前記共通部分領域、前記2つの画像特徴量および前記類似度算出関数をセットとする相関パターンを複数生成して保持しておき、次に前記画像取得手段で取得したフレーム画像から認識対象とする入力画像を抽出し、当該入力画像について、前記生成保持する複数の相関パターンのそれぞれに従って、対応する共通部分領域をそれぞれ選択し、当該選択した共通部分領域に対して前記テンプレート画像と同様にして画像特徴量間の相関係数をそれぞれ算出し、算出した相関係数を対応する前記相関パターンの類似度算出関数にそれぞれ代入することでそれぞれの類似度を算出し、算出した各類似度を加算して最終的な類似度を算出し、同様な処理により他の種類の対象物に関しても相関パターンから得た類似度を加算して最終的な類似度を算出し、算出した全ての種類に対する最終的な類似度の中から、最も大きな類似度を持つ種類を求め、この求めた種類の対象物を目的の対象物として認識する画像認識処理手段とを備えたことを特徴とする物体認識装置。 - 映像情報データベースは、道路上をカメラで撮影した映像情報および当該映像情報に同期した当該映像情報を撮影したカメラの位置情報と姿勢情報を記憶しており、
画像認識処理手段で認識された対象物の画像座標を取得し、当該認識された対象物が写っている前後の複数フレームの画像から当該対象物と同一の対象物をそれぞれ検出して、これら検出した対象物の画像座標を取得し、前記映像情報データベースから、認識された対象物を含む同一の対象物を写した時点のカメラ位置とカメラ姿勢角をそれぞれ取得し、これら取得した対象物の複数の画像座標、カメラ位置とカメラ姿勢角に基づいてコスト関数を生成し、当該コスト関数が最小になる対象物の地理座標、カメラの地理座標およびカメラ姿勢角を算出する測位処理手段を備えたことを特徴とする請求項1から請求項9のうちのいずれか1項記載の物体認識装置。 - 測位処理手段で生成されたコスト関数は、画像座標誤差項、測位誤差項およびカメラの姿勢角度計測誤差項から構成されることを特徴とする請求項10記載の物体認識装置。
- 映像情報データベースは、道路上をカメラで撮影した映像情報および当該映像情報に同期した当該映像情報を撮影したカメラの位置情報と姿勢情報を記憶しており、
画像認識処理手段で認識された対象物の画像座標を取得し、当該認識された対象物が写っている前後の複数フレーム画像から当該対象物と同一の対象物をそれぞれ検出して、これら検出した対象物の画像座標を取得し、前記映像情報データベースから、認識された対象物を含む同一の対象物を写した時点のカメラ位置とカメラ姿勢角をそれぞれ取得し、これら取得した対象物の複数の画像座標、カメラ位置とカメラ姿勢角に基づいて対数尤度関数を求め、当該対数尤度関数を最大化する対象物の地理座標、カメラの地理座標およびカメラ姿勢角を算出する測位処理手段を備えたことを特徴とする請求項1から請求項9のうちのいずれか1項記載の物体認識装置。 - 地理座標を持つ二次元地図、道路を三次元表示した地理座標を持つ鳥瞰図および地理座標を持つ管理情報を含む表示データを格納する表示データ格納手段を当該装置内または装置外に備え、
映像情報データベースから読み出した実写映像をディスプレイに表示し、その際、前記表示データ格納手段から選択して読み出した表示データの画像を前記実写映像のフレーム画像の地理座標と同期させて前記ディスプレイの画面上に前記実写映像と一緒に表示する表示処理を行う表示処理手段を備えたことを特徴とする請求項10から請求項12のうちのいずれか1項記載の物体認識装置。 - 表示処理手段は、実写映像にカメラ視点変換を行って視点変換映像を生成し、当該視点変換映像をディスプレイの画面上に前記実写映像および表示データの画像と一緒に表示する表示処理を行うことを特徴とする請求項13記載の物体認識装置。
- 表示処理手段は、測位処理手段により算出された地理座標に対応する対象物のアイコンを、二次元地図および/もしくは鳥瞰図上の前記対象物の位置に表示する表示処理を行うことを特徴とする請求項13または請求項14記載の物体認識装置。
- 表示処理手段は、カメラの現在位置または当該カメラを搭載した車両の現在位置に同期させて実写映像および/もしくは表示データの画像をディスプレイ上に表示するようにしたことを特徴とする請求項13から請求項15のうちのいずれか1項記載の物体認識装置。
- 表示処理手段は、測位処理手段により算出された地理座標に対応する対象物の図形または位置マークを、実写映像上の前記対象物の位置に表示する表示処理を行うことを特徴とする請求項13から請求項16のうちのいずれか1項記載の物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006235944A JP4717760B2 (ja) | 2006-08-31 | 2006-08-31 | 物体認識装置および映像物体測位装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006235944A JP4717760B2 (ja) | 2006-08-31 | 2006-08-31 | 物体認識装置および映像物体測位装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008059319A JP2008059319A (ja) | 2008-03-13 |
JP4717760B2 true JP4717760B2 (ja) | 2011-07-06 |
Family
ID=39241967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006235944A Active JP4717760B2 (ja) | 2006-08-31 | 2006-08-31 | 物体認識装置および映像物体測位装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4717760B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010003043A2 (en) * | 2008-07-03 | 2010-01-07 | Nec Laboratories America, Inc. | Signet ring cell detector and related methods |
KR101003362B1 (ko) | 2008-09-09 | 2010-12-22 | 전자부품연구원 | 템플릿의 크기 결정장치 |
US8259998B2 (en) | 2008-09-30 | 2012-09-04 | Mazda Motor Corporation | Image processing device for vehicle |
DE102009027275A1 (de) | 2009-06-29 | 2010-12-30 | Robert Bosch Gmbh | Bildverarbeitungsverfahren für ein Fahrerassistenzsystem eines Kraftfahrzeugs zur Detektion und Klassifikation wenigstens eines Teils wenigstens eines vorgegebenen Bildelements |
JP2011053103A (ja) * | 2009-09-02 | 2011-03-17 | Denso Corp | 地図および動画を送信するデータサーバおよび動画・地図連動表示システム |
US8416263B2 (en) * | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
JP5669438B2 (ja) * | 2010-05-20 | 2015-02-12 | 株式会社パスコ | 対象管理画像生成装置及び対象管理画像生成プログラム |
JP5505729B2 (ja) * | 2011-01-27 | 2014-05-28 | アイシン・エィ・ダブリュ株式会社 | 案内装置、案内方法、および、案内プログラム |
JP5465205B2 (ja) * | 2011-03-16 | 2014-04-09 | 株式会社日立情報制御ソリューションズ | 携帯端末用撮像方向表示方法、撮像方向表示機能付き携帯端末、携帯端末用撮像方向表示システム |
GB201202344D0 (en) * | 2012-02-10 | 2012-03-28 | Isis Innovation | Method of locating a sensor and related apparatus |
GB2501466A (en) | 2012-04-02 | 2013-10-30 | Univ Oxford | Localising transportable apparatus |
KR102074209B1 (ko) * | 2013-08-12 | 2020-02-06 | 현대모비스 주식회사 | 운전 주의 정보 안내 장치 및 방법 |
JP6223256B2 (ja) * | 2014-03-28 | 2017-11-01 | 株式会社パスコ | マンホール蓋管理装置、マンホール蓋管理方法及びプログラム |
JP6830656B2 (ja) * | 2017-03-30 | 2021-02-17 | 株式会社エクォス・リサーチ | 対象物判定装置および対象物判定プログラム |
CN108389195B (zh) * | 2018-02-24 | 2021-02-23 | 北京理工大学 | 图像检测方法及装置 |
CN109668568A (zh) * | 2019-01-25 | 2019-04-23 | 天津煋鸟科技有限公司 | 一种利用环视全景成像进行定位导航的方法 |
JP7357454B2 (ja) * | 2019-03-25 | 2023-10-06 | 三菱電機株式会社 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
WO2021144874A1 (ja) * | 2020-01-15 | 2021-07-22 | 日本電信電話株式会社 | 撮影範囲推定装置、撮影範囲推定方法およびプログラム |
CN112507956B (zh) * | 2020-12-21 | 2024-06-28 | 阿波罗智联(北京)科技有限公司 | 信号灯识别方法、装置、电子设备、路侧设备和云控平台 |
CN114283296B (zh) * | 2021-12-20 | 2024-05-10 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于结构相似度的目标识别自评估方法 |
CN117496483B (zh) * | 2023-11-15 | 2024-05-31 | 深圳森云智能科技有限公司 | 夜间图像识别方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201975A (ja) * | 2005-01-19 | 2006-08-03 | Nippon Hoso Kyokai <Nhk> | 色識別装置及び色識別プログラム |
-
2006
- 2006-08-31 JP JP2006235944A patent/JP4717760B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201975A (ja) * | 2005-01-19 | 2006-08-03 | Nippon Hoso Kyokai <Nhk> | 色識別装置及び色識別プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2008059319A (ja) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4717760B2 (ja) | 物体認識装置および映像物体測位装置 | |
US11443444B2 (en) | Interior photographic documentation of architectural and industrial environments using 360 panoramic videos | |
Choi et al. | KAIST multi-spectral day/night data set for autonomous and assisted driving | |
CN105512646B (zh) | 一种数据处理方法、装置及终端 | |
CN101617197B (zh) | 测量装置、测量方法及地物识别装置 | |
US9465129B1 (en) | Image-based mapping locating system | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
JP2020064068A (ja) | 視覚強化ナビゲーション | |
JP4874607B2 (ja) | 物体測位装置 | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
CN109446973B (zh) | 一种基于深度神经网络图像识别的车辆定位方法 | |
CN109596121B (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN102737236A (zh) | 一种基于多模态传感器数据自动获取车辆训练样本方法 | |
MX2010014049A (es) | Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d). | |
JP5225542B2 (ja) | 地図情報生成方法、地図情報生成プログラム及び地図情報収集装置 | |
KR101575954B1 (ko) | 3차원 정합을 이용한 증강현실 장치 및 그 방법 | |
JP4517003B2 (ja) | 道路標識自動認識システム | |
JP5544595B2 (ja) | 地図画像処理装置、地図画像処理方法、および、コンピュータプログラム | |
JPWO2016031229A1 (ja) | 道路地図作成システム、データ処理装置および車載装置 | |
Yang et al. | Detecting small objects in urban settings using SlimNet model | |
TWI682361B (zh) | 路面影像重建與載具定位之方法與系統 | |
Meesuk et al. | Using multidimensional views of photographs for flood modelling | |
CN112818866A (zh) | 车辆定位的方法、装置及电子设备 | |
KR102249380B1 (ko) | 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110322 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110330 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140408 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |