JP5942771B2 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP5942771B2 JP5942771B2 JP2012230850A JP2012230850A JP5942771B2 JP 5942771 B2 JP5942771 B2 JP 5942771B2 JP 2012230850 A JP2012230850 A JP 2012230850A JP 2012230850 A JP2012230850 A JP 2012230850A JP 5942771 B2 JP5942771 B2 JP 5942771B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- unit
- edge image
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 103
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 119
- 230000008569 process Effects 0.000 claims description 114
- 238000003384 imaging method Methods 0.000 claims description 47
- 238000000605 extraction Methods 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 5
- 230000004069 differentiation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
まず、実施例1における画像処理システム1の構成について説明する。画像処理システム1は、例えば、移動体としての車両に設置されたカメラと、車両に搭載された処理装置とを有する車載システムである。
図2は、実施例1における画像処理システム1の構成の一例を示すブロック図である。図2に示す画像処理システム1は、画像処理装置10と、撮像部20とを有する。撮像部20は、撮像部A20−1、撮像部B20−2、撮像部C20−3、撮像部D20−4を有する。以下、各撮像部を区別しない場合は、各撮像部を総称して撮像部20とも称する。撮像部A20−1は、例えばフロントカメラ、撮像部B20−2は、例えばリアカメラ、撮像部C20−3は、例えばライトカメラ、撮像部D20−4は、例えばレフトカメラである。
図3は、実施例1における画像処理装置10aの機能の一例を示すブロック図である。以下、実施例1における画像処理装置10の機能を説明する際は、画像処理装置10aと表記する。図3に示す画像処理装置10aは、入力部101と、投影画像生成部102と、第1画像DB(データベース)103と、抽出部104と、除去部105と、照合部106と、推定部107とを有する。
投影画像生成部102は、移動体に定めた移動体座標系M−XYZを設定する。ここでは、路面上に原点を取り、進行方向をY軸、横方向をX軸、路面から上方向をZ軸とする。
v=pm(px、py) ・・・式(1)
px=fx×r×cos(φ)+cx ・・・式(2)
py=fy×r×sin(φ)+cy ・・・式(3)
r=tan(θ) ・・・式(4)
θ=arctan(sqrt(QX^2+QY^2)/QZ) ・・・式(5)
φ=arctan(QX/QY) ・・・式(6)
QV=(QX,QY,QZ)^T ・・・式(7)
QV=Rm*(U−Tm) ・・・式(8)
U=(UX,UY,0) ・・・式(9)
UX=MX×(x−hx) ・・・式(10)
UY=MY×(y−hy) ・・・式(11)
ただし、(fx、fy)は、撮像部20の横方向と縦方向の焦点距離を表し、(cx、cy)は、画像中心画素位置を表し、pm(px、py)は、m番目の撮像画像の位置(px、py)における画素値を表すものとする。
MX=dxm×WX ・・・式(12)
MY=dym×WY ・・・式(13)
以上の構成、機能を有することで、移動体に設置された撮像部から撮像された画像を用いて移動量を推定する際、撮像画像に映りこんだ移動体の影の影響を除去して適切に移動量を推定することができる。
次に、実施例1における移動量推定の流れについて具体例を用いて説明する。図6は、実施例1における移動量推定を説明する図である。
次に、実施例1における画像処理システム1の動作について説明する。図7は、実施例1における画像処理の一例を示すフローチャートである。図7に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS103までの処理が行われる。
図8は、実施例1における影エッジ画像の生成処理の一例を示すフローチャートである。図8に示す処理で用いるパラメータは、以下の通りである。
E1(x,y):前時刻での路面投影エッジ画像(x、yは画像内の画素位置を表す)
E2(x,y):現時刻での路面投影エッジ画像(x、yは画像内の画素位置を表す)
Es(x,y):前時刻の座標系における影エッジの有無を表すフラグ画像(x,yは画像内の画素位置を、Es(x,y)が1は、影エッジであることを表す)
th1:エッジの存在を判定するための閾値で、一例としてth1=1
図8に示すステップS201で、抽出部104は、Esを0に初期化する。ステップS202で、抽出部104は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
E1(j,i)≧th1かつ
E2(j,i)≧th1 ・・・条件(1)
条件(1)が満たされれば(ステップS206−YES)ステップS207に進み、条件(1)が満たされなければ(ステップS206−NO)ステップS208に進む。
図9は、実施例1における非影エッジ画像の生成処理の一例を示すフローチャートである。図9に示す処理で用いる新たなパラメータは、以下の通りである。
Ens(x,y):前時刻の座標系における非影エッジの有無を表すフラグ画像(x,yは画像内の画素位置を、Ens(x,y)が1は、非影エッジであることを表す)
図9に示すステップS301で、除去部105は、Ensを0に初期化する。ステップS302で、除去部105は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
E1(j,i)≧th1かつ
Es(j,i)==0 ・・・条件(2)
条件(2)が満たされれば(ステップS306−YES)ステップS307に進み、条件(2)が満たされなければ(ステップS306−NO)ステップS308に進む。
次に、実施例2における画像処理システムについて説明する。実施例2では、影部分と非影部分との重み係数を含む重み画像を生成することで、各部の影響を可変にすることができる。
実施例2における画像処理システムの構成は、図2に示した実施例1における構成と同様であるため、同じ符号を用いる。
図10は、実施例2における画像処理装置10bの機能の一例を示すブロック図である。以下、実施例2における画像処理装置10の機能を説明する際は、画像処理装置10bと表記する。図10に示す画像処理装置10bは、入力部101と、投影画像生成部102と、第1画像DB103と、抽出部104と、除去部105と、重み画像生成部201と、照合部202と、推定部107とを有する。以下、実施例1と異なる機能について主に説明する。
次に、実施例2における重み画像Wについて説明する。図11は、実施例2における重み画像の生成を説明する図である。図11に示す例では、影エッジ画像(Es)で1の値を有する位置に重み係数w1が与えられ、非影エッジ画像(Ens)で1の値を有する位置に重み係数w2が与えられると、重み画像Wが生成される。なお、w2とw1との関係は、w2>w1とする。これにより、影部分の影響を非影部分よりも小さくすることができる。
次に、実施例2における画像処理システムの動作について説明する。図12は、実施例2における画像処理の一例を示すフローチャートである。図12に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS403までの処理が行われる。
図13は、実施例2における重み画像生成処理の一例を示すフローチャートである。図13に示す処理で用いる新たなパラメータは、以下の通りである。
W(x,y):重み係数を含む重み画像(x,yは画像内の画素位置を表す)
図13に示すステップS501で、重み画像生成部201は、重み画像W(x,y)を0に初期化する。ステップS502で、重み画像生成部201は、iを0に設定する。
図14は、実施例2における照合処理の一例を示すフローチャートである。図14に示す処理で用いる新たなパラメータは、以下の通りである。
SC:スコア値
SCmax:最大スコア値
(wx、wy):エッジ画像の横幅、縦幅
(DX,DY):横方向摂動量と縦方向摂動量で共に予め定めた定数(例:10,10)
S:エッジスコア加算値
D:重み加算値
(dx、dy):摂動値
(i,j):エッジ画像(E1)の画像内位置
(ii,jj):エッジ画像(E2)の画像内位置
(dxm、dym):最良スコア値を与える最良摂動量
M:大きな定数(例えば1000)
図14に示すステップS601で、照合部202は、SCmaxを−1に、dxmとdymとを0に設定する。ステップS602で、照合部202は、dyを−DYに設定する。
ii=i+dy ・・・式(14)
jj=j+dx ・・・式(15)
ステップS614で、照合部202は、次の条件(3)を満たすか否かを判定する。
(ii<0 or ii≧wy)or
(jj<0 or jj≧wx) ・・・条件(3)
この条件(3)は、エッジ画像同士が重複しているかを判定する条件である。条件(3)が満たされれば(ステップS614−YES)ステップS617に進み、条件(3)が満たされなければ(ステップS614−NO)ステップS615に進む。
v1=E1(j,i)
v2=E2(jj,ii)
ww=W(j,i)
ステップS616で、照合部は、次の算出を行う。
S=S+ww×(M−|v1−v2|) ・・・式(16)
D=D+ww ・・・式(17)
ステップS617で、照合部202は、jを1つインクリメントする。ステップS617の処理の後は、ステップS611に戻る。
SC=S/D ・・・式(18)
ステップS620で、照合部202は、SCにs1を代入する。s1は、予め設定された小さな値である。s1は、例えば負の値である。
SCmax=SC
dxm=dx
dym=dy
ステップS623で、照合部202は、dxを1つインクリメントする。ステップS623の処理の後は、ステップS605に戻る。
次に、実施例3における画像処理システムについて説明する。実施例3では、移動体の影部分として削除したエッジのうち、移動体の影以外と推定されるエッジを補完することで、移動量の推定精度を向上させることができる。
実施例3における画像処理システムの構成は、図2に示した実施例1における構成と同様であるため、同じ符号を用いる。
図15は、実施例3における画像処理装置10cの機能の一例を示すブロック図である。以下、実施例3における画像処理装置10の機能を説明する際は、画像処理装置10cと表記する。
w2>w3>w1
w1:影エッジ画像(第1エッジ群)のエッジのうち、第2エッジ群及び第3エッジ画像のエッジ以外のエッジに位置する重み係数
w2:非影エッジ画像(第2エッジ群)のエッジに位置する重み係数と
w3:第3エッジ画像のエッジのうち、非影エッジ画像のエッジ以外のエッジに位置する重み係数
実施例3における重み画像の生成は、第3エッジ画像を用いて、影エッジ画像で除去されたエッジを補完することに相当する。補完と言える理由は、第3エッジ画像は、エッジパターンで照合が取れたエッジであり、例えば路面上のパターンである可能性が高く、移動体の影部分ではないと推定されるからである。
次に、実施例3における移動量推定の流れについて具体例を用いて説明する。図16は、実施例3における移動量推定を説明する図である。
次に、実施例3における重み画像Wについて説明する。図17は、実施例3における重み画像の生成を説明する図である。図17に示す例では、影エッジ画像(Es)で1の値を有する位置に重み係数w1が与えられ、非影エッジ画像(Ens)で1の値を有する位置に重み係数w2が与えられ、対応エッジ画像(Ems)で1の値を有する位置に重み係数w3が与えられると、重み画像Wが生成される。なお、w3とw2とw1との関係は、w2>w3>w1とする。なお、w2とw3は、同じでもよい。これにより、移動体の影部分の影響を非影部分よりも小さくすることができる。
次に、実施例3における画像処理システムの動作について説明する。図18は、実施例3における画像処理の一例を示すフローチャートである。図18に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS703までの処理が行われる。
図19は、実施例3における対応エッジ画像の生成処理の一例を示すフローチャートである。図19に示す処理で用いる新たなパラメータは、以下の通りである。
(sx、sy):照合処理によって求まった前時刻と現時刻とのエッジ画像が最も対応するための画像のずれ量
Em(x,y):前時刻の座標系における対応エッジの有無を表すフラグ画像(x、yは画像内の画素位置を、Em(x,y)が1は、対応エッジであることを表す)
図19に示すステップS801で、対応エッジ画像生成部301は、Emを0に初期化する。ステップS802で、対応エッジ画像生成部301は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
E1(j,i)≧th1 かつ
E2(j+sx,i+sy)≧th1 ・・・条件(4)
条件(4)が満たされれば(ステップS806−YES)ステップS807に進み、条件(4)が満たされなければ(ステップS806−NO)ステップS808に進む。
Ens(j,i)==1 かつ
E2(j+sx,i+sy)≧th1 ・・・条件(5)
ステップS807で、対応エッジ画像生成部301は、Em(j,i)に1を代入する。ステップS808で、対応エッジ画像生成部301は、jを1つインクリメントする。ステップS808の後、ステップS805に戻る。
図20は、実施例3における重み画像生成処理の一例を示すフローチャートである。図20に示すステップS901〜S907の処理は、図13に示すステップS501〜S507の処理と同様である。
・ 自車の挙動を解析し、運転支援や運転危険分析への活用
・ 移動量と映像特徴点追跡とを用いる移動ステレオにより周囲物位置の計測
なお、前述した各実施例で説明した移動量推定処理を含む画像処理を実現するためのプログラムを記録媒体に記録することで、各実施例で説明した処理をコンピュータに実施させることができる。
(付記1)
移動体に搭載された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出する抽出部と、
前記第1エッジ画像及び/又は前記第2画像のエッジ画像から、前記抽出部により抽出されたエッジを除去する除去部と、
前記除去部により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う照合部と、
前記照合部により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する推定部と、
を備える画像処理装置。
(付記2)
前記第1エッジ画像のエッジのうち、前記抽出部により抽出されたエッジを含む第1エッジ群と、該第1エッジ群以外のエッジを含む第2エッジ群とで、異なる重み係数を含む重み画像を生成する重み画像生成部をさらに備え、
前記照合部は、
前記重み画像を用いて前記第1エッジ画像及び前記第2エッジ画像の一致度を求め、該一致度を用いて前記照合処理を行う付記1記載の画像処理装置。
(付記3)
前記第1エッジ画像及び前記第2エッジ画像の照合処理で対応が取れたエッジを含む第3エッジ画像を生成する対応エッジ画像生成部をさらに備え、
前記重み画像生成部は、
前記第2エッジ群のエッジ位置に対する第2重み係数と、前記第3エッジ画像のエッジのうち、前記第2エッジ群のエッジ以外のエッジ位置に対する第3重み係数と、前記第1エッジ群のエッジのうち、前記第2エッジ群及び前記第3エッジ画像のエッジ以外のエッジ位置に対する第1重み係数との関係を、前記第2重み係数>前記第3重み係数>前記第1重み係数に設定する付記2記載の画像処理装置。
(付記4)
複数の撮像部から撮像された各画像を用いて、上方から前記移動体を含む下面側を投影した画像を示す投影画像を生成する投影画像生成部をさらに備え、
前記抽出部は、
前記第1時刻の投影画像から抽出された第1エッジ画像と、前記第2時刻の投影画像から抽出された第2エッジ画像とを用いる付記1乃至3いずれか一項に記載の画像処理装置。
(付記5)
前記重み画像生成部は、
前記第1エッジ画像における前記第2エッジ群のエッジに対し、前記第3エッジ画像に含まれるエッジを補完する付記3記載の画像処理装置。
(付記6)
移動体に搭載された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出し、
前記第1エッジ画像及び/又は前記第2画像のエッジ画像から、前記抽出されたエッジを除去する除去処理を行い、
前記除去処理により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行い、
前記照合処理により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する
処理をコンピュータが実行する画像処理方法。
10 画像処理装置
20 撮像部
101 入力部
102 投影画像生成部
103 第1画像DB
104 抽出部
105 除去部
106、202、304 照合部
107 推定部
201、303 重み画像生成部
301 対応エッジ画像生成部
302 第2画像DB
Claims (5)
- 移動体に設置された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出する抽出部と、
前記第1エッジ画像及び/又は前記第2エッジ画像から、前記抽出部により抽出されたエッジを除去する除去部と、
前記除去部により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う照合部と、
前記照合部により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する推定部と、
を備える画像処理装置。 - 前記第1エッジ画像のエッジのうち、前記抽出部により抽出されたエッジを含む第1エッジ群と、該第1エッジ群以外のエッジを含む第2エッジ群とで、異なる重み係数を含む重み画像を生成する重み画像生成部をさらに備え、
前記照合部は、
前記重み画像を用いて前記第1エッジ画像及び前記第2エッジ画像の一致度を求め、該一致度を用いて前記照合処理を行う請求項1記載の画像処理装置。 - 前記第1エッジ画像及び前記第2エッジ画像の照合処理で対応が取れたエッジを含む第3エッジ画像を生成する対応エッジ画像生成部をさらに備え、
前記重み画像生成部は、
前記第2エッジ群のエッジ位置に対する第2重み係数と、前記第3エッジ画像のエッジのうち、前記第2エッジ群のエッジ以外のエッジ位置に対する第3重み係数と、前記第1エッジ群のエッジのうち、前記第2エッジ群及び前記第3エッジ画像のエッジ以外のエッジ位置に対する第1重み係数との関係を、前記第2重み係数>前記第3重み係数>前記第1重み係数に設定する請求項2記載の画像処理装置。 - 複数の撮像部から撮像された各画像を用いて、上方から前記移動体を含む下面側を投影した画像を示す投影画像を生成する投影画像生成部をさらに備え、
前記抽出部は、
前記第1時刻の投影画像から抽出された第1エッジ画像と、前記第2時刻の投影画像から抽出された第2エッジ画像とを用いる請求項1乃至3いずれか一項に記載の画像処理装置。 - 移動体に設置された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出し、
前記第1エッジ画像及び/又は前記第2エッジ画像から、前記抽出されたエッジを除去する除去処理を行い、
前記除去処理により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行い、
前記照合処理により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する
処理をコンピュータが実行する画像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012230850A JP5942771B2 (ja) | 2012-10-18 | 2012-10-18 | 画像処理装置及び画像処理方法 |
EP13188258.1A EP2722814A3 (en) | 2012-10-18 | 2013-10-11 | Image processing device and image processing method |
US14/053,920 US9208387B2 (en) | 2012-10-18 | 2013-10-15 | Image processing device and image processing method to estimate movement of a movable body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012230850A JP5942771B2 (ja) | 2012-10-18 | 2012-10-18 | 画像処理装置及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014081874A JP2014081874A (ja) | 2014-05-08 |
JP5942771B2 true JP5942771B2 (ja) | 2016-06-29 |
Family
ID=49382251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012230850A Expired - Fee Related JP5942771B2 (ja) | 2012-10-18 | 2012-10-18 | 画像処理装置及び画像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9208387B2 (ja) |
EP (1) | EP2722814A3 (ja) |
JP (1) | JP5942771B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6511777B2 (ja) * | 2014-11-10 | 2019-05-15 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6503308B2 (ja) * | 2016-02-18 | 2019-04-17 | 富士通フロンテック株式会社 | 画像処理装置及び画像処理方法 |
CN109740483A (zh) * | 2018-12-26 | 2019-05-10 | 南宁五加五科技有限公司 | 一种基于深层神经网络的水稻生长期检测方法 |
JP7279685B2 (ja) * | 2020-04-23 | 2023-05-23 | トヨタ自動車株式会社 | 情報処理システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE59305180D1 (de) | 1992-11-10 | 1997-02-27 | Siemens Ag | Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz |
DE69624980T2 (de) * | 1995-05-18 | 2003-07-17 | Omron Corp., Kyoto | Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras |
JP2003178309A (ja) | 2001-10-03 | 2003-06-27 | Toyota Central Res & Dev Lab Inc | 移動量推定装置 |
JP4270183B2 (ja) * | 2005-08-22 | 2009-05-27 | トヨタ自動車株式会社 | 白線検出装置 |
JPWO2007083494A1 (ja) * | 2006-01-17 | 2009-06-11 | 日本電気株式会社 | 図形認識装置、図形認識方法および図形認識プログラム |
JP2009017462A (ja) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | 運転支援システム及び車両 |
JP5083142B2 (ja) * | 2008-09-19 | 2012-11-28 | 三菱自動車工業株式会社 | 車両周辺監視装置 |
US9177389B2 (en) * | 2009-01-09 | 2015-11-03 | Konica Minolta Holdings, Inc. | Motion vector generation apparatus and motion vector generation method |
JP5066558B2 (ja) * | 2009-09-17 | 2012-11-07 | 日立オートモティブシステムズ株式会社 | 自車影認識装置 |
JP5505723B2 (ja) * | 2010-03-31 | 2014-05-28 | アイシン・エィ・ダブリュ株式会社 | 画像処理システム及び位置測位システム |
US8294794B2 (en) * | 2010-07-06 | 2012-10-23 | GM Global Technology Operations LLC | Shadow removal in an image captured by a vehicle-based camera for clear path detection |
WO2012016374A1 (en) * | 2010-08-03 | 2012-02-09 | Empire Technology Development Llc | Method for identifying objects in video |
-
2012
- 2012-10-18 JP JP2012230850A patent/JP5942771B2/ja not_active Expired - Fee Related
-
2013
- 2013-10-11 EP EP13188258.1A patent/EP2722814A3/en not_active Withdrawn
- 2013-10-15 US US14/053,920 patent/US9208387B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014081874A (ja) | 2014-05-08 |
EP2722814A2 (en) | 2014-04-23 |
EP2722814A3 (en) | 2015-10-28 |
US9208387B2 (en) | 2015-12-08 |
US20140112543A1 (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658504B (zh) | 地图数据标注方法、装置、设备及存储介质 | |
KR102051889B1 (ko) | 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템 | |
CN109829875B (zh) | 用于估计视差的方法和装置 | |
JP6230751B1 (ja) | 物体検出装置および物体検出方法 | |
JP6857697B2 (ja) | 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体 | |
CN110349213A (zh) | 基于深度信息的位姿确定方法、装置、介质与电子设备 | |
CN111024040A (zh) | 距离估计方法和设备 | |
JP5942771B2 (ja) | 画像処理装置及び画像処理方法 | |
US9928426B1 (en) | Vehicle detection, tracking and localization based on enhanced anti-perspective transformation | |
US11189032B2 (en) | Method and apparatus for extracting a satellite image-based building footprint | |
JP2012212282A (ja) | 路面状態検出装置、路面状態検出方法、及び路面状態検出プログラム | |
JP5552892B2 (ja) | 画像処理装置および画像処理プログラム | |
KR20170091496A (ko) | 양안 시차 영상의 처리 방법 및 장치 | |
WO2009116590A1 (ja) | 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム | |
US9959661B2 (en) | Method and device for processing graphics data in graphics processing unit | |
JP2011134012A (ja) | 画像処理装置、その画像処理方法及びプログラム | |
CN105868767B (zh) | 人脸特征点定位方法和装置 | |
JP5987660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN115493612A (zh) | 一种基于视觉slam的车辆定位方法及装置 | |
CN109523570A (zh) | 运动参数计算方法及装置 | |
US9569674B2 (en) | Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program | |
KR101436695B1 (ko) | 깊이 영상을 이용한 손 검출 장치 및 방법 | |
JP5867167B2 (ja) | 影検出装置 | |
JP7265961B2 (ja) | アノテーション支援方法、アノテーション支援装置、及びアノテーション支援プログラム | |
JP6996200B2 (ja) | 画像処理方法、画像処理装置、および画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5942771 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |