JP2015115760A - 映像処理装置、映像処理システムおよび映像処理方法 - Google Patents

映像処理装置、映像処理システムおよび映像処理方法 Download PDF

Info

Publication number
JP2015115760A
JP2015115760A JP2013256200A JP2013256200A JP2015115760A JP 2015115760 A JP2015115760 A JP 2015115760A JP 2013256200 A JP2013256200 A JP 2013256200A JP 2013256200 A JP2013256200 A JP 2013256200A JP 2015115760 A JP2015115760 A JP 2015115760A
Authority
JP
Japan
Prior art keywords
processing
image
video
related information
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013256200A
Other languages
English (en)
Other versions
JP6080751B2 (ja
Inventor
加藤 陽一
Yoichi Kato
陽一 加藤
哲司 羽下
Tetsuji Hashimo
哲司 羽下
彰一 清水
Shoichi Shimizu
彰一 清水
信太郎 渡邉
Shintaro Watanabe
信太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013256200A priority Critical patent/JP6080751B2/ja
Publication of JP2015115760A publication Critical patent/JP2015115760A/ja
Application granted granted Critical
Publication of JP6080751B2 publication Critical patent/JP6080751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】カメラ等により取得した映像に含まれる対象物を、負荷を少なくしつつリアルタイムで強調表示させることができる映像処理装置、システムおよび方法を提供する。【解決手段】対象物を含む映像から画像を取得する画像取得部2と、画像取得部2により取得された画像を画像処理するか推定処理するかをフレームごとに判定する処理判定部6と、処理判定部6により画像処理すると判定された場合に、対象物の位置および領域を示す関連情報を生成する処理を行う画像処理部7と、処理判定部6により推定処理すると判定された場合に、画像処理部2により過去のフレームから生成された関連情報に基づいて、関連情報が生成されていない対象物の関連情報を推定して、当該推定した関連情報を生成する推定処理部9と、画像処理部7および推定処理部9により生成された関連情報をすべてのフレームの対象物に付加して表示装置10に表示させる表示制御部5とを備える。【選択図】図1

Description

この発明は、映像に含まれる対象物に関連情報を付加して表示させる映像処理装置、映像処理システムおよび映像処理方法に関するものである。
従来より、カメラ等により取得した映像に含まれる対象物に、当該対象物を強調する関連情報を付加して表示させる装置が期待されることがある。
例えば、特許文献1には、予め収録されている動画中のターゲット(対象物)にアンカー(関連情報)を設定する装置において、すべてのフレームに対してアンカーを設定する作業工数削減のため、基準となるフレームのターゲットに対してアンカーを設定し、他のフレームのターゲットについては、設定したアンカーをもとに補間により自動的にアンカーが設定されるようにしたことが記載されている。
特開平11−328433号公報
しかしながら、例えば、自動車等の車両を運転中のドライバーに対して、危険な場所を歩いている歩行者がいることを警告するために、カメラ等により取得した映像の中の歩行者をリアルタイムで強調表示させたい場合には、特許文献1のような従来の技術を適用することはできず、すべてのフレームに対して関連情報(枠など)を設定しなければならないため、手間と負荷がかかるという課題があった。
また、既に収録されている映像の場合であっても、それらの映像を再生中にリアルタイムで強調表示させたい対象物があった場合には、特許文献1のような従来の技術を適用することはできず、やはりすべてのフレームに対して関連情報(枠など)を設定しなければならないため、手間と負荷がかかるという課題があった。
この発明は、上記のような課題を解決するためになされたものであり、カメラ等により取得した映像に含まれる対象物を、負荷を少なくしつつリアルタイムで強調表示させることができる映像処理装置、映像処理システムおよび映像処理方法を提供することを目的とする。
上記目的を達成するため、この発明は、対象物を含む映像を表示装置に表示させる映像処理装置において、前記映像から画像を取得する画像取得部と、前記画像取得部により取得された画像を画像処理するか推定処理するかをフレームごとに判定する処理判定部と、前記処理判定部により画像処理するフレームであると判定された場合に、前記画像取得部により取得された画像を認識して、前記対象物の位置および領域を示す関連情報を生成する処理を行う画像処理部と、前記処理判定部により推定処理するフレームであると判定された場合に、前記画像処理部により生成された過去のフレームの関連情報に基づいて、前記関連情報が生成されていない対象物の関連情報を推定して、当該推定した関連情報を生成する推定処理部と、前記画像処理部および前記推定処理部により生成された関連情報をすべてのフレームの前記対象物に付加して前記表示装置に表示させる表示制御部とを備えたことを特徴とする。
この発明によれば、カメラ等により取得した映像に含まれる対象物を、リアルタイムで強調表示させることができ、かつ、その際の処理負荷およびコストを大幅に削減することができる。
実施の形態1における映像処理システムの構成を示すブロック図である。 実施の形態1における映像処理装置の処理を示すフローチャートである。 実施の形態1の推定処理部におけるタグ推定方法の一例を示す説明図である。 実施の形態1の推定処理部におけるタグ推定方法の別の一例を示す説明図である。 実施の形態1の推定処理部におけるタグ推定方法のさらに別の一例を示す説明図である。 実施の形態2における映像処理システムの構成を示すブロック図である。 実施の形態2における映像処理装置の処理を示すフローチャートである。 実施の形態3における映像処理システムの構成を示すブロック図である。 実施の形態3における映像処理装置の処理を示すフローチャートである。 実施の形態4における映像処理システムの構成を示すブロック図である。 実施の形態4における映像処理装置の処理を示すフローチャートである。 実施の形態5における映像処理システムの構成を示すブロック図である。 実施の形態5における映像処理装置の処理を示すフローチャートである。 実施の形態6における映像処理システムの構成を示すブロック図である。 実施の形態6における映像処理装置の処理を示すフローチャートである。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1における映像処理システムの構成を示すブロック図である。この映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置100と、表示装置10とを備えている。この発明では、この映像処理装置100が自動車等の車両に搭載され、車両に関する映像を表示装置10に表示させる場合を例に説明する。
また、映像処理装置100は、画像取得部2、時間制御部3、画像記憶部4、表示制御部5、処理判定部6、画像処理部7、関連情報記憶部8、推定処理部9を備え、映像取得装置(カメラ)1から取得した映像を処理して、表示装置10に表示させる装置である。
映像取得装置(カメラ)1は、車載用カメラ等であり、所望の映像を取得する。
画像取得部2は、映像取得装置(カメラ)1が取得した映像から、一定時間ごとに画像情報を取得する。この画像取得周期は、時間制御部3から一定周期にて送信される画像取得命令によって制御される。また、取得した画像は、画像記憶部4に記憶される。
時間制御部3は、画像の取得タイミングを制御するものであり、画像取得部2に対して画像取得命令を送信して画像取得の指示を行う。
画像記憶部4は、画像取得部2から送信された画像を記憶する記憶部である。ここで記憶された画像は、表示制御部5に送信され、表示装置10に表示される。また、処理判定部6により画像処理を行いフレームであると判定されている場合には画像処理部7に送信され、対象物の画像認識処理が行われる。
表示制御部5は、取得した画像をタグ情報(関連情報)とともに表示装置10に表示させる制御部である。画像記憶部4より送信された画像を表示装置10に表示させるとともに、画像処理部7の画像認識処理または推定処理部9のタグ推定処理によって生成されたタグ情報(関連情報)を関連情報記憶部8から受信して画像に付加し、表示装置10に表示させる。
ここで、タグ情報(関連情報)とは、映像に含まれる移動物体や人物等の対象物の位置および領域を示す情報のことである。
処理判定部6は、画像取得部2により取得された画像が画像処理を行うフレームであるかタグ推定処理を行うフレームであるかをフレームごとに判定する。画像記憶部4より記憶完了通知を受けたタイミングで、画像処理部7または推定処理部9のいずれかに処理実行命令を通知する。
画像処理部7は、画像取得部2により取得された画像に対して対象物の画像認識処理を行い、当該対象物の位置および領域を示すタグ情報(関連情報)を生成する。処理判定部6によって画像処理を行うフレームであると判定された場合に、その通知を受けて、画像記憶部4に記憶された画像を取得し画像認識処理を行い、タグ情報(関連情報)を生成する。処理の結果得られたタグ情報(関連情報)は、関連情報記憶部8に記憶され、さらに表示制御部5に送信された後、取得画像とともに表示装置10に表示される。
関連情報記憶部8は、画像認識処理またはタグ情報推定処理によって生成されたタグ情報(関連情報)を記憶する記憶部である。画像処理部7または推定処理部9において生成されて送信されたタグ情報(関連情報)を記憶する。また、推定処理部9がタグ推定を行う際、記憶された過去のタグ情報(関連情報)を推定のリファレンスとして送信する役割も担う。
推定処理部9は、過去のフレームから生成されたタグ情報(関連情報)に基づいてタグ情報推定処理を行い、タグ情報(関連情報)が生成されていない対象物の位置および領域を示すタグ情報(関連情報)を推定して、その推定したタグ情報(関連情報)を自動的に生成する。処理判定部6によってタグ推定を行うフレームであると判定された場合に、その通知を受けて、関連情報記憶部8に記憶された過去のタグ情報(関連情報)に基づいて、タグ情報(関連情報)が生成されていない対象物のタグ情報(関連情報)を推定処理によって生成する。処理の結果得られたタグ情報(関連情報)は、関連情報記憶部8に記憶され、さらに表示制御部5に送信された後、取得画像とともに表示装置10に表示される。
表示装置10は、表示制御部5からの指示に基づいて、取得画像をタグ情報(関連情報)とともに表示する装置である。この発明のように、映像処理装置100が自動車等の車両に搭載される場合には、表示装置10としては、例えば、カーナビゲーション画面や、ヘッドアップディスプレイなどが挙げられる。
ここで、映像処理装置100の処理について、図2に示すフローチャートを用いて説明する。
図2は、この実施の形態1における映像処理装置100の処理を示すフローチャートである。
まず初めに、時間制御部3が画像処理部に対して画像の取得命令を通知する(ステップST1)。ここでは、一定時間の周期にて、この画像の取得命令が通知される。
画像取得の指示(命令)を受けた画像取得部2は、映像取得装置(カメラ)1で取得された映像から画像情報を取得し(ステップST2)、取得した画像データを画像記憶部4に送信する。この結果、画像取得部2で取得された画像が画像記憶部4に記憶される(ステップST3)。
画像記憶部4は、記憶が完了すると画像記憶完了通知を処理判定部6に対して送信し、完了通知を受けた処理判定部6は、その画像に対して対象物の画像認識処理を行うか、タグの推定処理を行うかを判定する(ステップST4)。例えば、最初の3フレームは画像認識処理を行い、その後10フレームはタグ推定処理を行い、その後、再び1フレームは画像認識処理、10フレームはタグ推定処理で1フレームは画像認識処理とし、これを繰り返すなど、一定間隔で画像認識処理を行う方式とすればよい。
例えば最初のフレームであった場合など、処理判定部6により画像認識処理を行うと判定された場合(ステップST4のYESの場合)には、画像処理部7が処理判定部6から画像処理実行命令の通知を受け、画像記憶部4から取得した画像に対して対象物の画像認識処理を行う(ステップST5)。これにより得られた対象物のタグ情報(関連情報)は、関連情報記憶部8に送信されて記憶される(ステップST6)。
そして、表示制御部5は、画像記憶部4から取得した画像データと、関連情報記憶部8から取得したタグ情報(関連情報)とを合わせて、表示装置10に表示させる(ステップST7)。表示形式としては、画像にタグ情報(関連情報)を示す枠などをオーバーレイ表示させる等が挙げられる。
一方、例えば4フレームに入った場合など、ステップST4の判定処理において、処理判定部6によりタグ推定処理を行うと判定された場合(ステップST4のNOの場合)には、推定処理部9が処理判定部6からタグ情報推定処理実行命令の通知を受け、関連情報記憶部8に記憶されている過去フレームのタグ情報(関連情報)を取得して参照する(ステップST11)。
その後、過去のタグ情報(関連情報)から、最適なタグ推定方法を選択して決定する(ステップST12)。具体的なタグ推定方法については後述する。
そして、選定した推定方法にてタグの推定生成処理を行う(ステップST13)。推定処理によって生成されたタグ情報(関連情報)は、画像認識処理の場合と同様に関連情報記憶部8に送信されて記憶され(ステップST6)、その後の処理(ステップST7)も同様である。
ここで、ステップST12におけるタグ推定方法について、図3を用いて説明する。
図3は、推定処理部9におけるタグ推定方法の一例を示す説明図である。なお、ここでは、表示装置10に表示された対象物について説明するために、最初の3フレームは画像認識処理、その後5フレームはタグ推定処理、再び1フレームが画像認識処理でその後の5フレームはタグ推定処理とし、あとはこの「1フレームが画像認識処理でその後5フレームがタグ推定処理」というのを繰り返す場合を例に、説明する。
すなわち、第1フレームから第3フレームは画像認識処理、第4フレームから第8フレームはタグ推定処理、第9フレームは画像認識処理、第10〜第14フレームはタグ推定処理、第15フレームは画像認識処理、第16フレームから第20フレームはタグ推定処理、・・・という規則が予め設定されているものとし、処理判定部6はこれにしたがってそのフレームの画像が画像認識処理を行うものであるかタグ推定処理を行うものであるかを判定する。
なお、タグ推定処理では、過去(過去フレーム)のタグ情報からタグ推定を行うため、最初の第1フレームのタグ情報のみから第2フレームのタグ情報を推定することはできないので、最初の3フレームは画像認識処理を行って対象物の位置および領域を決定することとして説明するが、最初の2フレームだけ画像認識処理を行うこととするか、最初の4フレーム以上連続して画像認識処理を行うこととするかは、任意に設定すればよい。
図3(a)は、第1フレーム目の画像を示しており、映像取得装置(カメラ)1が取得した映像から、画像取得部2が歩行者(対象物)20の画像を右端に取得した結果、その歩行者(対象物)20に画像認識処理により生成されたタグ情報(関連情報)21が付加されて表示装置10に表示された状態を示している。
このとき、これは最初のフレーム(第1フレーム)であることから画像認識処理を行うと判定され、画像処理部7が画像認識処理を行った結果、対象物20の位置および領域を示す情報として、タグ情報(関連情報)21が生成され、図3(a)に示すように、取得した画像データに、タグ情報(関連情報)21が付加されて、表示装置10に表示される。
第2フレーム目、第3フレーム目についても、同様に画像認識処理が行われ、図3(b)、(c)に示すように、タグ情報(関連情報)21が生成され、表示装置10に表示される。
そして、第4フレーム目になると、処理判定部6によりタグ推定処理を行うフレームであると判定され、過去のフレーム、すなわち、図3(a)〜(c)に示す第1フレームから第3フレームまでのタグ情報(関連情報)21を参照して、過去のフレームに付加されたタグ情報(関連情報)の座標(位置)と領域の大きさから対象物20の移動量と大きさの変化量を求めた結果、対象物20は直線的に移動していると判断し、推定方法として「直線推定」を選択する。
そして、その1フレーム分の対象物20の移動量と大きさの変化量を求め、その移動量や変化量を加算していくことで、図3(d)に示すように、対象物20についての第4フレーム目のタグ推定処理により生成された推定タグ情報(推定関連情報)22をリアルタイムで生成することができる。
なお、この「直線推定」という推定方法は、次のフレームのタグ情報(関連情報)を、少なくとも2つ以上の過去のフレームから生成されたタグ情報(関連情報)に基づいて直線的に推定する方法であり、特に対象物が画面上を横移動するような場合に有効である。
第5フレーム目〜第8フレーム目についても、同様にタグ推定処理が行われ、図3(e)〜(h)に示すように、推定タグ情報(推定関連情報)22がリアルタイムで生成され、表示装置10に表示される。
その後、第9フレーム目には、また画像認識処理が行われて、図3(i)に示すように、タグ情報(関連情報)21が生成されて表示装置10に表示され、第10フレーム目〜第14フレーム目にはタグ推定処理が行われ、図3(j)に示すように、推定タグ情報(推定関連情報)22がリアルタイムで生成されて表示装置10に表示される。その後も、1フレームだけ画像認識処理を行うと、続く5フレームはタグ推定処理が行われ、これが繰り返される。
また、対象物が遠くの方(奥の方)から手前に向かってくるような場合には、別の推定方法が選択される。
図4は、推定処理部9におけるタグ推定方法の別の一例を示す説明図である。この場合にも、最初の3フレームは画像認識処理を行って対象物の位置および領域を決定することとし、続く5フレームはタグ推定処理、再び1フレームは画像認識処理、続く5フレームはタグ推定処理を行い、これを繰り返すものとして説明する。
図4(a)は、第1フレーム目の画像を示しており、映像取得装置(カメラ)1が取得した映像から、画像取得部2が車両(対象物)30の画像を左端一番奥(画面の左上部)に取得した結果、その車両(対象物)30にその位置および領域を示すタグ情報(関連情報)31が付加されて表示装置10に表示された状態を示している。
このとき、これは最初のフレーム(第1フレーム)であることから画像認識処理を行うと判定され、画像処理部7が画像認識処理を行った結果、対象物30の位置および領域を示すタグ情報(関連情報)31が生成され、図4(a)に示すように、取得した画像データに、画像認識処理により生成されたタグ情報(関連情報)31が付加されて、表示装置10に表示される。
第2フレーム目、第3フレーム目についても、同様に画像認識処理が行われ、図4(b)、(c)に示すように、タグ情報(関連情報)31が生成され、表示装置10に表示される。
第4フレーム目になると、処理判定部6によりタグ推定処理を行うフレームであると判定され、過去のフレーム、すなわち、図4(a)〜(c)に示す第1フレームから第3フレームまでのタグ情報(関連情報)31を参照して、過去のフレームに付加されたタグ情報(関連情報)の座標(位置)と領域の大きさから対象物30の移動量と大きさの変化量を求めた結果、対象物30が遠方では移動量が少なく領域の大きさが小さく、手前では移動量が大きく領域の大きさも大きいことから、対象物30は曲線的に移動していると判断し、推定方法として「曲線推定」を選択する。
そして、その1フレーム分の対象物30の移動量と大きさの変化量を求め、その移動量や変化量を加算していくことで、図4(d)に示すように、対象物30についての第4フレーム目のタグ推定処理により生成された推定タグ情報(推定関連情報)32をリアルタイムで生成することができる。
なお、この「曲線推定」という推定方法は、次のフレームのタグ情報(関連情報)を、少なくとも3つ以上の過去のフレームから生成されたタグ情報(関連情報)に基づいて曲線的に推定する方法であり、特に対象物が画面上を奥から手前や手前から奥に移動するような場合に有効である。また、曲線推定方法としては、スプライン曲線による推定などが挙げられる。
第5フレーム目〜第8フレーム目についても、同様にタグ推定処理が行われ、推定タグ情報(推定関連情報)32がリアルタイムで生成され、表示装置10に表示される。その後も、図3において説明した場合と同様に、1フレームは画像認識処理を行い、続く5フレームはタグ推定処理を行う、という動作を繰り返すが、ここでは図4(e)、(f)に示すように、第5フレームと第6フレームまでとし、残りの図示および説明については省略する。
さらに、例えば対象物が歩行者であり、図3に示す場合と同様に横方向に移動する場合には、通常はその手足の動作によってタグ情報(関連情報)の領域の幅が周期的に変化すると考えられる。そこで、この変化によるタグ情報(関連情報)の大きさの変化まで考慮した場合について説明する。
図5は、推定処理部9におけるタグ推定方法のさらに別の一例を示す説明図である。
この場合には、最初の1フレーム目と同じ大きさのタグ情報(関連情報)が画像認識される第5フレーム目までは画像認識処理を行って対象物の位置および領域を決定することとし、続く7フレームはタグ推定処理、再び1フレームは画像認識処理、続く7フレームはタグ推定処理を行い、これを繰り返すものとして説明する。なお、何フレームごとに画像認識処理を行い、何フレーム分はタグ推定処理を行えばよいかについては、予め任意に設定してもよいし、過去の結果から設定されるようにしてもよい。
図5(a)は、第1フレーム目の画像を示しており、映像取得装置(カメラ)1が取得した映像から、画像取得部2が歩行者(対象物)40の画像を右端に取得した結果、その歩行者(対象物)40にその位置および領域を示すタグ情報(関連情報)41が付加されて表示装置10に表示された状態を示している。
このとき、これは最初のフレーム(第1フレーム)であることから画像認識処理を行うと判定され、画像処理部7が画像認識処理を行った結果、対象物40の位置および領域を示すタグ情報(関連情報)41が生成され、図5(a)に示すように、取得した画像データに、画像認識処理により生成されたタグ情報(関連情報)41が付加されて、表示装置10に表示される。
第2フレーム目〜第5フレーム目についても、同様に画像認識処理が行われ、図5(b)〜(e)に示すように、タグ情報(関連情報)41が生成され、表示装置10に表示される。
この際、タグ情報(関連情報)の位置の移動は直線的であるのに、大きさは変化していることから、さらに第1フレーム目と同じ大きさのタグ情報(関連情報)41が得られるまで画像認識処理が行われる。なお、第1フレーム目で対象物40が歩行者であることが画像認識されたことにより、その歩行者(対象物)40のタグ情報(関連情報)の大きさが変化すると考えられることから、第1フレーム目と同じ領域のタグ情報(関連情報)が得られるまで画像認識処理を行うことにしてもよい。
その後、第6フレーム目になると、処理判定部6によりタグ推定処理を行うフレームであると判定され、過去のフレーム、すなわち、図5(a)〜(e)に示す第1フレームから第5フレームまでのタグ情報(関連情報)41を参照して、過去のフレームに付加されたタグ情報(関連情報)の座標(位置)と領域の大きさから対象物40の移動量と大きさの変化量を求めた結果、対象物30は大きさの変化を伴いながら直線的に移動していると判断し、推定方法として「領域幅変化を伴う直線推定」を選択する。
そして、その1フレーム分の対象物40の移動量と大きさの変化量を求め、その移動量や変化量を加算していくことで、図5(f)〜図5(l)に示すように、対象物40についての第6フレーム目〜第12フレーム目までのタグ推定処理により生成された推定タグ情報(推定関連情報)42をリアルタイムで生成することができる。
なお、この「領域幅変化を伴う直線推定」という推定方法は、特に対象物が領域変化を伴いながら画面上を横方向に移動するような場合に有効である。
その後も、図3において説明した場合と同様に、1フレームは画像認識処理を行い、図5(m)に示すように画像認識処理を行ってタグ情報(関連情報)41が生成されて表示装置10に表示され、続く7フレームはタグ推定処理を行う、という動作を繰り返すが、ここでは残りの図示および説明については省略する。
なお、このように、推定方法として複数の方式が考えられるが、対象物の種類、位置、移動方向、動作状態のうちの少なくとも1つに対応して、推定処理部9が、推定方法を自動的に変化させて選択する方式としてもよい。また、対象物の種類や位置、移動方向、動作状態のうちの少なくとも1つに対応して、処理判定部6が、画像処理周期(画像認識処理を行う周期)を自動的に変化させる方式としてもよい。
例えば、対象物が歩行者、特に幼児であった場合には、その行動が予測しにくいため、画像認識処理周期を短く(画像認識処理を行う回数を多く)設定することや、画面奥から手前に向かってくる対象物の場合には曲線推定方式を選択し、さらに、曲線推定時は直線推定時よりも推定の信頼性が低下すると考えられるため、推定周期を短く(タグ推定処理を行う回数を少なく)設定する等してもよい。
このように、いずれの推定方法や画像処理周期とした場合であっても、数フレームごとに1回は対象物についての画像認識処理を行うものの、他の大半のフレームについての対象物のタグ情報(関連情報)を、過去に画像認識処理を行って生成されたタグ情報(関連情報)に基づいて推定することにより、画像認識処理を行わなくてもリアルタイムで自動的にタグ情報(関連情報)を生成することができ、かつ、画像認識処理による手間や負荷およびコストを大幅に削減して、ドライバーに対して前方を歩行者が横切っていることや遠くの方から近づいてくる車両があることなどの注意喚起や警告を促すことが可能となる。
以上のように、この実施の形態1によれば、カメラ等により取得した映像に含まれる対象物を、リアルタイムで自動的に強調表示させることができ、かつ、その際の処理負荷およびコストを大幅に削減することができる。
実施の形態2.
図6は、この発明の実施の形態2における映像処理システムの構成を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態2の映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置200と、表示装置10とを備えており、映像処理装置200は、実施の形態1の映像処理装置100の構成に、さらに環境情報取得部14を備えるものである。
環境情報取得部14は、車両の運転情報を取得するためのCANバス11および車両情報取得部101、雨滴、温度、湿度など車両の周囲環境情報を取得するためのセンサ類12およびセンサ情報取得部102、道路情報や施設情報、時間情報など車両のナビ情報を取得するためのカーナビゲーションシステム13およびナビ情報取得部103を備えており、車両の運転情報、周囲環境情報、ナビ情報のうちの少なくとも1つを取得する。
そして、環境情報取得部14により取得された情報(車両の運転情報、周囲環境情報、ナビ情報のうちの少なくとも1つ)に対応して、処理判定部6が画像処理周期を自動的に変化させたり、推定処理部9が推定方法を自動的に変化させたりするものである。
ここで、この実施の形態2の映像処理装置200における処理について、図7に示すフローチャートを用いて説明する。
図7は、この実施の形態2における映像処理装置200の処理を示すフローチャートである。
まず初めに、ステップST21〜ST23の処理については、実施の形態1における図2のステップST1〜ST3の処理と同じであるので、説明を省略する。
その後、処理判定部6は、環境情報取得部14から各種環境情報を取得する(ステップST24)。ここで取得可能な情報としては、CANバス11から取得した車速、加速度、エンジン回転数、シフトレバー、舵角、ワイパー、ライトなどの車両操作情報、各種センサ12から取得した気温、湿度、雨量などの環境情報、カーナビゲーションシステム13から取得した道路情報、施設情報、時刻情報などのナビ情報が挙げられる。
処理判定部6は、これらの環境情報に基づいて画像認識処理周期を設定し(ステップST25)、さらに、画像認識処理を行うか、タグの推定処理を行うかを判定する(ステップST26)。
その後のステップST27〜ST29の処理と、ステップST31〜ST33の処理については、実施の形態1における図2のステップST5〜ST7と、ステップST11〜ST13と同じであるので、説明を省略するが、ステップST32における推定方法の選択処理についても、ステップST24で取得した環境情報に基づいて最適な推定方法を自動選択する点が異なる。
例えば、取得した車両情報から、車両がカーブ運転中であると判断された場合には、対象物の動作が推定しにくいと考えられるため、画像認識処理を行う周期を短くし(タグ推定処理を行う回数を少なくし)、また、対象物の移動方向も相対的に変化するため、曲線推定方式を選択することで、タグ情報(関連情報)の信頼性を高められると考えられる。
一方、低速直進時には、安全性が高く、また、対象物の動作が推定しやすいと考えられるため、画像認識処理を行う周期を長くし(タグ推定処理を行う回数を多くし)、直線推定方式を選択することで、映像処理装置200の処理負荷を削減可能であると考えられる。
また、ナビ情報より取得した現在時刻から、夜間であることが判明した場合や、雨滴センサ情報より雨量が多いことが判明した場合などには、画像認識処理を行う周期を短く(タグ推定処理を行う回数を少なく)することで、タグ情報(関連情報)の信頼性を高められると考えられる。
以上のように、この実施の形態2によれば、実施の形態1と同様の効果に加え、画像認識処理を行う付加をより適切に削減でき、また、タグ推定処理の精度を適切に向上させることが可能となる。
実施の形態3.
図8は、この発明の実施の形態3における映像処理システムの構成を示すブロック図である。なお、実施の形態1,2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態3の映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置300と、表示装置10とを備えており、映像処理装置300は、実施の形態2の映像処理装置200の構成において、推定処理部9から画像処理部7への画像処理命令が可能となっている点が異なっている。
そして、推定処理部9におけるタグ情報(関連情報)を推定して生成する推定処理の後に、さらにその推定して生成されたタグ情報(関連情報)に対して画像処理を行うことにより、タグ情報(関連情報)の精度をより高めるものである。
ここで、この実施の形態3の映像処理装置300における処理について、図9に示すフローチャートを用いて説明する。
図9は、この実施の形態3における映像処理装置300の処理を示すフローチャートである。
まず初めに、ステップST21〜ST26の処理については、実施の形態2における図7に示すフローチャートのステップST21〜ST26の処理と同じであるので、説明を省略する。
そして、ステップST26における、対象物の画像認識処理を行うかタグの推定処理を行うかの判定において、画像認識処理を行うと判断した場合(ステップST26のYESの場合)については、以降の処理も実施の形態2と同様であるが、タグの推定処理を行うと判断した場合(ステップST26のNOの場合)については、実施の形態2と異なり、以下の手順で処理を行う。
タグの推定処理を行うと判断した場合(ステップST26のNOの場合)は、過去のフレームのタグ情報(関連情報)を参照し(ステップST31)、最適なタグ推定方法を選択して決定(ステップST32)した後、選定した推定方法にてタグ領域の推定処理を行う(ステップST33)。
その後、推定されたタグ領域の周辺のみに限定して、対象物の画像認識処理を行い(ステップST27)、最終的なタグ領域を決定する。以降の処理(ステップST28およびST29)については、実施の形態2のステップST28およびST29と同様である。
この処理によって、対象物の位置や大きさ(領域)をより正確に推定することが可能となる。また、この処理では、タグ推定処理を行うフレームにおいても、画像認識処理を行うことになるが、毎フレームの画面全体に対して画像認識処理を行う場合よりも、処理負荷を軽減することができる。
なお、この実施の形態3では、実施の形態2における処理に加え、推定処理部9により推定したタグ情報(関連情報)が生成された後に、さらにその推定して生成されたタグ情報(関連情報)に対して画像認識処理を行うことにより、タグ情報(関連情報)の精度をより高めるものとして説明したが、実施の形態1における処理に加えて、上記のように行ってもよいことは言うまでもない。
以上のように、この実施の形態3によれば、実施の形態1,2と同様の効果に加え、対象物の位置や大きさ(領域)をより正確に推定することが可能となる。
実施の形態4.
図10は、この発明の実施の形態4における映像処理システムの構成を示すブロック図である。なお、実施の形態1〜3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態4の映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置400と、表示装置10とを備えており、映像処理装置400は、実施の形態1の映像処理装置100の構成に、さらに操作制御部17を備えるものである。また、予め収録された映像を対象としてタグ情報の推定処理を行うものである。なお、この発明では、予め収録された映像は、車両に関する映像である場合を例に説明する。
そのため、画像取得部2が取得する画像も、カメラ等の映像取得装置1ではなく、予め収録された動画データ15であり、例えばPC上で映像(動画)を再生するとともに、その再生中にリアルタイムで対象物にタグ情報(関連情報)を付加して表示装置10に表示させるものである。この場合、表示装置10は、例えばPC画面などである。
また、操作デバイス16は、マウスやキーボード、ジョイスティック、タッチパネルなど、ユーザからの操作を受けて操作制御部17へ操作命令を行うものである。
操作制御部17は、操作デバイス16を介してユーザからの操作命令を受け、時間制御部3、処理判定部6へ画像取得周期設定や画像認識処理周期設定を行う。
ここで、この実施の形態4の映像処理装置400における処理について、図11に示すフローチャートを用いて説明する。
図11は、この実施の形態4における映像処理装置400の処理を示すフローチャートである。
まず初めに、ユーザ操作による操作デバイス16からの操作命令を受けると、操作制御部17は、時間制御部3への画像取得周期の通知、および、処理判定部6への画像認識処理周期の通知を行い、それら周期が設定される(ステップST41)。
以降のステップST42〜ST48の処理およびステップST51〜ST53の処理については、実施の形態1における図2に示すフローチャートのステップST1〜ST7の処理およびステップST11〜ST13の処理を同じであるので、説明を省略する。
以上のように、この実施の形態4によれば、予め収録された映像を用いる場合であっても、最初に画像取得周期や画像認識処理の周期を設定しておくことにより、その映像(動画)を再生中にリアルタイムで注目させたい対象物にタグ情報(関連情報)を付加して表示させることができるので、例えばデモや展示などの際に、注目して欲しい対象物を効果的に強調表示させることができたり、ドライブレコーダに保存された映像(動画)から事故の解析を行う場合などにも、その解析作業中にリアルタイムで対象物にタグ情報(関連情報)を付加して表示させることができるので、効率的に解析処理を行うことができる。
実施の形態5.
図12は、この発明の実施の形態5における映像処理システムの構成を示すブロック図である。なお、実施の形態1〜4で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態5の映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置500と、表示装置10とを備えており、映像処理装置500は、実施の形態4の映像処理装置400の構成に、さらに環境情報取得部18を備えるものである。なお、実施の形態4と同様に、予め収録された映像を対象としてタグ情報の推定処理を行うものである。
記録された環境情報(環境情報記録部)110は、動画データ15と同期して記録された環境情報であり、車両の運転情報が記録された車両操作データ111、雨滴、温度、湿度センサなどにより車両の周囲環境情報が記録されたセンサデータ112、カーナビから道路情報、施設情報、時間情報などの車両のナビ情報が記録されたカーナビデータ113が記録されている。
環境情報取得部18は、動画データ15と同期して記録された環境情報(環境情報記録部)110から、車両操作データ、センサデータ、カーナビデータなど、車両の運転情報、周囲環境情報、ナビ情報のうちの少なくとも1つを取得し、その環境情報を処理判定部6へ送信する。
そして、環境情報取得部18により取得された情報(車両の運転情報、周囲環境情報、ナビ情報のうちの少なくとも1つ)に対応して、処理判定部6が画像処理周期を自動的に変化させたり、推定処理部9が推定方法を自動的に変化させたりするものである。
ここで、この実施の形態5の映像処理装置500における処理について、図13に示すフローチャートを用いて説明する。
図13は、この実施の形態5における映像処理装置500の処理を示すフローチャートである。
まず初めに、ステップST61〜ST64の処理については、実施の形態4における図11のステップST41〜ST44の処理と同じであるので、説明を省略する。
その後、処理判定部6は、環境情報取得部18から環境情報を取得する(ステップST65)。ここで取得可能な情報としては、車速、加速度、エンジン回転数、シフトレバー、舵角、ワイパー、ライトなどの車両操作情報、気温、湿度、雨量などの環境情報、道路情報、施設情報、時刻情報などのナビ情報が挙げられる。
処理判定部6は、これらの環境情報に基づいて画像認識処理周期を設定し(ステップST66)、さらに、画像認識処理を行うか、タグの推定処理を行うかを判定する(ステップST67)。
その後のステップST68〜ST70の処理と、ステップST71〜ST73の処理については、実施の形態4における図11のステップST46〜ST48と、ステップST51〜ST53と同じであるので、説明を省略するが、ステップST72における推定方法の選択処理についても、ステップST65で取得した環境情報に基づいて最適な推定方法を自動選択する点が異なる。
例えば、取得した車両情報から、車両がカーブ運転中であると判断された場合には、対象物の動作が推定しにくいと考えられるため、画像認識処理を行う周期を短くし(タグ推定処理を行う回数を少なくし)、また、対象物の移動方向も相対的に変化するため、曲線推定方式を選択することで、タグ情報(関連情報)の信頼性を高められると考えられる。
一方、低速直進時には、安全性が高く、また、対象物の動作が推定しやすいと考えられるため、画像認識処理を行う周期を長くし(タグ推定処理を行う回数を多くし)、直線推定方式を選択することで、映像処理装置500の処理負荷を削減可能であると考えられる。
また、ナビ情報より取得した現在時刻から、夜間であることが判明した場合や、雨滴センサ情報より雨量が多いことが判明した場合などには、画像認識処理を行う周期を短く(タグ推定処理を行う回数を少なく)することで、タグ情報(関連情報)の信頼性を高められると考えられる。
以上のように、この実施の形態5によれば、実施の形態4と同様の効果に加え、画像認識処理を行う付加をより適切に削減でき、また、タグ推定処理の精度を適切に向上させることが可能となる。
実施の形態6.
図14は、この発明の実施の形態6における映像処理システムの構成を示すブロック図である。なお、実施の形態1〜5で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態6の映像処理システムは、対象物を含む映像を表示装置10に表示させる映像処理装置600と、表示装置10とを備えており、映像処理装置600は、実施の形態5の映像処理装置500の構成において、推定処理部9から画像処理部7への画像処理命令が可能となっている点が異なっている。
そして、推定処理部9におけるタグ情報(関連情報)を推定して生成する推定処理の後に、さらにその推定して生成されたタグ情報(関連情報)に対して画像処理を行うことにより、タグ情報(関連情報)の精度をより高めるものである。
ここで、この実施の形態6の映像処理装置600における処理について、図15に示すフローチャートを用いて説明する。
図15は、この実施の形態6における映像処理装置600の処理を示すフローチャートである。
まず初めに、ステップST61〜ST67の処理については、実施の形態5における図13に示すフローチャートのステップST61〜ST67の処理と同じであるので、説明を省略する。
そして、ステップST66における、対象物の画像認識処理を行うかタグの推定処理を行うかの判定において、画像認識処理を行うと判断した場合(ステップST67のYESの場合)については、以降の処理も実施の形態5と同様であるが、タグの推定処理を行うと判断した場合(ステップST67のNOの場合)については、実施の形態5と異なり、以下の手順で処理を行う。
タグの推定処理を行うと判断した場合(ステップST67のNOの場合)は、過去のフレームのタグ情報(関連情報)を参照し(ステップST71)、最適なタグ推定方法を選択して決定(ステップST72)した後、選定した推定方法にてタグ領域の推定処理を行う(ステップST73)。
その後、推定されたタグ領域の周辺のみに限定して、対象物の画像認識処理を行い(ステップST68)、最終的なタグ領域を決定する。以降の処理(ステップST69およびST70)については、実施の形態5のステップST69およびST70と同様である。
この処理によって、対象物の位置や大きさ(領域)をより正確に推定することが可能となる。また、この処理では、タグ推定処理を行うフレームにおいても、画像認識処理を行うことになるが、毎フレームの画面全体に対して画像認識処理を行う場合よりも、処理負荷を軽減することができる。
なお、この実施の形態6では、実施の形態5における処理に加え、推定処理部9により推定したタグ情報(関連情報)が生成された後に、さらにその推定して生成されたタグ情報(関連情報)に対して画像認識処理を行うことにより、タグ情報(関連情報)の精度をより高めるものとして説明したが、実施の形態4における処理に加えて、上記のように行ってもよいことは言うまでもない。
以上のように、この実施の形態6によれば、実施の形態4,5と同様の効果に加え、対象物の位置や大きさ(領域)をより正確に推定することが可能となる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 映像取得装置(カメラ)、2 画像取得部、3 時間制御部、4 画像記憶部、5 表示制御部、6 処理判定部、7 画像処理部、8 関連情報記憶部、9 推定処理部、10 表示装置、11 CANバス、12 センサ類(各種センサ)、13 カーナビゲーションシステム、14,18 環境情報取得部、15 動画データ、16 操作デバイス、17 操作制御部、20,30,40 対象物、21,31,41 画像認識処理により生成されたタグ情報(関連情報)、22,32,42 タグ推定処理により生成された推定タグ情報(推定関連情報)、100,200,300,400,500,600 映像処理装置、101 車両情報取得部、102 センサ情報取得部、103 ナビ情報取得部、110 記録された環境情報(環境情報記録部)、111 車両操作データ、112 センサデータ、113 カーナビデータ。

Claims (10)

  1. 対象物を含む映像を表示装置に表示させる映像処理装置において、
    前記映像から画像を取得する画像取得部と、
    前記画像取得部により取得された画像を画像処理するか推定処理するかをフレームごとに判定する処理判定部と、
    前記処理判定部により画像処理するフレームであると判定された場合に、前記画像取得部により取得された画像を認識して、前記対象物の位置および領域を示す関連情報を生成する処理を行う画像処理部と、
    前記処理判定部により推定処理するフレームであると判定された場合に、前記画像処理部により過去のフレームから生成された前記関連情報に基づいて、前記関連情報が生成されていない対象物の位置および領域を示す関連情報を推定して、当該推定した前記関連情報を生成する推定処理部と、
    前記画像処理部および前記推定処理部により生成された前記関連情報をすべてのフレームの前記対象物に付加して前記表示装置に表示させる表示制御部と
    を備えたことを特徴とする映像処理装置。
  2. 前記処理判定部が前記画像処理を行うと判断するフレームは、一定の画像処理周期で設定されている
    ことを特徴とする請求項1記載の映像処理装置。
  3. 前記推定処理部は、前記関連情報が生成されていない対象物の位置および領域を示す関連情報を、少なくとも2つ以上の前記過去のフレームの前記関連情報に基づいて直線的に推定するか、または、少なくとも3つ以上の前記過去のフレームの前記関連情報に基づいて曲線的に推定するか、という推定方法を決定する
    ことを特徴とする請求項1記載の映像処理装置。
  4. 前記処理判定部は、前記対象物の種類、位置、移動方向、動作状態のうちの少なくとも1つに対応して、前記画像処理周期を自動的に変化させる
    ことを特徴とする請求項2記載の映像処理装置。
  5. 前記推定処理部は、前記対象物の種類、位置、移動方向、動作状態のうちの少なくとも1つに対応して、前記推定方法を自動的に変化させる
    ことを特徴とする請求項3記載の映像処理装置。
  6. 前記映像処理装置は、車両に関する映像を前記表示装置に表示させるものであり、
    前記車両の運転情報、前記車両の周囲環境情報、前記車両のナビ情報のうちの少なくとも1つを取得する環境情報取得部をさらに備え、
    前記処理判定部は、前記環境情報取得部により取得された情報に対応して、前記画像処理周期を自動的に変化させる
    ことを特徴とする請求項2記載の映像処理装置。
  7. 前記映像処理装置は、車両に関する映像を前記表示装置に表示させるものであり、
    前記車両の運転情報、前記車両の周囲環境情報、前記車両のナビ情報のうちの少なくとも1つを取得する環境情報取得部をさらに備え、
    前記推定処理部は、前記環境情報取得部により取得された情報に対応して、前記推定方法を自動的に変化させる
    ことを特徴とする請求項3記載の映像処理装置。
  8. 前記画像処理部は、前記推定処理部により前記推定した前記関連情報が生成された後に、前記推定して生成された前記関連情報に対して画像認識処理を行う
    ことを特徴とする請求項1から請求項7のうちのいずれか1項記載の映像処理装置。
  9. 対象物を含む映像を表示装置に表示させる映像処理装置と前記表示装置とを備える映像処理システムにおいて、
    前記映像から画像を取得する画像取得部と、
    前記画像取得部により取得された画像を画像処理するか推定処理するかをフレームごとに判定する処理判定部と、
    前記処理判定部により画像処理するフレームであると判定された場合に、前記画像取得部により取得された画像を認識して、前記対象物の位置および領域を示す関連情報を生成する処理を行う画像処理部と、
    前記処理判定部により推定処理するフレームであると判定された場合に、前記画像処理部により過去のフレームから生成された前記関連情報に基づいて、前記関連情報が生成されていない対象物の位置および領域を示す関連情報を推定して、当該推定した前記関連情報を生成する推定処理部と、
    前記画像処理部および前記推定処理部により生成された前記関連情報をすべてのフレームの前記対象物に付加して前記表示装置に表示させる表示制御部と
    を備えたことを特徴とする映像処理システム。
  10. 対象物を含む映像を表示装置に表示させる映像処理装置と前記表示装置とを備えるシステムの映像処理方法において、
    画像取得部が、前記映像から画像を取得するステップと、
    処理判定部が、前記画像取得部により取得された画像を画像処理するか推定処理するかをフレームごとに判定するステップと、
    画像処理部が、前記処理判定部により画像処理するフレームであると判定された場合に、前記画像取得部により取得された画像を認識して、前記対象物の位置および領域を示す関連情報を生成する処理を行うステップと、
    推定処理部が、前記処理判定部により推定処理するフレームであると判定された場合に、前記画像処理部により過去のフレームから生成された前記関連情報に基づいて、前記関連情報が生成されていない対象物の位置および領域を示す関連情報を推定して、当該推定した前記関連情報を生成するステップと、
    表示制御部が、前記画像処理部および前記推定処理部により生成された前記関連情報をすべてのフレームの前記対象物に付加して前記表示装置に表示させるステップと
    を備えたことを特徴とする映像処理方法。
JP2013256200A 2013-12-11 2013-12-11 映像処理装置、映像処理システムおよび映像処理方法 Active JP6080751B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013256200A JP6080751B2 (ja) 2013-12-11 2013-12-11 映像処理装置、映像処理システムおよび映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013256200A JP6080751B2 (ja) 2013-12-11 2013-12-11 映像処理装置、映像処理システムおよび映像処理方法

Publications (2)

Publication Number Publication Date
JP2015115760A true JP2015115760A (ja) 2015-06-22
JP6080751B2 JP6080751B2 (ja) 2017-02-15

Family

ID=53529197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013256200A Active JP6080751B2 (ja) 2013-12-11 2013-12-11 映像処理装置、映像処理システムおよび映像処理方法

Country Status (1)

Country Link
JP (1) JP6080751B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036444A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置
JP2019033469A (ja) * 2017-08-08 2019-02-28 キヤノン株式会社 撮像装置、制御方法及びプログラム
CN110169075A (zh) * 2017-01-09 2019-08-23 国际商业机器公司 在直播中智能插入次要内容
WO2022074701A1 (ja) * 2020-10-05 2022-04-14 日本電気株式会社 情報処理装置、情報処理システム、および情報処理方法
JP2022069671A (ja) * 2018-12-27 2022-05-11 ヤンマーパワーテクノロジー株式会社 作業車両用の障害物検知システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142866A (ja) * 2005-11-18 2007-06-07 Fujifilm Corp 撮像装置
JP2009193135A (ja) * 2008-02-12 2009-08-27 Xanavi Informatics Corp 車載モニタ装置
JP2010050934A (ja) * 2008-08-25 2010-03-04 Canon Inc 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2011192092A (ja) * 2010-03-15 2011-09-29 Omron Corp 対象物追跡装置、対象物追跡方法、および制御プログラム
JP2012085090A (ja) * 2010-10-12 2012-04-26 Olympus Imaging Corp 撮像装置および画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142866A (ja) * 2005-11-18 2007-06-07 Fujifilm Corp 撮像装置
JP2009193135A (ja) * 2008-02-12 2009-08-27 Xanavi Informatics Corp 車載モニタ装置
JP2010050934A (ja) * 2008-08-25 2010-03-04 Canon Inc 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2011192092A (ja) * 2010-03-15 2011-09-29 Omron Corp 対象物追跡装置、対象物追跡方法、および制御プログラム
JP2012085090A (ja) * 2010-10-12 2012-04-26 Olympus Imaging Corp 撮像装置および画像処理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036444A (ja) * 2016-08-31 2018-03-08 アイシン精機株式会社 表示制御装置
CN107791951A (zh) * 2016-08-31 2018-03-13 爱信精机株式会社 显示控制装置
CN107791951B (zh) * 2016-08-31 2023-01-17 株式会社爱信 显示控制装置
CN110169075A (zh) * 2017-01-09 2019-08-23 国际商业机器公司 在直播中智能插入次要内容
CN110169075B (zh) * 2017-01-09 2021-06-25 国际商业机器公司 在直播中智能插入次要内容
JP2019033469A (ja) * 2017-08-08 2019-02-28 キヤノン株式会社 撮像装置、制御方法及びプログラム
JP7250433B2 (ja) 2017-08-08 2023-04-03 キヤノン株式会社 撮像装置、制御方法及びプログラム
JP2022069671A (ja) * 2018-12-27 2022-05-11 ヤンマーパワーテクノロジー株式会社 作業車両用の障害物検知システム
JP7317165B2 (ja) 2018-12-27 2023-07-28 ヤンマーパワーテクノロジー株式会社 作業車両用の障害物検知システム
WO2022074701A1 (ja) * 2020-10-05 2022-04-14 日本電気株式会社 情報処理装置、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
JP6080751B2 (ja) 2017-02-15

Similar Documents

Publication Publication Date Title
JP6080751B2 (ja) 映像処理装置、映像処理システムおよび映像処理方法
US11640812B2 (en) Visual content overlay system
CN109557904B (zh) 一种测试方法、装置、设备和介质
JP5509712B2 (ja) 運転支援システム、運転支援装置、運転支援方法、及び運転支援プログラム
JP4751429B2 (ja) 物体追跡の方法
JP5503728B2 (ja) 車両の周辺監視装置
US9761012B2 (en) Object tracking device, object tracking method, and computer-readable medium
US8644553B2 (en) Image display device, image display method, and image display program
CN105009032A (zh) 信息处理装置、姿势检测方法和姿势检测程序
US20160176345A1 (en) Vehicle system for detecting object and operation method thereof
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
WO2019069875A1 (ja) 移動体用画像生成記録表示装置及びプログラム
KR102359083B1 (ko) 움직이는 객체 검출 장치 및 방법
CN108122245B (zh) 一种目标行为描述方法、装置和监控设备
US20190094962A1 (en) Non-transitory computer-readable storage medium, display control method, and display control apparatus
EP3913527A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
CN111989915B (zh) 用于图像中的环境的自动视觉推断的方法、介质、及系统
JP2019208212A (ja) 移動体用画像生成記録表示装置及びプログラム
JP6518951B2 (ja) 車載用表示装置、車載用表示装置の制御方法、プログラム
CN115206122B (zh) 轨迹显示方法、装置、存储介质及计算机设备
Minoura et al. Driving support by estimating vehicle behavior
JP2017175268A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4244887B2 (ja) 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法
JP4654736B2 (ja) 俯瞰映像表示装置
JP2021104794A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170117

R150 Certificate of patent or registration of utility model

Ref document number: 6080751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250