JP2008167348A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2008167348A JP2008167348A JP2007000170A JP2007000170A JP2008167348A JP 2008167348 A JP2008167348 A JP 2008167348A JP 2007000170 A JP2007000170 A JP 2007000170A JP 2007000170 A JP2007000170 A JP 2007000170A JP 2008167348 A JP2008167348 A JP 2008167348A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- frame
- unit
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は画像処理装置に関し、特に、検知対象物が含まれている撮像した画像に画像処理を施し、元の撮像した画像と重畳する処理を行う画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that performs image processing on a captured image including a detection target and superimposes the captured image on the captured image.
従来、自動車の暗視装置において歩行者の検知を行うことが提案されている。例えば、特許文献1では、自車両の周囲を撮影可能な赤外線カメラと、該赤外線カメラにより捉えられた画像から自車両の走行に影響を与える検知対象物を判定する画像処理部と、画像処理部により検知対象物が検知された場合に、自車両の運転席前方に配置された表示装置に、赤外線カメラにより撮影された映像及び検知対象物を示す歩行者検知枠等の強調映像を同時に重畳して表示する表示制御部とを備えた車両周辺表示装置が提案されている。このような装置では、検知対象物を判定して検知対象物を示す強調映像を重畳する処理の平均処理時間を求め、平均処理時間分だけドライバーへの表示が遅延された撮像画像上に強調映像を重畳するという処理を行っている。
しかしながら、上記のような従来の技術では、検知対象物を判定して検知対象物を示す強調映像を重畳する実際の処理時間と平均処理時間との間に差異が生じると、検知対象物を示す強調映像が実際に検知対象物を撮像した画像とは異なる撮像画像上に重畳されてしまい、表示装置の画像表示にズレや違和感が生じてしまう問題がある。 However, in the conventional technology as described above, if a difference occurs between the actual processing time for determining the detection target and superimposing the emphasized video indicating the detection target and the average processing time, the detection target is indicated. There is a problem that the emphasized video is superimposed on a captured image that is different from the image obtained by actually capturing the detection target, and the image display of the display device is shifted or uncomfortable.
本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる画像処理装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus capable of superimposing both images without causing a gap between the image subjected to image processing and the original captured image. Is to provide.
本発明は、周囲の画像を撮像する撮像手段と、画像が撮像手段によって撮像された時刻を示す識別IDを画像に埋め込む識別ID埋め込み手段と、識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施す処理手段と、処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳する重畳処理手段と、を備えた画像処理装置である。 The present invention provides an imaging unit that captures a surrounding image, an identification ID embedding unit that embeds an identification ID indicating the time when the image was captured by the imaging unit, and an image in which the identification ID is embedded by the identification ID embedding unit. An image processing apparatus comprising: processing means for performing image processing; and superimposition processing means for superimposing images having identification IDs at the same time before and after the processing means performs image processing. is there.
この構成によれば、識別ID埋め込み手段が、画像が撮像手段によって撮像された時刻を示す識別IDを画像に埋め込み、処理手段が、識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施し、重畳処理手段が、処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳するため、画像の重畳を平均処理時間によらないで、識別IDの示す時刻に一対一で対応するよう重畳することができるため、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。 According to this configuration, the identification ID embedding unit embeds the identification ID indicating the time when the image was captured by the imaging unit in the image, and the processing unit performs image processing on the image in which the identification ID is embedded by the identification ID embedding unit. And the superimposing processing unit superimposes the images before and after the processing unit performs image processing and having identification IDs related to the same time, so that the superimposition of the images does not depend on the average processing time. Since the superimposition can be performed in a one-to-one correspondence with the time indicated by the identification ID, both can be superimposed without causing a gap between the image subjected to image processing and the original captured image.
この場合、撮像手段はフレームごとに周囲の画像を撮像し、処理手段が画像を処理する時間が閾値以上の場合は、撮像手段が画像を撮像した時刻におけるフレームと、重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うフレーム補間手段をさらに備えることが好適である。 In this case, the imaging unit captures a surrounding image for each frame, and when the processing unit processes the image is longer than the threshold, the superimposition processing unit superimposes the frame at the time when the imaging unit captured the image. It is preferable to further include frame interpolation means for performing frame interpolation between frames at the time to be performed.
この構成によれば、処理手段が画像を処理する時間が閾値以上の場合は、フレーム補間手段が、撮像手段が画像を撮像した時刻におけるフレームと、重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うため、処理手段の処理時間が長引いた場合であっても、フレーム補間により表示される画像に違和感が生じないようにすることができる。 According to this configuration, when the time for which the processing unit processes the image is equal to or greater than the threshold, the frame interpolation unit includes the frame at the time when the imaging unit captures the image and the frame at the time when the superimposition processing unit superimposes the image. Since the frame interpolation is performed during this period, even if the processing time of the processing means is prolonged, it is possible to prevent the image displayed by the frame interpolation from feeling uncomfortable.
本発明の画像処理装置によれば、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。 According to the image processing apparatus of the present invention, it is possible to superimpose both images without causing a shift between the image-processed image and the original captured image.
以下、本発明の実施の形態に係る画像処理装置について添付図面を参照して説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.
図1は、本実施形態に係る対象物検知装置の構成を示すブロック図である。本実施形態の対象物検知装置は、車載用の暗視装置等においてパターンマッチングにより対象物を検知してドライバーに強調表示をするための画像処理装置である。図1に示すように、本実施形態の対象物検知装置1は、映像分配・検知処理装置10、映像描画装置20、カメラ(撮像手段)30、画像キャプチャ装置31、予備フレームメモリ40及びモニタ50を備えている。
FIG. 1 is a block diagram illustrating a configuration of the object detection device according to the present embodiment. The object detection apparatus according to the present embodiment is an image processing apparatus for detecting an object by pattern matching and highlighting it on a driver in an in-vehicle night vision apparatus or the like. As shown in FIG. 1, the
カメラ30は、CCDあるいはCMOS等の半導体素子を用いた単眼カメラあるいはステレオカメラであり、10〜100msの周期でフレームごとに前方の画像を取得する。夜間における歩行者等の検知を重視するのであれば、カメラ30として暗視性能に優れた近赤外線カメラ、遠赤外線カメラを適用することができる。カメラ30により取得されたフレーム画像は、画像キャプチャ装置31に送られて、映像分配・検知処理装置10によって処理可能なデータ形式に変換される。
The
映像分配・検知処理装置10は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成され、検知実施判定部(検知実施判定手段)11、識別ID付与部12、識別ID埋め込み部(識別ID埋め込み手段)13、映像分配部14、識別ID解読部15、検知処理部(処理手段)16及び検知結果送信部17を有する。
The video distribution /
検知実施判定部11は、カメラ30が画像を撮像した時点で、検知処理部16が検知処理を行っているか否かを判定するためのものである。例えば、カメラ30が33msごとの周期でフレーム画像を撮像する場合において、検知処理部16はその処理速度の関係から検知処理を3フレーム(100ms)ごとに行うものとすると、検知処理部16が検視処理を行っている間は、他のフレーム画像の検知処理を行うことはできないため、検知実施判定部11は、他のフレーム画像の検知処理を行うか否かを決定するため、検知処理部16からの情報により、検知処理部16が検知処理中であるか否かを判定する。
The detection
識別ID付与部12は、画像がカメラ30により撮像された時刻と検知対象物であるか否かを示す識別IDを生成するためのものである。もし、検知処理部16が検知処理中であると検知実施判定部11が判定したときは、検知対象物ではない旨の識別IDを生成し、検知処理部16が検知処理ではないと検知実施判定部11が判定したときは、検知対象物である旨の識別IDを生成する。
The identification
識別ID埋め込み部13は、識別IDを画像に埋め込むためのものである。図2は、歩行者検知画像に埋め込まれた識別IDを示す図である。図2の例では、歩行者検知画像100の右上隅に、画像が撮像された時刻を示すタイムスタンプ101と、検知対象であるか否かを示す検知対象判別値102とが付与されている。
The identification
映像分配部14は、画像を識別ID解読部15と予備フレームメモリ40とに分配するためのものである。識別ID解読部15は、検知処理後の検知結果に識別IDを格納するために画像内に格納されている識別IDを読み取るためのものである。検知処理部16は、識別ID解読部15によって検知処理を行うことを決定された画像に対して、歩行者等の検知対象物を歩行者検知枠等で囲う、所定のシンボルを表示する等の検知処理(強調画像処理)を施すためのものである。検知結果送信部17は、検知処理を施した画像を映像描画装置20に送信するためのものである。
The
予備フレームメモリ40は、映像分配・検知処理装置10の映像分配部14から識別IDを埋め込まれた画像を取得し、所定の時間だけ蓄積するためのものである。
The spare frame memory 40 is for acquiring an image in which the identification ID is embedded from the
映像描画装置20は、映像分配・検知処理装置10と同様にECU等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成され、結果待ち受け部21、重畳用画像対応付部22、フレーム補間部(フレーム補間手段)23、検知結果重畳処理部(重畳処理手段)24及び画像表示部25を有する。なお、映像分配・検知処理装置10、映像描画装置20及び呼びフレームメモリ40が一体化された構成としても良い。
Similar to the video distribution /
検知結果待ち受け部21は、映像分配・検知処理装置10の検知結果送信部17から検知処理を施された画像を取得するためのものである。重畳用画像対応付部22は、検知結果待ち受け部21と予備フレームメモリ40とから、同じ時刻のタイムスタンプ101を含む識別IDを付与された画像同士を対応つけるためのものである。
The detection result standby unit 21 is for acquiring an image subjected to the detection process from the detection
フレーム補間部23は、映像分配・検知処理装置10の検知処理部16が検知対象物の含まれている画像を処理する時間が所定の閾値時間以上の場合に、カメラ30が検知対象物の含まれている画像を撮像した時刻におけるフレームと、検知結果重畳処理部24が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うためのものである。
The frame interpolation unit 23 is configured so that the
検知結果重畳処理部24は、映像分配・検知処理装置10の検知処理部16が検知処理を施した画像と、映像分配・検知処理装置10の識別ID埋め込み部13が画像に埋め込んだ識別IDに係る時刻にカメラ30によって撮像された画像とを重畳するためのものである。画像表示部25は、検知結果重畳処理部24が重畳した画像をモニタ50に出力して、表示させるためのものである。
The detection result superimposing processing unit 24 uses the image processed by the
モニタ50は、画像表示部25からの歩行者検知枠等が表示された画像をユーザに対して表示するためのものである。車載用の装置の場合は、一般的には、モニタ50には、液晶モニタやナビゲーション用モニタを適用することができる。
The
次に、図3〜7を参照して、本実施形態の対象物検知装置1の動作について説明する。図3は、本実施形態に係る画像分配スレッドを示すフロー図である。図3に示すように、画像キャプチャ装置31がカメラ30からの画像を取得する(S101)。映像分配・検知処理装置10の検知実施判定部11は、フラグ監視や割り込み発生の有無によって映像分配・検知処理装置10の検知処理部16が検知処理中であるか否かを判断する(S102)。
Next, with reference to FIGS. 3-7, operation | movement of the target
検知処理部16が検知処理中である場合は、新たな画像の検知処理は不可能であるため、映像分配・検知処理装置10の識別ID付与部12は現在時刻を取得し、検知対象判別値=OFFとして識別IDを作成する(S103、S104)。検知処理部16が検知処理中でない場合は、新たな画像の検知処理が可能であるため、識別ID付与部12は現在時刻を取得し、検知対象判別値=ONとして識別IDを作成する(S103、S105)。
When the
映像分配・検知処理装置10の識別ID埋め込み部13は、図2に示すように識別IDを画像の所定位置に埋め込む(S106)。映像分配・検知処理装置10の映像分配部14は、作成した画像を非同期で予備フレームメモリ40に送信(出力し)、予備フレームメモリ40に画像を蓄積する(S107)。逐次、同様の処理が繰り返される。
The identification
図4は、本実施形態に係る検知スレッドを示すフロー図である。図4に示すように、映像分配・検知処理装置10の識別ID解読部15は、検知処理後の検知結果に識別IDを格納するために画像内に格納されている識別IDを読み取る(S201)。映像分配・検知処理装置10の検知処理部16は、歩行者等の検知対象物について歩行者検知枠等で囲う、所定のシンボルを表示する等の検知処理を行い、対象物の検知結果データに識別IDを格納する(S202)。映像分配・検知処理装置10の検知結果送信部17は、検知結果を映像描画装置20に送信(出力)する(S203)。
FIG. 4 is a flowchart showing the detection thread according to the present embodiment. As shown in FIG. 4, the identification
図5は、本実施形態に係る検知結果待ち受けスレッドを示すフロー図である。図5に示すように、映像描画装置20の検知結果待ち受け部21は、映像分配・検知処理装置10の検知結果送信部17から対象物の検知結果の受信を待ち受ける(S301)。
FIG. 5 is a flowchart showing a detection result waiting thread according to the present embodiment. As shown in FIG. 5, the detection result waiting unit 21 of the
もし、検知結果が到着していなければ、検知結果待ち受け部21はステップS301を繰り返すとともに、後述のフレーム補間判断スレッドを行う(S302)。一方、検知結果が到着した場合は、映像描画装置20の重畳用画像対応付部22は、対象物の検知結果に格納されている識別IDと、予備フレームメモリ40に蓄積されている画像に格納されている識別IDとの照合を行う(S303)。
If the detection result has not arrived, the detection result waiting unit 21 repeats step S301 and performs a later-described frame interpolation determination thread (S302). On the other hand, when the detection result arrives, the superimposing image correspondence unit 22 of the
映像描画装置20の検知結果重畳処理部24は、識別IDが合致した画像に対象物検知結果を重畳する(S304)。映像描画装置20の画像表示部25は、重畳処理済あるいは未処理の画像をモニタ50に出力する(S305)。この場合、後述のフレーム補間判断スレッドにおいて、フレーム挿入プロセスあるいはフレーム削除プロセスにおいて生成された情報も反映される。
The detection result superimposing processing unit 24 of the
図6は、本実施形態に係るフレーム補間判断スレッドのフレーム挿入プロセスを示すフロー図である。この場合において、検知スレッドにおける検知処理終了を待っている状態であり、検知処理中につき、予備フレームメモリ40には現在、検知処理中の画像も含めて表示処理待ちの画像が格納されている。図6に示すように、検知結果待ち受けスレッドのステップS302において、検知結果の到着が遅れた場合、映像描画装置20のフレーム補間部23は、カメラ30のフレームレートで画像出力タイミングを計る(S401)。もし、今の検知処理開始前にフレームの挿入を実施した場合は、フレームの削除が必要となるため、フレーム補間部23は、後述するフレーム削除プロセスを行う(S402)。
FIG. 6 is a flowchart showing the frame insertion process of the frame interpolation determination thread according to this embodiment. In this case, the detection thread is waiting for the end of the detection process, and during the detection process, the standby frame memory 40 currently stores an image waiting for display processing, including the image being detected. As shown in FIG. 6, when the arrival of the detection result is delayed in step S302 of the detection result waiting thread, the frame interpolation unit 23 of the
一方、今の検知処理開始前にフレームの挿入を実施していない場合であって、1検知処理中にフレームの挿入を実施していない場合は(S402、S403)、フレーム補間部23は、予備フレームメモリ40に既に格納されている画像の連続2フレーム(時系列であり、仮にFn−1,Fnとする)を検査する(S404)。フレーム補間部23は、映像表示待ちの時系列連続2フレームFn−1,Fnから識別IDを取得して参照し、「検知対象判断値」が、時系列連続2フレームFn−1,Fnにおいて「OFF」から「ON」になっているか否かを判断する(S405)。つまり、表示待ちのフレームに対して、現在、検知処理中のフレーム(検知対象判断値がON)の直前のフレーム(検知対象判断値がOFF)の間に新しいフレームを挿入したいために、前述のような組み合わせのフレームが、予備フレームメモリ40内に存在するかどうかを確認する処理を行う。 On the other hand, when frame insertion has not been performed before the start of the current detection process, and when frame insertion has not been performed during one detection process (S402, S403), the frame interpolating unit 23 sets a spare Two consecutive frames of the image already stored in the frame memory 40 (time series, tentatively assumed as F n−1 and F n ) are inspected (S404). The frame interpolation unit 23 acquires and refers to the identification ID from the time-series continuous two frames F n−1 and F n waiting for video display, and the “detection target determination value” is the time-series continuous two frames F n−1 , F n , It determines whether or not it is from "OFF" to "oN" in F n (S405). In other words, in order to insert a new frame between the frame waiting for display (the detection target determination value is OFF) immediately before the frame currently being detected (the detection target determination value is ON), A process of confirming whether such a combination of frames exists in the spare frame memory 40 is performed.
もし、「検知対象判断値」が「OFF」から「ON」になっていないときは、フレーム補間部23はフレームFn−1を描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームFn−1をモニタ50に表示する(S406、S407、S305)。つまり、特にフレームの挿入は行わずに、時系列(待機順番)に従って表示を行う。
If the “detection target determination value” is not changed from “OFF” to “ON”, the frame interpolation unit 23 issues a command to the
一方、「検知対象判断値」が「OFF」から「ON」になっているときは、フレーム補間部23は、フレームFn−1とフレームFnとの間でフレーム補間処理を行い、新たなフレーム画像NFnを生成し、挿入する(S406)。ここで、Nは増減フレーム数を意味する。フレーム補間部23は、増減フレーム数Nをインクリメントし(S409)、フレームNFnを描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームNFnをモニタ50に表示する(S410、S305)。
On the other hand, when the “detection target determination value” is changed from “OFF” to “ON”, the frame interpolation unit 23 performs a frame interpolation process between the frame F n−1 and the frame F n to generate a new one. A frame image NF n is generated and inserted (S406). Here, N means the number of increase / decrease frames. The frame interpolation unit 23 increments the increase / decrease frame number N (S409), issues a command to the frame NF n to be drawn, and the
もし、上述のステップS403において、1検知処理中にフレームの挿入を実施している場合は、フレーム補間部23は、「検知対象判断値」がONの最新画像、つまり現在検知中の画像と、フレームNFnとの間でフレーム補間処理を行い、新たなフレーム画像NFn+1を作成する(S411)。フレーム補間部23は、増減フレーム数Nをインクリメントし(S409)、フレームNFn+1を描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームNFn+1をモニタ50に表示する(S412、S305)。
If frame insertion is performed during one detection process in step S403 described above, the frame interpolation unit 23 determines that the latest image whose “detection target determination value” is ON, that is, the currently detected image, Frame interpolation processing is performed between the frame NF n and a new frame image NF n + 1 is created (S411). The frame interpolation unit 23 increments the number N of increase / decrease frames (S409), issues a command to the frame NF n + 1 to be drawn, and the
図7は、本実施形態に係るフレーム補間判断スレッドのフレーム削除プロセスを示すフロー図である。なお、本実施形態では、予備フレームメモリ40の容量が不足しないように、フレーム削除プロセスを行うが、予備フレームメモリ40の容量が十分に大きければ、フレーム削除プロセスを行う必要はない。図7に示すように、フレーム挿入プロセスのステップS402で、今の検知処理開始前にフレームの挿入を実施した場合は、フレーム補間部23は、「検知対象判別値」がONの最新フレームFdn(現在、検知処理中の画像フレーム)と、その一つ前のフレームFdo(既に表示処理済の検知対象画像)とを取得する(S501)。フレーム補間部23は、フレームFdnとフレームFdoとの間で予備フレームメモリ40に格納されている画像フレーム数Mを識別IDのタイムスタンプから判断し、フレーム数Mをカウントする(S502)。 FIG. 7 is a flowchart showing the frame deletion process of the frame interpolation determination thread according to this embodiment. In this embodiment, the frame deletion process is performed so that the capacity of the spare frame memory 40 does not become insufficient. However, if the capacity of the spare frame memory 40 is sufficiently large, it is not necessary to perform the frame deletion process. As shown in FIG. 7, when frame insertion is performed before the start of the current detection process in step S402 of the frame insertion process, the frame interpolation unit 23 determines that the latest frame Fdn (“detection target determination value” is ON) The image frame currently being detected) and the previous frame Fdo (detection target image that has already been displayed) are acquired (S501). The frame interpolation unit 23 determines the number M of image frames stored in the spare frame memory 40 between the frame Fdn and the frame Fdo from the time stamp of the identification ID, and counts the number M of frames (S502).
フレーム補間部23は、増減フレーム数Nと、フレームFdn−フレームFdo間のフレーム数Mとを比較し、M>Nかどうかを判定する(S503)。すなわち、フレーム補間部23は、挿入総数Nと表示待ちフレーム数Mとを比較して、Mの方が大きければ、表示待ちフレームの中からフレームを一つ削除する。もし、M>Nでない場合は、フレーム補間部23は、フレームを削除できないので、フレーム挿入プロセスのステップS404を行う(S505、S404)。 The frame interpolation unit 23 compares the increase / decrease frame number N with the frame number M between the frame Fdn and the frame Fdo, and determines whether M> N (S503). That is, the frame interpolation unit 23 compares the total number N of insertions with the number M of display waiting frames, and if M is larger, deletes one frame from the display waiting frames. If M> N is not satisfied, the frame interpolation unit 23 cannot delete the frame, and performs step S404 of the frame insertion process (S505, S404).
一方、もし、M>Nである場合は、フレーム補間部23は、フレームFdnとフレームFdoとの間のフレームの中で最新のフレーム(表示タイミングが後の方)を1フレーム削除し、M=M−1、N=N−1とする(S505)。すなわち、表示待ちフレーム数を1つ減らし、挿入した履歴数Nを1つ減らす。Nを減らすのは、次の検知処理において、あと何フレーム分を削除すべきかを記憶するためである。 On the other hand, if M> N, the frame interpolation unit 23 deletes one frame of the latest frame (the display timing is later) from among the frames between the frame Fdn and the frame Fdo, and M = It is assumed that M−1 and N = N−1 (S505). That is, the number of display waiting frames is reduced by 1, and the inserted history number N is reduced by 1. N is reduced in order to store how many frames are to be deleted in the next detection process.
フレーム補間部23は、フレームFdoの次のフレームから順に描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームFdoの次のフレームから順にモニタ50に表示する(S506、S305)。
The frame interpolation unit 23 issues a command to the
本実施形態では、識別ID埋め込み部13が、画像に画像がカメラ30によって撮像された時刻を示す識別IDを画像に埋め込み、検知処理部16が、検知対象物が含まれている画像に画像処理を施し、検知結果重畳処理部24が、検知処理部16が画像処理を施す前後の画像であって同じ時刻に係る識別IDを有する画像同士を重畳するため、画像の重畳を平均処理時間によらないで、識別IDの示す時刻に一対一で対応するよう重畳することができるため、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。
In the present embodiment, the identification
すなわち、図8に示すように、従来はカメラ映像に検知処理結果を重畳して遅延表示映像とする場合、平均検知処理時間PTを想定し、メモリに蓄積した撮像画像を想定した平均検知処理時間PTだけ予め遅延させて処理していた。そのため、検知対象物である歩行者200に対して歩行者検知枠300を表示するような場合でも、平均検知処理時間PTより処理が遅れると、同期ずれを生じ、検知結果を異なる映像に重畳する場合があった。一方、本実施形態では、図9に示すように、画像の重畳を平均処理時間によらず、識別IDの示す時刻に一対一で対応するよう重畳することができるため、同期ずれを生じさせず重畳処理を行うことができる。したがって、本実施形態の装置を歩行者検知に適用した場合、歩行者検知枠のズレがなくなり、ドライバーは映像上における歩行者の位置を性格に把握しやすくなる。さらに、本実施形態では識別IDを直接書き込むため、同期をとるために余分なデータを送受信する必要がなくなる。その結果、状態遷移が単純になるとともに、通信データを増やす必要がなくなる。
That is, as shown in FIG. 8, conventionally, when the detection processing result is superimposed on the camera video to obtain a delayed display video, the average detection processing time assuming the average detection processing time PT and the captured image stored in the memory is assumed. Only PT was delayed in advance. Therefore, even when displaying the
また、本実施形態では、検知処理部16が画像を処理する時間が閾値以上の場合は、フレーム補間部23が、カメラ30が画像を撮像した時刻におけるフレームと、検知処理部16が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うため、検知処理部16の処理時間が長引いた場合であっても、フレーム補間により表示される画像に違和感が生じないようにすることができる。さらに、本実施形態では、違和感なくフレームの削除を行い、検知結果の描画は一致させるため、予備フレームメモリ40の容量が不足してあふれないようにすることができる。
In this embodiment, when the time for which the
以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、車載用の暗視装置において歩行者検知用に本発明を適用した場合を中心に説明したが、本発明はこれに限定されることはなく、他の用途にも適用可能である。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above-described embodiment, the case where the present invention is applied to pedestrian detection in an on-vehicle night vision device has been mainly described, but the present invention is not limited to this and is also applied to other uses. Is possible.
1…対象物検知装置、10…映像分配・検知処理装置、11…検知実施判定部、12…識別ID付与部、13…識別ID埋込部、14…映像分配部、15…識別ID解読部、16…検知処理部、17…検知結果送信部、20…映像描画装置、21…検知結果待ち受け部、22…重畳用画像対応付部、23…フレーム補間部、24…検知結果重畳処理部、25…画像表示部、30…カメラ、31…画像キャプチャ装置、40…予備フレームメモリ、50…モニタ、100…歩行者検知画像、101…タイプスタンプ、102…検知対象判別値、200…歩行者、300…歩行者検知枠。
DESCRIPTION OF
Claims (2)
前記画像が前記撮像手段によって撮像された時刻を示す識別IDを前記画像に埋め込む識別ID埋め込み手段と、
前記識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施す処理手段と、
前記処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳する重畳処理手段と、
を備えた画像処理装置。 An imaging means for capturing a surrounding image;
An identification ID embedding unit that embeds an identification ID indicating the time when the image was captured by the imaging unit in the image;
Processing means for performing image processing on the image in which the identification ID is embedded by the identification ID embedding means;
Superimposition processing means for superimposing images having identification IDs related to the same time before and after the processing means performs image processing;
An image processing apparatus.
前記処理手段が前記画像を処理する時間が閾値以上の場合は、前記撮像手段が前記画像を撮像した時刻におけるフレームと、前記重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うフレーム補間手段をさらに備えた請求項1に記載の画像処理装置。 The imaging means captures a surrounding image for each frame,
When the time for which the processing unit processes the image is equal to or greater than a threshold, frame interpolation is performed between the frame at the time when the imaging unit captures the image and the frame at the time when the superimposition processing unit superimposes the image. The image processing apparatus according to claim 1, further comprising a frame interpolation unit for performing the operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007000170A JP2008167348A (en) | 2007-01-04 | 2007-01-04 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007000170A JP2008167348A (en) | 2007-01-04 | 2007-01-04 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008167348A true JP2008167348A (en) | 2008-07-17 |
Family
ID=39696136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007000170A Withdrawn JP2008167348A (en) | 2007-01-04 | 2007-01-04 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008167348A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10728531B2 (en) | 2017-05-01 | 2020-07-28 | Canon Kabushiki Kaisha | Image display system, image display apparatus, image display method, and storage medium |
US10771765B2 (en) | 2017-04-28 | 2020-09-08 | Canon Kabushiki Kaisha | Information processing apparatus, information processing system, information processing method, and storage medium for embedding time stamped information in an image |
-
2007
- 2007-01-04 JP JP2007000170A patent/JP2008167348A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10771765B2 (en) | 2017-04-28 | 2020-09-08 | Canon Kabushiki Kaisha | Information processing apparatus, information processing system, information processing method, and storage medium for embedding time stamped information in an image |
US10728531B2 (en) | 2017-05-01 | 2020-07-28 | Canon Kabushiki Kaisha | Image display system, image display apparatus, image display method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5904093B2 (en) | In-vehicle image generator | |
JP2008207627A (en) | In-vehicle imaging system, imaging device, and display control device | |
JP2008141578A (en) | Visual recognizing apparatus for vehicle surrounding | |
JP2007274378A (en) | Image processing apparatus, image display system and program | |
JPWO2014017105A1 (en) | Image monitoring apparatus, moving object, program, and failure determination method | |
JP2008252307A (en) | Image display system | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2015171106A (en) | Vehicle peripheral image display device and vehicle peripheral image display method | |
WO2015133072A1 (en) | Vehicle peripheral image display device and method for displaying vehicle peripheral image | |
JP2019175133A (en) | Image processing device, image display system, and image processing method | |
JP2008141622A (en) | Vehicle surrounding information display apparatus | |
JP2008167348A (en) | Image processor | |
JP6526696B2 (en) | System and method for transmitting camera based parameters without using dedicated back channel | |
JP6327115B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP7030427B2 (en) | Imaging device with line-of-sight detection function | |
EP3200445B1 (en) | Image capture device, vehicle, and fluctuation detecting method | |
JP7293990B2 (en) | Vehicle display control device, vehicle display control method, and program | |
JP2008174075A (en) | Vehicle periphery-monitoring device, and its displaying method | |
JP2007153087A (en) | System and method for determining collision with obstacle, and computer program | |
JP5385366B2 (en) | Vehicle display device | |
JP6313999B2 (en) | Object detection device and object detection system | |
JP2008011187A (en) | Display controller | |
JP2017215447A (en) | Display control device and display control method | |
JP5284452B2 (en) | Vehicle display device | |
JP2009214790A (en) | Apparatus and method for imaging, and apparatus and method for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091216 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110322 |