JP2008167348A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2008167348A
JP2008167348A JP2007000170A JP2007000170A JP2008167348A JP 2008167348 A JP2008167348 A JP 2008167348A JP 2007000170 A JP2007000170 A JP 2007000170A JP 2007000170 A JP2007000170 A JP 2007000170A JP 2008167348 A JP2008167348 A JP 2008167348A
Authority
JP
Japan
Prior art keywords
image
detection
frame
unit
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007000170A
Other languages
Japanese (ja)
Inventor
Osamu Ozaki
修 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007000170A priority Critical patent/JP2008167348A/en
Publication of JP2008167348A publication Critical patent/JP2008167348A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for superimposing both an image, which was subjected to image processing, and an original imaged image without causing a dislocation gap between them. <P>SOLUTION: In an identification ID embedding unit 13, an identification ID for showing time when an image was imaged with a camera 30 is embedded in the image. In a detection processing unit 16, the image, which includes a detecting object, is subjected to image processing. In a detected result superimpose processing portion 24, the image subjected to image processing by using the detection processing unit 16 and the image, which was imaged with the camera 30 at a time concerning the identification ID embedded in the image by the identification ID embedding unit 13 are superimposed. Then, they can be superimposed with one-to-one correspondence at a time, which the identification ID indicates, without using average processing time for superimpose of the image, so both the image subjected to image processing and the original imaged image are superimposed without causing a dislocation gap between them. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は画像処理装置に関し、特に、検知対象物が含まれている撮像した画像に画像処理を施し、元の撮像した画像と重畳する処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that performs image processing on a captured image including a detection target and superimposes the captured image on the captured image.

従来、自動車の暗視装置において歩行者の検知を行うことが提案されている。例えば、特許文献1では、自車両の周囲を撮影可能な赤外線カメラと、該赤外線カメラにより捉えられた画像から自車両の走行に影響を与える検知対象物を判定する画像処理部と、画像処理部により検知対象物が検知された場合に、自車両の運転席前方に配置された表示装置に、赤外線カメラにより撮影された映像及び検知対象物を示す歩行者検知枠等の強調映像を同時に重畳して表示する表示制御部とを備えた車両周辺表示装置が提案されている。このような装置では、検知対象物を判定して検知対象物を示す強調映像を重畳する処理の平均処理時間を求め、平均処理時間分だけドライバーへの表示が遅延された撮像画像上に強調映像を重畳するという処理を行っている。
特開2004−364112号公報
Conventionally, it has been proposed to detect a pedestrian in an automobile night vision device. For example, in Patent Document 1, an infrared camera capable of photographing the surroundings of the host vehicle, an image processing unit that determines a detection target that affects the traveling of the host vehicle from an image captured by the infrared camera, and an image processing unit When a detection object is detected by the above, a video image taken by an infrared camera and a highlighted image such as a pedestrian detection frame indicating the detection object are simultaneously superimposed on a display device arranged in front of the driver's seat of the host vehicle. There has been proposed a vehicle periphery display device provided with a display control unit for displaying the information. In such an apparatus, the average processing time of the process of determining the detection target and superimposing the emphasized video indicating the detection target is obtained, and the emphasized video is displayed on the captured image delayed in display to the driver by the average processing time. Is performed.
JP 2004-364112 A

しかしながら、上記のような従来の技術では、検知対象物を判定して検知対象物を示す強調映像を重畳する実際の処理時間と平均処理時間との間に差異が生じると、検知対象物を示す強調映像が実際に検知対象物を撮像した画像とは異なる撮像画像上に重畳されてしまい、表示装置の画像表示にズレや違和感が生じてしまう問題がある。   However, in the conventional technology as described above, if a difference occurs between the actual processing time for determining the detection target and superimposing the emphasized video indicating the detection target and the average processing time, the detection target is indicated. There is a problem that the emphasized video is superimposed on a captured image that is different from the image obtained by actually capturing the detection target, and the image display of the display device is shifted or uncomfortable.

本発明は、かかる事情に鑑みてなされたものであり、その目的は、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる画像処理装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus capable of superimposing both images without causing a gap between the image subjected to image processing and the original captured image. Is to provide.

本発明は、周囲の画像を撮像する撮像手段と、画像が撮像手段によって撮像された時刻を示す識別IDを画像に埋め込む識別ID埋め込み手段と、識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施す処理手段と、処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳する重畳処理手段と、を備えた画像処理装置である。   The present invention provides an imaging unit that captures a surrounding image, an identification ID embedding unit that embeds an identification ID indicating the time when the image was captured by the imaging unit, and an image in which the identification ID is embedded by the identification ID embedding unit. An image processing apparatus comprising: processing means for performing image processing; and superimposition processing means for superimposing images having identification IDs at the same time before and after the processing means performs image processing. is there.

この構成によれば、識別ID埋め込み手段が、画像が撮像手段によって撮像された時刻を示す識別IDを画像に埋め込み、処理手段が、識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施し、重畳処理手段が、処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳するため、画像の重畳を平均処理時間によらないで、識別IDの示す時刻に一対一で対応するよう重畳することができるため、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。   According to this configuration, the identification ID embedding unit embeds the identification ID indicating the time when the image was captured by the imaging unit in the image, and the processing unit performs image processing on the image in which the identification ID is embedded by the identification ID embedding unit. And the superimposing processing unit superimposes the images before and after the processing unit performs image processing and having identification IDs related to the same time, so that the superimposition of the images does not depend on the average processing time. Since the superimposition can be performed in a one-to-one correspondence with the time indicated by the identification ID, both can be superimposed without causing a gap between the image subjected to image processing and the original captured image.

この場合、撮像手段はフレームごとに周囲の画像を撮像し、処理手段が画像を処理する時間が閾値以上の場合は、撮像手段が画像を撮像した時刻におけるフレームと、重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うフレーム補間手段をさらに備えることが好適である。   In this case, the imaging unit captures a surrounding image for each frame, and when the processing unit processes the image is longer than the threshold, the superimposition processing unit superimposes the frame at the time when the imaging unit captured the image. It is preferable to further include frame interpolation means for performing frame interpolation between frames at the time to be performed.

この構成によれば、処理手段が画像を処理する時間が閾値以上の場合は、フレーム補間手段が、撮像手段が画像を撮像した時刻におけるフレームと、重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うため、処理手段の処理時間が長引いた場合であっても、フレーム補間により表示される画像に違和感が生じないようにすることができる。   According to this configuration, when the time for which the processing unit processes the image is equal to or greater than the threshold, the frame interpolation unit includes the frame at the time when the imaging unit captures the image and the frame at the time when the superimposition processing unit superimposes the image. Since the frame interpolation is performed during this period, even if the processing time of the processing means is prolonged, it is possible to prevent the image displayed by the frame interpolation from feeling uncomfortable.

本発明の画像処理装置によれば、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。   According to the image processing apparatus of the present invention, it is possible to superimpose both images without causing a shift between the image-processed image and the original captured image.

以下、本発明の実施の形態に係る画像処理装置について添付図面を参照して説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は、本実施形態に係る対象物検知装置の構成を示すブロック図である。本実施形態の対象物検知装置は、車載用の暗視装置等においてパターンマッチングにより対象物を検知してドライバーに強調表示をするための画像処理装置である。図1に示すように、本実施形態の対象物検知装置1は、映像分配・検知処理装置10、映像描画装置20、カメラ(撮像手段)30、画像キャプチャ装置31、予備フレームメモリ40及びモニタ50を備えている。   FIG. 1 is a block diagram illustrating a configuration of the object detection device according to the present embodiment. The object detection apparatus according to the present embodiment is an image processing apparatus for detecting an object by pattern matching and highlighting it on a driver in an in-vehicle night vision apparatus or the like. As shown in FIG. 1, the object detection device 1 of the present embodiment includes a video distribution / detection processing device 10, a video drawing device 20, a camera (imaging means) 30, an image capture device 31, a spare frame memory 40, and a monitor 50. It has.

カメラ30は、CCDあるいはCMOS等の半導体素子を用いた単眼カメラあるいはステレオカメラであり、10〜100msの周期でフレームごとに前方の画像を取得する。夜間における歩行者等の検知を重視するのであれば、カメラ30として暗視性能に優れた近赤外線カメラ、遠赤外線カメラを適用することができる。カメラ30により取得されたフレーム画像は、画像キャプチャ装置31に送られて、映像分配・検知処理装置10によって処理可能なデータ形式に変換される。   The camera 30 is a monocular camera or a stereo camera using a semiconductor element such as a CCD or a CMOS, and acquires a forward image for each frame at a period of 10 to 100 ms. If importance is attached to detection of pedestrians and the like at night, a near-infrared camera and a far-infrared camera excellent in night vision performance can be applied as the camera 30. The frame image acquired by the camera 30 is sent to the image capture device 31 and converted into a data format that can be processed by the video distribution / detection processing device 10.

映像分配・検知処理装置10は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成され、検知実施判定部(検知実施判定手段)11、識別ID付与部12、識別ID埋め込み部(識別ID埋め込み手段)13、映像分配部14、識別ID解読部15、検知処理部(処理手段)16及び検知結果送信部17を有する。   The video distribution / detection processing device 10 is configured using microcomputer hardware and software such as an ECU (Electric Control Unit), and includes a detection execution determination unit (detection execution determination unit) 11, an identification ID provision unit 12, and an identification. An ID embedding unit (identification ID embedding unit) 13, a video distribution unit 14, an identification ID decoding unit 15, a detection processing unit (processing unit) 16, and a detection result transmission unit 17 are included.

検知実施判定部11は、カメラ30が画像を撮像した時点で、検知処理部16が検知処理を行っているか否かを判定するためのものである。例えば、カメラ30が33msごとの周期でフレーム画像を撮像する場合において、検知処理部16はその処理速度の関係から検知処理を3フレーム(100ms)ごとに行うものとすると、検知処理部16が検視処理を行っている間は、他のフレーム画像の検知処理を行うことはできないため、検知実施判定部11は、他のフレーム画像の検知処理を行うか否かを決定するため、検知処理部16からの情報により、検知処理部16が検知処理中であるか否かを判定する。   The detection execution determination unit 11 is used to determine whether or not the detection processing unit 16 is performing detection processing when the camera 30 captures an image. For example, when the camera 30 captures a frame image at a period of 33 ms, if the detection processing unit 16 performs the detection processing every three frames (100 ms) because of the processing speed, the detection processing unit 16 performs an inspection. Since the detection processing of other frame images cannot be performed while the processing is being performed, the detection execution determination unit 11 determines whether or not to perform the detection processing of other frame images. Whether or not the detection processing unit 16 is performing the detection process is determined based on the information from.

識別ID付与部12は、画像がカメラ30により撮像された時刻と検知対象物であるか否かを示す識別IDを生成するためのものである。もし、検知処理部16が検知処理中であると検知実施判定部11が判定したときは、検知対象物ではない旨の識別IDを生成し、検知処理部16が検知処理ではないと検知実施判定部11が判定したときは、検知対象物である旨の識別IDを生成する。   The identification ID assigning unit 12 is for generating an identification ID indicating the time when the image is captured by the camera 30 and whether the image is a detection target. If the detection execution determination unit 11 determines that the detection processing unit 16 is performing the detection process, an identification ID indicating that the detection processing unit 16 is not a detection target is generated. If the detection processing unit 16 is not the detection process, the detection execution determination is performed. When the unit 11 determines, an identification ID indicating that it is a detection target is generated.

識別ID埋め込み部13は、識別IDを画像に埋め込むためのものである。図2は、歩行者検知画像に埋め込まれた識別IDを示す図である。図2の例では、歩行者検知画像100の右上隅に、画像が撮像された時刻を示すタイムスタンプ101と、検知対象であるか否かを示す検知対象判別値102とが付与されている。   The identification ID embedding unit 13 is for embedding the identification ID in the image. FIG. 2 is a diagram illustrating the identification ID embedded in the pedestrian detection image. In the example of FIG. 2, a time stamp 101 indicating the time when the image is captured and a detection target determination value 102 indicating whether or not the image is a detection target are given to the upper right corner of the pedestrian detection image 100.

映像分配部14は、画像を識別ID解読部15と予備フレームメモリ40とに分配するためのものである。識別ID解読部15は、検知処理後の検知結果に識別IDを格納するために画像内に格納されている識別IDを読み取るためのものである。検知処理部16は、識別ID解読部15によって検知処理を行うことを決定された画像に対して、歩行者等の検知対象物を歩行者検知枠等で囲う、所定のシンボルを表示する等の検知処理(強調画像処理)を施すためのものである。検知結果送信部17は、検知処理を施した画像を映像描画装置20に送信するためのものである。   The video distribution unit 14 is for distributing the image to the identification ID decoding unit 15 and the spare frame memory 40. The identification ID decoding unit 15 is for reading the identification ID stored in the image in order to store the identification ID in the detection result after the detection process. The detection processing unit 16 surrounds a detection target such as a pedestrian with a pedestrian detection frame or the like on the image determined to be detected by the identification ID decoding unit 15 and displays a predetermined symbol. This is for performing detection processing (enhanced image processing). The detection result transmission unit 17 is for transmitting the image subjected to the detection process to the video drawing device 20.

予備フレームメモリ40は、映像分配・検知処理装置10の映像分配部14から識別IDを埋め込まれた画像を取得し、所定の時間だけ蓄積するためのものである。   The spare frame memory 40 is for acquiring an image in which the identification ID is embedded from the video distribution unit 14 of the video distribution / detection processing apparatus 10 and storing it for a predetermined time.

映像描画装置20は、映像分配・検知処理装置10と同様にECU等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成され、結果待ち受け部21、重畳用画像対応付部22、フレーム補間部(フレーム補間手段)23、検知結果重畳処理部(重畳処理手段)24及び画像表示部25を有する。なお、映像分配・検知処理装置10、映像描画装置20及び呼びフレームメモリ40が一体化された構成としても良い。   Similar to the video distribution / detection processing device 10, the video drawing device 20 is configured using microcomputer hardware and software such as an ECU, and includes a result waiting unit 21, a superimposing image correspondence unit 22, a frame interpolation unit ( A frame interpolation unit) 23, a detection result superimposing unit (superimposing unit) 24, and an image display unit 25. The video distribution / detection processing device 10, the video drawing device 20, and the call frame memory 40 may be integrated.

検知結果待ち受け部21は、映像分配・検知処理装置10の検知結果送信部17から検知処理を施された画像を取得するためのものである。重畳用画像対応付部22は、検知結果待ち受け部21と予備フレームメモリ40とから、同じ時刻のタイムスタンプ101を含む識別IDを付与された画像同士を対応つけるためのものである。   The detection result standby unit 21 is for acquiring an image subjected to the detection process from the detection result transmission unit 17 of the video distribution / detection processing device 10. The superimposing image correspondence unit 22 is for associating images provided with an identification ID including the time stamp 101 at the same time from the detection result waiting unit 21 and the spare frame memory 40.

フレーム補間部23は、映像分配・検知処理装置10の検知処理部16が検知対象物の含まれている画像を処理する時間が所定の閾値時間以上の場合に、カメラ30が検知対象物の含まれている画像を撮像した時刻におけるフレームと、検知結果重畳処理部24が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うためのものである。   The frame interpolation unit 23 is configured so that the camera 30 includes the detection target when the detection processing unit 16 of the video distribution / detection processing device 10 processes the image including the detection target for a predetermined threshold time or more. This is for performing frame interpolation between the frame at the time when the captured image is captured and the frame at the time when the detection result superimposing unit 24 superimposes the image.

検知結果重畳処理部24は、映像分配・検知処理装置10の検知処理部16が検知処理を施した画像と、映像分配・検知処理装置10の識別ID埋め込み部13が画像に埋め込んだ識別IDに係る時刻にカメラ30によって撮像された画像とを重畳するためのものである。画像表示部25は、検知結果重畳処理部24が重畳した画像をモニタ50に出力して、表示させるためのものである。   The detection result superimposing processing unit 24 uses the image processed by the detection processing unit 16 of the video distribution / detection processing device 10 and the identification ID embedded in the image by the identification ID embedding unit 13 of the video distribution / detection processing device 10. This is to superimpose an image captured by the camera 30 at such a time. The image display unit 25 outputs the image superimposed by the detection result superimposition processing unit 24 to the monitor 50 for display.

モニタ50は、画像表示部25からの歩行者検知枠等が表示された画像をユーザに対して表示するためのものである。車載用の装置の場合は、一般的には、モニタ50には、液晶モニタやナビゲーション用モニタを適用することができる。   The monitor 50 is for displaying an image on which a pedestrian detection frame or the like from the image display unit 25 is displayed to the user. In the case of a vehicle-mounted device, generally, a liquid crystal monitor or a navigation monitor can be applied to the monitor 50.

次に、図3〜7を参照して、本実施形態の対象物検知装置1の動作について説明する。図3は、本実施形態に係る画像分配スレッドを示すフロー図である。図3に示すように、画像キャプチャ装置31がカメラ30からの画像を取得する(S101)。映像分配・検知処理装置10の検知実施判定部11は、フラグ監視や割り込み発生の有無によって映像分配・検知処理装置10の検知処理部16が検知処理中であるか否かを判断する(S102)。   Next, with reference to FIGS. 3-7, operation | movement of the target object detection apparatus 1 of this embodiment is demonstrated. FIG. 3 is a flowchart showing an image distribution thread according to this embodiment. As shown in FIG. 3, the image capture device 31 acquires an image from the camera 30 (S101). The detection execution determination unit 11 of the video distribution / detection processing device 10 determines whether or not the detection processing unit 16 of the video distribution / detection processing device 10 is performing detection processing based on flag monitoring or the presence or absence of an interrupt (S102). .

検知処理部16が検知処理中である場合は、新たな画像の検知処理は不可能であるため、映像分配・検知処理装置10の識別ID付与部12は現在時刻を取得し、検知対象判別値=OFFとして識別IDを作成する(S103、S104)。検知処理部16が検知処理中でない場合は、新たな画像の検知処理が可能であるため、識別ID付与部12は現在時刻を取得し、検知対象判別値=ONとして識別IDを作成する(S103、S105)。   When the detection processing unit 16 is performing the detection process, a new image detection process is impossible. Therefore, the identification ID assigning unit 12 of the video distribution / detection processing apparatus 10 acquires the current time, and the detection target determination value. = ID is created as OFF (S103, S104). If the detection processing unit 16 is not in the detection process, a new image detection process is possible, so the identification ID assigning unit 12 acquires the current time and creates an identification ID with the detection target determination value = ON (S103). , S105).

映像分配・検知処理装置10の識別ID埋め込み部13は、図2に示すように識別IDを画像の所定位置に埋め込む(S106)。映像分配・検知処理装置10の映像分配部14は、作成した画像を非同期で予備フレームメモリ40に送信(出力し)、予備フレームメモリ40に画像を蓄積する(S107)。逐次、同様の処理が繰り返される。   The identification ID embedding unit 13 of the video distribution / detection processing apparatus 10 embeds the identification ID in a predetermined position of the image as shown in FIG. 2 (S106). The video distribution unit 14 of the video distribution / detection processing apparatus 10 asynchronously transmits (outputs) the created image to the spare frame memory 40 and stores the image in the spare frame memory 40 (S107). Sequentially, the same processing is repeated.

図4は、本実施形態に係る検知スレッドを示すフロー図である。図4に示すように、映像分配・検知処理装置10の識別ID解読部15は、検知処理後の検知結果に識別IDを格納するために画像内に格納されている識別IDを読み取る(S201)。映像分配・検知処理装置10の検知処理部16は、歩行者等の検知対象物について歩行者検知枠等で囲う、所定のシンボルを表示する等の検知処理を行い、対象物の検知結果データに識別IDを格納する(S202)。映像分配・検知処理装置10の検知結果送信部17は、検知結果を映像描画装置20に送信(出力)する(S203)。   FIG. 4 is a flowchart showing the detection thread according to the present embodiment. As shown in FIG. 4, the identification ID decoding unit 15 of the video distribution / detection processing device 10 reads the identification ID stored in the image in order to store the identification ID in the detection result after the detection processing (S201). . The detection processing unit 16 of the video distribution / detection processing device 10 performs detection processing such as surrounding a detection target object such as a pedestrian with a pedestrian detection frame or displaying a predetermined symbol, and outputs the detection result data of the target object. The identification ID is stored (S202). The detection result transmission unit 17 of the video distribution / detection processing apparatus 10 transmits (outputs) the detection result to the video drawing apparatus 20 (S203).

図5は、本実施形態に係る検知結果待ち受けスレッドを示すフロー図である。図5に示すように、映像描画装置20の検知結果待ち受け部21は、映像分配・検知処理装置10の検知結果送信部17から対象物の検知結果の受信を待ち受ける(S301)。   FIG. 5 is a flowchart showing a detection result waiting thread according to the present embodiment. As shown in FIG. 5, the detection result waiting unit 21 of the video drawing device 20 waits for reception of the detection result of the object from the detection result transmission unit 17 of the video distribution / detection processing device 10 (S301).

もし、検知結果が到着していなければ、検知結果待ち受け部21はステップS301を繰り返すとともに、後述のフレーム補間判断スレッドを行う(S302)。一方、検知結果が到着した場合は、映像描画装置20の重畳用画像対応付部22は、対象物の検知結果に格納されている識別IDと、予備フレームメモリ40に蓄積されている画像に格納されている識別IDとの照合を行う(S303)。   If the detection result has not arrived, the detection result waiting unit 21 repeats step S301 and performs a later-described frame interpolation determination thread (S302). On the other hand, when the detection result arrives, the superimposing image correspondence unit 22 of the video drawing device 20 stores the identification ID stored in the detection result of the object and the image accumulated in the spare frame memory 40. Verification with the identified ID is performed (S303).

映像描画装置20の検知結果重畳処理部24は、識別IDが合致した画像に対象物検知結果を重畳する(S304)。映像描画装置20の画像表示部25は、重畳処理済あるいは未処理の画像をモニタ50に出力する(S305)。この場合、後述のフレーム補間判断スレッドにおいて、フレーム挿入プロセスあるいはフレーム削除プロセスにおいて生成された情報も反映される。   The detection result superimposing processing unit 24 of the video drawing device 20 superimposes the object detection result on the image whose identification ID matches (S304). The image display unit 25 of the video drawing device 20 outputs the superimposed or unprocessed image to the monitor 50 (S305). In this case, the information generated in the frame insertion process or the frame deletion process is also reflected in the frame interpolation determination thread described later.

図6は、本実施形態に係るフレーム補間判断スレッドのフレーム挿入プロセスを示すフロー図である。この場合において、検知スレッドにおける検知処理終了を待っている状態であり、検知処理中につき、予備フレームメモリ40には現在、検知処理中の画像も含めて表示処理待ちの画像が格納されている。図6に示すように、検知結果待ち受けスレッドのステップS302において、検知結果の到着が遅れた場合、映像描画装置20のフレーム補間部23は、カメラ30のフレームレートで画像出力タイミングを計る(S401)。もし、今の検知処理開始前にフレームの挿入を実施した場合は、フレームの削除が必要となるため、フレーム補間部23は、後述するフレーム削除プロセスを行う(S402)。   FIG. 6 is a flowchart showing the frame insertion process of the frame interpolation determination thread according to this embodiment. In this case, the detection thread is waiting for the end of the detection process, and during the detection process, the standby frame memory 40 currently stores an image waiting for display processing, including the image being detected. As shown in FIG. 6, when the arrival of the detection result is delayed in step S302 of the detection result waiting thread, the frame interpolation unit 23 of the video drawing device 20 measures the image output timing at the frame rate of the camera 30 (S401). . If a frame is inserted before the start of the current detection process, it is necessary to delete the frame. Therefore, the frame interpolation unit 23 performs a frame deletion process to be described later (S402).

一方、今の検知処理開始前にフレームの挿入を実施していない場合であって、1検知処理中にフレームの挿入を実施していない場合は(S402、S403)、フレーム補間部23は、予備フレームメモリ40に既に格納されている画像の連続2フレーム(時系列であり、仮にFn−1,Fとする)を検査する(S404)。フレーム補間部23は、映像表示待ちの時系列連続2フレームFn−1,Fから識別IDを取得して参照し、「検知対象判断値」が、時系列連続2フレームFn−1,Fにおいて「OFF」から「ON」になっているか否かを判断する(S405)。つまり、表示待ちのフレームに対して、現在、検知処理中のフレーム(検知対象判断値がON)の直前のフレーム(検知対象判断値がOFF)の間に新しいフレームを挿入したいために、前述のような組み合わせのフレームが、予備フレームメモリ40内に存在するかどうかを確認する処理を行う。 On the other hand, when frame insertion has not been performed before the start of the current detection process, and when frame insertion has not been performed during one detection process (S402, S403), the frame interpolating unit 23 sets a spare Two consecutive frames of the image already stored in the frame memory 40 (time series, tentatively assumed as F n−1 and F n ) are inspected (S404). The frame interpolation unit 23 acquires and refers to the identification ID from the time-series continuous two frames F n−1 and F n waiting for video display, and the “detection target determination value” is the time-series continuous two frames F n−1 , F n , It determines whether or not it is from "OFF" to "oN" in F n (S405). In other words, in order to insert a new frame between the frame waiting for display (the detection target determination value is OFF) immediately before the frame currently being detected (the detection target determination value is ON), A process of confirming whether such a combination of frames exists in the spare frame memory 40 is performed.

もし、「検知対象判断値」が「OFF」から「ON」になっていないときは、フレーム補間部23はフレームFn−1を描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームFn−1をモニタ50に表示する(S406、S407、S305)。つまり、特にフレームの挿入は行わずに、時系列(待機順番)に従って表示を行う。 If the “detection target determination value” is not changed from “OFF” to “ON”, the frame interpolation unit 23 issues a command to the image display unit 25 to designate the frame F n−1 as a drawing target. The display unit 25 displays the frame F n−1 on the monitor 50 (S406, S407, S305). That is, the display is performed according to the time series (standby order) without particularly inserting a frame.

一方、「検知対象判断値」が「OFF」から「ON」になっているときは、フレーム補間部23は、フレームFn−1とフレームFとの間でフレーム補間処理を行い、新たなフレーム画像NFを生成し、挿入する(S406)。ここで、Nは増減フレーム数を意味する。フレーム補間部23は、増減フレーム数Nをインクリメントし(S409)、フレームNFを描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームNFをモニタ50に表示する(S410、S305)。 On the other hand, when the “detection target determination value” is changed from “OFF” to “ON”, the frame interpolation unit 23 performs a frame interpolation process between the frame F n−1 and the frame F n to generate a new one. A frame image NF n is generated and inserted (S406). Here, N means the number of increase / decrease frames. The frame interpolation unit 23 increments the increase / decrease frame number N (S409), issues a command to the frame NF n to be drawn, and the image display unit 25 displays the frame NF n on the monitor 50. (S410, S305).

もし、上述のステップS403において、1検知処理中にフレームの挿入を実施している場合は、フレーム補間部23は、「検知対象判断値」がONの最新画像、つまり現在検知中の画像と、フレームNFとの間でフレーム補間処理を行い、新たなフレーム画像NFn+1を作成する(S411)。フレーム補間部23は、増減フレーム数Nをインクリメントし(S409)、フレームNFn+1を描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームNFn+1をモニタ50に表示する(S412、S305)。 If frame insertion is performed during one detection process in step S403 described above, the frame interpolation unit 23 determines that the latest image whose “detection target determination value” is ON, that is, the currently detected image, Frame interpolation processing is performed between the frame NF n and a new frame image NF n + 1 is created (S411). The frame interpolation unit 23 increments the number N of increase / decrease frames (S409), issues a command to the frame NF n + 1 to be drawn, and the image display unit 25 displays the frame NF n + 1 on the monitor 50. (S412, S305).

図7は、本実施形態に係るフレーム補間判断スレッドのフレーム削除プロセスを示すフロー図である。なお、本実施形態では、予備フレームメモリ40の容量が不足しないように、フレーム削除プロセスを行うが、予備フレームメモリ40の容量が十分に大きければ、フレーム削除プロセスを行う必要はない。図7に示すように、フレーム挿入プロセスのステップS402で、今の検知処理開始前にフレームの挿入を実施した場合は、フレーム補間部23は、「検知対象判別値」がONの最新フレームFdn(現在、検知処理中の画像フレーム)と、その一つ前のフレームFdo(既に表示処理済の検知対象画像)とを取得する(S501)。フレーム補間部23は、フレームFdnとフレームFdoとの間で予備フレームメモリ40に格納されている画像フレーム数Mを識別IDのタイムスタンプから判断し、フレーム数Mをカウントする(S502)。   FIG. 7 is a flowchart showing the frame deletion process of the frame interpolation determination thread according to this embodiment. In this embodiment, the frame deletion process is performed so that the capacity of the spare frame memory 40 does not become insufficient. However, if the capacity of the spare frame memory 40 is sufficiently large, it is not necessary to perform the frame deletion process. As shown in FIG. 7, when frame insertion is performed before the start of the current detection process in step S402 of the frame insertion process, the frame interpolation unit 23 determines that the latest frame Fdn (“detection target determination value” is ON) The image frame currently being detected) and the previous frame Fdo (detection target image that has already been displayed) are acquired (S501). The frame interpolation unit 23 determines the number M of image frames stored in the spare frame memory 40 between the frame Fdn and the frame Fdo from the time stamp of the identification ID, and counts the number M of frames (S502).

フレーム補間部23は、増減フレーム数Nと、フレームFdn−フレームFdo間のフレーム数Mとを比較し、M>Nかどうかを判定する(S503)。すなわち、フレーム補間部23は、挿入総数Nと表示待ちフレーム数Mとを比較して、Mの方が大きければ、表示待ちフレームの中からフレームを一つ削除する。もし、M>Nでない場合は、フレーム補間部23は、フレームを削除できないので、フレーム挿入プロセスのステップS404を行う(S505、S404)。   The frame interpolation unit 23 compares the increase / decrease frame number N with the frame number M between the frame Fdn and the frame Fdo, and determines whether M> N (S503). That is, the frame interpolation unit 23 compares the total number N of insertions with the number M of display waiting frames, and if M is larger, deletes one frame from the display waiting frames. If M> N is not satisfied, the frame interpolation unit 23 cannot delete the frame, and performs step S404 of the frame insertion process (S505, S404).

一方、もし、M>Nである場合は、フレーム補間部23は、フレームFdnとフレームFdoとの間のフレームの中で最新のフレーム(表示タイミングが後の方)を1フレーム削除し、M=M−1、N=N−1とする(S505)。すなわち、表示待ちフレーム数を1つ減らし、挿入した履歴数Nを1つ減らす。Nを減らすのは、次の検知処理において、あと何フレーム分を削除すべきかを記憶するためである。   On the other hand, if M> N, the frame interpolation unit 23 deletes one frame of the latest frame (the display timing is later) from among the frames between the frame Fdn and the frame Fdo, and M = It is assumed that M−1 and N = N−1 (S505). That is, the number of display waiting frames is reduced by 1, and the inserted history number N is reduced by 1. N is reduced in order to store how many frames are to be deleted in the next detection process.

フレーム補間部23は、フレームFdoの次のフレームから順に描画対象とする旨の指令を画像表示部25に出し、画像表示部25はフレームFdoの次のフレームから順にモニタ50に表示する(S506、S305)。   The frame interpolation unit 23 issues a command to the drawing unit 25 in order from the next frame of the frame Fdo to the drawing target, and the image display unit 25 displays the image on the monitor 50 in order from the next frame of the frame Fdo (S506, S305).

本実施形態では、識別ID埋め込み部13が、画像に画像がカメラ30によって撮像された時刻を示す識別IDを画像に埋め込み、検知処理部16が、検知対象物が含まれている画像に画像処理を施し、検知結果重畳処理部24が、検知処理部16が画像処理を施す前後の画像であって同じ時刻に係る識別IDを有する画像同士を重畳するため、画像の重畳を平均処理時間によらないで、識別IDの示す時刻に一対一で対応するよう重畳することができるため、画像処理を施した画像と元の撮像画像との間にズレを生じさせずに両者を重畳することができる。   In the present embodiment, the identification ID embedding unit 13 embeds an identification ID indicating the time when the image was captured by the camera 30 in the image, and the detection processing unit 16 performs image processing on the image including the detection target. And the detection result superimposing processing unit 24 superimposes the images before and after the detection processing unit 16 performs the image processing and having the identification IDs related to the same time. Therefore, it is possible to superimpose them so as to correspond one-to-one with the time indicated by the identification ID, so that both can be superimposed without causing a gap between the image subjected to image processing and the original captured image. .

すなわち、図8に示すように、従来はカメラ映像に検知処理結果を重畳して遅延表示映像とする場合、平均検知処理時間PTを想定し、メモリに蓄積した撮像画像を想定した平均検知処理時間PTだけ予め遅延させて処理していた。そのため、検知対象物である歩行者200に対して歩行者検知枠300を表示するような場合でも、平均検知処理時間PTより処理が遅れると、同期ずれを生じ、検知結果を異なる映像に重畳する場合があった。一方、本実施形態では、図9に示すように、画像の重畳を平均処理時間によらず、識別IDの示す時刻に一対一で対応するよう重畳することができるため、同期ずれを生じさせず重畳処理を行うことができる。したがって、本実施形態の装置を歩行者検知に適用した場合、歩行者検知枠のズレがなくなり、ドライバーは映像上における歩行者の位置を性格に把握しやすくなる。さらに、本実施形態では識別IDを直接書き込むため、同期をとるために余分なデータを送受信する必要がなくなる。その結果、状態遷移が単純になるとともに、通信データを増やす必要がなくなる。   That is, as shown in FIG. 8, conventionally, when the detection processing result is superimposed on the camera video to obtain a delayed display video, the average detection processing time assuming the average detection processing time PT and the captured image stored in the memory is assumed. Only PT was delayed in advance. Therefore, even when displaying the pedestrian detection frame 300 for the pedestrian 200 that is the detection target, if the processing is delayed from the average detection processing time PT, a synchronization shift occurs, and the detection results are superimposed on different images. There was a case. On the other hand, in the present embodiment, as shown in FIG. 9, the image can be superimposed so as to correspond to the time indicated by the identification ID on a one-to-one basis without depending on the average processing time. Superimposition processing can be performed. Therefore, when the apparatus of this embodiment is applied to pedestrian detection, the pedestrian detection frame is not displaced, and the driver can easily grasp the position of the pedestrian on the video. Furthermore, in this embodiment, since the identification ID is directly written, it is not necessary to transmit / receive extra data for synchronization. As a result, the state transition becomes simple and there is no need to increase communication data.

また、本実施形態では、検知処理部16が画像を処理する時間が閾値以上の場合は、フレーム補間部23が、カメラ30が画像を撮像した時刻におけるフレームと、検知処理部16が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うため、検知処理部16の処理時間が長引いた場合であっても、フレーム補間により表示される画像に違和感が生じないようにすることができる。さらに、本実施形態では、違和感なくフレームの削除を行い、検知結果の描画は一致させるため、予備フレームメモリ40の容量が不足してあふれないようにすることができる。   In this embodiment, when the time for which the detection processing unit 16 processes an image is equal to or greater than the threshold, the frame interpolation unit 23 superimposes the frame at the time when the camera 30 captures the image and the detection processing unit 16 superimposes the image. Since the frame interpolation is performed between the frames at the time to be performed, even if the processing time of the detection processing unit 16 is prolonged, it is possible to prevent the image displayed by the frame interpolation from feeling uncomfortable. Furthermore, in this embodiment, the frames are deleted without a sense of incongruity, and the drawing of the detection results is matched, so that the capacity of the spare frame memory 40 is insufficient and can be prevented from overflowing.

以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、車載用の暗視装置において歩行者検知用に本発明を適用した場合を中心に説明したが、本発明はこれに限定されることはなく、他の用途にも適用可能である。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above-described embodiment, the case where the present invention is applied to pedestrian detection in an on-vehicle night vision device has been mainly described, but the present invention is not limited to this and is also applied to other uses. Is possible.

本実施形態に係る対象物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target object detection apparatus which concerns on this embodiment. 歩行者検知画像に埋め込まれた識別IDを示す図である。It is a figure which shows identification ID embedded in the pedestrian detection image. 本実施形態に係る画像分配スレッドを示すフロー図である。It is a flowchart which shows the image distribution thread | sled which concerns on this embodiment. 本実施形態に係る検知スレッドを示すフロー図である。It is a flowchart which shows the detection thread | sled which concerns on this embodiment. 本実施形態に係る検知結果待ち受けスレッドを示すフロー図である。It is a flowchart which shows the detection result waiting thread which concerns on this embodiment. 本実施形態に係るフレーム補間判断スレッドのフレーム挿入プロセスを示すフロー図である。It is a flowchart which shows the frame insertion process of the frame interpolation judgment thread concerning this embodiment. 本実施形態に係るフレーム補間判断スレッドのフレーム削除プロセスを示すフロー図である。It is a flowchart which shows the frame deletion process of the frame interpolation judgment thread concerning this embodiment. 従来のカメラ映像と遅延表示映像との関係を示す図である。It is a figure which shows the relationship between the conventional camera image | video and a delay display image | video. 本実施形態のカメラ映像と遅延表示映像との関係を示す図である。It is a figure which shows the relationship between the camera image and delayed display image of this embodiment.

符号の説明Explanation of symbols

1…対象物検知装置、10…映像分配・検知処理装置、11…検知実施判定部、12…識別ID付与部、13…識別ID埋込部、14…映像分配部、15…識別ID解読部、16…検知処理部、17…検知結果送信部、20…映像描画装置、21…検知結果待ち受け部、22…重畳用画像対応付部、23…フレーム補間部、24…検知結果重畳処理部、25…画像表示部、30…カメラ、31…画像キャプチャ装置、40…予備フレームメモリ、50…モニタ、100…歩行者検知画像、101…タイプスタンプ、102…検知対象判別値、200…歩行者、300…歩行者検知枠。 DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 10 ... Video distribution / detection processing apparatus, 11 ... Detection execution determination part, 12 ... Identification ID provision part, 13 ... Identification ID embedding part, 14 ... Video distribution part, 15 ... Identification ID decoding part , 16 ... detection processing unit, 17 ... detection result transmission unit, 20 ... video drawing device, 21 ... detection result standby unit, 22 ... superimposition image correspondence unit, 23 ... frame interpolation unit, 24 ... detection result superposition processing unit, DESCRIPTION OF SYMBOLS 25 ... Image display part, 30 ... Camera, 31 ... Image capture device, 40 ... Preliminary frame memory, 50 ... Monitor, 100 ... Pedestrian detection image, 101 ... Type stamp, 102 ... Detection object discriminating value, 200 ... Pedestrian, 300: Pedestrian detection frame.

Claims (2)

周囲の画像を撮像する撮像手段と、
前記画像が前記撮像手段によって撮像された時刻を示す識別IDを前記画像に埋め込む識別ID埋め込み手段と、
前記識別ID埋め込み手段により識別IDを埋め込まれた画像に画像処理を施す処理手段と、
前記処理手段が画像処理を施す前後の画像であって、同じ時刻に係る識別IDを有している画像同士を重畳する重畳処理手段と、
を備えた画像処理装置。
An imaging means for capturing a surrounding image;
An identification ID embedding unit that embeds an identification ID indicating the time when the image was captured by the imaging unit in the image;
Processing means for performing image processing on the image in which the identification ID is embedded by the identification ID embedding means;
Superimposition processing means for superimposing images having identification IDs related to the same time before and after the processing means performs image processing;
An image processing apparatus.
前記撮像手段はフレームごとに周囲の画像を撮像し、
前記処理手段が前記画像を処理する時間が閾値以上の場合は、前記撮像手段が前記画像を撮像した時刻におけるフレームと、前記重畳処理手段が画像を重畳する時刻におけるフレームとの間にフレーム補間を行うフレーム補間手段をさらに備えた請求項1に記載の画像処理装置。
The imaging means captures a surrounding image for each frame,
When the time for which the processing unit processes the image is equal to or greater than a threshold, frame interpolation is performed between the frame at the time when the imaging unit captures the image and the frame at the time when the superimposition processing unit superimposes the image. The image processing apparatus according to claim 1, further comprising a frame interpolation unit for performing the operation.
JP2007000170A 2007-01-04 2007-01-04 Image processor Withdrawn JP2008167348A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007000170A JP2008167348A (en) 2007-01-04 2007-01-04 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007000170A JP2008167348A (en) 2007-01-04 2007-01-04 Image processor

Publications (1)

Publication Number Publication Date
JP2008167348A true JP2008167348A (en) 2008-07-17

Family

ID=39696136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007000170A Withdrawn JP2008167348A (en) 2007-01-04 2007-01-04 Image processor

Country Status (1)

Country Link
JP (1) JP2008167348A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10728531B2 (en) 2017-05-01 2020-07-28 Canon Kabushiki Kaisha Image display system, image display apparatus, image display method, and storage medium
US10771765B2 (en) 2017-04-28 2020-09-08 Canon Kabushiki Kaisha Information processing apparatus, information processing system, information processing method, and storage medium for embedding time stamped information in an image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10771765B2 (en) 2017-04-28 2020-09-08 Canon Kabushiki Kaisha Information processing apparatus, information processing system, information processing method, and storage medium for embedding time stamped information in an image
US10728531B2 (en) 2017-05-01 2020-07-28 Canon Kabushiki Kaisha Image display system, image display apparatus, image display method, and storage medium

Similar Documents

Publication Publication Date Title
JP5904093B2 (en) In-vehicle image generator
JP2008207627A (en) In-vehicle imaging system, imaging device, and display control device
JP2008141578A (en) Visual recognizing apparatus for vehicle surrounding
JP2007274378A (en) Image processing apparatus, image display system and program
JPWO2014017105A1 (en) Image monitoring apparatus, moving object, program, and failure determination method
JP2008252307A (en) Image display system
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2015171106A (en) Vehicle peripheral image display device and vehicle peripheral image display method
WO2015133072A1 (en) Vehicle peripheral image display device and method for displaying vehicle peripheral image
JP2019175133A (en) Image processing device, image display system, and image processing method
JP2008141622A (en) Vehicle surrounding information display apparatus
JP2008167348A (en) Image processor
JP6526696B2 (en) System and method for transmitting camera based parameters without using dedicated back channel
JP6327115B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP7030427B2 (en) Imaging device with line-of-sight detection function
EP3200445B1 (en) Image capture device, vehicle, and fluctuation detecting method
JP7293990B2 (en) Vehicle display control device, vehicle display control method, and program
JP2008174075A (en) Vehicle periphery-monitoring device, and its displaying method
JP2007153087A (en) System and method for determining collision with obstacle, and computer program
JP5385366B2 (en) Vehicle display device
JP6313999B2 (en) Object detection device and object detection system
JP2008011187A (en) Display controller
JP2017215447A (en) Display control device and display control method
JP5284452B2 (en) Vehicle display device
JP2009214790A (en) Apparatus and method for imaging, and apparatus and method for processing image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091216

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110322