JP2017050818A - Image processing method and image processing program - Google Patents

Image processing method and image processing program Download PDF

Info

Publication number
JP2017050818A
JP2017050818A JP2015174865A JP2015174865A JP2017050818A JP 2017050818 A JP2017050818 A JP 2017050818A JP 2015174865 A JP2015174865 A JP 2015174865A JP 2015174865 A JP2015174865 A JP 2015174865A JP 2017050818 A JP2017050818 A JP 2017050818A
Authority
JP
Japan
Prior art keywords
time
display
image
processor
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015174865A
Other languages
Japanese (ja)
Other versions
JP6540395B2 (en
Inventor
真 渡辺
Makoto Watanabe
真 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2015174865A priority Critical patent/JP6540395B2/en
Publication of JP2017050818A publication Critical patent/JP2017050818A/en
Application granted granted Critical
Publication of JP6540395B2 publication Critical patent/JP6540395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the quality of an image to be displayed on a display device by adjusting order in which a plurality of images taken by a plurality of imaging devices are processed.SOLUTION: In an image processing method in which a plurality of photographic image taken by a plurality of imaging devices are displayed on a display device as display images, a capture time indicating the time at which the photographic images are stored in a storage part is recorded so as to correspond to each of the imaging devices; drawing processes for displaying on the display device are performed in order for the respective photographic images stored in the storage device; a drawing start time indicating the time at which the drawing process is started is recorded so as to correspond to each of the imaging devices; a drawing completion time indicating the time at which a drawing process is completed is recorded so as to correspond to each of the imaging devices; and execution order of the drawing processes for the respective photographic images when the subsequent display images are displayed on the display device is determined on the basis of the capture time, drawing start time and drawing completion time, all of which have been already recorded.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing method and an image processing program.

複数の撮像装置で撮影された複数の画像を1画面に表示する画像処理装置が提案されている(例えば、特許文献1参照)。例えば、画像処理装置は、複数の撮像装置で撮影された複数の画像を記憶部に記憶し、記憶部に記憶した複数の画像を1つの画像に合成する処理を実行して表示装置に表示する。   An image processing apparatus that displays a plurality of images taken by a plurality of imaging devices on one screen has been proposed (see, for example, Patent Document 1). For example, the image processing device stores a plurality of images captured by a plurality of imaging devices in a storage unit, executes a process of combining the plurality of images stored in the storage unit into one image, and displays the combined image on the display device. .

なお、撮像装置が1つの場合、撮像装置による撮像動作を開始してから画像が表示されるまでの時間が短くなるように、撮像動作の開始タイミングを調整する手法が提案されている(例えば、特許文献2参照)。   In the case where there is one imaging device, a method for adjusting the start timing of the imaging operation so that the time from when the imaging operation by the imaging device starts until the image is displayed has been proposed (for example, Patent Document 2).

また、表示した画像をスクロールする場合等に、フレームレートの低下を起こさずに表示を更新する表示装置が提案されている(例えば、特許文献3参照)。   Also, a display device has been proposed that updates the display without causing a decrease in the frame rate when scrolling the displayed image (for example, see Patent Document 3).

特開2002−302001号公報JP 2002-302001 A 特開2008−166859号公報JP 2008-166859 A 特開2013−214034号公報JP 2013-214034 A

複数の撮像装置で撮影された複数の画像を表示装置に表示する場合、複数の撮像装置が被写体を撮影するタイミング(以下、撮影タイミングとも称する)は、互いに同じとは限らない。このため、画像処理装置が複数の撮像装置で撮影された複数の画像の各々を所定の処理単位(例えば、撮像装置で撮影される動画の1フレーム)で順次処理する場合、画像を処理する順序によって、表示装置の1画面に表示される画像の質が異なる場合がある。   When a plurality of images captured by a plurality of imaging devices are displayed on a display device, the timing at which the plurality of imaging devices capture a subject (hereinafter also referred to as imaging timing) is not necessarily the same. Therefore, when the image processing apparatus sequentially processes each of the plurality of images captured by the plurality of imaging apparatuses in a predetermined processing unit (for example, one frame of a moving image captured by the imaging apparatus), the order of processing the images Depending on the case, the quality of the image displayed on one screen of the display device may differ.

画像の質は、例えば、画像が表示されるまでの遅延時間(表示装置の1画面に表示される複数の画像の遅延時間の平均)、あるいは、表示装置の1画面に表示される複数の画像の撮影タイミングのずれの大きさ等により変化する。   The quality of the image is, for example, a delay time until the image is displayed (average of delay times of a plurality of images displayed on one screen of the display device), or a plurality of images displayed on one screen of the display device. It varies depending on the magnitude of the shooting timing deviation.

1つの側面では、本件開示の画像処理方法および画像処理プログラムは、複数の撮像装置で撮影された複数の画像を処理する順序を調整することにより、表示装置に表示する画像の質を向上させることを目的とする。   In one aspect, the image processing method and the image processing program disclosed herein improve the quality of an image displayed on a display device by adjusting the order of processing a plurality of images captured by a plurality of imaging devices. With the goal.

一観点によれば、複数の撮像装置でそれぞれ撮影された複数の撮影画像を各撮像装置のフレーム毎に記憶する記憶部を参照して、複数の撮影画像を表示画像として表示装置に所定の時間間隔で順次表示する画像処理方法では、複数の撮影画像が記憶部に記憶された時刻を示すキャプチャ時刻を、複数の撮像装置の各々に対応付けて記録し、記憶部に記憶された複数の撮影画像の各々に対して、表示装置に表示するための描画処理を順番に実行し、描画処理を開始した時刻を示す描画開始時刻を、複数の撮像装置の各々に対応付けて記録し、描画処理が完了した時刻を示す描画完了時刻を、複数の撮像装置の各々に対応付けて記録し、次の表示画像を表示装置に表示する際の複数の撮影画像の各々に対する描画処理の実行順を、既に記録されたキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて決定する。   According to one aspect, with reference to a storage unit that stores a plurality of captured images respectively captured by a plurality of imaging devices for each frame of each imaging device, the plurality of captured images are displayed as display images on a display device for a predetermined time. In the image processing method in which images are sequentially displayed at intervals, capture times indicating times when a plurality of captured images are stored in the storage unit are recorded in association with each of the plurality of imaging devices, and a plurality of shootings stored in the storage unit are recorded. For each of the images, a drawing process for displaying on the display device is sequentially executed, and a drawing start time indicating a time when the drawing process is started is recorded in association with each of the plurality of imaging devices, and the drawing process is performed. The drawing completion time indicating the time when the image is completed is recorded in association with each of the plurality of imaging devices, and the execution order of the drawing processing for each of the plurality of captured images when the next display image is displayed on the display device is Already recorded Yapucha time, be determined on the basis of the drawing start time and drawing completion time.

別の観点によれば、複数の撮像装置でそれぞれ撮影された複数の撮影画像を各撮像装置のフレーム毎に記憶する記憶部を参照して、複数の撮影画像を表示画像として表示装置に所定の時間間隔で順次表示する画像処理をコンピュータに実行させる画像処理プログラムでは、複数の撮影画像が記憶部に記憶された時刻を示すキャプチャ時刻を、複数の撮像装置の各々に対応付けて記録し、記憶部に記憶された複数の撮影画像の各々に対して、表示装置に表示するための描画処理を順番に実行し、描画処理を開始した時刻を示す描画開始時刻を、複数の撮像装置の各々に対応付けて記録し、描画処理が完了した時刻を示す描画完了時刻を、複数の撮像装置の各々に対応付けて記録し、次の表示画像を表示装置に表示する際の複数の撮影画像の各々に対する描画処理の実行順を、既に記録されたキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて決定する。   According to another aspect, with reference to a storage unit that stores a plurality of captured images respectively captured by a plurality of imaging devices for each frame of each imaging device, a plurality of captured images are displayed as predetermined images on a display device. In an image processing program that causes a computer to perform image processing that is sequentially displayed at time intervals, capture times indicating times when a plurality of captured images are stored in a storage unit are recorded in association with each of the plurality of imaging devices, and stored. For each of the plurality of captured images stored in the unit, drawing processing for displaying on the display device is executed in order, and a drawing start time indicating the time when the drawing processing is started is assigned to each of the plurality of imaging devices. The drawing completion time indicating the time when the drawing process is completed is recorded in association with each other and recorded in association with each of the plurality of imaging devices, and each of the plurality of captured images when the next display image is displayed on the display device The execution order of the drawing action for already recorded captured time is determined based on the drawing starting time and the drawing completion time.

本件開示の画像処理方法および画像処理プログラムは、複数の撮像装置で撮影された複数の画像を処理する順序を調整することにより、表示装置に表示する画像の質を向上させることができる。   The image processing method and the image processing program of the present disclosure can improve the quality of an image displayed on a display device by adjusting the order of processing a plurality of images captured by a plurality of imaging devices.

画像処理方法および画像処理プログラムの一実施形態を示す図である。It is a figure which shows one Embodiment of an image processing method and an image processing program. 図1に示した画像処理装置の動作の一例を示す図である。It is a figure which shows an example of operation | movement of the image processing apparatus shown in FIG. 画像処理方法および画像処理プログラムの別の実施形態を示す図である。It is a figure which shows another embodiment of the image processing method and an image processing program. 図3に示したプロセッサに参照される情報の一例を示す図である。It is a figure which shows an example of the information referred by the processor shown in FIG. 図3に示した画像処理システムの動作タイミングの一例を示す図である。It is a figure which shows an example of the operation timing of the image processing system shown in FIG. 図3に示したプロセッサの動作の一例を示す図である。FIG. 4 is a diagram illustrating an example of an operation of the processor illustrated in FIG. 3. 図6に示した順序決定処理の一例を示す図である。It is a figure which shows an example of the order determination process shown in FIG. 図6に示した順序決定処理の別の例を示す図である。It is a figure which shows another example of the order determination process shown in FIG. 表示遅延時間の二乗平均を評価値とした場合のシミュレーション結果の一例を示す図である。It is a figure which shows an example of the simulation result at the time of making the square average of display delay time into an evaluation value. キャプチャ時刻の分散を評価値とした場合のシミュレーション結果の一例を示す図である。It is a figure which shows an example of the simulation result at the time of setting dispersion | variation of capture time as an evaluation value. 図3に示した画像処理システムのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the image processing system shown in FIG.

以下、実施形態について、図面を用いて説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、画像処理方法および画像処理プログラムの一実施形態を示す。図1に示す画像処理システム10は、複数の撮像装置50(50a、50b、50c)と、画像処理装置20と、表示装置60とを有する。撮像装置50(50a、50b、50c)は、例えば、デジタルカメラであり、所定のフレームレートで撮影した撮影画像CIMG(CIMGa、CIMGb、CIMGc)を画像処理装置20に出力する。画像処理装置20は、例えば、CPU(Central Processing Unit)等のプロセッサである。   FIG. 1 shows an embodiment of an image processing method and an image processing program. An image processing system 10 illustrated in FIG. 1 includes a plurality of imaging devices 50 (50a, 50b, 50c), an image processing device 20, and a display device 60. The imaging device 50 (50a, 50b, 50c) is, for example, a digital camera, and outputs captured images CIMG (CIMGa, CIMGb, CIMGc) captured at a predetermined frame rate to the image processing device 20. The image processing device 20 is, for example, a processor such as a CPU (Central Processing Unit).

画像処理装置20は、記憶部30、描画処理部40、キャプチャ時刻記録部42、描画開始時刻記録部44、描画完了時刻記録部46および順序決定部48を有する。なお、画像処理装置20は、ハードウェアのみで実現されてもよく、画像処理プログラム等のソフトウェアによりハードウェアを制御することにより実現されてもよい。例えば、描画処理部40、キャプチャ時刻記録部42、描画開始時刻記録部44、描画完了時刻記録部46および順序決定部48は、プロセッサが画像処理プログラムを実行することにより実現されてもよい。   The image processing apparatus 20 includes a storage unit 30, a drawing processing unit 40, a capture time recording unit 42, a drawing start time recording unit 44, a drawing completion time recording unit 46, and an order determination unit 48. Note that the image processing apparatus 20 may be realized only by hardware, or may be realized by controlling hardware by software such as an image processing program. For example, the drawing processing unit 40, the capture time recording unit 42, the drawing start time recording unit 44, the drawing completion time recording unit 46, and the order determination unit 48 may be realized by a processor executing an image processing program.

画像処理装置20は、複数の撮像装置50でそれぞれ撮影された複数の撮影画像CIMGを表示画像DIMGとして、表示装置60の1画面に所定の時間間隔で表示する。例えば、各撮影画像CIMGは、各撮像装置50の1フレーム分の画像であり、表示画像DIMGは、撮影画像CIMGa、CIMGb、CIMGcを表示装置60の画面内の所定の場所にそれぞれ配置した画像である。   The image processing device 20 displays a plurality of captured images CIMG captured by the plurality of imaging devices 50 as display images DIMG at a predetermined time interval on one screen of the display device 60. For example, each captured image CIMG is an image for one frame of each imaging device 50, and the display image DIMG is an image in which the captured images CIMGa, CIMGb, and CIMGc are arranged at predetermined locations in the screen of the display device 60. is there.

記憶部30は、撮像装置50a、50b、50cから受けた撮影画像CIMGa、CIMGb、CIMGcを各撮像装置50のフレーム毎に記憶する。例えば、記憶部30には、3フレーム分の撮影画像CIMGを記憶可能な領域が撮影画像CIMGa、CIMGb、CIMGc用にそれぞれ割り当てられる。3フレーム分の撮影画像CIMGを保持することにより、撮影画像CIMGの参照要求に対して、待ち時間を少なくすることが可能となる。   The storage unit 30 stores the captured images CIMGa, CIMGb, and CIMGc received from the imaging devices 50a, 50b, and 50c for each frame of each imaging device 50. For example, the storage unit 30 is allocated with areas for storing the captured images CIMG for three frames for the captured images CIMGa, CIMGb, and CIMGc, respectively. By holding the captured image CIMG for three frames, it is possible to reduce the waiting time for a reference request for the captured image CIMG.

なお、撮影画像CIMGa、CIMGb、CIMGc用にそれぞれ割り当てられる領域の大きさは、3フレーム分の撮影画像CIMGを記憶可能な大きさに限定されない。例えば、記憶部30には、2フレーム分の撮影画像CIMGを記憶可能な領域が撮影画像CIMGa、CIMGb、CIMGc用にそれぞれ割り当てられてもよい。   Note that the size of the area allocated for each of the captured images CIMGa, CIMGb, and CIMGc is not limited to a size that can store the captured images CIMG for three frames. For example, the storage unit 30 may be assigned areas for storing the captured images CIMG for two frames for the captured images CIMGa, CIMGb, and CIMGc, respectively.

キャプチャ時刻記録部42は、複数の撮像装置50でそれぞれ撮影された複数の撮影画像CIMGが記憶部30に記憶された時刻を示すキャプチャ時刻を、複数の撮像装置50の各々に対応付けて記録する。例えば、画像処理装置20がプロセッサで実現される場合、キャプチャ時刻記録部42は、1フレーム分の撮影画像CIMGが記憶部30に記憶されたときに発生する割り込み等に基づいて、キャプチャ時刻をレジスタ等に記録する。これにより、キャプチャ時刻は、撮影画像CIMG毎(すなわち、撮像装置50毎)にレジスタ等に記録される。   The capture time recording unit 42 records the capture times indicating the times at which the plurality of captured images CIMG respectively captured by the plurality of imaging devices 50 are stored in the storage unit 30 in association with each of the plurality of imaging devices 50. . For example, when the image processing apparatus 20 is realized by a processor, the capture time recording unit 42 registers the capture time based on an interrupt or the like that occurs when the captured image CIMG for one frame is stored in the storage unit 30. Record in etc. Thereby, the capture time is recorded in a register or the like for each captured image CIMG (that is, for each imaging device 50).

描画処理部40は、記憶部30に記憶された複数の撮影画像CIMGの各々に対して、表示装置60に表示するための描画処理を順番に実行する。例えば、描画処理部40は、順序決定部48により決定された処理順序に従って、複数の撮影画像CIMGの各々に対する描画処理を実行する。なお、順序決定部48で処理順序(描画処理の実行順)が決定する前の期間では、描画処理部40は、予め決められたデフォルトの処理順序に従って、複数の撮影画像CIMGの各々に対する描画処理を実行する。   The drawing processing unit 40 sequentially executes drawing processing for displaying on the display device 60 for each of the plurality of captured images CIMG stored in the storage unit 30. For example, the drawing processing unit 40 executes drawing processing for each of the plurality of captured images CIMG according to the processing order determined by the order determining unit 48. In the period before the processing order (drawing process execution order) is determined by the order determining unit 48, the drawing processing unit 40 performs drawing processing on each of the plurality of captured images CIMG according to a predetermined default processing order. Execute.

また、描画処理部40は、例えば、描画処理を開始した時刻を示す描画開始時刻を描画開始時刻記録部44に通知し、描画処理が完了した時刻を示す描画完了時刻を描画完了時刻記録部46に通知する。   For example, the drawing processing unit 40 notifies the drawing start time recording unit 44 of the drawing start time indicating the time at which the drawing processing is started, and the drawing completion time recording unit 46 indicates the drawing completion time indicating the time at which the drawing processing is completed. Notify

表示装置60の1画面分の描画処理が完了した場合、描画処理部40は、描画処理が完了した複数の撮影画像CIMGa、CIMGb、CIMGcを1つの表示画像DIMGとして、垂直同期信号等の所定のタイミングに同期して表示装置60に出力する。   When the drawing process for one screen of the display device 60 is completed, the drawing processing unit 40 uses a plurality of photographed images CIMGa, CIMGb, and CIMGc for which the drawing process has been completed as one display image DIMG for a predetermined synchronization signal or the like. Output to the display device 60 in synchronization with the timing.

描画開始時刻記録部44は、描画開始時刻を複数の撮像装置50の各々に対応付けて記録する。例えば、描画開始時刻記録部44は、描画処理部40から通知された描画開始時刻を、撮影画像CIMG毎(すなわち、撮像装置50毎)にレジスタ等に記録する。   The drawing start time recording unit 44 records the drawing start time in association with each of the plurality of imaging devices 50. For example, the drawing start time recording unit 44 records the drawing start time notified from the drawing processing unit 40 in a register or the like for each captured image CIMG (that is, for each imaging device 50).

描画完了時刻記録部46は、描画完了時刻を複数の撮像装置50の各々に対応付けて記録する。例えば、描画完了時刻記録部46は、描画処理部40から通知された描画完了時刻を、撮影画像CIMG毎(すなわち、撮像装置50毎)にレジスタ等に記録する。   The drawing completion time recording unit 46 records the drawing completion time in association with each of the plurality of imaging devices 50. For example, the drawing completion time recording unit 46 records the drawing completion time notified from the drawing processing unit 40 in a register or the like for each captured image CIMG (that is, for each imaging device 50).

順序決定部48は、例えば、複数の撮影画像CIMGに対する描画処理の実行順を決定することにより、表示画像DIMGに使用する複数の撮影画像CIMGとして、各撮像装置50で撮影された各動画のどのフレームを選択するかを撮像装置50毎に決定する。例えば、順序決定部48は、次の表示画像DIMGを表示装置60に表示する際の複数の撮影画像CIMGの各々に対する描画処理の実行順を、所定の条件に適した処理順序になるように、キャプチャ時刻、描画開始時刻および描画完了時刻を用いて決定する。   For example, the order determination unit 48 determines the execution order of the drawing processing for the plurality of captured images CIMG, and thereby determines which of the moving images captured by each imaging device 50 as the plurality of captured images CIMG used for the display image DIMG. Whether to select a frame is determined for each imaging device 50. For example, the order determination unit 48 sets the execution order of the drawing processing for each of the plurality of captured images CIMG when displaying the next display image DIMG on the display device 60 to be a processing order suitable for a predetermined condition. It is determined using the capture time, drawing start time, and drawing completion time.

所定の条件は、例えば、表示画像DIMGの質を向上させる条件である。例えば、被写体の像をリアルタイムに表示装置60に表示するシステムに画像処理装置20が搭載される場合、表示遅延時間をできるだけ小さくすることは、表示画像DIMGの質を向上させる条件の1つである。表示遅延時間は、例えば、各撮影画像CIMGが記憶部30に記憶されてから表示装置60に表示されるまでの時間である。   The predetermined condition is, for example, a condition for improving the quality of the display image DIMG. For example, when the image processing device 20 is installed in a system that displays an image of a subject on the display device 60 in real time, reducing the display delay time as much as possible is one of the conditions for improving the quality of the display image DIMG. . The display delay time is, for example, the time from when each captured image CIMG is stored in the storage unit 30 until it is displayed on the display device 60.

表示遅延時間が大きくなるほど、表示装置60に表示される表示画像DIMG内の被写体の状態と被写体の現在の状態との差は大きくなる。このため、例えば、自動車のバックモニタに画像処理装置20が搭載される場合、表示遅延時間が大きくなるほど、自動車の運転者への注意喚起の遅れにつながる。換言すれば、表示遅延時間をできるだけ小さくすることにより、自動車の運転者への注意喚起が遅れることを抑止することができる。   As the display delay time increases, the difference between the state of the subject in the display image DIMG displayed on the display device 60 and the current state of the subject increases. For this reason, for example, when the image processing apparatus 20 is mounted on the back monitor of a car, the longer the display delay time, the longer the alerting to the driver of the car. In other words, by delaying the display delay time as much as possible, it is possible to prevent delays in alerting the driver of the automobile.

例えば、所定の条件が表示遅延時間をできるだけ小さくすることである場合、順序決定部48は、次の表示画像DIMG内の複数の撮影画像CIMGの表示遅延時間の平均(または、二乗平均)ができるだけ小さくなるように、描画処理の実行順を決定する。なお、次の表示画像DIMG内の複数の撮影画像CIMGの表示遅延時間は、既に記録されたキャプチャ時刻、描画開始時刻、描画完了時刻等を用いて予測される。   For example, when the predetermined condition is to make the display delay time as small as possible, the order determination unit 48 can average the display delay times (or the mean square) of the plurality of captured images CIMG in the next display image DIMG as much as possible. The execution order of the drawing processing is determined so as to be smaller. Note that the display delay times of the plurality of captured images CIMG in the next display image DIMG are predicted using the already recorded capture time, drawing start time, drawing completion time, and the like.

また、所定の条件(表示画像DIMGの質を向上させる条件)は、表示遅延時間をできるだけ小さくすることに限定されない。例えば、表示画像DIMGの質を向上させる条件は、表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれをできるだけ小さくすることでもよい。表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれは、表示画像DIMG内の複数の撮影画像CIMGの撮影タイミングのずれに対応する。撮影タイミングは、撮像装置50が被写体を撮影するタイミングである。   Further, the predetermined condition (condition for improving the quality of the display image DIMG) is not limited to making the display delay time as small as possible. For example, the condition for improving the quality of the display image DIMG may be to minimize the shift in capture time of the plurality of captured images CIMG in the display image DIMG. The shift in capture time of the plurality of captured images CIMG in the display image DIMG corresponds to the shift in shooting timing of the plurality of captured images CIMG in the display image DIMG. The photographing timing is a timing at which the imaging device 50 photographs a subject.

例えば、撮像装置50が自動車等に搭載され移動する場合、または、被写体が移動する場合、複数の撮像装置50の撮影タイミングのずれが大きくなるほど、複数の撮影画像CIMGを1つの表示画像DIMGとして表示したときの画像の乱れは大きくなる。   For example, when the imaging device 50 is mounted on a car or the like or moves, or when the subject moves, the plurality of captured images CIMG are displayed as one display image DIMG as the difference in shooting timing of the plurality of imaging devices 50 increases. When this happens, image distortion will increase.

したがって、複数の撮像装置50で撮影された複数の撮影画像CIMGが1つの表示画像DIMGとして1画面内に表示される場合、複数の撮像装置50の撮影タイミングのずれが大きくなるほど、表示画像DIMGの質が低下するおそれがある。なお、表示画像DIMG内の複数の撮影画像CIMGの撮影タイミングのずれは、表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれを調整することにより、調整される。すなわち、表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれをできるだけ小さくすることにより、表示画像DIMGの質を向上させることができる。   Therefore, when a plurality of photographed images CIMG photographed by the plurality of imaging devices 50 are displayed as one display image DIMG within one screen, the larger the deviation in the photographing timing of the plurality of imaging devices 50, the larger the display image DIMG. The quality may be reduced. Note that the shift in shooting timing of the plurality of captured images CIMG in the display image DIMG is adjusted by adjusting the shift in capture time of the plurality of captured images CIMG in the display image DIMG. That is, the quality of the display image DIMG can be improved by minimizing the shift in capture time of the plurality of captured images CIMG in the display image DIMG.

所定の条件が複数の撮影画像CIMGのキャプチャ時刻のずれをできるだけ小さくすることである場合、順序決定部48は、次の表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれができるだけ小さくなるように、描画処理の実行順を決定する。なお、次の表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれは、既に記録されたキャプチャ時刻、描画開始時刻、描画完了時刻等を用いて予測される。   When the predetermined condition is to minimize the shift in capture time of the plurality of captured images CIMG, the order determination unit 48 minimizes the shift in capture time of the plurality of captured images CIMG in the next display image DIMG. As described above, the execution order of the drawing processing is determined. Note that a shift in the capture time of the plurality of captured images CIMG in the next display image DIMG is predicted using the already recorded capture time, drawing start time, drawing completion time, and the like.

このように、順序決定部48は、表示画像DIMGの質を向上させる条件に適した処理順序になるように、既に記録されたキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて、描画処理の実行順を決定する。順序決定部48で決定した処理順序(描画処理の実行順)は、描画処理部40に通知される。   As described above, the order determination unit 48 performs the drawing process based on the already recorded capture time, drawing start time, and drawing completion time so that the processing order is suitable for the condition for improving the quality of the display image DIMG. Determine the execution order. The processing order determined by the order determination unit 48 (drawing processing execution order) is notified to the drawing processing unit 40.

表示装置60は、例えば、液晶ディスプレイ等のモニタであり、描画処理部40から所定の周期(例えば、垂直同期信号の周期)で受けた表示画像DIMGを表示する。なお、画像処理システム10および画像処理装置20の構成は、図1に示す例に限定されない。例えば、撮像装置50の数は、2つでもよいし、4つ以上でもよい。また、例えば、記憶部30は、画像処理装置20の外部に配置されてもよい。   The display device 60 is a monitor such as a liquid crystal display, for example, and displays the display image DIMG received from the drawing processing unit 40 at a predetermined cycle (for example, the cycle of the vertical synchronization signal). Note that the configurations of the image processing system 10 and the image processing apparatus 20 are not limited to the example shown in FIG. For example, the number of imaging devices 50 may be two, or four or more. For example, the storage unit 30 may be disposed outside the image processing apparatus 20.

図2は、図1に示した画像処理装置20の動作の一例を示す。図2に示す動作は、ハードウェアのみで実現されてもよく、ハードウェアをソフトウェアにより制御することにより実現されてもよい。例えば、画像処理プログラム等のソフトウェアは、プロセッサに図2に示す動作を実行させてもよい。すなわち、プロセッサは、画像処理プログラムを読み取り、図2に示す動作を実行してもよい。図2に示す動作をプロセッサ(すなわち、コンピュータ)に実行させるプログラムは、画像処理プログラムの一態様である。   FIG. 2 shows an example of the operation of the image processing apparatus 20 shown in FIG. The operation illustrated in FIG. 2 may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as an image processing program may cause the processor to execute the operation shown in FIG. That is, the processor may read the image processing program and execute the operation shown in FIG. A program that causes a processor (that is, a computer) to execute the operation illustrated in FIG. 2 is an aspect of an image processing program.

ステップS100では、画像処理装置20は、撮影画像CIMGa、CIMGb、CIMGcのうち、順序決定部48で決定した処理順序が1番目の撮影画像CIMGを、最初に処理する処理順序j(j=1)の撮影画像CIMGとして選択する。なお、順序決定部48が処理順序を決定する前の期間(例えば、最初の表示画像DIMGが表示装置60に表示される前)では、画像処理装置20は、予め決められたデフォルトの処理順序に基づいて、処理順序j(j=1)の撮影画像CIMGを選択する。   In step S100, the image processing apparatus 20 first processes a captured image CIMG whose processing order determined by the order determination unit 48 is the first among the captured images CIMGa, CIMGb, and CIMGc. Is selected as a captured image CIMG. In the period before the order determination unit 48 determines the processing order (for example, before the first display image DIMG is displayed on the display device 60), the image processing device 20 has a predetermined default processing order. Based on this, the captured image CIMG in the processing order j (j = 1) is selected.

次に、ステップS110では、キャプチャ時刻記録部42は、処理順序jの撮影画像CIMGが記憶部30に記憶された時刻を示すキャプチャ時刻を、処理順序jの撮影画像CIMGを撮影した撮像装置50に対応付けてレジスタ等に記録する。   Next, in step S110, the capture time recording unit 42 captures the capture time indicating the time when the captured image CIMG of the processing order j is stored in the storage unit 30 to the imaging device 50 that has captured the captured image CIMG of the processing order j. Correspondingly record in a register or the like.

次に、ステップS120では、描画処理部40は、処理順序jの撮影画像CIMGに対して、描画処理を開始する。描画処理が実行された後、すなわち、ステップS120の処理が実行された後、画像処理装置20の動作は、ステップS130に移る。   Next, in step S120, the drawing processing unit 40 starts drawing processing on the captured image CIMG in the processing order j. After the drawing process is executed, that is, after the process of step S120 is executed, the operation of the image processing apparatus 20 proceeds to step S130.

ステップS130では、描画開始時刻記録部44は、処理順序jの撮影画像CIMGに対する描画処理の開始時刻を示す描画開始時刻を、処理順序jの撮影画像CIMGを撮影した撮像装置50に対応付けてレジスタ等に記録する。   In step S130, the drawing start time recording unit 44 registers the drawing start time indicating the start time of the drawing process for the captured image CIMG in the processing order j in association with the imaging device 50 that has captured the captured image CIMG in the processing order j. Record in etc.

次に、ステップS140では、描画完了時刻記録部46は、処理順序jの撮影画像CIMGに対する描画処理が完了するまで待機する。そして、描画完了時刻記録部46は、処理順序jの撮影画像CIMGに対する描画処理が完了した場合、ステップS150の処理を実行する。   Next, in step S140, the drawing completion time recording unit 46 waits until drawing processing for the captured image CIMG in the processing order j is completed. The drawing completion time recording unit 46 executes the process of step S150 when the drawing process for the captured image CIMG in the processing order j is completed.

ステップS150では、描画完了時刻記録部46は、処理順序jの撮影画像CIMGに対する描画処理の完了時刻を示す描画完了時刻を、処理順序jの撮影画像CIMGを撮影した撮像装置50に対応付けてレジスタ等に記録する。   In step S150, the drawing completion time recording unit 46 registers the drawing completion time indicating the drawing processing completion time for the captured image CIMG in the processing order j in association with the imaging device 50 that has captured the captured image CIMG in the processing order j. Record in etc.

次に、ステップS160では、画像処理装置20は、1画面分の描画処理が完了したか否かを判定する。例えば、画像処理装置20は、撮影画像CIMGa、CIMGb、CIMGcの全てに対して、描画処理が完了したか否かを判定する。1画面分の描画処理が完了した場合、画像処理装置20の動作は、ステップS180に移る。一方、1画面分の描画処理が完了していない場合、画像処理装置20の動作は、ステップS170に移る。   Next, in step S160, the image processing apparatus 20 determines whether the drawing process for one screen has been completed. For example, the image processing apparatus 20 determines whether drawing processing has been completed for all of the captured images CIMGa, CIMGb, and CIMGc. When the drawing process for one screen is completed, the operation of the image processing apparatus 20 proceeds to step S180. On the other hand, when the drawing process for one screen is not completed, the operation of the image processing apparatus 20 proceeds to step S170.

ステップS170では、画像処理装置20は、撮影画像CIMGa、CIMGb、CIMGcのうち、次に処理する処理順序j(j=j+1)の撮影画像CIMGを選択する。ステップS170の処理が実行された後、画像処理装置20の動作は、ステップS110に戻る。すなわち、ステップS110−S150の処理は、1画面分の描画処理が完了するまで、順序決定部48により決定された処理順序(順序決定部48が処理順序を決定する前の期間ではデフォルトの処理順序)に従って繰り返される。そして、1画面分の描画処理が完了した場合、ステップS180の処理が実行される。   In step S170, the image processing apparatus 20 selects the captured image CIMG of the processing order j (j = j + 1) to be processed next from the captured images CIMGa, CIMGb, and CIMGc. After the process of step S170 is executed, the operation of the image processing apparatus 20 returns to step S110. That is, the processes in steps S110 to S150 are performed in the processing order determined by the order determining unit 48 until the drawing process for one screen is completed (the default processing order in the period before the order determining unit 48 determines the processing order). ) Is repeated. When the drawing process for one screen is completed, the process of step S180 is executed.

ステップS180では、順序決定部48は、次の表示画像DIMGを表示装置60に表示する際の複数の撮影画像CIMGの各々に対する描画処理の実行順(処理順序)を、所定の条件に適した処理順序になるように決定する。例えば、順序決定部48は、次の表示画像DIMG内の複数の撮影画像CIMGの表示遅延時間の平均(または、二乗平均)ができるだけ小さくなるように、キャプチャ時刻、描画開始時刻、描画完了時刻等を用いて、描画処理の実行順を決定する。あるいは、順序決定部48は、次の表示画像DIMG内の複数の撮影画像CIMGのキャプチャ時刻のずれができるだけ小さくなるように、キャプチャ時刻、描画開始時刻、描画完了時刻等を用いて、描画処理の実行順を決定してもよい。   In step S180, the order determination unit 48 sets the execution order (processing order) of the drawing processing for each of the plurality of captured images CIMG when the next display image DIMG is displayed on the display device 60 to a process suitable for a predetermined condition. Decide to be in order. For example, the order determination unit 48 captures time, drawing start time, drawing completion time, etc. so that the average (or the mean square) of the display delay times of the plurality of captured images CIMG in the next display image DIMG is as small as possible. Is used to determine the execution order of the drawing processing. Alternatively, the order determination unit 48 uses the capture time, the drawing start time, the drawing completion time, and the like so that the shift in the capture time of the plurality of captured images CIMG in the next display image DIMG is as small as possible. The execution order may be determined.

次に、ステップS190では、画像処理装置20は、例えば、表示画像DIMGを表示装置60に表示するタイミング(以下、表示タイミングとも称する)に対応する垂直同期信号等を検出するまで、表示画像DIMGの表示装置60への転送を待機する。すなわち、画像処理装置20は、垂直同期信号等の表示タイミングに同期して、ステップS200の処理を実行する。   Next, in step S190, the image processing device 20 detects, for example, the display image DIMG until a vertical synchronization signal or the like corresponding to the timing for displaying the display image DIMG on the display device 60 (hereinafter also referred to as display timing) is detected. Waiting for transfer to the display device 60. That is, the image processing device 20 executes the process of step S200 in synchronization with the display timing of the vertical synchronization signal or the like.

ステップS200では、画像処理装置20は、描画処理が完了した複数の撮影画像CIMGa、CIMGb、CIMGcを1つの表示画像DIMGとして、表示装置60に出力する。これにより、表示画像DIMGは、表示装置60に表示される。ステップS200の処理が実行された後、画像処理装置20の動作は、ステップS100に戻り、次の表示画像DIMGを表示装置60に表示する処理が実行される。これにより、表示画像DIMGは、垂直同期信号等の表示タイミングに同期して表示装置60に順次表示される。   In step S200, the image processing apparatus 20 outputs a plurality of captured images CIMGa, CIMGb, and CIMGc for which the drawing process has been completed to the display apparatus 60 as one display image DIMG. As a result, the display image DIMG is displayed on the display device 60. After the process of step S200 is executed, the operation of the image processing apparatus 20 returns to step S100, and the process of displaying the next display image DIMG on the display apparatus 60 is executed. Thereby, the display image DIMG is sequentially displayed on the display device 60 in synchronization with the display timing of the vertical synchronization signal or the like.

ここで、例えば、画像処理システム10によっては、複数の撮像装置50の撮影タイミングは互いに同じとは限らない。また、複数の撮像装置50の撮影タイミングのずれは、撮影中に変化する場合もある。したがって、描画処理の実行順が表示画像DIMGの質を向上させる条件を考慮せずに任意の順序で固定された場合、固定された順序と異なる順序で撮影画像CIMGを処理した方が表示画像DIMGの質が向上する場合がある。   Here, for example, depending on the image processing system 10, the shooting timings of the plurality of imaging devices 50 are not necessarily the same. In addition, the shift in shooting timing of the plurality of imaging devices 50 may change during shooting. Therefore, when the execution order of the drawing processing is fixed in an arbitrary order without considering the condition for improving the quality of the display image DIMG, the captured image CIMG is processed in a different order from the fixed order. May improve quality.

このため、順序決定部48は、複数の撮像装置50で撮影された複数の撮影画像CIMGを処理する順序を、表示画像DIMGの質を向上させる条件に適した処理順序になるように、キャプチャ時刻、描画開始時刻、描画完了時刻等に基づいて調整する。これにより、図2に示す動作では、表示装置60に表示される表示画像DIMGの質は、複数の撮影画像CIMGに対する描画処理の実行順を固定した手法に比べて、向上する。なお、画像処理装置20の動作は、図2に示す例に限定されない。   For this reason, the order determination unit 48 captures the capture time so that the order of processing the plurality of captured images CIMG captured by the plurality of imaging devices 50 becomes a processing order suitable for the condition for improving the quality of the display image DIMG. The adjustment is made based on the drawing start time, the drawing completion time, and the like. Thereby, in the operation shown in FIG. 2, the quality of the display image DIMG displayed on the display device 60 is improved as compared with the method in which the execution order of the drawing processing for the plurality of captured images CIMG is fixed. The operation of the image processing apparatus 20 is not limited to the example shown in FIG.

以上、図1および図2に示す実施形態では、順序決定部48は、例えば、表示画像DIMGの質を向上させる条件に適した処理順序になるように、キャプチャ時刻、描画開始時刻および描画完了時刻を用いて、描画処理の実行順を決定する。これにより、表示画像DIMGの質を向上させることができる。   As described above, in the embodiment shown in FIGS. 1 and 2, the order determination unit 48 captures, draws, and finishes so that, for example, the processing order is suitable for conditions that improve the quality of the display image DIMG. Is used to determine the execution order of the drawing processing. Thereby, the quality of the display image DIMG can be improved.

図3は、画像処理方法および画像処理プログラムの別の実施形態を示す。図1および図2で説明した要素と同一または同様の要素については、同一または同様の符号を付し、これ等については、詳細な説明を省略する。図3に示す画像処理システムSYSは、複数のカメラCAM(CAM1、CAM2、CAM3、CAM4)と、記憶部MEM(MEM1、MEM2、MEM3、MEM4)と、プロセッサPUと、表示装置DISとを有する。   FIG. 3 shows another embodiment of the image processing method and the image processing program. Elements that are the same as or similar to the elements described in FIGS. 1 and 2 are given the same or similar reference numerals, and detailed descriptions thereof are omitted. The image processing system SYS illustrated in FIG. 3 includes a plurality of cameras CAM (CAM1, CAM2, CAM3, CAM4), a storage unit MEM (MEM1, MEM2, MEM3, MEM4), a processor PU, and a display device DIS.

カメラCAMは、例えば、デジタルカメラであり、撮像装置の一例である。例えば、カメラCAM1、CAM2、CAM3、CAM4は、所定のフレームレートでそれぞれ撮影した撮影画像CIMG1、CIMG2、CIMG3、CIMG4を記憶部MEM1、MEM2、MEM3、MEM4にそれぞれ転送する。なお、撮影画像CIMG(CIMG1、CIMG2、CIMG3、CIMG4)は、カメラCAMからプロセッサPUを介して記憶部MEMに転送されてもよい。カメラCAMの符号の末尾の数字、記憶部MEMの符号の末尾の数字、撮影画像CIMGの末尾の数字(図4等では、符号CIMGの後の数字)は、互いに対応する。   The camera CAM is a digital camera, for example, and is an example of an imaging device. For example, the cameras CAM1, CAM2, CAM3, and CAM4 respectively transfer the captured images CIMG1, CIMG2, CIMG3, and CIMG4 captured at a predetermined frame rate to the storage units MEM1, MEM2, MEM3, and MEM4. Note that the captured images CIMG (CIMG1, CIMG2, CIMG3, and CIMG4) may be transferred from the camera CAM to the storage unit MEM via the processor PU. The number at the end of the code of the camera CAM, the number at the end of the code of the storage unit MEM, and the number at the end of the captured image CIMG (numbers after the code CIMG in FIG. 4 and the like) correspond to each other.

各記憶部MEMは、1フレーム分の撮影画像CIMGをそれぞれ記憶する3つのバッファBUF(BUFa、BUFb、BUFc)を有し、トリプルバッファ方式で撮影画像CIMGを順次記憶する。バッファBUFa、BUFb、BUFcの符号の末尾の数字は、記憶部MEMの符号の末尾の数字に対応する。例えば、バッファBUFa1、BUFb1、BUFc1は、記憶部MEM1が有するバッファBUFである。   Each storage unit MEM has three buffers BUF (BUFa, BUFb, and BUFc) that store the captured images CIMG for one frame, and sequentially stores the captured images CIMG in a triple buffer system. The numbers at the end of the codes of the buffers BUFa, BUFb, and BUFc correspond to the numbers at the end of the codes of the storage unit MEM. For example, the buffers BUFa1, BUFb1, and BUFc1 are the buffers BUF included in the storage unit MEM1.

以下、バッファBUFa1、BUFb1、BUFc1は、バッファBUF1とも称され、バッファBUFa2、BUFb2、BUFc2は、バッファBUF2とも称される。同様に、バッファBUFa3、BUFb3、BUFc3は、バッファBUF3とも称され、バッファBUFa4、BUFb4、BUFc4は、バッファBUF4とも称される。   Hereinafter, the buffers BUFa1, BUFb1, and BUFc1 are also referred to as buffers BUF1, and the buffers BUFa2, BUFb2, and BUFc2 are also referred to as buffers BUF2. Similarly, the buffers BUFa3, BUFb3, and BUFc3 are also referred to as buffers BUF3, and the buffers BUFa4, BUFb4, and BUFc4 are also referred to as buffers BUF4.

プロセッサPUは、例えば、CPUであり、画像処理プログラムを実行することで画像処理装置として機能する。プロセッサPUは、複数のカメラCAMでそれぞれ撮影された複数の撮影画像CIMGを表示画像DIMGとして、表示装置DISの1画面に所定の時間間隔で表示する。例えば、各撮影画像CIMGは、各カメラCAMの1フレーム分の画像であり、表示画像DIMGは、撮影画像CIMG1、CIMG2、CIMG3、CIMG4を表示装置DISの画面内の所定の場所にそれぞれ配置した画像である。   The processor PU is a CPU, for example, and functions as an image processing apparatus by executing an image processing program. The processor PU displays a plurality of captured images CIMG captured by the plurality of cameras CAM as display images DIMG at a predetermined time interval on one screen of the display device DIS. For example, each captured image CIMG is an image for one frame of each camera CAM, and the display image DIMG is an image in which the captured images CIMG1, CIMG2, CIMG3, and CIMG4 are respectively arranged at predetermined locations on the screen of the display device DIS. It is.

例えば、プロセッサPUは、キャプチャ時刻記録部CREC、読み込み時刻記録部RREC、描画完了時刻記録部FREC、表示時刻記録部VREC、予測部CAL、順序決定部SEQおよび描画処理部DRAWを有する。キャプチャ時刻記録部CREC、読み込み時刻記録部RREC、描画完了時刻記録部FREC、表示時刻記録部VREC、予測部CAL、順序決定部SEQおよび描画処理部DRAWは、プロセッサPUが画像処理プログラムを実行することにより実現される。   For example, the processor PU includes a capture time recording unit CREC, a reading time recording unit RREC, a drawing completion time recording unit FREC, a display time recording unit VREC, a prediction unit CAL, an order determination unit SEQ, and a drawing processing unit DRAW. The capture time recording unit CREC, the reading time recording unit RREC, the drawing completion time recording unit FREC, the display time recording unit VREC, the prediction unit CAL, the order determination unit SEQ, and the drawing processing unit DRAW are executed by the processor PU executing the image processing program. It is realized by.

キャプチャ時刻記録部CRECは、カメラCAM1−CAM4でそれぞれ撮影された撮影画像CIMG1−CIMG4が記憶部MEM1−MEM4に記憶された時刻をそれぞれ示すキャプチャ時刻を、複数のカメラCAMの各々に対応付けて記録する。例えば、キャプチャ時刻記録部CRECは、1フレーム分の撮影画像CIMGが記憶部MEMに記憶されたときに発生する割り込み等に基づいて、キャプチャ時刻を示すタイムスタンプを、撮影画像CIMG毎(すなわち、カメラCAM毎)にレジスタ等に記録する。   The capture time recording unit CREC records the capture times indicating the times at which the captured images CIMG1-CIMG4 captured by the cameras CAM1-CAM4 are stored in the storage units MEM1-MEM4, in association with each of the plurality of cameras CAM. To do. For example, the capture time recording unit CREC, for each captured image CIMG (that is, the camera), shows a time stamp indicating the capture time based on an interrupt generated when the captured image CIMG for one frame is stored in the storage unit MEM. Recorded in a register or the like every CAM).

描画処理部DRAWは、記憶部MEM1−MEM4にそれぞれ記憶された撮影画像CIMG1−CIMG4の各々に対して、表示装置DISに表示するための描画処理を順番に実行する。例えば、描画処理部DRAWは、記憶部MEMから撮影画像CIMGを読み出し、記憶部MEMから読み出した撮影画像CIMGに対して描画処理を実行する一連の処理を、順序決定部SEQにより決定された処理順序に従って撮影画像CIMG毎に実行する。この場合、プロセッサPUが撮影画像CIMGを記憶部MEMから読み込んだ時刻は、描画処理の開始時刻に対応する。   The drawing processing unit DRAW sequentially performs drawing processing for displaying on the display device DIS for each of the captured images CIMG1 to CIMG4 stored in the storage units MEM1 to MEM4. For example, the drawing processing unit DRAW reads a captured image CIMG from the storage unit MEM, and performs a series of processes for executing the drawing process on the captured image CIMG read from the storage unit MEM, in the processing order determined by the order determination unit SEQ. This is executed for each captured image CIMG. In this case, the time when the processor PU reads the captured image CIMG from the storage unit MEM corresponds to the start time of the drawing process.

表示画像DIMGの1画面分の描画処理が完了した場合、描画処理部DRAWは、描画処理が完了した撮影画像CIMG1、CIMG2、CIMG3、CIMG4を1つの表示画像DIMGとして、所定のタイミングに同期して表示装置DISに出力する。例えば、描画処理部DRAWは、表示画像DIMGを垂直同期信号に同期して表示装置DISに出力する。   When the drawing process for one screen of the display image DIMG is completed, the drawing processing unit DRAW uses the captured images CIMG1, CIMG2, CIMG3, and CIMG4 for which the drawing process has been completed as one display image DIMG in synchronization with a predetermined timing. Output to the display device DIS. For example, the drawing processing unit DRAW outputs the display image DIMG to the display device DIS in synchronization with the vertical synchronization signal.

読み込み時刻記録部RRECは、プロセッサPUが撮影画像CIMGを記憶部MEMから読み込んだ時刻を示す読み込み時刻を、複数のカメラCAMの各々に対応付けて記録する。読み込み時刻は、描画処理を開始した時刻を示す描画開始時刻の一例である。例えば、読み込み時刻記録部RRECは、プロセッサPUが撮影画像CIMGを記憶部MEMから読み込む度に、読み込み時刻を示すタイムスタンプをレジスタ等に記録する。これにより、読み込み時刻は、撮影画像CIMG毎(すなわち、カメラCAM毎)にレジスタ等に記録される。   The reading time recording unit RREC records the reading time indicating the time when the processor PU reads the captured image CIMG from the storage unit MEM in association with each of the plurality of cameras CAM. The reading time is an example of a drawing start time indicating a time when the drawing process is started. For example, each time the processor PU reads the captured image CIMG from the storage unit MEM, the reading time recording unit RREC records a time stamp indicating the reading time in a register or the like. Thereby, the reading time is recorded in a register or the like for each captured image CIMG (that is, for each camera CAM).

描画完了時刻記録部FRECは、描画処理が完了した時刻を示す描画完了時刻を複数のカメラCAMの各々に対応付けて記録する。例えば、描画完了時刻記録部FRECは、1フレーム分の撮影画像CIMGに対する描画処理が完了する度に、描画完了時刻を示すタイムスタンプをレジスタ等に記録する。これにより、描画完了時刻は、撮影画像CIMG毎(すなわち、カメラCAM毎)にレジスタ等に記録される。   The drawing completion time recording unit FREC records the drawing completion time indicating the time when the drawing process is completed in association with each of the plurality of cameras CAM. For example, the drawing completion time recording unit FREC records a time stamp indicating the drawing completion time in a register or the like every time drawing processing for the captured image CIMG for one frame is completed. Thereby, the drawing completion time is recorded in a register or the like for each captured image CIMG (that is, for each camera CAM).

表示時刻記録部VRECは、表示画像DIMGが表示装置DISに表示された時刻を示す表示時刻を記録する。例えば、表示時刻記録部VRECは、プロセッサPUが表示画像DIMGを表示装置DISに出力する度に、表示時刻を示すタイムスタンプをレジスタ等に記録する。   The display time recording unit VREC records a display time indicating the time when the display image DIMG is displayed on the display device DIS. For example, each time the processor PU outputs the display image DIMG to the display device DIS, the display time recording unit VREC records a time stamp indicating the display time in a register or the like.

予測部CALは、既に記録された表示時刻、キャプチャ時刻、読み込み時刻および描画完了時刻を用いて、次の表示画像DIMGに対応するキャプチャ時刻、読み込み時刻および描画完了時刻を、複数の撮影画像CIMGの処理順序の組み合わせ毎に予測する。   The prediction unit CAL uses the already recorded display time, capture time, read time, and drawing completion time to determine the capture time, read time, and drawing completion time corresponding to the next display image DIMG of the plurality of captured images CIMG. Predict for each combination of processing order.

順序決定部SEQは、次の表示画像DIMGを表示装置DISに表示する際の複数の撮影画像CIMGの各々に対する描画処理の実行順を、予測部CALで予測したキャプチャ時刻、読み込み時刻および描画完了時刻に基づいて決定する。例えば、順序決定部SEQは、予測部CALで予測したキャプチャ時刻、読み込み時刻および描画完了時刻に基づいて、所定の条件に対応した評価値を処理順序の組み合わせ毎に算出する。そして、順序決定部SEQは、算出した評価値に基づいて、次の表示画像DIMGを表示装置DISに表示する際の描画処理の実行順を決定する。   The order determining unit SEQ captures, reads, and completes the rendering order of the rendering process for each of the plurality of captured images CIMG when the next display image DIMG is displayed on the display device DIS. Determine based on. For example, the order determination unit SEQ calculates an evaluation value corresponding to a predetermined condition for each combination of processing orders based on the capture time, reading time, and drawing completion time predicted by the prediction unit CAL. Then, the order determination unit SEQ determines the execution order of the drawing process when displaying the next display image DIMG on the display device DIS based on the calculated evaluation value.

なお、所定の条件に対応した評価値は、例えば、所定の条件が表示遅延時間をできるだけ小さくすることである場合、撮影画像CIMGが記憶部MEMに記憶されてから表示装置DISに表示されるまでの時間に関する評価値である。また、例えば、所定の条件が複数の撮影画像CIMGのキャプチャ時刻のずれをできるだけ小さくすることである場合、所定の条件に対応した評価値は、キャプチャ時刻のばらつきに関する評価値である。   Note that the evaluation value corresponding to the predetermined condition is, for example, when the predetermined condition is to make the display delay time as small as possible until the captured image CIMG is stored in the storage unit MEM and displayed on the display device DIS. It is an evaluation value related to the time. For example, when the predetermined condition is to minimize the shift in capture time of the plurality of captured images CIMG as much as possible, the evaluation value corresponding to the predetermined condition is an evaluation value related to variations in capture time.

このように、順序決定部SEQは、次の表示画像DIMGを表示装置DISに表示する際の複数の撮影画像CIMGの各々に対する描画処理の実行順を、所定の条件に適した順序になるように、キャプチャ時刻、読み込み時刻および描画完了時刻を用いて決定する。   As described above, the order determination unit SEQ sets the execution order of the drawing processing for each of the plurality of captured images CIMG when the next display image DIMG is displayed on the display device DIS to be an order suitable for a predetermined condition. And the capture time, the read time, and the drawing completion time.

表示装置DISは、例えば、液晶ディスプレイ等のモニタであり、描画処理部DRAWから垂直同期信号に同期して受けた表示画像DIMGを表示する。   The display device DIS is a monitor such as a liquid crystal display, for example, and displays the display image DIMG received in synchronization with the vertical synchronization signal from the drawing processing unit DRAW.

なお、画像処理システムSYSの構成は、図3に示す例に限定されない。例えば、記憶部MEM、プロセッサPU等は、バスを介して接続されてもよい。この場合、例えば、撮影画像CIMGは、記憶部MEMからバスを介してプロセッサPUに転送される。また、カメラCAMの数は、2つでもよいし、3つでもよい。あるいは、カメラCAMの数は、5つ以上でもよい。また、記憶部MEMは、プロセッサPU内に設けられてもよい。また、キャプチャ時刻記録部CREC、読み込み時刻記録部RREC、描画完了時刻記録部FREC、表示時刻記録部VREC、予測部CAL、順序決定部SEQおよび描画処理部DRAWは、ハードウェアのみで実現されてもよい。   Note that the configuration of the image processing system SYS is not limited to the example shown in FIG. For example, the storage unit MEM, the processor PU, and the like may be connected via a bus. In this case, for example, the captured image CIMG is transferred from the storage unit MEM to the processor PU via the bus. The number of cameras CAM may be two or three. Alternatively, the number of cameras CAM may be five or more. The storage unit MEM may be provided in the processor PU. In addition, the capture time recording unit CREC, the reading time recording unit RREC, the drawing completion time recording unit FREC, the display time recording unit VREC, the prediction unit CAL, the sequence determination unit SEQ, and the drawing processing unit DRAW may be realized only by hardware. Good.

図4は、図3に示したプロセッサPUに参照される情報の一例を示す。図4に示すカメラフレーム番号(m、Gjn)は、撮影画像CIMGのフレーム番号であり、表示フレーム番号(n)は、表示画像DIMGのフレーム番号である。   FIG. 4 shows an example of information referred to by the processor PU shown in FIG. The camera frame number (m, Gjn) shown in FIG. 4 is the frame number of the captured image CIMG, and the display frame number (n) is the frame number of the display image DIMG.

カメラ動作系の情報は、撮影画像CIMGim、撮影画像更新周期Ui、処理順序Oiおよびキャプチャ時刻Cim等である。また、プロセッサ動作系の情報は、読み込み時刻Rjn、カメラフレーム番号Gjn、描画完了時刻Fjn、フレーム描画完了時刻Fnおよび表示時刻Vn等である。先ず、カメラ動作系の情報について説明する。   The camera operation system information includes a captured image CIMGim, a captured image update period Ui, a processing order Oi, a capture time Cim, and the like. The processor operation system information includes a reading time Rjn, a camera frame number Gjn, a drawing completion time Fjn, a frame drawing completion time Fn, a display time Vn, and the like. First, information on the camera operation system will be described.

カメラ番号iは、各カメラCAMに割り当てられる識別番号を示す。例えば、カメラCAMの符号の末尾の数字は、カメラ番号iに対応する。カメラCAM1は、カメラ番号1のカメラCAMである。撮影画像CIMGimは、カメラCAMiで撮影されたカメラフレーム番号mの撮影画像CIMGを示す。例えば、撮影画像CIMG1mは、カメラCAM1で撮影された動画のmフレーム目の撮影画像CIMGを示す。なお、撮影画像CIMG1m、CIMG2m、CIMG3m、CIMG4mは、カメラフレーム番号mを特定しない場合等では、図3に示したように、符号mを省略して記載される場合もある。   The camera number i indicates an identification number assigned to each camera CAM. For example, the number at the end of the camera CAM code corresponds to the camera number i. The camera CAM1 is a camera CAM with camera number 1. The captured image CIMGim indicates the captured image CIMG of the camera frame number m captured by the camera CAMi. For example, the captured image CIMG1m indicates the captured image CIMG of the mth frame of the moving image captured by the camera CAM1. Note that the captured images CIMG1m, CIMG2m, CIMG3m, and CIMG4m may be described with the symbol m omitted as shown in FIG. 3 when the camera frame number m is not specified.

撮影画像更新周期Uiは、カメラCAMiで撮影される動画のフレーム周期を示す。例えば、撮影画像更新周期U1は、カメラCAM1で撮影される動画のフレーム周期を示す。   The captured image update period Ui indicates a frame period of a moving image captured by the camera CAMi. For example, the captured image update period U1 indicates a frame period of a moving image captured by the camera CAM1.

処理順序Oiは、表示フレーム番号nの表示画像DIMG(以下、表示画像DIMGnとも称する)を表示装置DISに表示する際の各撮影画像CIMGiに対する描画処理の実行順を示す。例えば、カメラCAM1で撮影された撮影画像CIMG1に対する描画処理が、表示フレーム期間Tn(n番目の表示フレーム期間T)において、4番目に実行された場合、処理順序O1は、4に設定される。なお、表示フレーム期間Tは、例えば、垂直同期信号の周期に対応する期間である。   The processing order Oi indicates the execution order of the drawing process for each captured image CIMGi when the display image DIMG (hereinafter also referred to as the display image DIMGn) with the display frame number n is displayed on the display device DIS. For example, when the drawing process for the captured image CIMG1 captured by the camera CAM1 is executed fourth in the display frame period Tn (nth display frame period T), the processing order O1 is set to 4. The display frame period T is a period corresponding to the period of the vertical synchronization signal, for example.

キャプチャ時刻Cimは、カメラCAMiで撮影されたカメラフレーム番号mの撮影画像CIMGimが記憶部MEMに記憶された時刻を示す。例えば、キャプチャ時刻C1mは、カメラCAM1で撮影された動画のmフレーム目の撮影画像CIMG1mが記憶部MEM1に記憶された時刻を示す。   The capture time Cim indicates the time when the captured image CIMGim of the camera frame number m captured by the camera CAMi is stored in the storage unit MEM. For example, the capture time C1m indicates the time when the captured image CIMG1m of the mth frame of the moving image captured by the camera CAM1 is stored in the storage unit MEM1.

次に、プロセッサ動作系の情報について説明する。処理順序jは、各表示フレーム期間Tに、プロセッサPUが描画処理を実行する順序を示す。なお、表示フレーム期間Tnに描画処理が実行された撮影画像CIMG1−CIMG4は、表示画像DIMGnとして、表示フレーム期間T(n+1)に表示装置DISに表示される。   Next, processor operation system information will be described. The processing order j indicates the order in which the processor PU executes the drawing process in each display frame period T. Note that the captured images CIMG1 to CIMG4 for which the drawing process has been executed in the display frame period Tn are displayed on the display device DIS in the display frame period T (n + 1) as the display image DIMGn.

処理順序jに対応するカメラCAMiは、処理順序OiがjであるカメラCAMiである。したがって、読み込み時刻Rjn、カメラフレーム番号Gjnおよび描画完了時刻Fjnは、処理順序Oiを介して複数のカメラCAMiのいずれかに対応付けされる。例えば、処理順序O3が1に設定された場合、処理順序1に対応するカメラCAMは、カメラCAM3であり、処理順序1の読み込み時刻R1n、カメラフレーム番号G1nおよび描画完了時刻F1nは、カメラCAM3に対応する情報である。   The camera CAMi corresponding to the processing order j is a camera CAMi whose processing order Oi is j. Therefore, the reading time Rjn, the camera frame number Gjn, and the drawing completion time Fjn are associated with one of the plurality of cameras CAMi via the processing order Oi. For example, when the processing order O3 is set to 1, the camera CAM corresponding to the processing order 1 is the camera CAM3, and the reading time R1n, the camera frame number G1n, and the drawing completion time F1n of the processing order 1 are stored in the camera CAM3. Corresponding information.

読み込み時刻Rjnは、表示フレーム期間Tnに、プロセッサPUが記憶部MEMからj番目に読み込んだ撮影画像CIMGの読み込み時刻(プロセッサPUが撮影画像CIMGiを記憶部MEMiから読み込んだ時刻)を示す。例えば、読み込み時刻R1nは、表示フレーム期間Tnに、プロセッサPUが記憶部MEM1−MEM4のいずれかから最初に読み込んだ撮影画像CIMGの読み込み時刻を示す。また、読み込み時刻R2nは、表示フレーム期間Tnに、プロセッサPUが記憶部MEM1−MEM4のいずれかから2番目に読み込んだ撮影画像CIMGの読み込み時刻を示す。   The reading time Rjn indicates the reading time of the captured image CIMG read by the processor PU from the storage unit MEM in the display frame period Tn (the time when the processor PU reads the captured image CIMGi from the storage unit MEMi). For example, the reading time R1n indicates the reading time of the captured image CIMG that is first read from one of the storage units MEM1-MEM4 by the processor PU during the display frame period Tn. The reading time R2n indicates the reading time of the captured image CIMG that is read secondly from any of the storage units MEM1-MEM4 by the processor PU during the display frame period Tn.

カメラフレーム番号Gjnは、表示フレーム期間Tnに、プロセッサPUが記憶部MEMからj番目に読み込んだ撮影画像CIMGのフレーム番号を示す。例えば、カメラフレーム番号G1nは、表示フレーム期間Tnに、プロセッサPUが記憶部MEM1−MEM4のいずれかから最初に読み込んだ撮影画像CIMGのカメラフレーム番号を示す。   The camera frame number Gjn indicates the frame number of the captured image CIMG read by the processor PU from the storage unit MEM in the display frame period Tn. For example, the camera frame number G1n indicates the camera frame number of the captured image CIMG that is first read from any of the storage units MEM1-MEM4 by the processor PU during the display frame period Tn.

描画完了時刻Fjnは、表示フレーム期間Tnに、プロセッサPUがj番目に実行した描画処理の完了時刻を示す。例えば、描画完了時刻F1nは、表示フレーム期間Tnに、プロセッサPUが最初に実行した描画処理の完了時刻を示す。また、描画完了時刻F2nは、表示フレーム期間Tnに、プロセッサPUが2番目に実行した描画処理の完了時刻を示す。   The drawing completion time Fjn indicates the completion time of the drawing processing executed by the processor PU j-th during the display frame period Tn. For example, the drawing completion time F1n indicates the completion time of the drawing process executed first by the processor PU during the display frame period Tn. The drawing completion time F2n indicates the completion time of the drawing process executed second by the processor PU in the display frame period Tn.

フレーム描画完了時刻Fnは、表示画像DIMGnに使用する全ての撮影画像CIMGに対して、描画処理が完了した時刻を示す。すなわち、フレーム描画完了時刻Fnは、表示フレーム期間Tnに、プロセッサPUが最後に実行した描画処理の完了時刻(すなわち、描画完了時刻F4n)を示す。   The frame drawing completion time Fn indicates the time when drawing processing is completed for all the captured images CIMG used for the display image DIMGn. That is, the frame drawing completion time Fn indicates the completion time of the drawing process last executed by the processor PU in the display frame period Tn (that is, the drawing completion time F4n).

表示時刻Vnは、表示フレーム期間Tnの開始時刻を示す。例えば、表示時刻Vnは、表示画像DIMG(n−1)を表示装置DISに表示する際の垂直同期信号を検出した時刻を示す。   The display time Vn indicates the start time of the display frame period Tn. For example, the display time Vn indicates the time when the vertical synchronization signal is detected when the display image DIMG (n−1) is displayed on the display device DIS.

図5は、図3に示した画像処理システムSYSの動作タイミングの一例を示す。図5の網掛けの菱形は、表示フレーム期間Tnが終了するまでに記録されたキャプチャ時刻Cim、読み込み時刻Rjn、描画完了時刻Fjn等を示す。また、白抜きの菱形は、表示フレーム期間Tnに予測されたキャプチャ時刻Ci(m+1)、読み込み時刻Rj(n+1)等を示す。図5では、表示フレーム期間Tnでの動作タイミングを中心に説明する。   FIG. 5 shows an example of the operation timing of the image processing system SYS shown in FIG. 5 indicate the capture time Cim, the read time Rjn, the drawing completion time Fjn, and the like recorded until the display frame period Tn ends. White diamonds indicate the capture time Ci (m + 1), the read time Rj (n + 1), and the like predicted in the display frame period Tn. In FIG. 5, the operation timing in the display frame period Tn will be mainly described.

プロセッサPUは、処理順序O1、O2、O3、O4にそれぞれ設定された順序(図5に示す例では、O1=4、O2=3、O3=1、O4=2)に従って、撮影画像CIMG1−CIMG4の各々に対する描画処理を実行する。すなわち、表示フレーム期間Tnでは、プロセッサPUは、カメラCAM3、カメラCAM4、カメラCAM2、カメラCAM1の順序で描画処理を実行する。   The processor PU follows the order set in the processing order O1, O2, O3, O4 (in the example shown in FIG. 5, O1 = 4, O2 = 3, O3 = 1, O4 = 2), and the captured images CIMG1-CIMG4 The drawing process for each of the above is executed. That is, in the display frame period Tn, the processor PU executes the drawing process in the order of the camera CAM3, the camera CAM4, the camera CAM2, and the camera CAM1.

表示時刻Vnでは、カメラCAM3の撮影画像CIMG3mは、記憶部MEM3に記憶されていない。このため、プロセッサPUは、撮影画像CIMG3(m−1)を記憶部MEM3から読み込み、描画処理を実行する。プロセッサPUは、撮影画像CIMG3(m−1)を記憶部MEM3から読み込んだ時刻を読み込み時刻R1nとして記録する。そして、プロセッサPUは、撮影画像CIMG3(m−1)に対する描画処理が完了した場合、撮影画像CIMG3(m−1)に対する描画処理の完了時刻を描画完了時刻F1nとして記録する。   At the display time Vn, the captured image CIMG3m of the camera CAM3 is not stored in the storage unit MEM3. Therefore, the processor PU reads the captured image CIMG3 (m−1) from the storage unit MEM3 and executes a drawing process. The processor PU records the time when the captured image CIMG3 (m−1) is read from the storage unit MEM3 as the read time R1n. Then, when the drawing process for the photographed image CIMG3 (m−1) is completed, the processor PU records the completion time of the drawing process for the photographed image CIMG3 (m−1) as the drawing completion time F1n.

撮影画像CIMG3の表示遅延時間DLY3は、撮影画像CIMG3(m−1)に対して描画処理が実行されたため、表示時刻V(n+1)からキャプチャ時刻C3(m−1)を引いた時間である。なお、表示遅延時間DLYは、撮影画像CIMGが記憶部MEMに記憶されてから表示装置DISに表示されるまでの時間DLYである。以下、表示遅延時間DLYは、遅延時間DLYとも称される。   The display delay time DLY3 of the photographed image CIMG3 is a time obtained by subtracting the capture time C3 (m−1) from the display time V (n + 1) because the drawing process has been performed on the photographed image CIMG3 (m−1). The display delay time DLY is a time DLY from when the captured image CIMG is stored in the storage unit MEM until it is displayed on the display device DIS. Hereinafter, the display delay time DLY is also referred to as a delay time DLY.

プロセッサPUは、撮影画像CIMG3(m−1)に対する描画処理が完了した場合、次の処理順序の撮影画像CIMG4mを記憶部MEM4から読み込み、描画処理を実行する。なお、撮影画像CIMG3(m−1)に対する描画処理が完了した描画完了時刻F1nでは、カメラCAM4の撮影画像CIMG4mが記憶部MEM4に記憶されているため、撮影画像CIMG4mが記憶部MEM4から読み出される。このため、撮影画像CIMG4の表示遅延時間DLY4は、表示時刻V(n+1)からキャプチャ時刻C4mを引いた時間である。また、撮影画像CIMG4mが記憶部MEM4から読み出された時刻は、読み込み時刻R2nとして記録される。   When the drawing process for the photographed image CIMG3 (m−1) is completed, the processor PU reads the photographed image CIMG4m in the next processing order from the storage unit MEM4 and executes the drawing process. Note that at the drawing completion time F1n when the drawing process for the photographed image CIMG3 (m−1) is completed, the photographed image CIMG4m of the camera CAM4 is stored in the storage unit MEM4, and thus the photographed image CIMG4m is read from the storage unit MEM4. Therefore, the display delay time DLY4 of the captured image CIMG4 is a time obtained by subtracting the capture time C4m from the display time V (n + 1). The time when the captured image CIMG4m is read from the storage unit MEM4 is recorded as the reading time R2n.

撮影画像CIMG4mに対する描画処理が完了した後に、撮影画像CIMG2mに対する描画処理が実行され、撮影画像CIMG2mに対する描画処理が完了した後に、撮影画像CIMG1mに対する描画処理が実行される。そして、撮影画像CIMG1mに対する描画処理が完了した後に、表示フレーム期間Tnの次の表示フレーム期間T(n+1)の処理順序Oiを決定し、表示時刻V(n+1)に表示画像DIMGnを表示装置DISに表示する。   After the drawing process for the photographed image CIMG4m is completed, the drawing process for the photographed image CIMG2m is executed. After the drawing process for the photographed image CIMG2m is completed, the drawing process for the photographed image CIMG1m is executed. After the drawing process for the captured image CIMG1m is completed, the processing order Oi of the display frame period T (n + 1) next to the display frame period Tn is determined, and the display image DIMGn is displayed on the display device DIS at the display time V (n + 1). indicate.

表示フレーム期間Tnの次の表示フレーム期間T(n+1)の処理順序Oiを決定する処理では、処理順序の全ての組み合わせの中から最適な組み合わせの処理順序が選択される。図3に示した画像処理システムSYSでは、カメラCAMの数が4つであるため、処理順序の組み合わせは、24(==4×3×2×1)通りである。図5に示した白抜きの菱形は、24通りの組み合わせのうちの1つ(表示フレーム期間Tnと同じ順序)を例として示している。 In the process of determining the processing order Oi of the display frame period T (n + 1) next to the display frame period Tn, the optimal combination processing order is selected from all combinations of the processing order. In the image processing system SYS shown in FIG. 3, the number of camera CAMs is four, so there are 24 (= 4 P 4 = 4 × 3 × 2 × 1) combinations of processing orders. The white diamond shown in FIG. 5 shows one of 24 combinations (the same order as the display frame period Tn) as an example.

表示フレーム期間Tnの次の表示フレーム期間T(n+1)の処理順序Oiを決定する場合、表示フレーム期間T(n+1)に最初に読み込む撮影画像CIMGの読み込み時間R1(n+1)の予測値は、表示時刻V(n+1)とする。表示時刻V(n+1)は、表示フレーム期間T(n+1)の開始時刻である。例えば、プロセッサPUは、表示フレーム期間Tの周期(表示時刻Vnから表示時刻V(n−1)を引いた時間)を表示時刻Vnに加算した時刻を、表示時刻V(n+1)として予測する。   When determining the processing order Oi of the display frame period T (n + 1) next to the display frame period Tn, the predicted value of the reading time R1 (n + 1) of the captured image CIMG read first in the display frame period T (n + 1) is displayed. Time V (n + 1) is assumed. The display time V (n + 1) is the start time of the display frame period T (n + 1). For example, the processor PU predicts, as the display time V (n + 1), a time obtained by adding a period of the display frame period T (a time obtained by subtracting the display time V (n−1) from the display time Vn) to the display time Vn.

2番目に読み込む撮影画像CIMGの読み込み時間R2(n+1)の予測値は、1つ前(すなわち、1番目)に読み込む撮影画像CIMGの読み込み時間R1(n+1)の予測値に描画処理の時間を加算した時刻である。この場合、描画処理の時間は、表示フレーム期間T(n+1)に最初に読み込む撮影画像CIMGを撮影したカメラCAMで撮影された撮影画像CIMGの表示フレーム期間Tnにおける描画処理の時間(=Fjn−Rjn)とする。図5に示す例では、カメラCAM3で撮影された撮影画像CIMG3mが表示フレーム期間T(n+1)の最初に読み込まれるため、プロセッサPUは、カメラCAM3で撮影された撮影画像CIMG3の表示フレーム期間Tnにおける処理順序O3を参照する。そして、プロセッサPUは、処理順序O3が1であるため、描画完了時刻F1nから読み込み時刻R1nを引いた時間(=F1n−R1n)を描画処理の時間として、読み込み時間R2(n+1)を予測する。   The predicted value of the reading time R2 (n + 1) of the captured image CIMG that is read secondly is obtained by adding the drawing processing time to the predicted value of the reading time R1 (n + 1) of the captured image CIMG that is read immediately before (that is, the first). It is time. In this case, the rendering process time is the rendering process time (= Fjn−Rjn) in the display frame period Tn of the captured image CIMG captured by the camera CAM that captured the captured image CIMG that is first read in the display frame period T (n + 1). ). In the example shown in FIG. 5, since the captured image CIMG3m captured by the camera CAM3 is read at the beginning of the display frame period T (n + 1), the processor PU in the display frame period Tn of the captured image CIMG3 captured by the camera CAM3. Refer to processing order O3. Then, since the processing order O3 is 1, the processor PU predicts the reading time R2 (n + 1) using the time (= F1n−R1n) obtained by subtracting the reading time R1n from the drawing completion time F1n as the drawing processing time.

3番目以降に読み込む撮影画像CIMGの読み込み時間Rj(n+1)の予測値も、2番目に読み込む撮影画像CIMGの読み込み時間R2(n+1)の予測値と同様に算出される。   The predicted value of the read time Rj (n + 1) of the captured image CIMG read after the third is also calculated in the same manner as the predicted value of the read time R2 (n + 1) of the captured image CIMG read second.

また、プロセッサPUは、撮影画像CIMGが更新される時刻(キャプチャ時刻Ci(m+1)等)をカメラCAM毎に予測する。例えば、各撮影画像CIMGiが更新された最新の時刻がキャプチャ時刻Cimである場合、プロセッサPUは、キャプチャ時刻Cimに撮影画像更新周期Uiを加算した時刻を、次の更新時刻として予測する。さらに、プロセッサPUは、キャプチャ時刻Cimに撮影画像更新周期Uiの2倍を加算した時刻を、次の次の更新時刻として予測する。撮影画像更新周期Uiは、例えば、キャプチャ時刻Cimからキャプチャ時刻Ci(m−1)を引いた時間である。なお、プロセッサPUは、カメラCAMの仕様から想定される周期を撮影画像更新周期Uとして使用してもよい。図5に示す例では、キャプチャ時刻Ci(m+1)が次の更新時刻として算出される。   Further, the processor PU predicts the time (capture time Ci (m + 1) or the like) at which the captured image CIMG is updated for each camera CAM. For example, when the latest time when each captured image CIMGi is updated is the capture time Cim, the processor PU predicts the time obtained by adding the captured image update period Ui to the capture time Cim as the next update time. Furthermore, the processor PU predicts a time obtained by adding twice the captured image update period Ui to the capture time Cim as the next next update time. The captured image update period Ui is, for example, a time obtained by subtracting the capture time Ci (m−1) from the capture time Cim. Note that the processor PU may use a period assumed from the specification of the camera CAM as the captured image update period U. In the example shown in FIG. 5, the capture time Ci (m + 1) is calculated as the next update time.

また、プロセッサPUは、表示フレーム期間T(n+1)の描画処理の対象となる各撮影画像CIMGiのカメラフレーム番号Gj(n+1)を算出する。そして、プロセッサPUは、表示フレーム期間T(n+1)の描画処理の対象となる各撮影画像CIMGiのカメラフレーム番号Gj(n+1)等に基づいて、評価値を算出する。カメラフレーム番号Gj(n+1)の算出方法、評価値の算出方法等については、図7および図8で説明する。   In addition, the processor PU calculates the camera frame number Gj (n + 1) of each captured image CIMGi that is to be rendered in the display frame period T (n + 1). Then, the processor PU calculates an evaluation value based on the camera frame number Gj (n + 1) or the like of each captured image CIMGi to be subjected to the drawing process in the display frame period T (n + 1). A method for calculating the camera frame number Gj (n + 1), a method for calculating the evaluation value, and the like will be described with reference to FIGS.

プロセッサPUは、処理順序の全ての組み合わせについて評価値を算出し、評価値が最もよい組み合わせの処理順序を、表示フレーム期間T(n+1)の処理順序Oiに決定する。これにより、表示画像DIMGに使用する複数の撮影画像CIMGとして、各カメラCAMで撮影された各動画のどのフレームを選択するかがカメラCAM毎に決定される。図5に示す例は、遅延時間DLY1、DLY2、DLY3、DLY4の平均値(例えば、二乗平均の値)を評価値とした場合の動作タイミングに対応する。   The processor PU calculates evaluation values for all combinations of the processing order, and determines the processing order of the combination having the best evaluation value as the processing order Oi of the display frame period T (n + 1). Thereby, it is determined for each camera CAM which frame of each moving image photographed by each camera CAM is selected as the plurality of photographed images CIMG used for the display image DIMG. The example shown in FIG. 5 corresponds to the operation timing when the average value (for example, the mean square value) of the delay times DLY1, DLY2, DLY3, and DLY4 is used as the evaluation value.

ここで、例えば、カメラCAM1、カメラCAM2、カメラCAM3、カメラCAM4の順序で描画処理の実行順が固定された場合、プロセッサPUは、表示時刻Vnに、撮影画像CIMG1(m−1)を記憶部MEM3から読み込む。すなわち、プロセッサPUは、表示フレーム期間Tnに、撮影画像CIMG1(m−1)に対して描画処理を実行する。そして、撮影画像CIMG2(m−1)に対する描画処理、撮影画像CIMG3(m−1)に対する描画処理、撮影画像CIMG4mに対する描画処理が順次実行される。   Here, for example, when the execution order of the drawing processing is fixed in the order of the camera CAM1, the camera CAM2, the camera CAM3, and the camera CAM4, the processor PU stores the captured image CIMG1 (m−1) at the display time Vn. Read from MEM3. That is, the processor PU performs a drawing process on the captured image CIMG1 (m−1) during the display frame period Tn. Then, a drawing process for the photographed image CIMG2 (m−1), a drawing process for the photographed image CIMG3 (m−1), and a drawing process for the photographed image CIMG4m are sequentially performed.

このように、処理順序がカメラ番号iに基づく順序(例えば、カメラ番号iが小さい順)に固定された場合、カメラCAM1、CAM2では、図5に示す例に比べて1つ前のフレームの撮影画像CIMGが表示画像DIMGnに使用される。この場合、カメラCAM1、CAM2では、遅延時間DLYは、図5に示す例に比べて、撮影画像更新周期U分大きくなる。換言すれば、図5に示す動作タイミングでは、遅延時間DLY1、DLY2は、処理順序をカメラ番号iの順に固定した場合に比べて小さくなる。すなわち、図5に示す例では、プロセッサPUは、処理順序をカメラ番号iの順に固定した場合に比べて、遅延時間DLY1、DLY2、DLY3、DLY4の平均値を小さくできる。   As described above, when the processing order is fixed to the order based on the camera number i (for example, the order in which the camera number i is small), the cameras CAM1 and CAM2 capture the previous frame compared to the example shown in FIG. The image CIMG is used for the display image DIMGn. In this case, in the cameras CAM1 and CAM2, the delay time DLY is longer by the captured image update period U than the example shown in FIG. In other words, at the operation timing shown in FIG. 5, the delay times DLY1 and DLY2 are smaller than when the processing order is fixed in the order of the camera number i. That is, in the example illustrated in FIG. 5, the processor PU can reduce the average value of the delay times DLY1, DLY2, DLY3, and DLY4 as compared with the case where the processing order is fixed in the order of the camera number i.

ここで、例えば、複数のカメラCAMがプロセッサPUとは異なるクロック系で動作している場合、発振器等の精度に依存して、撮影画像更新周期Uが複数のカメラCAMの各々で変化する場合がある。この場合、時間の推移に伴う撮影画像更新周期Uの変化により、撮影中に、複数のカメラCAMでそれぞれ撮影された複数の撮影画像CIMGの記憶部MEMへの転送順序が変化するおそれがある。この場合でも、撮影画像更新周期Uのずれは連続的に発生するため、表示フレーム期間Tnの動作タイミングの計測結果を次の表示フレーム期間T(n+1)の動作タイミングの予測に利用することにより、撮影画像更新周期Uの変化の影響を抑止することができる。   Here, for example, when a plurality of cameras CAM are operating with a clock system different from that of the processor PU, the captured image update period U may change in each of the plurality of cameras CAM depending on the accuracy of an oscillator or the like. is there. In this case, due to a change in the captured image update cycle U with the transition of time, there is a possibility that the transfer order of the plurality of captured images CIMG respectively captured by the plurality of cameras CAM to the storage unit MEM during the capturing is changed. Even in this case, since the shift of the captured image update period U occurs continuously, the measurement result of the operation timing of the display frame period Tn is used for prediction of the operation timing of the next display frame period T (n + 1). The influence of the change in the captured image update period U can be suppressed.

このように、プロセッサPUは、表示フレーム期間Tnの動作タイミングの計測結果に基づいて表示フレーム期間T(n+1)の動作タイミングを予測し、予測結果に基づいて描画処理の実行順(すなわち、撮影画像CIMGの読み込み順序)を決定する。これにより、表示画像DIMGに使用する複数の撮影画像CIMGとして、表示画像DIMGの質を向上させる条件に適したカメラフレーム番号mの撮影画像CIMGimがカメラCAM毎に決定される。   As described above, the processor PU predicts the operation timing of the display frame period T (n + 1) based on the measurement result of the operation timing of the display frame period Tn, and executes the drawing processing execution order (that is, the captured image based on the prediction result). CIMG reading order) is determined. Thereby, as a plurality of captured images CIMG used for the display image DIMG, a captured image CIMGim having a camera frame number m suitable for conditions for improving the quality of the display image DIMG is determined for each camera CAM.

図6は、図3に示したプロセッサPUの動作の一例を示す。図6に示す動作は、プロセッサPUを画像処理プログラム等のソフトウェアで制御することにより実現される。例えば、プロセッサPUは、画像処理プログラムを読み取り、図6に示す動作を実行する。図6に示す動作をプロセッサPU(すなわち、コンピュータ)に実行させるプログラムは、画像処理プログラムの一態様である。なお、図3に示したキャプチャ時刻記録部CREC等に対応する機能ブロック(プロセッサPU内の機能ブロック)がハードウェアのみで実現される場合、図6に示す動作は、ハードウェアのみで実現されてもよい。   FIG. 6 shows an example of the operation of the processor PU shown in FIG. The operation shown in FIG. 6 is realized by controlling the processor PU with software such as an image processing program. For example, the processor PU reads an image processing program and executes the operation shown in FIG. The program that causes the processor PU (ie, computer) to execute the operation illustrated in FIG. 6 is an aspect of the image processing program. When the functional blocks (functional blocks in the processor PU) corresponding to the capture time recording unit CREC shown in FIG. 3 are realized only by hardware, the operation shown in FIG. 6 is realized only by hardware. Also good.

図6では、ステップS380の処理が実行される時点において、記憶部MEMiに記憶された1フレーム分の撮影画像CIMGiのうちの最新の撮影画像CIMGiのカメラフレーム番号を、カメラフレーム番号mとしてプロセッサPUの動作を説明する。すなわち、カメラフレーム番号mは、表示画像DIMGnに使用される撮影画像CIMGiのカメラフレーム番号である。例えば、図5に示した動作タイミングと図6に示す動作との関係では、図6に示す変数jが1の場合、図6に示すカメラフレーム番号mは、図5に示したカメラフレーム番号(m−1)に対応する。また、変数jが2、3、4のいずれかの場合、図6に示すカメラフレーム番号mは、図5に示したカメラフレーム番号mに対応する。   In FIG. 6, at the time when the process of step S380 is executed, the camera frame number of the latest captured image CIMGi among the captured images CIMGi for one frame stored in the storage unit MEMi is set as the camera frame number m as the processor PU. The operation of will be described. That is, the camera frame number m is the camera frame number of the captured image CIMGi used for the display image DIMGn. For example, in the relationship between the operation timing shown in FIG. 5 and the operation shown in FIG. 6, when the variable j shown in FIG. 6 is 1, the camera frame number m shown in FIG. m-1). When the variable j is 2, 3, or 4, the camera frame number m shown in FIG. 6 corresponds to the camera frame number m shown in FIG.

ステップS300では、プロセッサPUは、表示フレーム番号nを示す変数nを0に設定し、動作をステップS320に移す。   In step S300, the processor PU sets a variable n indicating the display frame number n to 0, and moves the operation to step S320.

ステップS320では、プロセッサPUは、表示時刻Vnをレジスタ等に記録し、動作をステップS340に移す。なお、最初の表示画像DIMGn(DIMG0)が表示される前では、プロセッサPUは、例えば、垂直同期信号の周期に対応する表示フレーム期間Tnの最初の表示フレーム期間T0の開始時刻を表示時刻Vn(V0)としてレジスタ等に記録する。   In step S320, the processor PU records the display time Vn in a register or the like, and moves the operation to step S340. Note that before the first display image DIMGn (DIMG0) is displayed, the processor PU, for example, displays the start time of the first display frame period T0 of the display frame period Tn corresponding to the period of the vertical synchronization signal as the display time Vn ( V0) is recorded in a register or the like.

ステップS340では、プロセッサPUは、処理順序jを示す変数jを1に設定し、動作をステップS360に移す。   In step S340, the processor PU sets a variable j indicating the processing order j to 1, and moves the operation to step S360.

ステップS360では、プロセッサPUは、処理順序Oiが変数jであるカメラ番号iを検索し、動作をステップS380に移す。ステップS360の処理により、描画処理の対象のカメラCAMiが選択される。なお、処理順序Oiは、ステップS560の処理が1度も実行されていない場合、予め決められたデフォルトの処理順序(例えば、カメラ番号iが小さい順)に設定されている。   In step S360, the processor PU searches for the camera number i whose processing order Oi is the variable j, and moves the operation to step S380. Through the process in step S360, the camera CAMi that is the target of the drawing process is selected. Note that the processing order Oi is set to a predetermined default processing order (for example, in ascending order of the camera number i) when the processing in step S560 has never been executed.

ステップS380では、プロセッサPUは、ステップS360の処理で選択したカメラCAMiで撮影されたmフレーム目の撮影画像CIMGimが記憶部MEMiに記憶された時刻を、キャプチャ時刻Cimとしてレジスタ等に記録する。例えば、プロセッサPUは、撮影画像CIMGimを記憶部MEMiに記憶した時刻を示すタイムスタンプを取得し、取得したタイムスタンプをキャプチャ時刻Cimとしてレジスタ等に記録する。ステップS380の処理が実行された後、プロセッサPUの動作は、ステップS400に移る。   In step S380, the processor PU records the time when the m-th frame captured image CIMGim captured by the camera CAMi selected in the process of step S360 is stored in the storage unit MEMi as a capture time Cim in a register or the like. For example, the processor PU acquires a time stamp indicating the time when the captured image CIMGim is stored in the storage unit MEMi, and records the acquired time stamp as a capture time Cim in a register or the like. After the process of step S380 is executed, the operation of the processor PU moves to step S400.

ステップS400では、プロセッサPUは、カメラ番号iの撮影画像CIMGimの読み込み時刻Rjnをレジスタ等に記録する。例えば、プロセッサPUは、ステップS360の処理で選択したカメラCAMiで撮影されたmフレーム目の撮影画像CIMGimを記憶部MEMiから読み込み、読み込んだ時刻を読み込み時刻Rjnとしてレジスタ等に記録する。ステップS400の処理が実行された後、プロセッサPUの動作は、ステップS420に移る。   In step S400, the processor PU records the read time Rjn of the captured image CIMGim of the camera number i in a register or the like. For example, the processor PU reads the m-th frame captured image CIMGim captured by the camera CAMi selected in step S360 from the storage unit MEMi, and records the read time as a read time Rjn in a register or the like. After the process of step S400 is executed, the operation of the processor PU moves to step S420.

ステップS420では、プロセッサPUは、カメラ番号iの撮影画像CIMGim(ステップS400の処理で記憶部MEMiから読み込んだ撮影画像CIMGim)に対して描画処理を実行し、動作をステップS440に移す。   In step S420, the processor PU performs a drawing process on the photographed image CIMGim of the camera number i (the photographed image CIMGim read from the storage unit MEMi in the process of step S400), and moves the operation to step S440.

ステップS440では、プロセッサPUは、撮影画像CIMGimに対する描画処理が完了するまで、ステップS460の処理の実行を待機する。すなわち、プロセッサPUは、撮影画像CIMGimに対する描画処理が完了した場合、ステップS460の処理を実行する。   In step S440, the processor PU waits for execution of the process in step S460 until the drawing process for the captured image CIMGim is completed. That is, the processor PU executes the process of step S460 when the drawing process for the captured image CIMGim is completed.

ステップS460では、プロセッサPUは、撮影画像CIMGimに対する描画処理が完了した時刻を描画完了時刻Fjnとしてレジスタ等に記録し、動作をステップS480に移す。   In step S460, the processor PU records the time when the drawing process on the captured image CIMGim is completed as a drawing completion time Fjn in a register or the like, and moves the operation to step S480.

ステップS480では、プロセッサPUは、変数j(処理順序j)が4か否かを判定する。すなわち、プロセッサPUは、表示画像DIMGnに使用される全ての撮影画像CIMG1、CIMG2、CIMG3、CIMG4に対して描画処理が完了したか否かを判定する。なお、例えば、カメラCAMの数がN個(Nは、正の整数)の場合、プロセッサPUは、変数jがNか否かを判定する。変数jが4である場合、プロセッサPUの動作は、ステップS520に移る。一方、変数jが4でない場合、プロセッサPUの動作は、ステップS500に移る。   In step S480, the processor PU determines whether or not the variable j (processing order j) is 4. That is, the processor PU determines whether or not the drawing process has been completed for all the captured images CIMG1, CIMG2, CIMG3, and CIMG4 used for the display image DIMGn. For example, when the number of cameras CAM is N (N is a positive integer), the processor PU determines whether or not the variable j is N. When the variable j is 4, the operation of the processor PU moves to step S520. On the other hand, when the variable j is not 4, the operation of the processor PU moves to step S500.

ステップS500では、プロセッサPUは、変数jをインクリメントし(j=j+1)、動作をステップS360に移す。すなわち、ステップS360−S460の処理は、1画面分の描画処理(表示画像DIMGnに使用される全ての撮影画像CIMGに対する描画処理)が完了するまで、処理順序Oiに設定された処理順序に従って繰り返される。そして、1画面分の描画処理が完了した場合、ステップS520の処理が実行される。   In step S500, the processor PU increments the variable j (j = j + 1), and moves the operation to step S360. That is, the processing in steps S360 to S460 is repeated according to the processing order set in the processing order Oi until drawing processing for one screen (drawing processing for all captured images CIMG used for the display image DIMGn) is completed. . When the drawing process for one screen is completed, the process of step S520 is executed.

ステップS520では、プロセッサPUは、表示用のバッファBUFを切り替えるフリップ処理を実行する。これにより、各記憶部MEM内の3つのバッファBUFのうち、ステップS420の処理で描画処理が実行された撮影画像CIMGimを記憶したバッファBUFは、表示用のバッファBUFに切り替わる。ステップS520の処理が実行された後、プロセッサPUの動作は、ステップS540に移る。   In step S520, the processor PU executes a flip process for switching the display buffer BUF. As a result, among the three buffers BUF in each storage unit MEM, the buffer BUF that stores the captured image CIMGim that has been subjected to the drawing process in the process of step S420 is switched to the display buffer BUF. After the process of step S520 is executed, the operation of the processor PU moves to step S540.

ステップS540では、プロセッサPUは、順序決定処理を実行して、次回の処理順序を決定する。例えば、プロセッサPUは、図7に示す順序決定処理を実行する。あるいは、プロセッサPUは、図8に示す順序決定処理を実行する。順序決定処理の実行により、現在の表示フレーム期間Tnの次の表示フレーム期間T(n+1)に実行される描画処理の順序が決定する。ステップS540の処理が実行された後(順序決定処理により次回の処理順序が決定した後)、プロセッサPUの動作は、ステップS560に移る。   In step S540, the processor PU executes order determination processing to determine the next processing order. For example, the processor PU executes the order determination process shown in FIG. Or processor PU performs the order determination process shown in FIG. By executing the order determination process, the order of the drawing process executed in the display frame period T (n + 1) next to the current display frame period Tn is determined. After the process of step S540 is executed (after the next process order is determined by the order determination process), the operation of the processor PU moves to step S560.

ステップS560では、プロセッサPUは、ステップS540の順序決定処理により決定した処理順序を処理順序Oiに設定する。これにより、処理順序Oiは、ステップS540の順序決定処理により決定した処理順序に更新される。ステップS560の処理が実行された後、プロセッサPUの動作は、ステップS580に移る。   In step S560, the processor PU sets the processing order determined by the order determination processing in step S540 as the processing order Oi. As a result, the processing order Oi is updated to the processing order determined by the order determination processing in step S540. After the process of step S560 is executed, the operation of the processor PU moves to step S580.

ステップS580では、プロセッサPUは、表示画像DIMGnを表示装置DISに表示するタイミングまで、ステップS600の処理の実行を待機する。例えば、プロセッサPUは、垂直同期信号等を検出するまで、ステップS600の処理の実行を待機する。すなわち、プロセッサPUは、表示画像DIMGnを表示装置DISに表示するタイミング(例えば、垂直同期信号)に同期して、ステップS600の処理を実行する。   In step S580, the processor PU waits for execution of the process of step S600 until the display image DIMGn is displayed on the display device DIS. For example, the processor PU waits for execution of the process of step S600 until it detects a vertical synchronization signal or the like. That is, the processor PU executes the process of step S600 in synchronization with the timing (for example, a vertical synchronization signal) for displaying the display image DIMGn on the display device DIS.

ステップS600では、プロセッサPUは、描画処理が完了した複数の撮影画像CIMG1、CIMG2、CIMG3、CIMG4を1つの表示画像DIMGnとして、表示装置DISに表示する。例えば、プロセッサPUは、各記憶部MEM内の表示用のバッファBUFに記憶された撮影画像CIMG1、CIMG2、CIMG3、CIMG4を1つの表示画像DIMGnとして、表示装置DISに転送する。ステップS600の処理が実行された後、プロセッサPUの動作は、ステップS620に移る。   In step S600, the processor PU displays a plurality of captured images CIMG1, CIMG2, CIMG3, and CIMG4 on which the drawing process has been completed on the display device DIS as one display image DIMGn. For example, the processor PU transfers the captured images CIMG1, CIMG2, CIMG3, and CIMG4 stored in the display buffer BUF in each storage unit MEM to the display device DIS as one display image DIMGn. After the process of step S600 is executed, the operation of the processor PU moves to step S620.

ステップS620では、プロセッサPUは、変数nをインクリメントし(n=n+1)、動作をステップS320に移す。これにより、次の表示画像DIMGnを表示装置DISに表示する処理が実行される。ステップS320−S620の処理が繰り返されることにより、表示画像DIMGは、垂直同期信号に同期して表示装置DISに順次表示される。なお、プロセッサPUの動作は、図6に示す例に限定されない。   In step S620, the processor PU increments the variable n (n = n + 1), and moves the operation to step S320. Thereby, the process of displaying the next display image DIMGn on the display device DIS is executed. By repeating the processes of steps S320 to S620, the display image DIMG is sequentially displayed on the display device DIS in synchronization with the vertical synchronization signal. The operation of the processor PU is not limited to the example shown in FIG.

図7は、図6に示した順序決定処理(ステップS540)の一例を示す。なお、図7は、撮影画像CIMGiが記憶部MEMiに記憶されてから表示装置DISに表示されるまでの時間を評価値Ekとした場合の順序決定処理の一例を示す。図7に示すカメラフレーム番号mは、図6と同様に、表示画像DIMGnに使用される撮影画像CIMGiのカメラフレーム番号である。   FIG. 7 shows an example of the order determination process (step S540) shown in FIG. FIG. 7 shows an example of the order determination process when the time from when the captured image CIMGi is stored in the storage unit MEMi until it is displayed on the display device DIS is set as the evaluation value Ek. The camera frame number m shown in FIG. 7 is the camera frame number of the captured image CIMGi used for the display image DIMGn, as in FIG.

ステップS541では、プロセッサPUは、表示時刻V(n+1)、V(n+2)を予測するとともに、処理順序の組み合わせのパターンを示す変数kを1に設定する。以下、変数kで指定されるパターンの組み合わせは、組み合わせkとも称される。   In step S541, the processor PU predicts the display times V (n + 1) and V (n + 2), and sets a variable k indicating a combination pattern of processing orders to 1. Hereinafter, a combination of patterns specified by the variable k is also referred to as a combination k.

表示時刻V(n+1)は、図5で説明したように、現在の表示フレーム期間Tnの次の表示フレーム期間T(n+1)の開始時刻に対応する。例えば、プロセッサPUは、表示フレーム期間Tの周期(表示時刻Vnから表示時刻V(n−1)を引いた時間)を表示時刻Vnに加算した時刻を、表示時刻V(n+1)として予測する。また、表示時刻V(n+2)は、現在の表示フレーム期間Tnの次の次の表示フレーム期間T(n+2)の開始時刻に対応する。例えば、プロセッサPUは、表示フレーム期間Tの周期の2倍を表示時刻Vnに加算した時刻を、表示時刻V(n+2)として予測する。   As described with reference to FIG. 5, the display time V (n + 1) corresponds to the start time of the display frame period T (n + 1) next to the current display frame period Tn. For example, the processor PU predicts, as the display time V (n + 1), a time obtained by adding a period of the display frame period T (a time obtained by subtracting the display time V (n−1) from the display time Vn) to the display time Vn. The display time V (n + 2) corresponds to the start time of the display frame period T (n + 2) next to the current display frame period Tn. For example, the processor PU predicts a time obtained by adding twice the period of the display frame period T to the display time Vn as the display time V (n + 2).

次に、ステップS542では、プロセッサPUは、処理順序の組み合わせkを選択するとともに、処理順序jを示す変数jを1に設定し、動作をステップS543に移す。   Next, in step S542, the processor PU selects the processing order combination k, sets a variable j indicating the processing order j to 1, and moves the operation to step S543.

ステップS543では、プロセッサPUは、処理順序jのカメラCAMiを選択し、動作をステップS544に移す。なお、各組み合わせkにおいて、処理順序jのカメラCAMiは、処理順序jに対して一意に決まる。   In step S543, the processor PU selects the camera CAMi of the processing order j, and moves the operation to step S544. In each combination k, the camera CAMi of the processing order j is uniquely determined with respect to the processing order j.

例えば、組み合わせkが示す処理順序が、カメラCAM3、カメラCAM4、カメラCAM2、カメラCAM1の順である場合、処理順序1のカメラCAMiは、カメラCAM3である。そして、処理順序2、処理順序3、処理順序4のカメラCAMiは、それぞれカメラCAM4、CAM2、CAM1である。あるいは、組み合わせkが示す処理順序が、カメラCAM1、カメラCAM3、カメラCAM4、カメラCAM2の順である場合、処理順序1のカメラCAMiは、カメラCAM1である。そして、処理順序2、処理順序3、処理順序4のカメラCAMiは、それぞれカメラCAM3、CAM4、CAM2である。   For example, when the processing order indicated by the combination k is the order of the camera CAM3, the camera CAM4, the camera CAM2, and the camera CAM1, the camera CAMi of the processing order 1 is the camera CAM3. The cameras CAMi of the processing order 2, the processing order 3, and the processing order 4 are the cameras CAM4, CAM2, and CAM1, respectively. Alternatively, when the processing order indicated by the combination k is the order of the camera CAM1, the camera CAM3, the camera CAM4, and the camera CAM2, the camera CAMi in the processing order 1 is the camera CAM1. The cameras CAMi in the processing order 2, the processing order 3, and the processing order 4 are the cameras CAM3, CAM4, and CAM2, respectively.

ステップS544では、プロセッサPUは、図5で説明したように、読み込み時刻Rj(n+1)、キャプチャ時刻Ci(m+1)、Ci(m+2)を予測する。ステップS544の処理が実行された後、プロセッサPUの動作は、ステップS545に移る。   In step S544, the processor PU predicts the reading time Rj (n + 1), the capture time Ci (m + 1), and Ci (m + 2) as described with reference to FIG. After the process of step S544 is executed, the operation of the processor PU moves to step S545.

ステップS545では、プロセッサPUは、ステップS544の処理で予測した読み込み時刻Rj(n+1)とキャプチャ時刻Ci(m+1)、Ci(m+2)との関係に基づいて、カメラフレーム番号Gj(n+1)を算出する。   In step S545, the processor PU calculates the camera frame number Gj (n + 1) based on the relationship between the read time Rj (n + 1) predicted in the process of step S544 and the capture times Ci (m + 1) and Ci (m + 2). .

例えば、読み込み時刻Rj(n+1)がキャプチャ時刻Ci(m+1)より前の時刻である場合、カメラフレーム番号Gj(n+1)は、”m”に設定される(Gj(n+1)=m)。この場合、例えば、表示画像DIMGnと表示画像DIMG(n+1)とで、互いに同じフレームの撮影画像CIMGimが使用される。   For example, when the read time Rj (n + 1) is a time before the capture time Ci (m + 1), the camera frame number Gj (n + 1) is set to “m” (Gj (n + 1) = m). In this case, for example, the captured image CIMGim having the same frame is used for the display image DIMGn and the display image DIMG (n + 1).

また、例えば、読み込み時刻Rj(n+1)がキャプチャ時刻Ci(m+1)以降の時刻で、かつ、キャプチャ時刻Ci(m+2)より前の時刻である場合、カメラフレーム番号Gj(n+1)は、”m+1”に設定される(Gj(n+1)=m+1)。この場合、例えば、撮影画像CIMGimの次のフレームの撮影画像CIMGi(m+1)が表示画像DIMG(n+1)に使用される。   For example, when the read time Rj (n + 1) is a time after the capture time Ci (m + 1) and before the capture time Ci (m + 2), the camera frame number Gj (n + 1) is “m + 1”. (Gj (n + 1) = m + 1). In this case, for example, the captured image CIMGi (m + 1) of the next frame of the captured image CIMGim is used as the display image DIMG (n + 1).

また、例えば、読み込み時刻Rj(n+1)がキャプチャ時刻Ci(m+2)以降の時刻である場合、カメラフレーム番号Gj(n+1)は、”m+2”に設定される(Gj(n+1)=m+2)。この場合、例えば、撮影画像CIMGimの次の次のフレームの撮影画像CIMGi(m+2)が表示画像DIMG(n+1)に使用される。すなわち、撮影画像CIMGiが1フレーム飛ばされる。   For example, when the read time Rj (n + 1) is a time after the capture time Ci (m + 2), the camera frame number Gj (n + 1) is set to “m + 2” (Gj (n + 1) = m + 2). In this case, for example, the captured image CIMGi (m + 2) of the next frame after the captured image CIMGim is used as the display image DIMG (n + 1). That is, the captured image CIMGi is skipped by one frame.

ステップS545の処理が実行された後、プロセッサPUの動作は、ステップS546に移る。   After the process of step S545 is executed, the operation of the processor PU moves to step S546.

ステップS546では、プロセッサPUは、ステップS545の処理で算出したカメラフレーム番号Gj(n+1)、ステップS541の処理で予測した表示時刻V(n+2)等に基づいて、遅延時間DLYiを算出する。   In step S546, the processor PU calculates the delay time DLYi based on the camera frame number Gj (n + 1) calculated in the process of step S545, the display time V (n + 2) predicted in the process of step S541, and the like.

カメラフレーム番号Gj(n+1)が”m”である場合、遅延時間DLYiは、表示時刻V(n+2)から図6に示したステップS380の処理で記録したキャプチャ時刻Cimを引いた時刻である(DLYi=V(n+2)−Cim)。   When the camera frame number Gj (n + 1) is “m”, the delay time DLYi is a time obtained by subtracting the capture time Cim recorded in the process of step S380 shown in FIG. 6 from the display time V (n + 2) (DLYi). = V (n + 2) -Cim).

カメラフレーム番号Gj(n+1)が”m+1”である場合、遅延時間DLYiは、表示時刻V(n+2)からステップS544の処理で予測したキャプチャ時刻Ci(m+1)を引いた時刻である(DLYi=V(n+2)−Ci(m+1))。   When the camera frame number Gj (n + 1) is “m + 1”, the delay time DLYi is a time obtained by subtracting the capture time Ci (m + 1) predicted in the process of step S544 from the display time V (n + 2) (DLYi = V (N + 2) -Ci (m + 1)).

カメラフレーム番号Gj(n+1)が”m+2”である場合、遅延時間DLYiは、表示時刻V(n+2)からステップS544の処理で予測したキャプチャ時刻Ci(m+2)を引いた時刻である(DLYi=V(n+2)−Ci(m+2))。   When the camera frame number Gj (n + 1) is “m + 2”, the delay time DLYi is a time obtained by subtracting the capture time Ci (m + 2) predicted in the process of step S544 from the display time V (n + 2) (DLYi = V (N + 2) -Ci (m + 2)).

ステップS546の処理が実行された後、プロセッサPUの動作は、ステップS547に移る。   After the process of step S546 is executed, the operation of the processor PU moves to step S547.

ステップS547では、プロセッサPUは、変数j(処理順序j)が4か否かを判定する。すなわち、プロセッサPUは、撮影画像CIMG1、CIMG2、CIMG3、CIMG4のそれぞれの遅延時間DLY1、DLY2、DLY3、DLY4を算出したか否かを判定する。なお、例えば、カメラCAMの数がN個(Nは、正の整数)の場合、プロセッサPUは、変数jがNか否かを判定する。変数jが4である場合、プロセッサPUの動作は、ステップS549に移る。一方、変数jが4でない場合、プロセッサPUの動作は、ステップS548に移る。   In step S547, the processor PU determines whether or not the variable j (processing order j) is 4. That is, the processor PU determines whether or not the delay times DLY1, DLY2, DLY3, and DLY4 of the captured images CIMG1, CIMG2, CIMG3, and CIMG4 have been calculated. For example, when the number of cameras CAM is N (N is a positive integer), the processor PU determines whether or not the variable j is N. If the variable j is 4, the operation of the processor PU moves to step S549. On the other hand, when the variable j is not 4, the operation of the processor PU moves to step S548.

ステップS548では、プロセッサPUは、変数jをインクリメントし(j=j+1)、動作をステップS543に移す。すなわち、ステップS543−S546の処理は、組み合わせkでの遅延時間DLY1、DLY2、DLY3、DLY4がそれぞれ算出されるまで、繰り返される。そして、組み合わせkでの遅延時間DLY1、DLY2、DLY3、DLY4がそれぞれ算出された場合、ステップS549の処理が実行される。   In step S548, the processor PU increments the variable j (j = j + 1), and moves the operation to step S543. That is, the processes in steps S543 to S546 are repeated until the delay times DLY1, DLY2, DLY3, and DLY4 for the combination k are calculated. When the delay times DLY1, DLY2, DLY3, and DLY4 for the combination k are calculated, the process of step S549 is executed.

ステップS549では、プロセッサPUは、ステップS546の処理で算出した遅延時間DLYiを用いて評価値Ekを算出し、動作をステップS550に移す。なお、評価値Ekは、カメラCAMの数N(図7に示す例では、N=4)および遅延時間DLYiを用いて、式(1)で表される。   In step S549, the processor PU calculates an evaluation value Ek using the delay time DLYi calculated in the process of step S546, and moves the operation to step S550. The evaluation value Ek is expressed by Expression (1) using the number N of cameras CAM (N = 4 in the example shown in FIG. 7) and the delay time DLYi.

Figure 2017050818
Figure 2017050818

このように、図7に示す例では、プロセッサPUは、遅延時間DLYiの二乗平均を評価値Ekとして算出する。   As described above, in the example illustrated in FIG. 7, the processor PU calculates the mean square of the delay time DLYi as the evaluation value Ek.

ステップS550では、プロセッサPUは、処理順序の組み合わせのパターンを示す変数kが24か否かを判定する。すなわち、プロセッサPUは、撮影画像CIMG1、CIMG2、CIMG3、CIMG4の処理順序の全ての組み合わせkで評価値Ekを算出したか否かを判定する。なお、例えば、カメラCAMの数がN個(Nは、正の整数)の場合、プロセッサPUは、変数kがNの階乗か否かを判定する。変数kが24である場合、プロセッサPUの動作は、ステップS552に移る。一方、変数kが24でない場合、プロセッサPUの動作は、ステップS551に移る。   In step S550, the processor PU determines whether or not the variable k indicating the combination pattern of the processing order is 24. That is, the processor PU determines whether or not the evaluation value Ek has been calculated for all combinations k of the processing order of the captured images CIMG1, CIMG2, CIMG3, and CIMG4. For example, when the number of cameras CAM is N (N is a positive integer), the processor PU determines whether or not the variable k is a factorial of N. When the variable k is 24, the operation of the processor PU moves to step S552. On the other hand, when the variable k is not 24, the operation of the processor PU moves to step S551.

ステップS551では、プロセッサPUは、変数kをインクリメントし(k=k+1)、動作をステップS542に移す。すなわち、ステップS542−S549の処理は、撮影画像CIMG1、CIMG2、CIMG3、CIMG4の処理順序の全ての組み合わせkで評価値Ekが算出されるまで、繰り返される。そして、全ての組み合わせkで評価値Ekが算出された場合、ステップS552の処理が実行される。   In step S551, the processor PU increments the variable k (k = k + 1), and moves the operation to step S542. That is, the processes in steps S542 to S549 are repeated until the evaluation value Ek is calculated for all combinations k of the processing order of the captured images CIMG1, CIMG2, CIMG3, and CIMG4. When the evaluation value Ek is calculated for all the combinations k, the process of step S552 is executed.

ステップS552では、プロセッサPUは、ステップS549の処理で算出した評価値Ekが最少になる組み合わせkの処理順序を、次回の処理順序に決定する。すなわち、プロセッサPUは、処理順序の全ての組み合わせkのうち、表示遅延時間DLYに関する評価値Ek(図7に示す例では、遅延時間DLY1、DLY2、DLY3、DLY4の二乗平均)が最少になる組み合わせkの処理順序を、次回の処理順序に決定する。   In step S552, the processor PU determines the processing order of the combination k that minimizes the evaluation value Ek calculated in the processing of step S549 as the next processing order. That is, the processor PU is a combination that minimizes the evaluation value Ek related to the display delay time DLY (in the example illustrated in FIG. 7, the mean square of the delay times DLY1, DLY2, DLY3, and DLY4) among all the combinations k in the processing order. The processing order of k is determined as the next processing order.

ステップS552の処理の終了により、順序決定処理が終了し、図6に示したステップS560において、処理順序Oiが更新される。例えば、プロセッサPUは、図6に示したステップS560において、処理順序Oiを、ステップS552の処理で決定した処理順序に更新する。なお、表示遅延時間DLYに関する評価値Ekは、図7に示す例(遅延時間DLYiの二乗平均)に限定されない。   When the process of step S552 ends, the order determination process ends, and the process order Oi is updated in step S560 shown in FIG. For example, the processor PU updates the processing order Oi to the processing order determined in the processing of step S552 in step S560 illustrated in FIG. Note that the evaluation value Ek related to the display delay time DLY is not limited to the example shown in FIG. 7 (root mean square of the delay time DLYi).

図8は、図6に示した順序決定処理(ステップS540)の別の例を示す。なお、図8は、表示画像DIMGnに使用される撮影画像CIMG1m、CIMG2m、CIMG3m、CIMG4mのそれぞれのキャプチャ時刻Cimのばらつきを評価値Ekとした場合の順序決定処理の一例を示す。図8に示すカメラフレーム番号mは、図6と同様に、表示画像DIMGnに使用される撮影画像CIMGiのカメラフレーム番号である。図7で説明したステップと同一または同様のステップについては、同一または同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 8 shows another example of the order determination process (step S540) shown in FIG. FIG. 8 shows an example of the order determination process when the variation of the capture times Cim of the captured images CIMG1m, CIMG2m, CIMG3m, and CIMG4m used for the display image DIMGn is set as the evaluation value Ek. The camera frame number m shown in FIG. 8 is the camera frame number of the captured image CIMGi used for the display image DIMGn, as in FIG. Steps that are the same as or similar to the steps described in FIG. 7 are given the same or similar reference numerals, and detailed descriptions thereof are omitted.

ステップS541−S545は、図7に示したステップステップS541−S545と同一または同様である。ステップS545の処理が実行された後、プロセッサPUの動作は、ステップS546aに移る。   Steps S541-S545 are the same as or similar to steps S541-S545 shown in FIG. After the process of step S545 is executed, the operation of the processor PU moves to step S546a.

ステップS546aでは、プロセッサPUは、ステップS545の処理で算出したカメラフレーム番号Gj(n+1)に基づいて、キャプチャ時刻Ciを算出する。   In step S546a, the processor PU calculates the capture time Ci based on the camera frame number Gj (n + 1) calculated in the process of step S545.

カメラフレーム番号Gj(n+1)が”m”である場合、キャプチャ時刻Ciは、撮影画像CIMGimが記憶部MEMiに記憶された時刻である(Ci=Cim)。すなわち、キャプチャ時刻Ciは、図6に示したステップS380の処理で記録したキャプチャ時刻Cimである。   When the camera frame number Gj (n + 1) is “m”, the capture time Ci is the time when the captured image CIMGim is stored in the storage unit MEMi (Ci = Cim). That is, the capture time Ci is the capture time Cim recorded in the process of step S380 shown in FIG.

カメラフレーム番号Gj(n+1)が”m+1”である場合、キャプチャ時刻Ciは、ステップS544の処理で予測したキャプチャ時刻Ci(m+1)である(Ci=Ci(m+1))。   When the camera frame number Gj (n + 1) is “m + 1”, the capture time Ci is the capture time Ci (m + 1) predicted in the process of step S544 (Ci = Ci (m + 1)).

カメラフレーム番号Gj(n+1)が”m+2”である場合、キャプチャ時刻Ciは、ステップS544の処理で予測したキャプチャ時刻Ci(m+2)である(Ci=Ci(m+2))。   When the camera frame number Gj (n + 1) is “m + 2”, the capture time Ci is the capture time Ci (m + 2) predicted in the process of step S544 (Ci = Ci (m + 2)).

ステップS546aの処理が実行された後、プロセッサPUの動作は、ステップS547に移る。   After the process of step S546a is executed, the operation of the processor PU moves to step S547.

ステップS547、S548は、図7に示したステップステップS547、S548と同一または同様である。例えば、ステップS547では、プロセッサPUは、変数j(処理順序j)が4か否かを判定する。そして、変数jが4である場合、プロセッサPUは、動作をステップS549aに移す。一方、変数jが4でない場合、プロセッサPUは、ステップS548において、変数jをインクリメントし(j=j+1)、動作をステップS543に移す。   Steps S547 and S548 are the same as or similar to steps S547 and S548 shown in FIG. For example, in step S547, the processor PU determines whether or not the variable j (processing order j) is 4. If the variable j is 4, the processor PU moves the operation to step S549a. On the other hand, if the variable j is not 4, the processor PU increments the variable j (j = j + 1) in step S548, and moves the operation to step S543.

ステップS549aでは、プロセッサPUは、ステップS546aの処理で算出したキャプチャ時刻Ciを用いて評価値Ekを算出し、動作をステップS550に移す。なお、評価値Ekは、カメラCAMの数N(図7に示す例では、N=4)およびキャプチャ時刻Ciを用いて、式(2)で表される。   In step S549a, the processor PU calculates an evaluation value Ek using the capture time Ci calculated in the process of step S546a, and moves the operation to step S550. The evaluation value Ek is expressed by Expression (2) using the number N of cameras CAM (N = 4 in the example shown in FIG. 7) and the capture time Ci.

Figure 2017050818
Figure 2017050818

式(2)の符号AVEcは、N個のキャプチャ時刻Ciの平均を示す。例えば、カメラCAMの数Nが4つである場合、平均AVEcは、ステップS546aの処理で算出したキャプチャ時刻Ci(キャプチャ時刻C1、C2、C3、C4)を用いて、式(3)で表される。   A symbol AVEc in Expression (2) indicates an average of N capture times Ci. For example, when the number N of the cameras CAM is 4, the average AVEc is expressed by Expression (3) using the capture times Ci (capture times C1, C2, C3, and C4) calculated in the process of step S546a. The

AVEc=(C1+C2+C3+C4)/4 ・・・(3)
このように、図8に示す例では、プロセッサPUは、キャプチャ時刻Ciの分散を評価値Ekとして算出する。
AVEc = (C1 + C2 + C3 + C4) / 4 (3)
As described above, in the example illustrated in FIG. 8, the processor PU calculates the variance of the capture time Ci as the evaluation value Ek.

ステップS550−S552は、図7に示したステップステップS550−S552と同一または同様である。例えば、ステップS550では、プロセッサPUは、変数kが24か否かを判定する。そして、変数kが24である場合、プロセッサPUは、動作をステップS552に移す。一方、変数kが24でない場合、プロセッサPUは、ステップS551において、変数kをインクリメントし(k=k+1)、動作をステップS542に移す。   Steps S550-S552 are the same as or similar to steps S550-S552 shown in FIG. For example, in step S550, the processor PU determines whether or not the variable k is 24. If the variable k is 24, the processor PU moves the operation to step S552. On the other hand, when the variable k is not 24, the processor PU increments the variable k (k = k + 1) in step S551, and moves the operation to step S542.

ステップS552では、プロセッサPUは、ステップS549aの処理で算出した評価値Ekが最少になる組み合わせkの処理順序を、次回の処理順序に決定する。すなわち、プロセッサPUは、処理順序の全ての組み合わせkのうち、キャプチャ時刻Cimのばらつきに関する評価値Ek(図7に示す例では、キャプチャ時刻C1、C2、C3、C4の分散)が最少になる組み合わせkの処理順序を、次回の処理順序に決定する。   In step S552, the processor PU determines the processing order of the combination k that minimizes the evaluation value Ek calculated in step S549a as the next processing order. That is, the processor PU has the smallest evaluation value Ek (variation of capture times C1, C2, C3, and C4 in the example shown in FIG. 7) regarding the variation in the capture time Cim among all the combinations k in the processing order. The processing order of k is determined as the next processing order.

ステップS552の処理の終了により、順序決定処理が終了し、図6に示したステップS560において、処理順序Oiが更新される。例えば、プロセッサPUは、図6に示したステップS560において、処理順序Oiを、ステップS552の処理で決定した処理順序に更新する。   When the process of step S552 ends, the order determination process ends, and the process order Oi is updated in step S560 shown in FIG. For example, the processor PU updates the processing order Oi to the processing order determined in the processing of step S552 in step S560 illustrated in FIG.

なお、順序決定処理(ステップS540)は、図7または図8に示した例に限定されない。例えば、プロセッサPUは、評価値Ekの算出が全ての組み合わせkで終了する前でも、予め決められた目標値以下の評価値Ekになる組み合わせkを検出した場合、ステップS552の処理を実行してもよい。この場合、プロセッサPUは、目標値以下の評価値Ekになる組み合わせkの処理順序を次回の処理順序に決定する。   Note that the order determination process (step S540) is not limited to the example shown in FIG. 7 or FIG. For example, when the processor PU detects a combination k that has an evaluation value Ek that is equal to or less than a predetermined target value even before the calculation of the evaluation value Ek ends for all the combinations k, the processor PU performs the process of step S552. Also good. In this case, the processor PU determines the processing order of the combination k that becomes the evaluation value Ek equal to or lower than the target value as the next processing order.

また、評価値Ekとして、キャプチャ時刻Cimの分散と遅延時間DLYiの二乗平均との両方が使用されてもよい。例えば、プロセッサPUは、キャプチャ時刻Ciの分散が目標値以下になる組み合わせkのうち、遅延時間DLYiの二乗平均が最少になる組み合わせkの処理順序を、次回の処理順序に決定してもよい。あるいは、プロセッサPUは、遅延時間DLYiの二乗平均が目標値以下になる組み合わせkのうち、キャプチャ時刻Ciの分散が最少になる組み合わせkの処理順序を、次回の処理順序に決定してもよい。   Further, both the variance of the capture time Cim and the root mean square of the delay time DLYi may be used as the evaluation value Ek. For example, the processor PU may determine the processing order of the combination k that minimizes the mean square of the delay time DLYi among the combinations k in which the variance of the capture time Ci is equal to or less than the target value, as the next processing order. Alternatively, the processor PU may determine, as the next processing order, the processing order of the combination k that minimizes the variance of the capture time Ci among the combinations k in which the root mean square of the delay times DLYi is equal to or less than the target value.

図9は、表示遅延時間DLYiの二乗平均を評価値Ekとした場合のシミュレーション結果の一例を示す。図9の横軸は、表示遅延時間DLYiの二乗平均を示す。また、図9の縦軸は、表示遅延時間DLYiの二乗平均を0.1間隔で区切ったときの各区間の頻度を示す。図9に示す例では、シミュレーションは、カメラCAMiから記憶部MEMiへの撮影画像CIMGiの入力タイミングをランダムに振って100回実行される。以下にシミュレーション条件を示す。カメラCAMiの数は4で、各カメラCAMiの撮影画像更新周期Uiは100で、表示フレーム期間Tは100である。   FIG. 9 shows an example of a simulation result when the mean square of the display delay time DLYi is the evaluation value Ek. The horizontal axis of FIG. 9 shows the mean square of the display delay time DLYi. In addition, the vertical axis in FIG. 9 indicates the frequency of each section when the mean square of the display delay time DLYi is divided at 0.1 intervals. In the example illustrated in FIG. 9, the simulation is executed 100 times while randomly changing the input timing of the captured image CIMGi from the camera CAMi to the storage unit MEMi. The simulation conditions are shown below. The number of cameras CAMi is 4, the captured image update period Ui of each camera CAMi is 100, and the display frame period T is 100.

なお、図9に示す網掛けの矩形は、図7に示した順序決定処理に基づいて、描画処理の実行順を調整した場合(最適化後)のシミュレーション結果を示す。また、図9に示す白抜きの矩形は、描画処理の実行順を固定した場合(最適化前)のシミュレーション結果を示す。   The shaded rectangle shown in FIG. 9 indicates the simulation result when the execution order of the drawing process is adjusted (after optimization) based on the order determination process shown in FIG. In addition, a white rectangle illustrated in FIG. 9 indicates a simulation result when the execution order of the drawing processing is fixed (before optimization).

描画処理の実行順を調整した場合、表示遅延時間DLYiの二乗平均の100回のシミュレーションの平均およびばらつきは、描画処理の実行順を固定した場合に比べて、小さくなる。例えば、描画処理の実行順を調整した場合、表示遅延時間DLYiの二乗平均の100回のシミュレーションの平均は、0.91である。これに対し、描画処理の実行順を固定した場合、表示遅延時間DLYiの二乗平均の100回のシミュレーションの平均は、1.48である。   When the execution order of the drawing process is adjusted, the average and variation of 100 times of the square average of the display delay time DLYi are smaller than when the execution order of the drawing process is fixed. For example, when the execution order of the drawing processing is adjusted, the average of 100 simulations of the square average of the display delay time DLYi is 0.91. On the other hand, when the execution order of the drawing processing is fixed, the average of 100 simulations of the square average of the display delay time DLYi is 1.48.

このように、描画処理の実行順を図7に示した順序決定処理に基づいて調整することにより、描画処理の実行順を固定した場合に比べて、表示画像DIMG内の複数の撮影画像CIMGiの表示遅延時間DLYiの二乗平均を小さくすることができる。   As described above, by adjusting the execution order of the drawing process based on the order determination process shown in FIG. 7, the plurality of captured images CIMGi in the display image DIMGi are compared with the case where the execution order of the drawing process is fixed. The mean square of the display delay time DLYi can be reduced.

図10は、キャプチャ時刻Ciの分散を評価値Ekとした場合のシミュレーション結果の一例を示す。図10の横軸は、キャプチャ時刻Ciの分散を示す。また、図10の縦軸は、キャプチャ時刻Ciの分散を50間隔で区切ったときの各区間の頻度を示す。図10に示す例においても、図9と同様に、シミュレーションは、カメラCAMiから記憶部MEMiへの撮影画像CIMGiの入力タイミングをランダムに振って100回実行される。   FIG. 10 shows an example of a simulation result when the variance of the capture time Ci is the evaluation value Ek. The horizontal axis of FIG. 10 shows the variance of the capture time Ci. The vertical axis in FIG. 10 indicates the frequency of each section when the variance of the capture time Ci is divided at 50 intervals. Also in the example illustrated in FIG. 10, similarly to FIG. 9, the simulation is executed 100 times by randomly changing the input timing of the captured image CIMGi from the camera CAMi to the storage unit MEMi.

シミュレーション条件および図10に示す白抜きの矩形の意味は、図9と同じである。なお、図10に示す網掛けの矩形は、図8に示した順序決定処理に基づいて、描画処理の実行順を調整した場合(最適化後)のシミュレーション結果を示す。   The simulation conditions and the meaning of the white rectangle shown in FIG. 10 are the same as those in FIG. Note that the shaded rectangle shown in FIG. 10 indicates the simulation result when the execution order of the drawing process is adjusted (after optimization) based on the order determination process shown in FIG.

描画処理の実行順を調整した場合、キャプチャ時刻Ciの分散の100回のシミュレーションの平均およびばらつきは、描画処理の実行順を固定した場合に比べて、小さくなる。例えば、描画処理の実行順を調整した場合、キャプチャ時刻Ciの分散の100回のシミュレーションの平均は、186である。これに対し、描画処理の実行順を固定した場合、キャプチャ時刻Ciの分散の100回のシミュレーションの平均は、474である。   When the execution order of the drawing process is adjusted, the average and variation of the 100 simulations of the dispersion of the capture time Ci are smaller than when the execution order of the drawing process is fixed. For example, when the execution order of the drawing processing is adjusted, the average of 100 simulations of the dispersion of the capture time Ci is 186. On the other hand, when the execution order of the drawing processing is fixed, the average of 100 simulations of the dispersion of the capture time Ci is 474.

このように、描画処理の実行順を図8に示した順序決定処理に基づいて調整することにより、描画処理の実行順を固定した場合に比べて、表示画像DIMG内の複数の撮影画像CIMGiにおけるキャプチャ時刻Ciのばらつきを小さくすることができる。   In this manner, by adjusting the execution order of the drawing process based on the order determination process shown in FIG. 8, compared with the case where the execution order of the drawing process is fixed, in the plurality of captured images CIMGi in the display image DIMGi. Variations in the capture time Ci can be reduced.

図11は、図3に示した画像処理システムSYSのハードウェア構成の一例を示す。画像処理システムSYSは、コンピュータ装置CPと、コンピュータ装置CPに接続される複数のカメラCAM(CAM1、CAM2、CAM3、CAM4)と、コンピュータ装置CPに接続される表示装置DISとにより実現される。   FIG. 11 shows an example of the hardware configuration of the image processing system SYS shown in FIG. The image processing system SYS is realized by a computer device CP, a plurality of cameras CAM (CAM1, CAM2, CAM3, CAM4) connected to the computer device CP, and a display device DIS connected to the computer device CP.

コンピュータ装置CPは、プロセッサPU、メモリMMEM、VMEM、ハードディスク装置HDD、入出力インタフェースIFおよび光学ドライブ装置ODRを有する。プロセッサPU、メモリMMEM、VMEM、ハードディスク装置HDD、入出力インタフェースIFおよび光学ドライブ装置ODRは、バスBUSを介して互いに接続される。   The computer device CP includes a processor PU, memories MMEM, VMEM, a hard disk device HDD, an input / output interface IF, and an optical drive device ODR. The processor PU, the memories MMEM, VMEM, the hard disk device HDD, the input / output interface IF, and the optical drive device ODR are connected to each other via a bus BUS.

光学ドライブ装置ODRは、光ディスク等のリムーバブルディスクRDを装着可能であり、装着したリムーバブルディスクRDに記録された情報の読み出しおよび記録を実行する。   The optical drive device ODR can be mounted with a removable disk RD such as an optical disk, and reads and records information recorded on the mounted removable disk RD.

入出力インタフェースIFは、例えば、カメラCAM1、CAM2、CAM3、CAM4に接続される。これにより、プロセッサPU等は、カメラCAM1、CAM2、CAM3、CAM4で撮影された撮影画像CIMG1、CIMG2、CIMG3、CIMG4を、入出力インタフェースIFを介して受け取ることができる。   The input / output interface IF is connected to, for example, the cameras CAM1, CAM2, CAM3, and CAM4. Accordingly, the processor PU and the like can receive the captured images CIMG1, CIMG2, CIMG3, and CIMG4 captured by the cameras CAM1, CAM2, CAM3, and CAM4 via the input / output interface IF.

メモリVMEMは、例えば、カメラCAM1、CAM2、CAM3、CAM4で撮影された撮影画像CIMG1、CIMG2、CIMG3、CIMG4を記憶する。すなわち、図3に示した記憶部MEM1、MEM2、MEM3、MEM4は、メモリVMEMに割り当てられる。   For example, the memory VMEM stores captured images CIMG1, CIMG2, CIMG3, and CIMG4 captured by the cameras CAM1, CAM2, CAM3, and CAM4. That is, the storage units MEM1, MEM2, MEM3, and MEM4 illustrated in FIG. 3 are allocated to the memory VMEM.

メモリMMEMは、例えば、コンピュータ装置CPのオペレーティングシステムを記憶する。また、メモリMMEMは、例えば、画像処理装置の動作をプロセッサPUが実行するための画像処理プログラム等のアプリケーションプログラムを記憶する。画像処理プログラム等のアプリケーションプログラムは、例えば、光ディスク等のリムーバブルディスクRDに記録して頒布することができる。   The memory MMEM stores, for example, the operating system of the computer apparatus CP. Further, the memory MMEM stores an application program such as an image processing program for the processor PU to execute the operation of the image processing apparatus. An application program such as an image processing program can be recorded and distributed on a removable disk RD such as an optical disk.

例えば、コンピュータ装置CPは、画像処理プログラム等のアプリケーションプログラムを、リムーバブルディスクRDから光学ドライブ装置ODRを介して読み出し、メモリMMEMおよびハードディスク装置HDD等に格納してもよい。また、コンピュータ装置CPは、画像処理プログラム等のアプリケーションプログラムを、インターネット等のネットワークに接続する通信装置(図示せず)を介してダウンロードし、メモリMMEMおよびハードディスク装置HDD等に格納してもよい。   For example, the computer apparatus CP may read an application program such as an image processing program from the removable disk RD via the optical drive apparatus ODR and store it in the memory MMEM and the hard disk apparatus HDD. Further, the computer device CP may download an application program such as an image processing program via a communication device (not shown) connected to a network such as the Internet and store it in the memory MMEM and the hard disk device HDD.

プロセッサPUは、メモリMMEM等に格納された画像処理プログラムを実行することにより、図3に示したプロセッサPU内のキャプチャ時刻記録部CREC等の機能ブロックの機能を実現する。   The processor PU executes the image processing program stored in the memory MMEM or the like, thereby realizing the functions of functional blocks such as the capture time recording unit CREC in the processor PU shown in FIG.

なお、画像処理システムSYSのハードウェア構成は、図11に示す例に限定されない。例えば、コンピュータ装置CPは、USB(Universal Serial Bus)メモリ等の記憶媒体用のインタフェースを有してもよい。あるいは、光学ドライブ装置ODRは、コンピュータ装置CPから省かれてもよい。また、例えば、メモリVMEMがコンピュータ装置CPから省かれ、図3に示した記憶部MEM1−MEM4がメモリMMEMに割り当てられてもよい。   Note that the hardware configuration of the image processing system SYS is not limited to the example shown in FIG. For example, the computer apparatus CP may have an interface for a storage medium such as a USB (Universal Serial Bus) memory. Alternatively, the optical drive device ODR may be omitted from the computer device CP. Further, for example, the memory VMEM may be omitted from the computer device CP, and the storage units MEM1-MEM4 illustrated in FIG. 3 may be allocated to the memory MMEM.

また、プロセッサPU、メモリMMEM、VMEM、ハードディスク装置HDDおよび入出力インタフェースIFは、図1に示した画像処理装置20の機能を実現してもよい。例えば、プロセッサPUは、メモリMMEM等に格納された画像処理プログラムを実行することにより、図1に示した画像処理装置20の機能を実現してもよい。この場合、図1に示した記憶部30は、メモリVMEMに割り当てられてもよいし、メモリMMEMに割り当てられてもよい。   Further, the processor PU, the memory MMEM, the VMEM, the hard disk device HDD, and the input / output interface IF may realize the functions of the image processing device 20 illustrated in FIG. For example, the processor PU may implement the functions of the image processing apparatus 20 illustrated in FIG. 1 by executing an image processing program stored in the memory MMEM or the like. In this case, the storage unit 30 illustrated in FIG. 1 may be allocated to the memory VMEM or the memory MMEM.

以上、図3から図11に示す実施形態においても、図1および図2に示した実施形態と同様の効果を得ることができる。図3から図11に示す実施形態では、プロセッサPUは、表示時刻Vn、キャプチャ時刻Cim、読み込み時刻Rjnおよび描画完了時刻Fjnに基づいて評価値Ekを算出し、算出した評価値Ekに基づいて描画処理の実行順を決定する。   As described above, also in the embodiment shown in FIGS. 3 to 11, the same effect as that of the embodiment shown in FIGS. 1 and 2 can be obtained. In the embodiment shown in FIGS. 3 to 11, the processor PU calculates the evaluation value Ek based on the display time Vn, the capture time Cim, the reading time Rjn, and the drawing completion time Fjn, and draws based on the calculated evaluation value Ek. Determine the processing execution order.

例えば、評価値Ekが表示遅延時間DLYiの二乗平均である場合、次の表示画像DIMG内の複数の撮影画像CIMGiの表示遅延時間DLYiの二乗平均ができるだけ小さくなるように、描画処理の実行順を決定することができる。また、例えば、評価値Ekがキャプチャ時刻Ciの分散である場合、次の表示画像DIMG内の複数の撮影画像CIMGiのキャプチャ時刻Ciのずれができるだけ小さくなるように、描画処理の実行順を決定することができる。このように、評価値Ekの種類に応じて、表示画像DIMGの質を向上させることができる。   For example, when the evaluation value Ek is the mean square of the display delay time DLYi, the execution order of the drawing processing is set so that the mean square of the display delay times DLYi of the plurality of captured images CIMGi in the next display image DIMG is as small as possible. Can be determined. Further, for example, when the evaluation value Ek is a variance of the capture time Ci, the execution order of the drawing processing is determined so that the shift of the capture time Ci of the plurality of captured images CIMGi in the next display image DIMG is as small as possible. be able to. Thus, the quality of the display image DIMG can be improved according to the type of the evaluation value Ek.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. This is intended to cover the features and advantages of the embodiments described above without departing from the spirit and scope of the claims. Also, any improvement and modification should be readily conceivable by those having ordinary knowledge in the art. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

10‥画像処理システム;20‥画像処理装置;30‥記憶部;40‥描画処理部;42‥キャプチャ時刻記録部;44‥描画開始時刻記録部;46‥描画完了時刻記録部;48‥順序決定部;50‥撮像装置;60‥表示装置;CAL‥予測部;CAM‥カメラ;CP‥コンピュータ装置;CREC‥キャプチャ時刻記録部;DIS‥表示装置;DRAW‥描画処理部;FREC‥描画完了時刻記録部;HDD‥ハードディスク装置;IF‥入出力インタフェース;MEM‥記憶部;MMEM、VMEM‥メモリ;ODR‥光学ドライブ装置;PU‥プロセッサ;RD‥リムーバブルディスク;RREC‥読み込み時刻記録部;SEQ‥順序決定部;SYS‥画像処理システム;VREC‥表示時刻記録部   DESCRIPTION OF SYMBOLS 10 ... Image processing system; 20 ... Image processing apparatus; 30 ... Memory | storage part; 40 ... Drawing process part; 42 ... Capture time recording part; 44 ... Drawing start time recording part; 50: Imaging device; 60: Display device; CAL ... Prediction unit; CAM ... Camera; CP ... Computer device; CREC ... Capture time recording unit; DIS ... Display device; DRAW ... Drawing processing unit; FREC ... Drawing completion time recording HDD: Hard disk device; IF: I / O interface; MEM: Memory unit: MMEM, VMEM: Memory; ODR: Optical drive device; PU: Processor; RD: Removable disk; RREC: Reading time recording unit: SEQ: Order determination Section: SYS Image processing system VREC Display time recording section

Claims (5)

複数の撮像装置でそれぞれ撮影された複数の撮影画像を各撮像装置のフレーム毎に記憶する記憶部を参照して、前記複数の撮影画像を表示画像として表示装置に所定の時間間隔で順次表示する画像処理方法において、
前記複数の撮影画像が前記記憶部に記憶された時刻を示すキャプチャ時刻を、前記複数の撮像装置の各々に対応付けて記録し、
前記記憶部に記憶された前記複数の撮影画像の各々に対して、前記表示装置に表示するための描画処理を順番に実行し、
前記描画処理を開始した時刻を示す描画開始時刻を、前記複数の撮像装置の各々に対応付けて記録し、
前記描画処理が完了した時刻を示す描画完了時刻を、前記複数の撮像装置の各々に対応付けて記録し、
次の表示画像を前記表示装置に表示する際の前記複数の撮影画像の各々に対する前記描画処理の実行順を、既に記録された前記キャプチャ時刻、前記描画開始時刻および前記描画完了時刻に基づいて決定する
ことを特徴とする画像処理方法。
With reference to a storage unit that stores a plurality of captured images respectively captured by a plurality of imaging devices for each frame of each imaging device, the plurality of captured images are sequentially displayed as display images on a display device at predetermined time intervals. In the image processing method,
A capture time indicating a time when the plurality of captured images are stored in the storage unit is recorded in association with each of the plurality of imaging devices,
For each of the plurality of captured images stored in the storage unit, a drawing process for displaying on the display device is sequentially performed,
A drawing start time indicating a time at which the drawing process is started is recorded in association with each of the plurality of imaging devices,
A drawing completion time indicating a time when the drawing process is completed is recorded in association with each of the plurality of imaging devices,
The execution order of the drawing process for each of the plurality of captured images when the next display image is displayed on the display device is determined based on the already recorded capture time, the drawing start time, and the drawing completion time. An image processing method characterized by:
請求項1に記載の画像処理方法において、
表示画像が前記表示装置に表示された時刻を示す表示時刻を記録し、
既に記録された前記表示時刻、前記キャプチャ時刻、前記描画開始時刻および前記描画完了時刻を用いて、次の表示画像に対応するキャプチャ時刻、描画開始時刻および描画完了時刻を、前記複数の撮影画像の処理順序の組み合わせ毎に予測し、
予測したキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて、次の表示画像を前記表示装置に表示する際の前記描画処理の実行順を決定する
ことを特徴とする画像処理方法。
The image processing method according to claim 1,
Record the display time indicating the time when the display image was displayed on the display device,
Using the display time, the capture time, the drawing start time, and the drawing completion time that have already been recorded, the capture time, the drawing start time, and the drawing completion time corresponding to the next display image are set to the captured images. Predict for each combination of processing order,
An image processing method, comprising: determining an execution order of the drawing process when displaying a next display image on the display device based on the predicted capture time, drawing start time, and drawing completion time.
請求項2に記載の画像処理方法において、
前記予測したキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて、撮影画像が前記記憶部に記憶されてから前記表示装置に表示されるまでの時間に関する評価値を前記組み合わせ毎に算出し、
前記評価値に基づいて、次の表示画像を前記表示装置に表示する際の前記描画処理の実行順を決定する
ことを特徴とする画像処理方法。
The image processing method according to claim 2,
Based on the predicted capture time, drawing start time, and drawing completion time, an evaluation value related to the time from when the captured image is stored in the storage unit until it is displayed on the display device is calculated for each combination.
An image processing method, comprising: determining an execution order of the drawing processing when displaying a next display image on the display device based on the evaluation value.
請求項2に記載の画像処理方法において、
前記予測したキャプチャ時刻、描画開始時刻および描画完了時刻に基づいて、キャプチャ時刻のばらつきに関する評価値を前記組み合わせ毎に算出し、
前記評価値に基づいて、次の表示画像を前記表示装置に表示する際の前記描画処理の実行順を決定する
ことを特徴とする画像処理方法。
The image processing method according to claim 2,
Based on the predicted capture time, drawing start time, and drawing completion time, an evaluation value related to variation in capture time is calculated for each combination,
An image processing method, comprising: determining an execution order of the drawing processing when displaying a next display image on the display device based on the evaluation value.
複数の撮像装置でそれぞれ撮影された複数の撮影画像を各撮像装置のフレーム毎に記憶する記憶部を参照して、前記複数の撮影画像を表示画像として表示装置に所定の時間間隔で順次表示する画像処理をコンピュータに実行させる画像処理プログラムにおいて、
前記複数の撮影画像が前記記憶部に記憶された時刻を示すキャプチャ時刻を、前記複数の撮像装置の各々に対応付けて記録し、
前記記憶部に記憶された前記複数の撮影画像の各々に対して、前記表示装置に表示するための描画処理を順番に実行し、
前記描画処理を開始した時刻を示す描画開始時刻を、前記複数の撮像装置の各々に対応付けて記録し、
前記描画処理が完了した時刻を示す描画完了時刻を、前記複数の撮像装置の各々に対応付けて記録し、
次の表示画像を前記表示装置に表示する際の前記複数の撮影画像の各々に対する前記描画処理の実行順を、既に記録された前記キャプチャ時刻、前記描画開始時刻および前記描画完了時刻に基づいて決定する
ことを特徴とする画像処理プログラム。
With reference to a storage unit that stores a plurality of captured images respectively captured by a plurality of imaging devices for each frame of each imaging device, the plurality of captured images are sequentially displayed as display images on a display device at predetermined time intervals. In an image processing program for causing a computer to execute image processing,
A capture time indicating a time when the plurality of captured images are stored in the storage unit is recorded in association with each of the plurality of imaging devices,
For each of the plurality of captured images stored in the storage unit, a drawing process for displaying on the display device is sequentially performed,
A drawing start time indicating a time at which the drawing process is started is recorded in association with each of the plurality of imaging devices,
A drawing completion time indicating a time when the drawing process is completed is recorded in association with each of the plurality of imaging devices,
The execution order of the drawing process for each of the plurality of captured images when the next display image is displayed on the display device is determined based on the already recorded capture time, the drawing start time, and the drawing completion time. An image processing program characterized by:
JP2015174865A 2015-09-04 2015-09-04 Image processing method and image processing program Active JP6540395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015174865A JP6540395B2 (en) 2015-09-04 2015-09-04 Image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015174865A JP6540395B2 (en) 2015-09-04 2015-09-04 Image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2017050818A true JP2017050818A (en) 2017-03-09
JP6540395B2 JP6540395B2 (en) 2019-07-10

Family

ID=58279673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015174865A Active JP6540395B2 (en) 2015-09-04 2015-09-04 Image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6540395B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324474A (en) * 1999-05-13 2000-11-24 Nippon Telegr & Teleph Corp <Ntt> Method and system for transmitting camera image
JP2002302001A (en) * 2001-04-03 2002-10-15 Matsushita Electric Ind Co Ltd Image synthesis device
JP2003078864A (en) * 2001-08-30 2003-03-14 Nec Corp System for providing camera image and time correction method for camera image
JP2005354175A (en) * 2004-06-08 2005-12-22 Nissan Motor Co Ltd Video converter
JP2006109130A (en) * 2004-10-06 2006-04-20 Tietech Co Ltd Method for storing image data
JP2006180340A (en) * 2004-12-24 2006-07-06 Nissan Motor Co Ltd Video signal processor, its method and on-vehicle camera system
JP2008166859A (en) * 2006-12-26 2008-07-17 Canon Inc Imaging and displaying device, imaging and displaying control method and system
JP2008211373A (en) * 2007-02-23 2008-09-11 Toyota Motor Corp Device and method for monitoring surroundings around vehicle
JP2009141456A (en) * 2007-12-04 2009-06-25 Sanyo Electric Co Ltd Image processing apparatus, drive support system, and vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324474A (en) * 1999-05-13 2000-11-24 Nippon Telegr & Teleph Corp <Ntt> Method and system for transmitting camera image
JP2002302001A (en) * 2001-04-03 2002-10-15 Matsushita Electric Ind Co Ltd Image synthesis device
JP2003078864A (en) * 2001-08-30 2003-03-14 Nec Corp System for providing camera image and time correction method for camera image
JP2005354175A (en) * 2004-06-08 2005-12-22 Nissan Motor Co Ltd Video converter
JP2006109130A (en) * 2004-10-06 2006-04-20 Tietech Co Ltd Method for storing image data
JP2006180340A (en) * 2004-12-24 2006-07-06 Nissan Motor Co Ltd Video signal processor, its method and on-vehicle camera system
JP2008166859A (en) * 2006-12-26 2008-07-17 Canon Inc Imaging and displaying device, imaging and displaying control method and system
JP2008211373A (en) * 2007-02-23 2008-09-11 Toyota Motor Corp Device and method for monitoring surroundings around vehicle
JP2009141456A (en) * 2007-12-04 2009-06-25 Sanyo Electric Co Ltd Image processing apparatus, drive support system, and vehicle

Also Published As

Publication number Publication date
JP6540395B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
CN106165394B (en) The control device of photographic device
JP5310647B2 (en) Imaging device
US9363440B2 (en) Imaging device and imaging method that sets a phase difference between first and second synchronization signals
JP2017092819A5 (en)
US10719458B2 (en) Data transfer device, image processing device, and imaging device
JP6540395B2 (en) Image processing method and image processing program
JP6539509B2 (en) Data transfer apparatus and data transfer method
JP5740949B2 (en) Data transfer device, data transfer method, and semiconductor device
JP7087187B2 (en) Blur correction device, image pickup device, monitoring system, and program
JP2022064968A (en) Imaging element, imaging device, method of operating imaging element, and program
JP2008165485A (en) Semiconductor device and buffer control circuit
US20200358949A1 (en) Image capturing apparatus and control method therefor
GB2553206A (en) Image pickup apparatus of which display start timing and display quality are selectable, method of controlling the same
JP6019602B2 (en) Phase adjusting device and imaging device
JP6564625B2 (en) Data transfer apparatus and data transfer method
WO2019111704A1 (en) Image processing device and method, and image processing system
JP5158165B2 (en) Imaging device, display timing control circuit
US20120144150A1 (en) Data processing apparatus
JP6481701B2 (en) Imaging display device, control method, control device, display device, and imaging device
JP2017076887A (en) Image processing device, control method for the same and imaging device
JP2013225923A (en) Camera, display device, and image processing apparatus
JP2015087450A (en) Imaging device and imaging processing program
US10672107B2 (en) Image processing apparatus and method of controlling the same
JP6103106B2 (en) Imaging display device, imaging control method thereof, control device, display device, and imaging device.
JP5924382B2 (en) Imaging device, display device, and image processing device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180209

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150