JP2009141456A - Image processing apparatus, drive support system, and vehicle - Google Patents

Image processing apparatus, drive support system, and vehicle Download PDF

Info

Publication number
JP2009141456A
JP2009141456A JP2007313103A JP2007313103A JP2009141456A JP 2009141456 A JP2009141456 A JP 2009141456A JP 2007313103 A JP2007313103 A JP 2007313103A JP 2007313103 A JP2007313103 A JP 2007313103A JP 2009141456 A JP2009141456 A JP 2009141456A
Authority
JP
Japan
Prior art keywords
image
output
input
frame memory
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007313103A
Other languages
Japanese (ja)
Other versions
JP5091643B2 (en
Inventor
Shugo Yamashita
周悟 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007313103A priority Critical patent/JP5091643B2/en
Publication of JP2009141456A publication Critical patent/JP2009141456A/en
Application granted granted Critical
Publication of JP5091643B2 publication Critical patent/JP5091643B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a delay until input images from a plurality of asynchronous cameras are compounded and displayed. <P>SOLUTION: An operation support system includes first through fourth cameras asynchronous to each other, an image processing circuit generating an output image by compounding the input images of the cameras, and a display for displaying an output image. The operation support system further includes a plurality of frame memories for respective cameras. A frame memory storing a newest input image of each camera is specified for each camera, and an output image is generated using an input image in each specified frame memory and displayed. Based on the arrangement position on an output image of an input image from an i-th camera, an output timing (t<SB>A</SB>) of an input image from an i-th camera is set as a select timing (i is 1, 2, 3 or 4). A newest frame memory available at the select timing is specified. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複数の入力画像から出力画像を生成する画像処理装置に関する。また本発明は、その画像処理装置を利用した運転支援システム及び車両に関する。   The present invention relates to an image processing apparatus that generates an output image from a plurality of input images. The present invention also relates to a driving support system and a vehicle using the image processing apparatus.

近年、安全志向の高まりから、運転補助用のシステムとして後退時に車両後方を映像として表示するリアビューカメラシステムや車両側方を映像として表示するサイドカメラシステムが実用化されて販売されている。この種のシステムの中で、複数のカメラにて取得された画像を合成して同時に表示するシステムも提案されている。例えば、車体四方に取り付けた複数のカメラからの入力画像を合成して表示する全周カメラシステムの開発が活発化している。全周カメラシステムの一種として、複数のカメラからの入力画像を地面上に投影して合成することにより全周鳥瞰画像を生成し、これを表示する全周鳥瞰システムも提案されている(例えば、下記特許文献2参照)。   2. Description of the Related Art In recent years, due to the increasing safety orientation, rear view camera systems that display the rear of a vehicle as an image when driving backward and side camera systems that display the side of a vehicle as an image have been put into practical use and sold as driving assistance systems. Among these types of systems, a system has also been proposed in which images acquired by a plurality of cameras are combined and displayed simultaneously. For example, development of an all-around camera system that synthesizes and displays input images from a plurality of cameras attached to the vehicle body in all directions has become active. As a kind of all-around camera system, an all-around bird's-eye view system that generates and displays an all-around bird's-eye view image by projecting and synthesizing input images from a plurality of cameras on the ground has also been proposed (for example, See Patent Document 2 below).

図18に、全周鳥瞰画像の例を示す。図18の全周鳥瞰画像は、車両を上空から見た画像となっている。画像の中央に車体のイラストを描画し、その車体の前後左右に各カメラからの入力画像を地面上に投影した画像を配置することで、全周鳥瞰画像は形成される。図18において、ch1、ch2、ch3及びch4は、夫々、車両の前側、右側、後側及び左側に設置されたカメラからの映像に対応している。尚、図18において、車体のイラスト内に示された矢印は、車両の進行方向を示している。   FIG. 18 shows an example of the all-around bird's-eye view image. The all-around bird's-eye view image of FIG. 18 is an image of the vehicle viewed from above. An all-around bird's-eye view image is formed by drawing an illustration of the vehicle body at the center of the image and arranging images obtained by projecting input images from the cameras on the ground on the front, rear, left and right sides of the vehicle body. In FIG. 18, ch1, ch2, ch3, and ch4 correspond to images from cameras installed on the front side, right side, rear side, and left side of the vehicle, respectively. In FIG. 18, the arrow shown in the illustration of the vehicle body indicates the traveling direction of the vehicle.

複数のカメラからの入力画像を合成して1画面内に同時に表示する場合、複数の入力画像間で同期をとる必要がある。同期をとる方式の1つとして外部同期方式がある。外部同期方式では、各カメラ共通の外部同期信号を生成し、この外部同期信号を各カメラに与えることで複数のカメラから同期のとれた映像信号を出力させる。   When combining input images from a plurality of cameras and displaying them simultaneously in one screen, it is necessary to synchronize the plurality of input images. One of the synchronization methods is an external synchronization method. In the external synchronization method, an external synchronization signal common to each camera is generated, and a synchronized video signal is output from a plurality of cameras by giving this external synchronization signal to each camera.

但し、外部同期方式を採用すると、外部同期信号を生成する同期信号発生部が必要となると共に外部同期信号を各カメラに供給する配線が必要となるため、システムの構成が複雑化する。また、カメラモジュール自体の小型化にも悪影響を与える。このため、外部同期信号を必要としない内部同期カメラを用いてシステムを構築することが一般的となっている。   However, when the external synchronization method is adopted, a synchronization signal generating unit for generating an external synchronization signal is required and wiring for supplying the external synchronization signal to each camera is required, which complicates the system configuration. In addition, the camera module itself is adversely affected. For this reason, it is common to construct a system using an internal synchronization camera that does not require an external synchronization signal.

しかしながら、複数の内部同期カメラを用いてシステムを構築すると、特許文献1にも指摘されているような、表示映像の遅延や複数の入力画像間の取得時間ずれが問題となってくる。   However, when a system is constructed using a plurality of internal synchronous cameras, the delay of the display video and the acquisition time shift between the plurality of input images as pointed out in Patent Document 1 become problems.

運転者は危険を認識してから回避行動を起こすため、危険の認識の元となる映像表示にはリアルタイム性が要求される。従って、特許文献1にも示唆されているように、車両用システムにおいてカメラからの入力画像が表示されるまでの遅延は短ければ短いほど良い、ことは自明である。これを考慮し、引用文献1の手法では、相互に非同期な複数のカメラからの入力画像を入力バッファに記憶しておき、出力画像の垂直同期信号の発生時点において入力バッファに記憶されている最新の入力画像を選択し、選択した入力画像から出力画像を生成するようにしている。   Since the driver recognizes the danger and then performs an avoidance action, the video display that is the basis for the danger recognition is required to have real-time characteristics. Therefore, as suggested in Patent Document 1, it is obvious that the shorter the delay until the input image from the camera is displayed in the vehicle system, the better. Considering this, in the method of the cited document 1, input images from a plurality of asynchronous cameras are stored in the input buffer, and the latest stored in the input buffer at the time of generation of the vertical synchronization signal of the output image. An input image is selected, and an output image is generated from the selected input image.

引用文献1の手法を採用した画像処理回路(不図示)を用いて、図18に示すような全周鳥瞰画像を出力画像として生成して表示する場合を考える。尚、説明の便宜上、映像信号がノンインターレース方式の映像信号であることを想定し、映像をフレーム単位で考える。インターレース方式を採用する場合は、フレームをフィールドに置き換えて考えればよい。   Consider a case where an all-around bird's-eye view image as shown in FIG. 18 is generated and displayed as an output image using an image processing circuit (not shown) employing the technique of cited document 1. For convenience of explanation, it is assumed that the video signal is a non-interlace video signal, and the video is considered in units of frames. When the interlace method is adopted, the frame may be replaced with a field.

ch4に対応する画像にのみ着目した図19を参照する。図19には、ch4の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch4の入力画像が、順次、画像処理回路(不図示)に与えられ、それらは入力バッファに記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路は、タイミングt1、t2、t3及びt4において、出力画像201、202、203及び204用の垂直同期信号を発生する。   Reference is made to FIG. 19 focusing on only the image corresponding to ch4. FIG. 19 shows the relationship between the input timing of the ch4 input image and the output timing of the output image. The input images of ch4 in the first, second, third, fourth and fifth frames are sequentially given to an image processing circuit (not shown), and are stored in the input buffer (input of the first frame). (Image not shown). The image processing circuit generates vertical synchronization signals for the output images 201, 202, 203, and 204 at timings t1, t2, t3, and t4.

図19に示す例の場合、タイミングt1では、第1フレームのch4の入力画像の全体が入力バッファに保持されているものの第2フレームのch4の入力画像は入力バッファに書き込まれている最中である。そこで、画像処理回路は、第1フレームのch4の入力画像を用いて出力画像201を生成する。同様に、第2、3、4フレームのch4の入力画像を用いて、夫々、出力画像202、203及び204を生成する。生成された各出力画像は順次表示される。尚、図19において、出力画像201〜204内の、ch4に対応する部分に記載された数値は、ch4のフレーム番号を表している。   In the example shown in FIG. 19, at the timing t1, the entire input image of ch4 of the first frame is held in the input buffer, but the input image of ch4 of the second frame is being written to the input buffer. is there. Therefore, the image processing circuit generates an output image 201 using the ch4 input image of the first frame. Similarly, output images 202, 203, and 204 are generated using the second, third, and fourth frame ch4 input images, respectively. Each generated output image is sequentially displayed. In FIG. 19, the numerical values described in the portion corresponding to ch4 in the output images 201 to 204 represent the frame number of ch4.

更に、引用文献1の手法を採用した画像処理回路(不図示)を用いて、図20に示すような表示画像を表示する場合を考える。この場合、表示画面の全表示領域が左側領域と右上領域と右下領域に3分割される。そして、左側領域に全周鳥瞰画像が表示され、右上領域にch3の入力画像が拡大表示され、右下領域に車両速度等の付加情報が表示される。尚、図20において、車体のイラスト内に示された矢印は、車両の進行方向を示している。   Further, consider a case where a display image as shown in FIG. 20 is displayed using an image processing circuit (not shown) employing the technique of the cited document 1. In this case, the entire display area of the display screen is divided into a left area, an upper right area, and a lower right area. Then, the all-around bird's-eye view image is displayed in the left area, the ch3 input image is enlarged and displayed in the upper right area, and additional information such as the vehicle speed is displayed in the lower right area. In FIG. 20, the arrows shown in the illustration of the vehicle body indicate the traveling direction of the vehicle.

ch3に対応する画像にのみ着目した図21を参照する。図21には、ch3の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch3の入力画像が、順次、画像処理回路(不図示)に与えられ、それらは入力バッファに記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路は、タイミングt11、t12、t13及びt14において出力画像211、212、213及び214用の垂直同期信号を発生する。   Reference is made to FIG. 21 focusing on only the image corresponding to ch3. FIG. 21 shows the relationship between the input timing of the ch3 input image and the output timing of the output image. The input images of ch3 in the first, second, third, fourth and fifth frames are sequentially given to an image processing circuit (not shown), and are stored in the input buffer (input of the first frame). (Image not shown). The image processing circuit generates vertical synchronization signals for the output images 211, 212, 213, and 214 at timings t11, t12, t13, and t14.

図21に示す例の場合、タイミングt11では、第1フレームのch3の入力画像の全体が入力バッファに保持されているものの第2フレームのch3の入力画像は入力バッファに書き込まれている最中である。そこで、画像処理回路は、第1フレームのch3の入力画像を用いて出力画像211を生成する。出力画像211には、ch3の入力画像に基づく画像を表示する領域が2つ設けられているが、その2つの領域の双方に対して第1フレームの入力画像が適用される。同様に、第2、3、4フレームのch3の入力画像を用いて、夫々、出力画像212、213及び214を生成する。生成された各出力画像は順次表示される。尚、図21において、出力画像211〜214内の、ch3に対応する部分に記載された数値は、ch3のフレーム番号を表している。   In the example shown in FIG. 21, at the timing t11, the entire ch3 input image of the first frame is held in the input buffer, but the ch3 input image of the second frame is being written to the input buffer. is there. Therefore, the image processing circuit generates the output image 211 using the ch3 input image of the first frame. The output image 211 has two areas for displaying an image based on the input image of ch3. The input image of the first frame is applied to both of the two areas. Similarly, output images 212, 213, and 214 are generated using the second, third, and fourth frame ch3 input images, respectively. Each generated output image is sequentially displayed. In FIG. 21, the numerical value described in the portion corresponding to ch3 in the output images 211 to 214 represents the frame number of ch3.

特開2006−180340号公報JP 2006-180340 A 特開2006−287892号公報JP 2006-287992 A

上述したように、リアルタイム性が要求される用途においてカメラからの入力画像が表示されるまでの遅延は短ければ短いほど良いが、特許文献1の手法はあらゆる状況に対して最適な遅延低減作用をもたらすとは言えない(詳細は後の説明文から明らかとなる)。より遅延低減効果の高い技術が望まれる。   As described above, the shorter the delay until the input image from the camera is displayed in an application where real-time performance is required, the better. However, the technique of Patent Document 1 provides the optimum delay reduction action for all situations. (It will be clear from the following explanation). A technique with a higher delay reduction effect is desired.

そこで本発明は、複数の入力画像から出力画像を生成する際の遅延の低減に寄与する画像処理装置を提供することを目的とする。また本発明は、それを利用した運転支援システム及び車両を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus that contributes to a reduction in delay when generating an output image from a plurality of input images. Another object of the present invention is to provide a driving support system and a vehicle using the same.

上記目的を達成するために本発明に係る画像処理装置は、第1〜第nの内部同期カメラの夫々にて順次撮像される入力画像の画像データの入力を受け、各々が1枚分の入力画像の画像データを記憶する複数のフレームメモリを前記内部同期カメラごとに有する入力メモリ部と(nは2以上の整数)、前記第1〜第nの内部同期カメラの夫々からの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係に基づいて、前記内部同期カメラごとに前記出力画像の形成に利用されるフレームメモリを指定フレームメモリとして選択する選択手段と、各指定フレームメモリに記憶される前記入力画像を合成することによって前記出力画像の画像データを生成して出力する出力手段と、を備えた画像処理装置であって、前記選択手段は、各入力画像を前記出力画像に反映させる、前記出力画像上の位置に基づいて、前記内部同期カメラごとに個別に選択タイミングを設定し、前記内部同期カメラごとに前記指定フレームメモリを前記選択タイミングにおいて選択することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention receives input of image data of input images sequentially picked up by each of the first to n-th internal synchronous cameras, and each inputs one image. An input memory unit having a plurality of frame memories for storing image data of each image for each internal synchronous camera (n is an integer of 2 or more), and input of image data from each of the first to nth internal synchronous cameras Selection means for selecting a frame memory used for forming the output image as a designated frame memory for each of the internal synchronous cameras based on a timing relationship between timing and output timing of image data of the output image; and each designated frame memory Output means for generating and outputting image data of the output image by synthesizing the input images stored in the image processing apparatus, The selection means sets the selection timing individually for each internal synchronization camera based on the position on the output image that reflects each input image on the output image, and the designated frame memory for each internal synchronization camera. Is selected at the selection timing.

内部同期カメラごとに指定フレームメモリの選択タイミングを設定することにより、内部同期カメラごとに遅延低減の最適化を図ることができる。   By setting the selection timing of the designated frame memory for each internal synchronous camera, it is possible to optimize the delay reduction for each internal synchronous camera.

具体的には例えば、iを1以上n以下の整数とした場合、前記選択手段は、第iの内部同期カメラからの最新の入力画像の画像データを記憶すべきフレームメモリに着目し、第iの内部同期カメラからの入力画像の画像データが前記出力画像の画像データとして出力されるべきタイミングにおいて着目したフレームメモリの画像データを利用できるか否か、の判定を行い、その判定結果に基づいて、第iの内部同期カメラに対する前記指定フレームメモリを選択する。   Specifically, for example, when i is an integer greater than or equal to 1 and less than or equal to n, the selection unit pays attention to a frame memory in which image data of the latest input image from the i-th internal synchronous camera is to be stored. It is determined whether the image data of the frame memory focused on can be used at the timing when the image data of the input image from the internal synchronous camera should be output as the image data of the output image, and based on the determination result The designated frame memory for the i-th internal synchronous camera is selected.

そして例えば、前記出力手段は、各内部同期カメラからの前記入力画像上の各画素と前記出力画像上の各画素との対応関係を規定する所定の対応情報に基づいて、各指定フレームメモリに記憶される前記入力画像の画像データから前記出力画像の画像データを生成し、前記選択手段は、前記対応情報から定まる情報に基づいて前記判定を行う。   For example, the output means stores in each designated frame memory based on predetermined correspondence information that defines a correspondence relationship between each pixel on the input image and each pixel on the output image from each internal synchronization camera. The image data of the output image is generated from the image data of the input image, and the selection unit performs the determination based on information determined from the correspondence information.

より具体的には例えば、第iの内部同期カメラからの前記入力画像上の水平ラインと該水平ラインに対応する前記出力画像上の水平ラインとのライン位置の相違及び該相違の最大量が前記対応情報によって定まり、前記選択手段は、前記選択タイミングを水平ライン単位で設定し、前記相違の最大量に基づいて前記判定を行う。   More specifically, for example, the difference in line position between the horizontal line on the input image from the i-th internal synchronization camera and the horizontal line on the output image corresponding to the horizontal line and the maximum amount of the difference are The selection means sets the selection timing in units of horizontal lines and performs the determination based on the maximum amount of difference.

或いは例えば、第iの内部同期カメラからの前記入力画像上の画素と該画素に対応する前記出力画像上の画素との画素位置の相違及び該相違の最大量が前記対応情報によって定まり、前記選択手段は、前記選択タイミングを画素単位で設定し、前記相違の最大量に基づいて前記判定を行う。   Alternatively, for example, the difference in pixel position between the pixel on the input image from the i-th internal synchronization camera and the pixel on the output image corresponding to the pixel and the maximum amount of the difference are determined by the correspondence information, and the selection The means sets the selection timing in pixel units and performs the determination based on the maximum amount of the difference.

また例えば、前記選択手段は、前記第1〜第nの内部同期カメラの内の少なくとも1台の内部同期カメラに対する前記選択タイミングを複数個設定し、複数個の選択タイミングが設定された内部同期カメラに対する前記指令フレームメモリの選択を前記複数個の選択タイミングの夫々において行う。   Also, for example, the selection means sets a plurality of selection timings for at least one of the first to n-th internal synchronization cameras, and the internal synchronization camera has a plurality of selection timings set. The command frame memory is selected for each of the plurality of selection timings.

これにより、1つの内部同期カメラからの入力画像に基づく画像を1枚の出力画像内の複数領域に描画する場合においても、各領域に対して遅延低減の最適化が図られる。   As a result, even when an image based on an input image from one internal synchronous camera is drawn in a plurality of regions in one output image, the delay reduction is optimized for each region.

また例えば、当該画像処理装置は、前記選択手段を有するとともに割り込み要求を発生するタイマを内蔵した演算処理手段を更に備え、前記演算処理手段は、前記選択タイミングに前記割り込み要求が発生するように前記タイマを作動させて前記割り込み要求の発生時に前記指定フレームメモリの選択を行う。   In addition, for example, the image processing apparatus further includes an arithmetic processing unit that includes the selection unit and includes a timer that generates an interrupt request, and the arithmetic processing unit is configured to generate the interrupt request at the selection timing. A timer is activated to select the designated frame memory when the interrupt request is generated.

また本発明に係る運転支援システムは、車両に取り付けられた第1~第nの内部同期カメラと(nは2以上の整数)、上記の画像処理装置と、を備え、前記画像処理装置にて生成された出力画像の画像データを表示手段に供給することにより前記出力画像を表示手段において表示することを特徴とする。   A driving support system according to the present invention includes first to n-th internal synchronous cameras (n is an integer equal to or greater than 2) attached to a vehicle, and the above-described image processing device. The output image is displayed on the display means by supplying image data of the generated output image to the display means.

また本発明に係る車両は、第1〜第nの内部同期カメラが取り付けられ(nは2以上の整数)、且つ、上記の画像処理装置が設置されたことを特徴とする。   The vehicle according to the present invention is characterized in that the first to nth internal synchronous cameras are attached (n is an integer of 2 or more), and the image processing apparatus is installed.

本発明によれば、複数の入力画像から出力画像を生成する際の遅延の低減に寄与する。   The present invention contributes to a reduction in delay when generating an output image from a plurality of input images.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to third embodiments will be described later. First, matters common to each embodiment or items referred to in each embodiment will be described.

図1は、本実施形態に係る運転支援システムが適用される車両100を上方から見た平面図であり、その車両100へのカメラの設置状態を表している。図2は、車両100を左斜め前方から見た図である。図1及び図2には、車両100としてトラックが示されているが、車両100はトラック以外の車両(普通乗用車など)であってもよい。また、車両100は地面(例えば路面)上に配置されているものとする。   FIG. 1 is a plan view of a vehicle 100 to which the driving support system according to the present embodiment is applied as viewed from above, and shows a camera installation state on the vehicle 100. FIG. 2 is a view of the vehicle 100 as viewed from the left front side. 1 and 2 show a truck as the vehicle 100, the vehicle 100 may be a vehicle other than a truck (such as a normal passenger car). Moreover, the vehicle 100 shall be arrange | positioned on the ground (for example, road surface).

図1に示す如く、車両100の前部、右側部、後部及び左側部に、夫々、カメラCA1、CA2、CA3及びCA4が取り付けられている。また、本実施形態において、カメラCA1、CA2、CA3及びCA4を区別せずに、単にカメラ或いは各カメラと呼ぶ場合もある。   As shown in FIG. 1, cameras CA1, CA2, CA3, and CA4 are attached to the front, right, rear, and left sides of the vehicle 100, respectively. In the present embodiment, the cameras CA1, CA2, CA3, and CA4 may be simply referred to as cameras or cameras without being distinguished from each other.

また、図2に示す如く、カメラCA1は、例えば車両100のフロントミラー上部に設置され、カメラCA4は、例えば車両100の左側面の最上部に設置される。図2には示されていないが、カメラCA3は、例えば車両100の後部の最上部に設置され、カメラCA2は、例えば車両100の右側面の最上部に設置される。   As shown in FIG. 2, the camera CA <b> 1 is installed, for example, on the upper part of the front mirror of the vehicle 100, and the camera CA <b> 4 is installed, for example, on the uppermost part of the left side surface of the vehicle 100. Although not shown in FIG. 2, the camera CA <b> 3 is installed, for example, at the uppermost part of the rear part of the vehicle 100, and the camera CA <b> 2 is installed, for example, at the uppermost part of the right side surface of the vehicle 100.

カメラCA1の光軸の向きが車両100の前方斜め下向きになるように、且つ、カメラCA2の光軸の向きが車両100の右方斜め下向きになるように、且つ、カメラCA3の光軸の向きが車両100の後方斜め下向きになるように、且つ、カメラCA4の光軸の向きが車両100の左方斜め下向きになるように、カメラCA1〜CA4は車両100に設置される。   The direction of the optical axis of the camera CA1 is obliquely downward to the front of the vehicle 100, the direction of the optical axis of the camera CA2 is obliquely downward to the right of the vehicle 100, and the direction of the optical axis of the camera CA3 is Cameras CA <b> 1 to CA <b> 4 are installed in the vehicle 100 so that the camera 100 is obliquely downward and the optical axis of the camera CA <b> 4 is obliquely downward to the left of the vehicle 100.

図2には、カメラCA1とCA4の視野(即ち、撮影領域)が斜線領域によって示されている。カメラCA1は、車両100前方の所定領域内に位置する被写体(路面を含む)を撮像する。カメラCA2は、車両100右側の所定領域内に位置する被写体を撮像する。カメラCA3は、車両100後方の所定領域内に位置する被写体を撮像する。カメラCA4は、車両100左側の所定領域内に位置する被写体を撮像する。   In FIG. 2, the fields of view of the cameras CA1 and CA4 (that is, the imaging area) are indicated by hatched areas. Camera CA1 images a subject (including a road surface) located within a predetermined area in front of vehicle 100. Camera CA2 images a subject located in a predetermined area on the right side of vehicle 100. Camera CA3 images a subject located in a predetermined area behind vehicle 100. Camera CA4 images a subject located within a predetermined area on the left side of vehicle 100.

図3に、本発明の実施形態に係る運転支援システムの全体構成ブロック図を示す。運転支援システムは、カメラCA1〜CA4の他、デコーダDEC1〜DEC4及び符号11〜17にて参照される各部位を備える。   FIG. 3 is a block diagram showing the overall configuration of the driving support system according to the embodiment of the present invention. The driving support system includes each part referred to by the decoders DEC1 to DEC4 and reference numerals 11 to 17 in addition to the cameras CA1 to CA4.

カメラCA1〜CA4として、CCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。カメラCA1〜CA4の夫々は、外部同期信号を必要としない内部同期カメラである。即ち、各カメラは内部クロックを発生する内部クロック発生回路を備えており、カメラCA1〜CA4は、各々の内部クロックに従い、各々が独立したタイミングで映像信号を出力する。このため、カメラCA1〜CA4からの映像信号は互いに非同期であり、各カメラを非同期カメラと呼ぶこともできる。   As the cameras CA1 to CA4, a camera using a CCD (Charge Coupled Devices) or a camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used. Each of the cameras CA1 to CA4 is an internal synchronization camera that does not require an external synchronization signal. That is, each camera includes an internal clock generation circuit that generates an internal clock, and the cameras CA1 to CA4 output video signals at independent timings according to the internal clocks. For this reason, the video signals from the cameras CA1 to CA4 are asynchronous with each other, and each camera can also be called an asynchronous camera.

各カメラから出力される映像信号をVinにて表す。各カメラは、所定のフレーム周期にて順次撮像を行い、撮像によって得られた画像を表す画像データを含む映像信号Vinを出力する。この撮像によって得られた画像は画像処理回路11に入力されるため、その画像を以下、「入力画像」と呼ぶことにする。映像信号Vinは、入力画像の画像データDinと垂直同期信号Vsync及び水平同期信号Hsyncを含む。   The video signal output from each camera is represented by Vin. Each camera sequentially captures images at a predetermined frame period, and outputs a video signal Vin including image data representing an image obtained by the imaging. Since an image obtained by this imaging is input to the image processing circuit 11, the image will be referred to as an “input image” hereinafter. The video signal Vin includes image data Din of an input image, a vertical synchronization signal Vsync, and a horizontal synchronization signal Hsync.

カメラCA1に関する画像や信号、データ等がチャネルch1に対応するものとする。同様に、カメラCA2、CA3、CA4に関する画像や信号、データ等が、夫々、チャネルch2、ch3及びch4に対応するものとする。   Assume that an image, a signal, data, and the like related to the camera CA1 correspond to the channel ch1. Similarly, it is assumed that images, signals, data, and the like regarding the cameras CA2, CA3, and CA4 correspond to the channels ch2, ch3, and ch4, respectively.

カメラCA1、CA2、CA3及びCA4からの映像信号Vinは、夫々、デコーダDEC1、DEC2、DEC3及びDEC4によって画像データと垂直同期信号Vsync及び水平同期信号Hsyncに同期分離されて画像処理回路11に送られる。画像処理回路11に送られた画像データは、RAM部12内のフレームメモリ領域12aに書き込まれて記憶される。RAM部12は、SRAM(Static Random Access Memory)やSDARM(Synchronous Dynamic Random Access Memory)などから形成される。   Video signals Vin from the cameras CA1, CA2, CA3, and CA4 are synchronized and separated into image data, a vertical synchronization signal Vsync, and a horizontal synchronization signal Hsync by the decoders DEC1, DEC2, DEC3, and DEC4, respectively, and sent to the image processing circuit 11. . The image data sent to the image processing circuit 11 is written and stored in the frame memory area 12a in the RAM unit 12. The RAM unit 12 is formed of SRAM (Static Random Access Memory), SDARM (Synchronous Dynamic Random Access Memory), or the like.

RAM部12内のLUT領域12bには、各カメラからの入力画像の各画素と画像処理回路11の出力画像の各画素との対応関係を表すテーブルデータが記憶される。このテーブルデータに従ってフレームメモリ領域12a内に書き込まれた入力画像の画像データを読み出すことで出力画像の画像データが得られ、出力画像の画像データをエンコーダ13に送ることで出力画像が表示画像として表示装置14の表示画面上に表示される。尚、以下の説明において、単に表示画面といった場合、それは、表示装置14の表示画面を意味するものとする。   The LUT area 12b in the RAM unit 12 stores table data representing the correspondence between each pixel of the input image from each camera and each pixel of the output image of the image processing circuit 11. By reading the image data of the input image written in the frame memory area 12a according to the table data, the image data of the output image is obtained, and the output image is displayed as the display image by sending the image data of the output image to the encoder 13. It is displayed on the display screen of the device 14. In the following description, when the display screen is simply used, it means the display screen of the display device 14.

上記のテーブルデータは、運転支援システムの電源投入時などの適切なタイミングにおいて不揮発性メモリであるFROM(Flash Read Only Memory)15からLUT領域12bに送られてLUR領域12b内に記憶される。テーブルデータは複数個あり、複数のテーブルデータが個別にLUT領域12bに格納される。LUT領域12bに格納された複数のテーブルデータの夫々はLUT(ルックアップテーブル)を形成する。LUTによって規定される入力画像の各画素と出力画像の各画素との対応関係は、複数のLUT間で互いに異なる。   The table data is sent from the FROM (Flash Read Only Memory) 15 which is a nonvolatile memory to the LUT area 12b and stored in the LUR area 12b at an appropriate timing such as when the driving support system is turned on. There are a plurality of table data, and the plurality of table data are individually stored in the LUT area 12b. Each of the plurality of table data stored in the LUT area 12b forms an LUT (lookup table). The correspondence between each pixel of the input image and each pixel of the output image defined by the LUT is different among the plurality of LUTs.

形成される複数のLUTは、第1及び第2LUTを含むものとする。第1LUTは、各カメラからの入力画像より図18に示すような出力画像を生成して表示装置14に表示させるためのLUTであり、第2LUTは、各カメラからの入力画像より図20に示すような出力画像を生成して表示装置14に表示させるためのLUTである。   The plurality of LUTs formed includes the first and second LUTs. The first LUT is an LUT for generating an output image as shown in FIG. 18 from the input image from each camera and displaying it on the display device 14, and the second LUT is shown in FIG. 20 from the input image from each camera. This is an LUT for generating such an output image and displaying it on the display device 14.

第1LUTを用いると、表示画面の全表示領域を用いて全周鳥瞰画像が表示される。各カメラからの入力画像を地面上に投影して合成することにより全周鳥瞰画像は形成される。図18の表示画面上には、全周鳥瞰画像の中央位置に車両100の車体のイラストが重畳表示されている。尚、図18において、車体のイラスト内に示された矢印は、車両100の進行方向を示している。   When the first LUT is used, the all-around bird's-eye view image is displayed using the entire display area of the display screen. An all-around bird's-eye view image is formed by projecting and synthesizing input images from the cameras on the ground. On the display screen of FIG. 18, an illustration of the vehicle body of the vehicle 100 is superimposed and displayed at the center position of the all-around bird's-eye view image. In FIG. 18, an arrow shown in the illustration of the vehicle body indicates the traveling direction of the vehicle 100.

第2LUTを用いると、表示画面の全表示領域が左側領域と右上領域と右下領域に3分割される。そして、左側領域に全周鳥瞰画像が表示され、右上領域にカメラCA3の入力画像が拡大表示され、右下領域に付加情報が表示される。付加情報は、車両100に設けられたセンサ等によって計測された車両100の走行速度や車両100のエンジンの回転数などであり、それらを表す情報は車両100に設けられたCAN(コントロールエリアネットワーク)を介して運転支援システムに伝達される。   When the second LUT is used, the entire display area of the display screen is divided into a left area, an upper right area, and a lower right area. Then, the all-around bird's-eye view image is displayed in the left area, the input image of the camera CA3 is enlarged and displayed in the upper right area, and the additional information is displayed in the lower right area. The additional information is the traveling speed of the vehicle 100 measured by a sensor or the like provided in the vehicle 100, the number of revolutions of the engine of the vehicle 100, and the information representing them is a CAN (Control Area Network) provided in the vehicle 100. To the driving support system.

尚、出力画像を生成する時点で付加情報を付加して図20のような表示画像を得ることも可能であるが、付加情報を含まない出力画像を画像処理回路11にて生成した後に図示されない別回路で付加情報を表す画像を出力画像に重畳することによって、図20のような表示画像を得ることも可能である。図18又は図20における車体のイラストに関しても同様である。付加情報や車体のイラストを表示画面上で描画すること自体は本実施形態の特徴的な技術に関与しないので、以下の説明では、それらを描画するための処理を無視する。   It is possible to add additional information at the time of generating the output image to obtain a display image as shown in FIG. 20, but it is not shown after the output image including no additional information is generated by the image processing circuit 11. It is also possible to obtain a display image as shown in FIG. 20 by superimposing an image representing additional information on the output image in a separate circuit. The same applies to the illustration of the vehicle body in FIG. Drawing the additional information and the illustration of the vehicle body on the display screen itself is not related to the characteristic technique of the present embodiment, and therefore processing for drawing them is ignored in the following description.

LUT領域12bに形成された複数のLUTの内の何れか1つがMPU(Micro Processing Unit)16に選択され、選択されたLUTを用いて出力画像(及び表示画像)が生成される。操作部17に対する操作内容に応じて或るいはCANを介してMPU16に与えられるLUT選択信号に応じて、MPU16は何れのLUTを選択するかを決定すると共に決定内容に応じたLUT選択情報を画像処理回路11に送る(図12参照)。尚、操作部17は、ユーザによる操作を受け付け、その操作内容はMPU16に伝達される。   Any one of the plurality of LUTs formed in the LUT area 12b is selected by an MPU (Micro Processing Unit) 16, and an output image (and a display image) is generated using the selected LUT. The MPU 16 determines which LUT to select according to the operation content to the operation unit 17 or according to the LUT selection signal given to the MPU 16 via the CAN, and displays the LUT selection information according to the determined content. The data is sent to the processing circuit 11 (see FIG. 12). The operation unit 17 receives an operation by the user, and the operation content is transmitted to the MPU 16.

出力画像の映像信号をVoutで表し、その映像信号Voutに含まれる画像データ、垂直同期信号及び水平同期信号を夫々Dout、Vsync2及びHsync2で表す。入力画像の映像信号Vinと出力画像の映像信号Voutは互いに非同期である。即ち、画像処理回路11は、入力画像の映像信号Vinの垂直同期信号Vsync及び水平同期信号Hsyncと独立して、出力画像の映像信号Voutの垂直同期信号Vsync2及び水平同期信号Hsync2を生成及び出力し、その垂直同期信号Vsync2及び水平同期信号Hsync2の生成及び出力のタイミングに同期させて出力画像の画像データDoutを出力する。エンコーダ13は、画像処理回路11からの垂直同期信号Vsync2及び水平同期信号Hsync2と画像データDoutとを結合して映像信号Voutを生成し、これを表示装置14に供給することで出力画像を表示画面上に表示させる。   The video signal of the output image is represented by Vout, and the image data, the vertical synchronization signal, and the horizontal synchronization signal included in the video signal Vout are represented by Dout, Vsync2, and Hsync2, respectively. The video signal Vin of the input image and the video signal Vout of the output image are asynchronous with each other. That is, the image processing circuit 11 generates and outputs the vertical synchronization signal Vsync2 and the horizontal synchronization signal Hsync2 of the video signal Vout of the output image independently of the vertical synchronization signal Vsync and the horizontal synchronization signal Hsync of the video signal Vin of the input image. The image data Dout of the output image is output in synchronization with the generation and output timings of the vertical synchronization signal Vsync2 and the horizontal synchronization signal Hsync2. The encoder 13 combines the vertical synchronization signal Vsync2 and horizontal synchronization signal Hsync2 from the image processing circuit 11 and the image data Dout to generate a video signal Vout, and supplies this to the display device 14 to supply an output image to the display screen. Display above.

表示装置14は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、運転支援システムにおける表示装置14として流用しても良い。運転支援システムを形成する各部位は車両100の適切な部分に設置されるが、表示装置14は車両100の運転席付近に設置される。   The display device 14 is formed from a liquid crystal display panel or the like. A display device included in a car navigation system or the like may be used as the display device 14 in the driving support system. Each part forming the driving support system is installed in an appropriate part of the vehicle 100, but the display device 14 is installed in the vicinity of the driver's seat of the vehicle 100.

図4(a)及び(b)に示す如く、入力画像又は出力画像上の画素の水平位置及び垂直位置を表す記号としてx及びyを導入し、入力画像又は出力画像上における各画素の位置を(x,y)にて表す。入力画像上の画素に対するx及びyは、それぞれ、その画素の属する、入力画像の垂直ライン及び水平ラインの位置を表している。出力画像上の画素に対するx及びyは、それぞれ、その画素の属する、出力画像の垂直ライン及び水平ラインの位置を表している。入力画像に関し、xが大きくなれば入力画像上の位置は右方向に向かい、yが大きくなれば入力画像上の位置は下方向に向かう。同様に、出力画像に関し、xが大きくなれば出力画像上の位置は右方向に向かい、yが大きくなれば出力画像上の位置は下方向に向かう。   As shown in FIGS. 4A and 4B, x and y are introduced as symbols representing the horizontal position and vertical position of pixels on the input image or output image, and the position of each pixel on the input image or output image is determined. It is represented by (x, y). X and y for a pixel on the input image represent the positions of the vertical line and horizontal line of the input image to which the pixel belongs, respectively. X and y for a pixel on the output image represent the positions of the vertical line and horizontal line of the output image to which the pixel belongs, respectively. With respect to the input image, when x increases, the position on the input image moves to the right, and when y increases, the position on the input image moves downward. Similarly, with respect to the output image, when x increases, the position on the output image moves to the right, and when y increases, the position on the output image moves downward.

入力画像の水平方向及び垂直方向の画素数を夫々Xsize及びYsizeとする。以下の説明では、Xsize=640且つYsize=480、であるとする。出力画像の水平方向及び垂直方向の画素数は、入力画像のそれらと同じであるとする。従って、xは「0≦x<Xsize」を満たす各整数値を取り、yは「0≦y<Ysize」を満たす各整数値を取る。   The number of pixels in the horizontal direction and the vertical direction of the input image is assumed to be Xsize and Ysize, respectively. In the following description, it is assumed that Xsize = 640 and Ysize = 480. Assume that the number of pixels in the horizontal and vertical directions of the output image is the same as that of the input image. Therefore, x takes each integer value that satisfies “0 ≦ x <Xsize”, and y takes each integer value that satisfies “0 ≦ y <Ysize”.

映像信号Vin及びVoutをインターレース方式による映像信号とすることも可能であるが、今、映像信号Vin及びVoutがノンインターレース方式による映像信号であるものとし、入力画像の画像データ及び出力画像の画像データがラスター走査順に入力及び出力されるものとする。つまり、1枚の入力画像に関し、位置(0,0)、(1,0)、(2,0)、・・・、(Xsize−1,0)、(0,1)、(1,1)、(2,1)、・・・、(Xsize−1,1)、・・・、(0,Ysize−2)、・・・、(Xsize−1,Ysize−2)、(0,Ysize−1)、・・・、(Xsize−1,Ysize−1)の画素信号の順番で、入力画像の画像データが画像処理回路11に入力される。出力画像の画像データも同様である。画素信号とは、画像を形成する画素の輝度又は輝度及び色を表す値である。入力画像を形成する各画素の画素信号によって入力画像の画像データが形成され、出力画像を形成する各画素の画素信号によって出力画像の画像データが形成される。   The video signals Vin and Vout can be converted to interlaced video signals. However, it is assumed that the video signals Vin and Vout are video signals based on the non-interlaced method. Are input and output in the order of raster scanning. That is, for one input image, the positions (0, 0), (1, 0), (2, 0),..., (Xsize-1, 0), (0, 1), (1, 1 ), (2, 1), ..., (Xsize-1, 1), ..., (0, Ysize-2), ..., (Xsize-1, Ysize-2), (0, Ysize) -1),..., (Xsize-1, Ysize-1) are input to the image processing circuit 11 in the order of the pixel signals. The same applies to the image data of the output image. A pixel signal is a value representing the luminance or luminance and color of a pixel forming an image. Image data of the input image is formed by the pixel signal of each pixel forming the input image, and image data of the output image is formed by the pixel signal of each pixel forming the output image.

本例では説明を簡単にするため、出力画像のフレーム周期は、入力画像のそれと同じであるとする。従って、垂直同期信号VsyncとVsync2の発生周期は同じである。更に説明を簡単にするため、本例では、或る入力画像の画素信号の入力周期(画像処理回路11への入力周期)と出力画像の画素信号の出力周期(画像処理回路11からの出力周期)は同じであるものとする(ピクセルクロックは同じであるものとする)。   In this example, to simplify the description, it is assumed that the frame period of the output image is the same as that of the input image. Therefore, the generation periods of the vertical synchronization signals Vsync and Vsync2 are the same. In order to further simplify the description, in this example, the input cycle of the pixel signal of an input image (input cycle to the image processing circuit 11) and the output cycle of the pixel signal of the output image (output cycle from the image processing circuit 11). ) Are the same (pixel clocks are the same).

図3のフレームメモリ領域12a内には、図5に示す如く、カメラごとに4つのフレームメモリが設けられる。カメラCA1に対して4つのフレームメモリM1[1]〜M1[4]が設けられ、カメラCA2に対して4つのフレームメモリM2[1]〜M2[4]が設けられ、カメラCA3に対して4つのフレームメモリM3[1]〜M3[4]が設けられ、カメラCA4に対して4つのフレームメモリM4[1]〜M4[4]が設けられる。各フレームメモリは、入力画像の画像データを1枚分記憶可能である。カメラCA1にて周期的に取得された入力画像は、M1[1]、M1[2]、M1[3]、M1[4]、M1[1]・・・の順番で4フレーム前の入力画像を最新フレームの入力画像で上書きするように循環的に(サイクリックに)記憶されてゆく。カメラCA2〜CA4に対しても同様である。 As shown in FIG. 5, four frame memories are provided for each camera in the frame memory area 12a of FIG. Four frame memories M 1 [1] to M 1 [4] are provided for the camera CA1, and four frame memories M 2 [1] to M 2 [4] are provided for the camera CA2. Are provided with four frame memories M 3 [1] to M 3 [4], and four frame memories M 4 [1] to M 4 [4] are provided for the camera CA4. Each frame memory can store one piece of image data of an input image. The input images periodically acquired by the camera CA1 are 4 in the order of M 1 [1], M 1 [2], M 1 [3], M 1 [4], M 1 [1]. The input image before the frame is stored cyclically (cyclically) so as to be overwritten with the input image of the latest frame. The same applies to the cameras CA2 to CA4.

本実施形態に係る運転支援システムは、入力画像が取得されてから該入力画像に基づく出力画像が表示されるまでの遅延を低減する機能を備えている。この機能の基本原理について説明する。   The driving support system according to the present embodiment has a function of reducing a delay from when an input image is acquired until an output image based on the input image is displayed. The basic principle of this function will be described.

図18に示す如く表示画面の全表示領域を使って全周鳥瞰画像が表示されるように、第1LUTを用いて各入力画像から出力画像を生成する場合を考える。ch4に対応する画像にのみ着目した、図19と対比されるべき図6を参照する。図6には、ch4の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch4の入力画像が、順次、画像処理回路11に与えられ、それらはch4用のフレームメモリ(即ち、フレームメモリM4[1]〜M4[4])に循環的に記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路11は、タイミングt1、t2、t3及びt4において、夫々、出力画像301、302、303及び304用の垂直同期信号Vsync2を発生する。 Consider a case where an output image is generated from each input image using the first LUT so that the all-around bird's-eye view image is displayed using the entire display area of the display screen as shown in FIG. Reference is made to FIG. 6 to be compared with FIG. 19, focusing on only the image corresponding to ch4. FIG. 6 shows the relationship between the input timing of the ch4 input image and the output timing of the output image. The input images of ch4 in the first, second, third, fourth, and fifth frames are sequentially supplied to the image processing circuit 11, and they are supplied to the ch4 frame memory (that is, the frame memory M 4 [1] ˜). M 4 [4]) is cyclically stored (the input image of the first frame is not shown). The image processing circuit 11 generates the vertical synchronization signal Vsync2 for the output images 301, 302, 303, and 304 at timings t1, t2, t3, and t4, respectively.

図6に示す例の場合、タイミングt1において、第1フレームのch4の入力画像の全画像データがフレームメモリ領域12aに保持されている一方で、第2フレームのch4の入力画像の画像データはフレームメモリ領域12aに書き込まれている最中である。しかしながら、ch4の入力画像が反映される領域は出力画像301内の下方に位置しており、ch4の入力画像の画像データを実際にフレームメモリ領域12aから読み出す開始タイミングtAにおいては、第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれている(尚、タイミングtAは、タイミングt1とt2との間のタイミングである)。 In the example shown in FIG. 6, at the timing t1, all the image data of the input image of ch4 of the first frame is held in the frame memory area 12a, while the image data of the input image of ch4 of the second frame is the frame The data is being written to the memory area 12a. However, the area where the input image of ch4 is reflected is located below the output image 301, and at the start timing t A when the image data of the input image of ch4 is actually read from the frame memory area 12a, the second frame All the image data of the input image of ch4 is written in the frame memory area 12a (note that timing t A is a timing between timings t1 and t2).

従って、この場合、画像処理装置11は、第2フレームのch4の入力画像を用いて出力画像301を生成する。同様に、第3、4、5フレームのch4の入力画像を用いて、夫々、出力画像302、303及び304を生成して表示する。尚、図6において、出力画像301〜304内の、ch4に対応する部分に記載された数値は、ch4のフレーム番号を表している。   Accordingly, in this case, the image processing apparatus 11 generates the output image 301 using the ch4 input image of the second frame. Similarly, output images 302, 303, and 304 are generated and displayed using the third, fourth, and fifth frame ch4 input images, respectively. In FIG. 6, the numerical values described in the portion corresponding to ch4 in the output images 301 to 304 represent the frame number of ch4.

図6に示す例では、タイミングtAにおいて第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれているが、図7に示す如く、タイミングtAにおいて第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれていなかったとしても、第2フレームのch4の入力画像を用いて出力画像301が生成されうる。タイミングtAにおいては未だ書き込まれていない第2フレームのch4の入力画像の一部画像データ306が、仮に、タイミングtA直後では読み出されず、タイミングt2近辺に出力画像301の一部画像データとして読み出されるならば、他の条件にも依存するが図7のような状況においても第2フレームのch4の入力画像を用いて出力画像301を生成することが可能である。 In the example shown in FIG. 6, the entire image data of ch4 input image of the second frame is written in the frame memory area 12a at the timing t A, as shown in FIG. 7, the second frame at time t A ch4 Even if all the image data of the input image is not written in the frame memory area 12a, the output image 301 can be generated using the ch4 input image of the second frame. Some image data 306 of ch4 input image of the second frame that is not yet written at time t A is, if not read immediately after the timing t A, read as part image data of the output image 301 near the timing t2 If so, it is possible to generate the output image 301 using the input image of ch4 of the second frame even in the situation as shown in FIG.

次に、図20に示すような表示画像が表示されるように、第2LUTを用いて各入力画像から出力画像を生成する場合を考える。ch3に対応する画像にのみ着目した、図21と対比されるべき図8を参照する。図8には、ch3の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch3の入力画像が、順次、画像処理回路11に与えられ、それらはch3用のフレームメモリ(即ち、フレームメモリM3[1]〜M3[4])に循環的に記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路11は、タイミングt11、t12、t13及びt14において、夫々、出力画像311、312、313及び314用の垂直同期信号Vsync2を発生する。 Next, consider a case where an output image is generated from each input image using the second LUT so that a display image as shown in FIG. 20 is displayed. Reference should be made to FIG. 8 to be compared with FIG. 21, focusing on only the image corresponding to ch3. FIG. 8 shows the relationship between the input timing of the ch3 input image and the output timing of the output image. The input images of ch3 in the first, second, third, fourth, and fifth frames are sequentially supplied to the image processing circuit 11, and they are supplied to the ch3 frame memory (that is, the frame memory M 3 [1] to M 3 [4]) is cyclically stored (the input image of the first frame is not shown). The image processing circuit 11 generates the vertical synchronization signal Vsync2 for the output images 311, 312, 313, and 314 at timings t11, t12, t13, and t14, respectively.

図8に示す例の場合、タイミングt11において、第1フレームのch3の入力画像の全画像データがフレームメモリ領域12aに保持されている一方で、第2フレームのch3の入力画像の画像データはフレームメモリ領域12aに書き込まれている最中である。タイミングt11直後から表示画面の右上領域にch3の入力画像に基づく画像を描画する必要があるため、出力画像311の右上領域には第1フレームのch3の入力画像を適用する。一方、出力画像311の左側領域に描画されるべき全周鳥瞰画像内のch3の対応領域は、出力画像311内の下方に位置しており、この領域に対するch3の画像データを実際にフレームメモリ領域12aから読み出す開始タイミングtBにおいては、第2フレームのch3の入力画像の全画像データがフレームメモリ領域12aに書き込まれている(尚、タイミングtBは、タイミングt11とt12との間のタイミングである)。 In the example shown in FIG. 8, at the timing t11, all image data of the input image of ch3 of the first frame is held in the frame memory area 12a, while the image data of the input image of ch3 of the second frame is the frame. The data is being written to the memory area 12a. Since it is necessary to draw an image based on the ch3 input image in the upper right area of the display screen immediately after the timing t11, the ch3 input image of the first frame is applied to the upper right area of the output image 311. On the other hand, the corresponding region of ch3 in the all-around bird's-eye image to be drawn in the left region of the output image 311 is located below the output image 311 and the image data of ch3 for this region is actually stored in the frame memory region. in start timing t B read from 12a, the entire image data of ch3 input image of the second frame is written in the frame memory area 12a (Incidentally, the timing t B is the timing between the timings t11 and t12 is there).

従って、画像処理装置11は、出力画像311に含まれる全周鳥瞰画像内のch3の対応領域に対して第2フレームのch3の入力画像を用いることも可能であり、この場合、出力画像311内に、第1フレームと第2フレームのch3の入力画像が混在することになる。出力画像312〜314に対しても同様である。このように画面下部のch3の画像の分だけでも最新の情報を運転者に提示できれば、安全上のメリットはある。尚、図8において、出力画像311〜314内の、ch3に対応する部分に記載された数値は、ch3のフレーム番号を表している。   Therefore, the image processing apparatus 11 can also use the input image of ch3 of the second frame for the corresponding region of ch3 in the all-around bird's-eye view image included in the output image 311. In addition, the ch3 input images of the first frame and the second frame are mixed. The same applies to the output images 312 to 314. Thus, if the latest information can be presented to the driver only with the image of ch3 at the bottom of the screen, there is a safety merit. In FIG. 8, the numerical value described in the portion corresponding to ch3 in the output images 311 to 314 represents the frame number of ch3.

上述のような出力画像の生成のために、基本的には、以下のような判断処理を行う。説明の単純化のため、ch4の入力画像の一部矩形領域を切り出した画像を、そのまま、出力画像の所定領域に嵌め込んで出力画像を生成する場合を考える。図9は、この状況に対応するch4の入力画像と出力画像の関係を表している。具体的な例として、位置(100,100)と位置(300,300)とを結ぶ線分を対角線として有する矩形領域内の画像をch4の入力画像から切り出し、その切り出し画像を、位置(50,100)を起点として出力画像内に嵌め込むことを想定する。位置(50,100)と位置(250,300)とを結ぶ線分を対角線として有する、出力画像内の矩形領域に、その切り出し画像が嵌め込まれる。この場合、出力画像上の位置(50,100)の画素の画素信号を読み出す時点において、最新フレームのch4の位置(100,100)の画素信号が書き込まれて読み出し可能であるならば、その最新フレームのch4の入力画像を出力可能である。   In order to generate the output image as described above, basically the following determination process is performed. For simplification of description, consider a case where an output image is generated by fitting an image obtained by cutting out a partial rectangular area of the input image of ch4 into a predetermined area of the output image as it is. FIG. 9 shows the relationship between the input image and output image of ch4 corresponding to this situation. As a specific example, an image in a rectangular area having a line segment connecting position (100, 100) and position (300, 300) as a diagonal line is cut out from the input image of ch4, and the cut-out image is moved to position (50, 100) is assumed to be inserted into the output image. The cut-out image is fitted into a rectangular area in the output image having a line segment connecting the position (50, 100) and the position (250, 300) as a diagonal line. In this case, if the pixel signal at the position (100, 100) of the latest frame is written and readable at the time of reading the pixel signal of the pixel at the position (50, 100) on the output image, the latest An input image of ch4 of the frame can be output.

一般に、出力画像の位置(Xout,Yout)に入力画像の位置(Xin,Yin)の画素の像を表示する場合、Youtの水平ラインの画素信号の出力時点で着目フレームの(Yin+α)の水平ラインの各画素信号がフレームメモリ領域12aに書き込まれていると、その着目フレームの入力画像を用いて出力画像を生成することが可能となる。ここで、αは、SDRAMへのアクセス時間に代表される、回路内部の処理自体にかかるレイテンシ(遅延時間)をライン数で表したものである。αの値は、システムの処理速度などに依存して予め定められる。フレーム内補間(映像信号がインターレース方式の映像信号である場合は、フィールド内補間)を使用しない回路であれば、αを1とすれば十分である。以下、α=1であるとする。   In general, when an image of a pixel at the position (Xin, Yin) of the input image is displayed at the position (Xout, Yout) of the output image, the horizontal line (Yin + α) of the frame of interest at the time of outputting the pixel signal of the horizontal line of Yout. Are written in the frame memory area 12a, an output image can be generated using the input image of the frame of interest. Here, α represents the latency (delay time) related to the processing itself in the circuit, represented by the access time to the SDRAM, by the number of lines. The value of α is determined in advance depending on the processing speed of the system. If the circuit does not use intra-frame interpolation (intra-field interpolation when the video signal is an interlace video signal), it is sufficient to set α to 1. Hereinafter, it is assumed that α = 1.

従って、図9に示す例の場合は、Yout=50且つ(Yin+α)≒(100+1)=101より、50番目の水平ラインの画素信号の出力時点で着目フレームの101番目の水平ラインの各画素信号がフレームメモリ領域12aに書き込まれていると、その着目フレームの入力画像を用いて出力画像を生成することが可能となる。つまり、ch4用のフレームメモリM4[1]〜M4[4]の内、最新の入力画像の画像データが書きこまれるべきフレームメモリ(図10の例において、M4[3])に着目し、50番目の水平ラインの各画素信号が出力されるべきタイミングにおいて着目したフレームメモリの101番目の水平ラインの各画素信号が書き込まれているか否かを判定すればよい。そして、書き込まれておれば、着目したフレームメモリ内の画像データを用いて出力画像を生成し、書き込まれていなければ、1つ前のフレームの入力画像が保持されているフレームメモリ(図10の例において、M4[2])内の画像データを用いて出力画像を生成する。 Therefore, in the example shown in FIG. 9, since Yout = 50 and (Yin + α) ≈ (100 + 1) = 101, each pixel signal of the 101st horizontal line of the frame of interest at the output time of the pixel signal of the 50th horizontal line. Is written in the frame memory area 12a, an output image can be generated using the input image of the frame of interest. That is, attention is paid to the frame memory (M 4 [3] in the example of FIG. 10) in which the image data of the latest input image is to be written among the ch4 frame memories M 4 [1] to M 4 [4]. Then, it is only necessary to determine whether or not each pixel signal of the 101st horizontal line of the frame memory of interest is written at a timing when each pixel signal of the 50th horizontal line is to be output. Then, if written, an output image is generated using the image data in the focused frame memory. If not written, the frame memory (in FIG. 10) holds the input image of the previous frame. In the example, an output image is generated using the image data in M 4 [2]).

説明の単純化のため、切り出し画像を出力画像にそのまま嵌め込む例を説明したが、入力画像の画像データに、レンズ歪補正、鳥瞰変換及び(又は)画像の拡大/縮小処理を施す場合は、入力画像の画素と出力画像の画素との関係は非常に複雑となる。尚、鳥瞰変換とは、入力画像を地面に投影して鳥瞰画像を得るための変換を意味し、全周鳥瞰画像も鳥瞰変換を利用して得られる。   For simplification of explanation, the example in which the cutout image is directly inserted into the output image has been described. However, when the image data of the input image is subjected to lens distortion correction, bird's eye conversion and / or image enlargement / reduction processing, The relationship between the pixels of the input image and the pixels of the output image becomes very complicated. Note that the bird's-eye conversion means conversion for obtaining a bird's-eye image by projecting an input image onto the ground, and the all-around bird's-eye image is also obtained using the bird's-eye conversion.

図11に、図18に対応する全周鳥瞰画像を得るための第1LUTのテーブルデータを模式的に表す。図11は、(640×480)の画像サイズに適合したLUTのテーブルデータを表しており、このLUTのテーブルデータには(640×480)個の入力画素位置情報が含まれている。各入力画素位置情報には、画素の水平位置及び垂直位置を表す情報とチャネル番号とが含まれている。LUT上のアドレス(p,q)における入力画素位置情報は、出力画像上の位置(p,q)の画素に対する入力画素位置情報である(p及びqは、0≦p<Xsize且つ0≦q<Ysize、を満たす整数)。   FIG. 11 schematically shows table data of the first LUT for obtaining the all-around bird's-eye view image corresponding to FIG. FIG. 11 shows LUT table data suitable for an image size of (640 × 480), and the LUT table data includes (640 × 480) pieces of input pixel position information. Each input pixel position information includes information indicating the horizontal position and vertical position of the pixel and a channel number. The input pixel position information at the address (p, q) on the LUT is input pixel position information for the pixel at the position (p, q) on the output image (p and q are 0 ≦ p <Xsize and 0 ≦ q <An integer satisfying Ysize).

例えば、図11におけるLUT上のアドレス(0,0)には入力画素位置情報(600,80,ch1)が格納されており、これは、“ch1の入力画像における位置(600,80)の画素の画素信号を出力画像における位置(0,0)の画素の画素信号として読み出すべき”ことを規定している。また例えば、図11におけるLUT上のアドレス(1,0)には入力画素位置情報(10,78,ch2)が格納されており、これは、“ch2の入力画像における位置(10,78)の画素の画素信号を出力画像における位置(1,0)の画素の画素信号として読み出すべき”ことを規定している。また例えば、図11におけるLUT上のアドレス(0,1)には入力画素位置情報(601,79,ch1)が格納されており、これは、“ch1の入力画像における位置(601,79)の画素の画素信号を出力画像における位置(0,1)の画素の画素信号として読み出すべき”ことを規定している。   For example, the input pixel position information (600, 80, ch1) is stored at the address (0, 0) on the LUT in FIG. 11, which is the pixel at the position (600, 80) in the input image of ch1. Is to be read out as the pixel signal of the pixel at the position (0, 0) in the output image. Further, for example, the input pixel position information (10, 78, ch2) is stored at the address (1, 0) on the LUT in FIG. 11, and this indicates that “the position (10, 78) in the input image of ch2”. The pixel signal of the pixel should be read out as the pixel signal of the pixel at the position (1, 0) in the output image. Further, for example, the input pixel position information (601, 79, ch1) is stored in the address (0, 1) on the LUT in FIG. The pixel signal of the pixel should be read out as the pixel signal of the pixel at the position (0, 1) in the output image.

図9に示す例では、入力画像上の水平ラインと該水平ラインに対する出力画像上の水平ラインとのライン位置の相違は常に50ライン分であったが、鳥瞰変換などを実現すべく図11に示すようなLUTを用いると、この相違を表す(Yin−Yout)の値は、出力画像上の画素の位置によって様々の値をとる。最新の画像を表示するためには(Yin−Yout)の値を正確に把握する必要がある。   In the example shown in FIG. 9, the difference in line position between the horizontal line on the input image and the horizontal line on the output image with respect to the horizontal line has always been 50 lines, but FIG. When an LUT as shown is used, the value of (Yin-Yout) representing this difference varies depending on the position of the pixel on the output image. In order to display the latest image, it is necessary to accurately grasp the value of (Yin−Yout).

そこで、LUTによって入力画像上の位置(Xin,Yin)における画素が出力画像上の位置(Xout,Yout)に対応付けられていると考えた時の(Yin−Yout)をΔYとおき、LUT上で一塊となっているチャネル毎に全てのΔYの値を求める。そして、チャネル毎にΔYの値の最大値ΔYMAXを求め、その塊が表示される最初の水平ラインの画素信号の読み出しタイミングにおいて(Yout_top+ΔYMAX+α)番目の水平ラインの画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。Yout_topは、上記の塊が表示される最初の水平ラインの番号を表す。これにより、映像遅延の最小化が図られる。 Therefore, (Yin−Yout) when assuming that the pixel at the position (Xin, Yin) on the input image is associated with the position (Xout, Yout) on the output image by LUT is set as ΔY, Thus, all ΔY values are obtained for each channel in a lump. Then, the maximum value ΔY MAX of ΔY values is obtained for each channel, and the pixel signal of the (Yout_top + ΔY MAX + α) th horizontal line is written at the read timing of the pixel signal of the first horizontal line where the block is displayed. The latest frame memory is selected as the frame memory for generating the output image. Yout_top represents the number of the first horizontal line on which the above chunk is displayed. Thereby, the video delay can be minimized.

具体例を挙げてΔYMAX等の意義を説明する。図9に示す例では、ch1に対するΔYは全て50であるためch1に対するΔYMAXは50となる。一方で、ch1の入力画像に基づく画像が表示される、出力画像上の最初の水平ラインの番号は、Yout_top=50である。従って、ch1に対する(Yout_top+ΔYMAX+α)は、50+50+1=101より、101となる。従って、ch1の入力画像が表示される最初の水平ライン、即ち50(=Yout_top)番目の水平ラインの画素信号の読み出しタイミングにおいて101(=Yout_top+ΔYMAX+α)番目の水平ラインの画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。 The significance of ΔY MAX and the like will be described with specific examples. In the example shown in FIG. 9, [Delta] Y MAX is 50 for ch1 for [Delta] Y are all 50 for ch1. On the other hand, the number of the first horizontal line on the output image on which an image based on the input image of ch1 is displayed is Yout_top = 50. Therefore, (Yout_top + ΔY MAX + α) for ch1 is 101 from 50 + 50 + 1 = 101. Accordingly, the pixel signal of the 101 (= Yout_top + ΔY MAX + α) th horizontal line is written at the read timing of the pixel signal of the first horizontal line on which the input image of ch1 is displayed, that is, the 50 (= Yout_top) th horizontal line. The latest frame memory is selected as the frame memory for generating the output image.

図11に示す例では、LUT上のアドレス(0,0)に対するΔYは(Yin−Yout)=80−0より80となり且つLUT上のアドレス(0,1)に対するΔYは(Yin−Yout)=79−1より78となる。この2つのΔYは、ch1に対するΔYである。ch1に関して、LUT上の他のアドレスに対しても同様にΔYを求め、求めたΔYの最大値をch1に対するΔYMAXとする。一方、図11に示すLUTを用いると、ch1の入力画像に基づく画像が表示される、出力画像上の最初の水平ラインの番号Yout_topは0である(LUT上のアドレス(0,0)における入力画素位置情報はch1に対するものであるため)。従って、仮にch1に対するΔYMAXが120であるなら、ch1に対する(Yout_top+ΔYMAX+α)は、0+120+1=121より、121となる。ch2、ch3及びch4の夫々に対しても、ΔYMAX及びYout_topが同様にして求められる。尚、図11のLUTを用いる場合、ch4に対するYout_topだけが0以外の値をとる。 In the example shown in FIG. 11, ΔY for the address (0, 0) on the LUT is 80 from (Yin−Yout) = 80−0, and ΔY for the address (0, 1) on the LUT is (Yin−Yout) = 79-1 to 78. These two ΔY are ΔY with respect to ch1. Regarding ch1, ΔY is similarly obtained for other addresses on the LUT, and the maximum value of ΔY thus obtained is set as ΔY MAX for ch1. On the other hand, when the LUT shown in FIG. 11 is used, an image based on the input image of ch1 is displayed, and the first horizontal line number Yout_top on the output image is 0 (input at the address (0, 0) on the LUT). (The pixel position information is for ch1). Therefore, if ΔY MAX for ch1 is 120, (Yout_top + ΔY MAX + α) for ch1 is 121 from 0 + 120 + 1 = 121. ΔY MAX and Yout_top are similarly determined for each of ch2, ch3, and ch4. When the LUT of FIG. 11 is used, only Yout_top for ch4 takes a value other than zero.

以下、ch1〜ch4に対するΔYMAXをΔYMAX1〜ΔYMAX4で表すこととし、ch1〜ch4に対するYout_topをYout_top1〜Yout_top4で表すことする。図3のLUT領域12b内に形成されるLUTごとにΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値は定められ、出力画像を形成するために使用するLUTを指定すれば、その指定されたLUT内のテーブルデータに基づいてΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値は自動的に決まる。各LUT内のテーブルデータは予め定められるものであるため、各LUTに対するΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値も予め定めておくこととができる。 Hereinafter, a represent a [Delta] Y MAX for ch1~ch4 in ΔY MAX1 ~ΔY MAX4, to be representative of the Yout_top for ch1~ch4 in Yout_top 1 ~Yout_top 4. The value of ΔY MAX1 ~ΔY MAX4 and Yout_top 1 ~Yout_top 4 for each LUT formed in the LUT region 12b of FIG. 3 is defined, by specifying the LUT to be used to form an output image, which is the designated the value of ΔY MAX1 ~ΔY MAX4 and Yout_top 1 ~Yout_top 4 based on the table data in the LUT are determined automatically. Table data in each LUT is because it is intended to be defined in advance, the value of ΔY MAX1 ~ΔY MAX4 and Yout_top 1 ~Yout_top 4 for each LUT may have a be predetermined.

上述した出力画像の生成処理に関する実施例として、以下に、第1〜第3実施例を例示する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。   As examples relating to the output image generation processing described above, first to third examples will be exemplified below. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.

<<第1実施例>>
まず、第1実施例について説明する。図12は、第1実施例に係る画像処理回路11の内部構成をも示す、運転支援システムの一部ブロック図である。第1実施例に係る画像処理回路11は、図12の符号21〜25にて参照される各部位を備える。RAM部12は書き込みアドレス生成回路21、LUTアドレス生成回路23及び読み出しアドレス生成回路24の他、MPU16からもアクセスされる(MPU16によるアクセスの様子は不図示)。従って、RAM部12に対するデータの読み書きは実際には調停回路25による調停制御の下で実行されるが、説明の簡略化のため、この調停回路25の存在を無視して以下の説明を行うものとする。
<< First Example >>
First, the first embodiment will be described. FIG. 12 is a partial block diagram of the driving support system that also shows the internal configuration of the image processing circuit 11 according to the first embodiment. The image processing circuit 11 according to the first embodiment includes each part referred to by reference numerals 21 to 25 in FIG. The RAM unit 12 is accessed from the MPU 16 in addition to the write address generation circuit 21, the LUT address generation circuit 23, and the read address generation circuit 24 (the state of access by the MPU 16 is not shown). Therefore, data reading / writing with respect to the RAM unit 12 is actually executed under the arbitration control by the arbitration circuit 25. However, for the sake of simplification of explanation, the following explanation is performed by ignoring the existence of the arbitration circuit 25. And

チャネル数は4であるが各チャネルのデータに対する画像処理回路11の動作は4つのチャネル間で同様である。従って、チャネルの番号を表す変数iを導入し、適宜、iを用いて説明の簡略化を図る(iは、1、2、3又は4である)。例えば、デコーダDECiとは、チャネルch1を考える場合はデコーダDEC1を意味し、チャネルch2を考える場合はデコーダDEC2を意味する。   Although the number of channels is 4, the operation of the image processing circuit 11 for the data of each channel is the same among the four channels. Therefore, the variable i representing the channel number is introduced, and the explanation is simplified using i as appropriate (i is 1, 2, 3, or 4). For example, the decoder DECi means the decoder DEC1 when considering the channel ch1, and means the decoder DEC2 when considering the channel ch2.

書き込みアドレス生成回路21は、図3のデコーダDECiからの垂直同期信号Vsync及び水平同期信号HsyncとデコーダDECiからの画素信号の出力間隔に同期したピクセルクロック(不図示)とに基づいて、現時点において図3のデコーダDECiから送られてくる画素信号(画像データDinを形成する画素信号)が書き込まれるべきRAM部12上のアドレス(以下、書き込みアドレスという)を生成し、これをRAM部12に与える。書きこみアドレスは、RAM部12内のフレームメモリMi[1]〜Mi[4]上のアドレスである。 The write address generation circuit 21 is currently shown based on the vertical synchronization signal Vsync and horizontal synchronization signal Hsync from the decoder DECi of FIG. 3 and a pixel clock (not shown) synchronized with the output interval of the pixel signal from the decoder DECi. 3 generates an address (hereinafter referred to as a write address) on the RAM unit 12 to which a pixel signal (pixel signal forming the image data Din) sent from the decoder DECi of 3 is to be written. The write address is an address on the frame memories M i [1] to M i [4] in the RAM unit 12.

図3のデコーダDECiからの画素信号は、フレームメモリMi[1]〜Mi[4]内の、書き込みアドレスにて指定されたアドレスに書き込まれる。現時点において入力される画素信号がフレームメモリMi[1]〜Mi[4]の内の何れのフレームメモリに格納されるべきかをも、書き込みアドレス生成回路21は管理している。また、書き込みアドレスは、読み出しアドレス生成回路24にも与えられる。 The pixel signal from the decoder DECi in FIG. 3 is written to the address specified by the write address in the frame memories M i [1] to M i [4]. The write address generation circuit 21 also manages in which frame memory of the frame memories M i [1] to M i [4] the pixel signal input at this time is to be stored. The write address is also given to the read address generation circuit 24.

映像出力アドレス生成回路22は、映像信号Vinとは非同期で駆動し、出力画像用の垂直同期信号Vsync2及び水平同期信号Hsync2を生成して出力すると共に、垂直同期信号Vsync2及び水平同期信号Hsync2に同期した映像出力アドレスを生成し、該映像出力アドレスをLUTアドレス生成回路23に送る。   The video output address generation circuit 22 is driven asynchronously with the video signal Vin, generates and outputs a vertical synchronization signal Vsync2 and a horizontal synchronization signal Hsync2 for an output image, and is synchronized with the vertical synchronization signal Vsync2 and the horizontal synchronization signal Hsync2. The generated video output address is generated, and the video output address is sent to the LUT address generation circuit 23.

LUTアドレス生成回路23は、MPU16から送られてくるLUT選択情報に従って、RAM部12のLUT領域12bに格納されている複数のLUTの内の1つのLUTを選択する。選択されたLUTを、以下「指定LUT」と呼ぶ。そして、LUTアドレス生成回路23は、映像出力アドレスに応じた、指定LUT上のアドレス(以下、LUTアドレスという)を生成する。このLUTアドレスはRAM部12に送られて、指定LUT上のLUTアドレスにおけるデータがRAM部12からLUT情報として読み出され、このLUT情報は読み出しアドレス生成回路24に送られる。LUT情報は、図11を用いて示した、(600,80,ch1)などの入力画素位置情報と同じものである。   The LUT address generation circuit 23 selects one LUT out of a plurality of LUTs stored in the LUT area 12b of the RAM unit 12 according to the LUT selection information sent from the MPU 16. The selected LUT is hereinafter referred to as “designated LUT”. Then, the LUT address generation circuit 23 generates an address on the designated LUT (hereinafter referred to as LUT address) corresponding to the video output address. This LUT address is sent to the RAM unit 12, data at the LUT address on the designated LUT is read from the RAM unit 12 as LUT information, and this LUT information is sent to the read address generation circuit 24. The LUT information is the same as the input pixel position information such as (600, 80, ch1) shown using FIG.

読み出しアドレス生成回路24は、入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係と、指定LUTに対するΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4に応じて作成される読み出しメモリ切替情報と、に基づいて、出力画像の生成に利用可能な最新の入力画像が格納されるフレームメモリをチャネル毎に1つずつ選択する。入力画像の画像データの入力タイミングは書き込みアドレスによって特定される。出力画像の画像データの出力タイミングは、垂直同期信号Vsync2及び水平同期信号Hsync2に基づいて、又は、映像出力アドレスに基づいて特定される。 A read address generating circuit 24, a timing relationship between the output timing of the image data input timing and the output image of the image data of the input image is created according to ΔY MAX1 ~ΔY MAX4 and Yout_top 1 ~Yout_top 4 to the specified LUT Based on the read memory switching information, a frame memory storing the latest input image that can be used to generate an output image is selected for each channel. The input timing of the image data of the input image is specified by the write address. The output timing of the image data of the output image is specified based on the vertical synchronization signal Vsync2 and the horizontal synchronization signal Hsync2, or based on the video output address.

選択したフレームメモリを、以下、「指定フレームメモリ」という。つまり、上記タイミング関係と読み出しメモリ切替情報に基づいて、ch1用のフレームメモリM1[1]〜M1[4]の内の1つをch1用の指定フレームメモリとして選択し、且つ、ch2用のフレームメモリM2[1]〜M2[4]の内の1つをch2用の指定フレームメモリとして選択し、ch3用のフレームメモリM3[1]〜M3[4]の内の1つをch3用の指定フレームメモリとして選択し、ch4用のフレームメモリM4[1]〜M4[4]の内の1つをch4用の指定フレームメモリとして選択する。この選択は、読み出しメモリ切替情報に基づく、指定フレームメモリの切替判定を介して行われる(詳細は後述)。 The selected frame memory is hereinafter referred to as “designated frame memory”. That is, based on the timing relationship and the read memory switching information, one of the ch1 frame memories M 1 [1] to M 1 [4] is selected as the designated frame memory for ch1, and for ch2 One of the frame memories M 2 [1] to M 2 [4] is selected as the designated frame memory for ch2, and one of the frame memories M 3 [1] to M 3 [4] for ch3 is selected. one was chosen as the designated frame memory for ch3, selects one of the frame memory M 4 [1] ~M 4 [ 4] for the ch4 as specified frame memory for ch4. This selection is performed through switching determination of the designated frame memory based on the read memory switching information (details will be described later).

読み出しアドレス生成回路24は、LUT情報によって指定されるチャネル及び画素位置の画素信号を指定フレームメモリから読み出すべく、LUT情報に基づいて指定フレームメモリ上の読み出しアドレスを生成する。この読み出しアドレスに書き込まれていた画素信号は、出力画像の、映像出力アドレスに対応する位置の画素の画素信号としてエンコーダ13に出力される。   The read address generation circuit 24 generates a read address on the designated frame memory based on the LUT information in order to read out the pixel signal at the channel and the pixel position designated by the LUT information from the designated frame memory. The pixel signal written to the read address is output to the encoder 13 as a pixel signal of a pixel at a position corresponding to the video output address of the output image.

以下、特に記述無き限り、指定LUTが第1LUTであって且つ第1LUTのテーブルデータが図11に示すそれと同じである場合を想定する。   Hereinafter, unless otherwise specified, it is assumed that the designated LUT is the first LUT and the table data of the first LUT is the same as that shown in FIG.

また、映像出力に関し、全期間は、出力画像上の各位置(0,0)〜(Xsize−1,Ysize−1)における画素信号が実際に出力される有効映像期間と、ブランキング期間を含む無効映像期間と、に分類される(図4(b)参照)。映像出力アドレス生成回路22から出力される映像出力アドレスは、無効映像期間をも含むアドレスであるため、その映像出力アドレスの水平成分(換言すれば、垂直ラインの番号を表す成分)及び垂直成分(換言すれば、水平ラインの番号を表す成分)は夫々Xsize及びYsize以上の値を示す場合がある。   Regarding video output, the entire period includes an effective video period in which pixel signals at each position (0, 0) to (Xsize-1, Ysize-1) on the output image are actually output, and a blanking period. And an invalid video period (see FIG. 4B). Since the video output address output from the video output address generation circuit 22 is an address including an invalid video period, the horizontal component of the video output address (in other words, the component indicating the number of the vertical line) and the vertical component ( In other words, the component representing the number of the horizontal line) may indicate a value greater than or equal to Xsize and Ysize.

本実施例及び後述の各実施例では、映像出力アドレス生成回路22からの、無効映像期間をも含めた映像出力アドレスの水平成分及び垂直成分の最大値を夫々Xsize’及びYsize’とする。即ち、映像出力アドレス生成回路22は、(0,0)、(1,0)、(2,0)、・・・、(Xsize’,0)、(0,1)、(1,1)、(2,1)、・・・、(Xsize’,Ysize’)の順に映像出力アドレスを生成するものとする。ここで、Xsize’>Xsize、且つ、Ysize’>Ysizeである。   In the present embodiment and each embodiment described later, the maximum values of the horizontal component and the vertical component of the video output address including the invalid video period from the video output address generation circuit 22 are Xsize 'and Ysize', respectively. That is, the video output address generation circuit 22 has (0,0), (1,0), (2,0),..., (Xsize ′, 0), (0,1), (1,1). , (2, 1),..., (Xsize ′, Ysize ′) are generated in this order. Here, Xsize '> Xsize and Ysize'> Ysize.

上述してきた位置(x,y)は、出力画像上に実際に描写される画素の座標を表している。出力画像上に実際に描写される画素が配列される座標系を、有効映像座標系と呼ぶ。一方、無効映像期間をも含めた座標系を無効映像座標系と呼ぶ。有効映像座標系は、無効映像座標系に内包される。無効映像座標系上の座標を(x’,y’)で表す。以下、有効映像座標系上の座標(x,y)を有効映像座標とも呼び、無効映像座標系上の座標(x’,y’)を無効映像座標とも呼ぶ。そして、今、有効映像座標(0,0)に対応する無効映像座標(x’,y’)が(20,20)であり、無効映像座標(20,20)から出力画像上の実際の画素が配列されるものとする。   The position (x, y) described above represents the coordinates of the pixel actually drawn on the output image. A coordinate system in which pixels actually drawn on the output image are arranged is called an effective video coordinate system. On the other hand, a coordinate system including an invalid video period is called an invalid video coordinate system. The effective video coordinate system is included in the invalid video coordinate system. The coordinates on the invalid video coordinate system are represented by (x ′, y ′). Hereinafter, the coordinates (x, y) on the effective video coordinate system are also referred to as effective video coordinates, and the coordinates (x ′, y ′) on the invalid video coordinate system are also referred to as invalid video coordinates. Now, the invalid video coordinate (x ′, y ′) corresponding to the valid video coordinate (0, 0) is (20, 20), and the actual pixel on the output image from the invalid video coordinate (20, 20). Are arranged.

有効映像座標(0,0)の1水平ライン前の座標は無効映像座標(20,19)に相当し、無効映像座標(20,19)を有効映像座標で表すと(0,−1)となるものとして以下の説明を行う。また、説明の簡略化のため、映像出力アドレス生成回路22から出力される映像出力アドレスが無効映像期間に属するアドレス(例えば、(0,−1))である場合は、LUTアドレス生成回路23からLUTアドレス(0,0)が出力されるものとする。   The coordinates one horizontal line before the valid video coordinates (0, 0) correspond to the invalid video coordinates (20, 19). When the invalid video coordinates (20, 19) are expressed by the valid video coordinates, (0, -1) The following will be described as it is. For simplification of description, when the video output address output from the video output address generation circuit 22 is an address belonging to the invalid video period (for example, (0, −1)), the LUT address generation circuit 23 Assume that the LUT address (0, 0) is output.

尚、映像出力アドレスを基にしてLUTアドレスの生成を介してフレームメモリから読み出される画素信号と、垂直同期信号Vsync2及び水平同期信号Hsync2とのタイミング関係は、調停回路25とエンコーダ13との間に設けられた図示されないFIFO(First In, First Out)により調整されるものとする。また、エンコーダ13の前段に映像信号Voutを受ける同期付加回路(不図示)が設けられ、その同期付加回路によって、映像信号Voutに無効映像期間の同期信号が付加されると共に同期信号以外の信号の信号レベルが決定される。   The timing relationship between the pixel signal read from the frame memory through the generation of the LUT address based on the video output address and the vertical synchronization signal Vsync2 and horizontal synchronization signal Hsync2 is between the arbitration circuit 25 and the encoder 13. It is assumed that adjustment is performed by a provided FIFO (First In, First Out) (not shown). In addition, a synchronization addition circuit (not shown) that receives the video signal Vout is provided in the previous stage of the encoder 13, and the synchronization addition circuit adds a synchronization signal of an invalid video period to the video signal Vout and outputs signals other than the synchronization signal. A signal level is determined.

具体的な数値を挙げて画素信号の読み出し動作の説明を具体化する。映像出力アドレス生成回路22は、SDRAMへのアクセス時間を含むレイテンシを考慮し、着目した画素が実際に表示されるタイミングよりも1水平ライン分早く、その画素に対応する映像出力アドレスを生成する。例えば、出力画像の位置(0,0)の画素信号をエンコーダ13に出力しようとする場合、映像出力アドレス生成回路22は、映像出力アドレス(0,−1)をLUTアドレス生成回路23に送る。LUTアドレス生成回路23は、映像出力アドレス(0,−1)に応じたLUTアドレスを生成する。このLUTアドレスは、出力画像上の位置(0,0)に対応した入力画素位置情報(即ち、(600,80,ch1);図11参照)が格納された指定LUT上のアドレスである。実際には、LUTアドレスはSDRAMの全体メモリ空間上のアドレスであるが、図11を参照して説明したように、出力画像上の位置(0,0)に対応した入力画素位置情報が格納されているLUT上のアドレスを(0,0)と捉えているため、LUTアドレスは(0,0)となる。   The description of the pixel signal reading operation is made concrete by giving specific numerical values. The video output address generation circuit 22 considers the latency including the access time to the SDRAM, and generates a video output address corresponding to the pixel one horizontal line earlier than the timing at which the focused pixel is actually displayed. For example, when the pixel signal at the position (0, 0) of the output image is to be output to the encoder 13, the video output address generation circuit 22 sends the video output address (0, −1) to the LUT address generation circuit 23. The LUT address generation circuit 23 generates an LUT address corresponding to the video output address (0, −1). This LUT address is an address on the designated LUT in which input pixel position information (that is, (600, 80, ch1); see FIG. 11) corresponding to the position (0, 0) on the output image is stored. Actually, the LUT address is an address in the entire memory space of the SDRAM, but as described with reference to FIG. 11, the input pixel position information corresponding to the position (0, 0) on the output image is stored. Since the address on the current LUT is regarded as (0, 0), the LUT address is (0, 0).

LUTアドレス(0,0)におけるデータはLUT情報として読み出される。このLUT情報は、出力画像上の位置(0,0)に対応した入力画素位置情報(600,80,ch1)である(図11参照)。今、ch1に対する指定フレームメモリがフレームメモリM1[3]であるとした場合、読み出しアドレス生成回路24は、このLUT情報に基づき、ch1の入力画像における位置(600,80)の画素の画素信号が書き込まれているフレームメモリM1[3]上のアドレスを、読み出しアドレスとして生成する。この読み出しアドレスに従って読み出された画素信号は、出力画像の位置(0,0)の画素信号としてエンコーダ13に出力される。以上のような動作を出力画像上の各位置に対して実行することにより、出力画像の全体を表す画像データDoutがエンコーダ13に出力され、出力画像が表示画面上に表示されるようになる。 Data at the LUT address (0, 0) is read as LUT information. This LUT information is input pixel position information (600, 80, ch1) corresponding to the position (0, 0) on the output image (see FIG. 11). Now, assuming that the designated frame memory for ch1 is the frame memory M 1 [3], the read address generation circuit 24, based on this LUT information, the pixel signal of the pixel at the position (600, 80) in the input image of ch1. The address on the frame memory M 1 [3] in which is written is generated as a read address. The pixel signal read according to this read address is output to the encoder 13 as a pixel signal at the position (0, 0) of the output image. By executing the above operation for each position on the output image, the image data Dout representing the entire output image is output to the encoder 13, and the output image is displayed on the display screen.

図13に、読み出しメモリ切替情報の構成を示す。読み出しメモリ切替情報は、切替判定タイミングを規定する切替判定タイミング情報と切替判定条件を規定する切替判定条件情報とをチャネルごとに含んでいる。chiに対する切替判定タイミング情報は(Yout_topi−α)であり、chiに対する切替判定条件情報は(Yout_topi+ΔYMAXi)である(上述したように、iは1、2、3又は4である)。読み出しメモリ切替情報はLUTごとに設定されており、指定LUTが或るLUTから他のLUTに切り替えられると、その切り替え時の垂直帰線期間にMPU16から切り替え先のLUTに適応した読み出しメモリ切替情報が読み出しアドレス生成回路24に送られる。 FIG. 13 shows the configuration of the read memory switching information. The read memory switching information includes switching determination timing information that defines switching determination timing and switching determination condition information that defines switching determination conditions for each channel. The switching determination timing information for chi is (Yout_top i −α), and the switching determination condition information for chi is (Yout_top i + ΔY MAXi ) (as described above, i is 1, 2, 3, or 4). The read memory switching information is set for each LUT, and when the designated LUT is switched from one LUT to another LUT, the read memory switching information adapted from the MPU 16 to the switching destination LUT during the vertical blanking period at the time of switching. Is sent to the read address generation circuit 24.

読み出しアドレス生成回路24は、各チャネルを対象とし、切替判定タイミング情報によって規定される切替判定タイミングにおいて、対象となるチャネルの入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断は、対象となるチャネルに対する切替判定条件が満たされるか否かを判定することによって行われる。   The read address generation circuit 24 targets each channel and determines whether or not to switch the frame memory from which the input image of the target channel is read at the switching determination timing defined by the switching determination timing information. This determination is performed by determining whether or not the switching determination condition for the target channel is satisfied.

ch4に着目してより具体的に説明する(図10の状況を想定する)。出力画像の(Yout_top4−α)番目の水平ライン、即ち、ch4の切替判定タイミング情報によって表される(Yout_top4−α)番目の水平ラインの画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。尚、切替判定タイミングを認識できるように、読み出しアドレス生成回路24は、適宜、垂直同期信号Vsync2及び水平同期信号Hsync2や映像出力アドレスを参照する。 A more specific description will be given focusing on ch4 (assuming the situation of FIG. 10). (Yout_top 4 -α) th horizontal line of the output image, i.e., (Yout_top 4 -α) represented by the switching determination timing information ch4 th output pixel signals of the horizontal lines to the encoder 13 reads from the RAM 12 The timing to be performed is the switching determination timing for ch4. In order to recognize the switching determination timing, the read address generation circuit 24 refers to the vertical synchronization signal Vsync2, the horizontal synchronization signal Hsync2, and the video output address as appropriate.

読み出しアドレス生成回路24は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かを書き込みアドレスに基づいて判断する。この判断前におけるch4の指定フレームメモリがフレームメモリM4[2]である場合は、指定フレームメモリをフレームメモリM4[2]からch4の最新の入力画像の画像データが書き込まれている最中であることが想定されるフレームメモリM4[3]に切り替えるか否かを判断する。 At this switching determination timing, the read address generation circuit 24 determines whether to switch the frame memory from which the ch4 input image is to be read based on the write address. If the designated frame memory of ch4 before this determination is the frame memory M 4 [2], the image data of the latest input image of ch4 is being written from the frame memory M 4 [2] to the designated frame memory. It is determined whether or not to switch to the frame memory M 4 [3] that is assumed to be.

この切り替えに関する判断は、ch4の最新の入力画像における(Yout_top4+ΔYMAX4)番目の水平ラインの各画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって行われる。即ち、ch4の切替判定条件情報によって表される(Yout_top4+ΔYMAX4)番目の水平ラインの各画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって、この切り替えに関する判断を行う。そして、書き込みアドレスに基づいて、それが既に書き込まれていると判定された場合は出力画像の形成にフレームメモリM4[3]を利用できるためch4の指令フレームメモリをフレームメモリM4[2]からフレームメモリM4[3]へと切り替え、それが既に書き込まれていると判定されなかった場合はch4の指令フレームメモリをフレームメモリM4[2]のままとする。 Decision on this switching, whether the most recent (Yout_top 4 + ΔY MAX4) in the input image of th pixel signals of the horizontal lines of ch4 is, in the switching judgment timing of ch4, already written in the frame memory M 4 [3] This is done by determining whether or not. That, (Yout_top 4 + ΔY MAX4) th pixel signals of horizontal lines represented by the switching determination condition information ch4 is, in the switching judgment timing of ch4, whether already written in the frame memory M 4 [3] This determination is made regarding the switching. Then, if it is determined based on the write address that it has already been written, the frame memory M 4 [3] can be used to form an output image, so the ch4 command frame memory is used as the frame memory M 4 [2]. Is switched to the frame memory M 4 [3], and if it is not determined that it has already been written, the ch4 command frame memory remains the frame memory M 4 [2].

このように、読み出しアドレス生成回路24は、各カメラからの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係を考慮して、チャネルごとに出力画像の形成に利用される指定フレームメモリを複数のフレームメモリの中から選択する。この際、この選択動作を、チャネルごとに個別に設定された切替判定タイミング(換言すれば、選択タイミング)において行うようにする。上述の説明から理解されるように、切替判定タイミング情報を含む読み出しメモリ切替情報は、各チャネルの入力画像に基づく画像を出力画像上のどの位置にどのように配置するかに依存して決定され、その決定内容はLUTによって表現される。   As described above, the read address generation circuit 24 takes into account the timing relationship between the input timing of image data from each camera and the output timing of image data of the output image, and designates it for use in forming an output image for each channel. A frame memory is selected from a plurality of frame memories. At this time, this selection operation is performed at a switching determination timing (in other words, selection timing) set individually for each channel. As can be understood from the above description, the read memory switching information including the switching determination timing information is determined depending on how and where the image based on the input image of each channel is arranged on the output image. The determined contents are expressed by LUT.

また、切替判定条件は、ΔYMAX1〜ΔYMAX4に依存する。一方で、入力画像上の各画素と出力画像上の各画素との対応関係を規定するLUTのテーブルデータが定まれば自動的にΔYMAX1〜ΔYMAX4が決まる。従って、切替判定条件に基づく指定フレームメモリの切替判定はそのテーブルデータに基づいて実行されていると解釈することができる。 The switching determination condition is dependent on ΔY MAX1 ~ΔY MAX4. On the other hand, automatically ΔY MAX1 ~ΔY MAX4 determines if LUT table data defining the correspondence between each pixel on each pixel and the output image on the input image is Sadamare. Therefore, it can be interpreted that the switching determination of the designated frame memory based on the switching determination condition is executed based on the table data.

また、図18に示すような表示画像を得るための第1LUTが指定LUTとなっている場合、各チャネルの切替判定タイミングの個数は1枚の出力画像に対して1つであるが、指定LUTによっては、それを2つ以上とすることもできる。例えば、図20に示すような表示画像を得るための第2LUTが指定LUTとなっている場合は、ch3の入力画像に基づく画像が配置される領域が1枚の出力画像中に2つ設けられるため、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。   When the first LUT for obtaining a display image as shown in FIG. 18 is a designated LUT, the number of switching determination timings for each channel is one for one output image. Depending on the case, it may be more than one. For example, when the second LUT for obtaining a display image as shown in FIG. 20 is the designated LUT, two areas in which an image based on the input image of ch3 is arranged are provided in one output image. Therefore, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, whether the corresponding switching determination condition is satisfied or not is determined, and the designated frame memory for ch3 is selected based on the determination result.

<<第2実施例>>
第1実施例では、ライン単位で指定フレームメモリの切替判定を行うことで映像出力における遅延の低減を図っているが、回路規模の増大が許されるなら、画素単位で該切替判定を行うことも可能である。画素単位で指定フレームメモリの切替判定を行えば、遅延の低減効果が更に高まる。画素単位で指定フレームメモリの切替判定を行う実施例を、第2実施例として説明する。第2実施例は、第1実施例の一部を変形した実施例に相当する。そのため、第1実施例との相違点にのみ着目して説明を行う。
<< Second Example >>
In the first embodiment, the switching determination of the designated frame memory is performed in line units to reduce the delay in video output. However, if the circuit scale is allowed to increase, the switching determination may be performed in pixel units. Is possible. If the switching determination of the designated frame memory is performed on a pixel basis, the delay reduction effect is further enhanced. An embodiment in which the switching determination of the designated frame memory is performed on a pixel basis will be described as a second embodiment. The second embodiment corresponds to an embodiment obtained by modifying a part of the first embodiment. For this reason, only the differences from the first embodiment will be described.

まず、図3のLUT領域12b内の各LUTに着目し、上述したΔYの代わりにΔXYを求める。具体的には(図11参照)、LUTによって入力画像上の位置(Xin,Yin)(即ち、無効映像期間をも含めた無効映像座標(Xin’,Yin’))における画素が出力画像上の位置(Xout,Yout)(即ち、無効映像期間をも含めた無効映像座標(Xout’,Yout’))に対応付けられていると考えた時の(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))をΔXYとおき、LUT上で一塊となっているチャネル毎に全てのΔXYの値を求める。そして、チャネル毎にΔXYの値の最大値ΔXYMAXを求め、その塊が表示される最初の画素の画素信号の読み出しタイミングにおいて(XYout_top+ΔXYMAX+α’)の画素の画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。 First, paying attention to each LUT in the LUT area 12b in FIG. 3, ΔXY is obtained instead of ΔY described above. Specifically (see FIG. 11), the pixel at the position (Xin, Yin) on the input image (that is, the invalid video coordinates (Xin ′, Yin ′) including the invalid video period) is displayed on the output image by the LUT. (Xin + Yin · Xsize ′ − (Xout + Yout · Xsize ′) when considered to be associated with the position (Xout, Yout) (that is, the invalid video coordinates (Xout ′, Yout ′) including the invalid video period) ) As ΔXY, and all the values of ΔXY are obtained for each channel in a lump on the LUT. Then, the maximum value ΔXY MAX of ΔXY values is obtained for each channel, and the pixel signal of the pixel of (XYout_top + ΔXY MAX + α ′) is written at the read timing of the pixel signal of the first pixel where the block is displayed. The frame memory is selected as a frame memory for generating an output image.

XYout_topは、上記の塊が表示される最初の画素の画素番号を表し、その画素の位置(換言すれば座標)が(x,y)である場合、即ち無効映像期間をも含めた該画素の座標が(x’,y’)である場合は、XYout_top=x’+y’・Xsize’、と定義される。α’は、SDRAMへのアクセス時間に代表される、回路内部の処理自体にかかるレイテンシ(遅延時間)を画素数で表したものである。α’の値は、システムの処理速度などに依存して予め定められる。   XYout_top represents the pixel number of the first pixel in which the above-mentioned block is displayed. When the position of the pixel (in other words, the coordinate) is (x, y), that is, the pixel including the invalid video period. When the coordinates are (x ′, y ′), it is defined as XYout_top = x ′ + y ′ · Xsize ′. α ′ represents the latency (delay time) of the processing inside the circuit, represented by the access time to the SDRAM, by the number of pixels. The value of α ′ is determined in advance depending on the processing speed of the system.

具体例を挙げてΔXY等の意義を説明する。Xsize’=720且つYsize’=525であるとし、図11に示すLUTを例にとる。LUT上のアドレス(0,0)に対するΔXYは(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))=600+80・720−(0+0・720)=58200より58200となり且つLUT上のアドレス(0,1)に対するΔXYは(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))=601+79・720−(0+1・720)=56761より56761となる。この2つのΔXYは、ch1に対するΔXYである。ch1に関する、LUT上の他のアドレスに対しても同様にΔXYを求め、求めたΔXYの最大値をch1に対するΔXYMAXとする。 The significance of ΔXY and the like will be described with specific examples. Assuming that Xsize ′ = 720 and Ysize ′ = 525, the LUT shown in FIG. 11 is taken as an example. ΔXY for the address (0,0) on the LUT is 58200 from (Xin + Yin · Xsize ′ − (Xout + Yout · Xsize ′)) = 600 + 80 · 720− (0 + 0 · 720) = 58200 and the address (0,1) on the LUT ΔXY with respect to is (Xin + Yin · Xsize ′ − (Xout + Yout · Xsize ′)) = 601 + 79 · 720− (0 + 1 · 720) = 56761 to 56761. These two ΔXY are ΔXY with respect to ch1. Similarly, ΔXY is obtained for other addresses on the LUT related to ch1, and the obtained maximum value of ΔXY is set to ΔXY MAX for ch1.

一方、図11に示すLUTを用いると、ch1の入力画像に基づく画像が表示される、出力画像上の最初の画素の画素番号XYout_topは0である(LUT上のアドレス(0,0)における入力画素位置情報はch1に対するものであるため)。従って、仮にch1に対するΔXYMAXが60000であるなら、ch1に対する(XYout_top+ΔXYMAX+α’)は、(60000+α’)となる。ch2、ch3及びch4の夫々に対しても、ΔXYMAX及びXYout_topが同様にして求められる。 On the other hand, when the LUT shown in FIG. 11 is used, an image based on the input image of ch1 is displayed, and the pixel number XYout_top of the first pixel on the output image is 0 (input at the address (0, 0) on the LUT). (The pixel position information is for ch1). Therefore, if it is [Delta] xy MAX 60000 for temporarily ch1, 'it is, (60000 + α (XYout_top + ΔXY MAX + α)' for ch1 becomes). ΔXY MAX and XYout_top are similarly determined for each of ch2, ch3, and ch4.

以下、ch1〜ch4に対するΔXYMAXをΔXYMAX1〜ΔXYMAX4で表すこととし、ch1〜ch4に対するXYout_topをXYout_top1〜XYout_top4で表すことする。図3のLUT領域12b内に形成されるLUTごとにΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値は定められ、出力画像を形成するために使用する指定LUTを定まれば、その指定LUT内のテーブルデータに基づいてΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値は自動的に決まる。各LUT内のテーブルデータは予め定められるものであるため、各LUTに対するΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値も予め定めておくこととができる。 Hereinafter, a represent a [Delta] xy MAX for ch1~ch4 in ΔXY MAX1 ~ΔXY MAX4, to be representative of the XYout_top for ch1~ch4 in XYout_top 1 ~XYout_top 4. The value of ΔXY MAX1 ~ΔXY MAX4 and XYout_top 1 ~XYout_top 4 for each LUT formed in the LUT region 12b of FIG. 3 is defined, if Sadamare designation LUT to be used to form an output image, the designated LUT the value of ΔXY MAX1 ~ΔXY MAX4 and XYout_top 1 ~XYout_top 4 based on the table data in parentheses are automatically determined. Table data in each LUT is because it is intended to be defined in advance, the value of ΔXY MAX1 ~ΔXY MAX4 and XYout_top 1 ~XYout_top 4 for each LUT may have a be predetermined.

第2実施例に係る画像処理回路11の内部構成は、図12のそれと同じであり、画像処理回路11内の各部の動作は基本的には第1実施例と同じである。但し、画素単位の切替判定を行うべく、読み出しメモリ切替情報は、第1実施例のそれと異なる。   The internal configuration of the image processing circuit 11 according to the second embodiment is the same as that of FIG. 12, and the operation of each part in the image processing circuit 11 is basically the same as that of the first embodiment. However, the read memory switching information is different from that of the first embodiment in order to perform the pixel unit switching determination.

図14に、第2実施例に係る読み出しメモリ切替情報の構成を示す。読み出しメモリ切替情報は、切替判定タイミングを規定する切替判定タイミング情報と切替判定条件を規定する切替判定条件情報とをチャネルごとに含んでいる。chiに対する切替判定タイミング情報は(XYout_topi−α’)であり、chiに対する切替判定条件情報は(XYout_topi+ΔXYMAXi)である(上述したように、iは1、2、3又は4である)。読み出しメモリ切替情報はLUTごとに設定されており、指定LUTが或るLUTから他のLUTに切り替えられると、その切り替え時の垂直帰線期間にMPU16から切り替え先のLUTに適応した読み出しメモリ切替情報が読み出しアドレス生成回路24に送られる。 FIG. 14 shows the configuration of read memory switching information according to the second embodiment. The read memory switching information includes switching determination timing information that defines switching determination timing and switching determination condition information that defines switching determination conditions for each channel. The switching determination timing information for chi is (XYout_top i −α ′), and the switching determination condition information for chi is (XYout_top i + ΔXY MAXi ) (as described above, i is 1, 2, 3, or 4). . The read memory switching information is set for each LUT, and when the designated LUT is switched from one LUT to another LUT, the read memory switching information adapted from the MPU 16 to the switching destination LUT during the vertical blanking period at the time of switching. Is sent to the read address generation circuit 24.

読み出しアドレス生成回路24は、各チャネルを対象とし、切替判定タイミング情報によって規定される切替判定タイミングにおいて、対象となるチャネルの入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断は、対象となるチャネルに対する切替判定条件が満たされるか否かを判定することによって行われる。   The read address generation circuit 24 targets each channel and determines whether or not to switch the frame memory from which the input image of the target channel is read at the switching determination timing defined by the switching determination timing information. This determination is performed by determining whether or not the switching determination condition for the target channel is satisfied.

ch4に着目してより具体的に説明する(図10の状況を想定する)。出力画像の(XYout_top4−α’)番目の画素、即ち、ch4の切替判定タイミング情報によって表される(XYout_top4−α’)番目の画素の画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。尚、切替判定タイミングを認識できるように、読み出しアドレス生成回路24は、適宜、垂直同期信号Vsync2及び水平同期信号Hsync2や映像出力アドレスを参照する。 A more specific description will be given focusing on ch4 (assuming the situation of FIG. 10). (XYout_top 4 -α ') of the output image th pixel, i.e., (XYout_top 4 -α represented by the switching determination timing information ch4' outputs a pixel signal of) th pixel to the encoder 13 reads from the RAM 12 The timing to be performed is the switching determination timing for ch4. In order to recognize the switching determination timing, the read address generation circuit 24 refers to the vertical synchronization signal Vsync2, the horizontal synchronization signal Hsync2, and the video output address as appropriate.

読み出しアドレス生成回路24は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断前におけるch4の指定フレームメモリがフレームメモリM4[2]である場合は、指定フレームメモリをフレームメモリM4[2]からch4の最新の入力画像の画像データが書き込まれている最中であることが想定されるフレームメモリM4[3]に切り替えるか否かを判断する。 The read address generation circuit 24 determines at this switching determination timing whether or not to switch the frame memory from which the input image of ch4 is to be read. If the designated frame memory of ch4 before this determination is the frame memory M 4 [2], the image data of the latest input image of ch4 is being written from the frame memory M 4 [2] to the designated frame memory. It is determined whether or not to switch to the frame memory M 4 [3] that is assumed to be.

この切り替えに関する判断は、ch4の最新の入力画像における(XYout_top4+ΔXYMAX4)番目の画素の画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって行われる。即ち、ch4の切替判定条件情報によって表される(XYout_top4+ΔXYMAX4)番目の画素の画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって、この切り替えに関する判断を行う。そして、書き込みアドレスに基づいて、それが既に書き込まれていると判定された場合は出力画像の形成にフレームメモリM4[3]を利用できるためch4の指令フレームメモリをフレームメモリM4[2]からフレームメモリM4[3]へと切り替え、それが既に書き込まれていると判定されなかった場合はch4の指令フレームメモリをフレームメモリM4[2]のままとする。 Decision on this switching, the pixel signals of the latest in the input image (XYout_top 4 + ΔXY MAX4) th pixel ch4 is, in the switching determination timing ch4, whether already written in the frame memory M 4 [3] This is done by judging. That is, the determination pixel signal (XYout_top 4 + ΔXY MAX4) th pixels represented by the switching determination condition information ch4 is, in the switching determination timing ch4, whether already written in the frame memory M 4 [3] By doing so, a judgment regarding this switching is made. Then, if it is determined based on the write address that it has already been written, the frame memory M 4 [3] can be used to form an output image, so the ch4 command frame memory is used as the frame memory M 4 [2]. Is switched to the frame memory M 4 [3], and if it is not determined that it has already been written, the ch4 command frame memory remains the frame memory M 4 [2].

第1実施例では、切替判定タイミングをライン単位で設定し、入出力画像間の対応する水平ラインの位置の相違ΔYの最大値(ΔYMAX1〜ΔYMAX4)に基づいて指定フレームメモリの切替判定(換言すれば、指定フレームメモリの選択)を行っているのに対し、第2実施例では、切替判定タイミングを画素単位で設定し、入出力画像間の対応する画素の位置の相違ΔXYの最大値(ΔXYMAX1〜ΔXYMAX4)に基づいて指定フレームメモリの切替判定(換言すれば、指定フレームメモリの選択)を行っている。 In the first embodiment, sets the switching determination timing in units of lines, the corresponding maximum value of the difference [Delta] Y position of the horizontal line between the input and output image (ΔY MAX1 ~ΔY MAX4) switching determination of the designated frame memory based on ( In other words, in the second embodiment, the switching determination timing is set in units of pixels, and the corresponding pixel position difference ΔXY between the input and output images is the maximum value. (in other words, selection of the designated frame memory) switching determination of the designated frame memory based on (ΔXY MAX1 ~ΔXY MAX4) is performed.

尚、第1実施例でも述べたのと同様、指定LUTによっては、或るチャネルの切替判定タイミングの個数が1枚の出力画像に対して2以上となりうる。例えば、第2LUTが指定LUTとなっている場合は、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。   As described in the first embodiment, depending on the designated LUT, the number of switching determination timings for a certain channel can be two or more for one output image. For example, when the second LUT is a designated LUT, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, whether the corresponding switching determination condition is satisfied or not is determined, and the designated frame memory for ch3 is selected based on the determination result.

<<第3実施例>>
第1及び第2実施例では、画像処理回路11内部で指定フレームメモリの選択などをも行っているが、第1及び第2実施例の画像処理回路11が行っていた機能の一部を、演算処理手段としてのMPU16に担わせることも当然に可能である。このことを具体化した実施例として、第3実施例を説明する。
<< Third Example >>
In the first and second embodiments, the designated frame memory is selected in the image processing circuit 11, but some of the functions performed by the image processing circuit 11 of the first and second embodiments are as follows. Needless to say, the MPU 16 serving as the arithmetic processing means can be used. As an embodiment embodying this, a third embodiment will be described.

図15は、第3実施例に係る画像処理回路11の内部構成をも示す、運転支援システムの一部ブロック図である。第3実施例に係る画像処理回路11は、図15の符号21〜23、24a、25及び26にて参照される各部位を備える。第3実施例でも、調停回路25の存在を無視した説明を行う。   FIG. 15 is a partial block diagram of the driving support system that also shows the internal configuration of the image processing circuit 11 according to the third embodiment. The image processing circuit 11 according to the third embodiment includes each part referred to by reference numerals 21 to 23, 24a, 25 and 26 in FIG. Also in the third embodiment, description will be made ignoring the presence of the arbitration circuit 25.

図15の書き込みアドレス生成回路21、映像出力アドレス生成回路22及びLUTアドレス生成回路23の各動作は、第1実施例で示したものと同じである。LUTアドレス生成回路23が生成したLUTアドレスに従ってRAM部12から読み出されたLUT情報は、読み出しアドレス生成回路24aに送られる。   The operations of the write address generation circuit 21, the video output address generation circuit 22 and the LUT address generation circuit 23 of FIG. 15 are the same as those shown in the first embodiment. The LUT information read from the RAM unit 12 according to the LUT address generated by the LUT address generation circuit 23 is sent to the read address generation circuit 24a.

読み出しアドレス生成回路24aには、MPU16からフレームメモリ指定情報が与えられる。フレームメモリ指定情報は、各チャネルの指定フレームメモリを定める情報である。読み出しアドレス生成回路24aは、フレームメモリ指定情報に従って各チャネルの指定フレームメモリを特定し、LUT情報によって指定されるチャネル及び画素位置の画素信号を指定フレームメモリから読み出すべく、LUT情報に基づいて指定フレームメモリ上の読み出しアドレスを生成する。この読み出しアドレスに書き込まれていた画素信号は、出力画像の、映像出力アドレスに対応する位置の画素の画素信号としてエンコーダ13に出力される。   Frame memory designation information is supplied from the MPU 16 to the read address generation circuit 24a. The frame memory designation information is information that defines a designated frame memory for each channel. The read address generation circuit 24a identifies the designated frame memory of each channel according to the frame memory designation information, and reads the pixel signal at the channel and pixel position designated by the LUT information from the designated frame memory based on the designated frame. A read address on the memory is generated. The pixel signal written to the read address is output to the encoder 13 as a pixel signal of a pixel at a position corresponding to the video output address of the output image.

MPU16にてフレームメモリ指定情報を作成するために、MPU16が入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングを正確に把握する必要がある。そこで、図15に示す構成では、書き込みアドレス生成回路21が生成した書き込みアドレスをレジスタ26に与えるようにし、垂直同期信号Vsync2の発生時点における書き込みアドレスをレジスタ26にラッチさせてMPU16に与える。一方で、垂直同期信号Vsync2の発生時点において、MPU16に対する割り込み要求を発生させるようにする。これにより、MPU16は、割り込み要求発生時点を垂直同期信号Vsync2の発生時点として把握すると共に、その時点における書き込みアドレスを同時に認識する。即ち、入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係がMPU16において認識される。   In order for the MPU 16 to create the frame memory designation information, the MPU 16 needs to accurately grasp the input timing of the image data of the input image and the output timing of the image data of the output image. Therefore, in the configuration shown in FIG. 15, the write address generated by the write address generation circuit 21 is given to the register 26, and the write address at the time when the vertical synchronization signal Vsync 2 is generated is latched in the register 26 and given to the MPU 16. On the other hand, when the vertical synchronization signal Vsync2 is generated, an interrupt request for the MPU 16 is generated. As a result, the MPU 16 grasps the interrupt request occurrence time as the occurrence time of the vertical synchronization signal Vsync2, and simultaneously recognizes the write address at that time. That is, the MPU 16 recognizes the timing relationship between the input timing of the image data of the input image and the output timing of the image data of the output image.

MPU16は、指定LUTに適応した図13に示すような読み出しメモリ切替情報を予め認識している。そして、MPU16は、切替判定タイミングをMPU16に内蔵されたタイマ(不図示)を用いて認識し、その切替判定タイミングにおいて切替判定条件の成立/不成立を判断することにより指定フレームメモリの切替判断及びその判断結果に応じたフレームメモリ指定情報の更新を行う(尚、切替判定タイミングがVsync2の発生時点と同じであるのなら、タイマの使用は必要ない)。   The MPU 16 recognizes the read memory switching information as shown in FIG. 13 adapted to the designated LUT in advance. Then, the MPU 16 recognizes the switching determination timing using a timer (not shown) built in the MPU 16 and determines whether the switching determination condition is satisfied or not at the switching determination timing. The frame memory designation information is updated according to the determination result (if the switching determination timing is the same as when Vsync2 is generated, it is not necessary to use a timer).

指定LUTが第1LUTであって且つ図13に示す読み出しメモリ切替情報が定められている場合を想定し、ch4に対するMPU16の動作について説明する。出力画像の(Yout_top4−α)番目の水平ライン、即ち、ch4の切替判定タイミング情報によって表される(Yout_top4−α)番目の水平ラインの画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。この切替判定タイミングにおいてタイマによる割り込み要求が発生するようにVsync2の発生時点を基準にタイマを設定しておくことで、MPU16は、この切替判定タイミングを認識する。図16に、タイマによる割り込み要求の様子を示す。 The operation of the MPU 16 for ch4 will be described assuming that the designated LUT is the first LUT and the read memory switching information shown in FIG. 13 is determined. (Yout_top 4 -α) th horizontal line of the output image, i.e., (Yout_top 4 -α) represented by the switching determination timing information ch4 th output pixel signals of the horizontal lines to the encoder 13 reads from the RAM 12 The timing to be performed is the switching determination timing for ch4. The MPU 16 recognizes the switching determination timing by setting a timer based on the generation time of Vsync2 so that an interrupt request is generated by the timer at the switching determination timing. FIG. 16 shows the state of the interrupt request by the timer.

そして、MPU16は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かの判断を、レジスタ26から与えられた書き込みアドレスに基づいて実行する。判断の主体がMPU16に変わっただけで、この判断の方法自体は第1実施例で述べたものと同様である。判断結果は、フレームメモリ指定情報に反映される。   The MPU 16 then determines whether to switch the frame memory from which the ch4 input image is to be read based on the write address given from the register 26 at this switching determination timing. The determination method itself is the same as that described in the first embodiment, except that the determination subject is changed to the MPU 16. The determination result is reflected in the frame memory designation information.

尚、第1実施例でも述べたのと同様、指定LUTによっては、或るチャネルの切替判定タイミングの個数が1枚の出力画像に対して2以上となりうる。例えば、第2LUTが指定LUTとなっている場合は、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、MPU16が、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。例えば、第2LUTを指定LUTとして用いた場合、ch3に対しては、Vsync2の発生タイミングと(Yout_top3−α)で表されるタイミングが切替判定タイミングとされ、後者のタイミングにおいてタイマによる割り込み要求が発生するようにしておく(図17参照)。 As described in the first embodiment, depending on the designated LUT, the number of switching determination timings for a certain channel can be two or more for one output image. For example, when the second LUT is a designated LUT, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, the MPU 16 may determine whether the corresponding switching determination condition is satisfied or not, and select a designated frame memory for ch3 based on the determination result. For example, when a first 2LUT as specified LUT, for the ch3, timing represented by a generation timing of Vsync2 (Yout_top 3 -α) is a switching determination timing, the interrupt request by the timer in the latter timing It should be generated (see FIG. 17).

また、ライン単位で指定フレームメモリの切替判定を行う例を示したが、第2実施例に記載した事項を第3実施例に適用することも可能である。即ち、回路規模の増大が許されるなら、第2実施例で示したように、画素単位で該切替判定を行うことも可能である。   Moreover, although the example which performs the switching determination of the designation | designated frame memory per line was shown, the matter described in 2nd Example is also applicable to 3rd Example. That is, if the circuit scale is allowed to increase, the switching determination can be performed on a pixel basis as shown in the second embodiment.

また、第1又は第2実施例の如くハードウェアが主体となって指定フレームメモリの切替判定を行うようにすると、時間の管理が正確になり、映像出力における遅延を良好に低減することができる。これに対し、第3実施例では、MPU16がリアルタイム制御に介在するため、Vsync2による割り込みやタイマによる割り込みの処理優先順位によっては、時間管理に誤差が発生しうる。このため、映像出力における遅延の低減効果は第1実施例のそれよりも若干小さいと言えるが、一方で、読み出しアドレス生成回路の回路構成を簡素化できるというメリットがある。   Further, when the switching determination of the designated frame memory is performed mainly by hardware as in the first or second embodiment, the time management becomes accurate and the delay in video output can be reduced well. . On the other hand, in the third embodiment, since the MPU 16 is involved in the real-time control, an error may occur in time management depending on the processing priority order of the interrupt by Vsync2 or the interrupt by the timer. For this reason, it can be said that the effect of reducing the delay in video output is slightly smaller than that of the first embodiment, but there is an advantage that the circuit configuration of the read address generation circuit can be simplified.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述の例では、1つのチャネルに対して設けられているフレームメモリの個数が4であるが、その個数を2以上の任意の個数とすることができる。
[Note 1]
In the above example, the number of frame memories provided for one channel is 4, but the number can be any number of 2 or more.

[注釈2]
上述の例では、入力画像上の各画素と出力画像上の各画素との対応関係を規定する対応情報としてLUT(テーブルデータ)を用意し、該LUTを用いて各入力画像から出力画像を形成するようにしているが、LUTを用いる場合と等価な出力画像が得られるのであればLUTの使用は必須ではない。例えば、上記の対応情報に応じた幾何学的変換を各入力画像に施すことよって出力画像を得るようにしていもよい。
[Note 2]
In the above example, LUT (table data) is prepared as correspondence information that defines the correspondence between each pixel on the input image and each pixel on the output image, and an output image is formed from each input image using the LUT. However, the use of the LUT is not essential if an output image equivalent to the case of using the LUT can be obtained. For example, an output image may be obtained by performing geometric transformation according to the correspondence information on each input image.

[注釈3]
図3の運転支援システムは、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図12又は図15に示される、画像処理装置11内の各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 3]
The driving support system in FIG. 3 can be realized by hardware or a combination of hardware and software. In particular, the function of each part in the image processing apparatus 11 shown in FIG. 12 or 15 can be realized by hardware, software, or a combination of hardware and software.

[注釈4]
車両に対する運転支援システムに本発明を適用した場合の実施形態を上述したが、本発明は、車両用途に限定されない。即ち、本発明は、互いに非同期の複数カメラからの入力画像に対して画像処理を施して出力画像を得る様々な装置及びシステム(監視システムなど)に適用可能であり、特にリアルタイム性を要求する用途全てに適用可能である。尚、画像処理の内容によっては画像処理にかかる時間が大きくなるが、その際は、上述のレイテンシ(α又はα’)を大きな値に設定しておくことで対応可能である。
[Note 4]
Although the embodiment in the case where the present invention is applied to the driving support system for the vehicle has been described above, the present invention is not limited to the vehicle application. That is, the present invention can be applied to various apparatuses and systems (such as a monitoring system) that obtain an output image by performing image processing on input images from a plurality of cameras that are asynchronous with each other. Applicable to all. Depending on the contents of the image processing, the time required for the image processing increases. In this case, the above-described latency (α or α ′) can be set to a large value.

また、カメラからの映像信号がデコーダを介して画像処理回路に入力される構成を上述の実施形態にて示したが、本発明に係る映像信号の入出力形態は、上述の実施形態におけるそれに限定されない。例えば、カメラからの映像信号をネットワークを介して受信する形態であっても、その映像信号を一旦復号してフレームメモリに蓄えることができるのであれば、本発明を適用可能である。但し、この場合は、入力される映像信号がフレーム途中で途切れる可能性があることを想定し、入力画像を形成する画素の内、表示に使用する画素全ての画素信号の受信を待って実際の表示を行う必要がある。   Further, the configuration in which the video signal from the camera is input to the image processing circuit via the decoder has been described in the above embodiment, but the input / output mode of the video signal according to the present invention is limited to that in the above embodiment. Not. For example, even if the video signal from the camera is received via a network, the present invention can be applied as long as the video signal can be once decoded and stored in the frame memory. However, in this case, assuming that there is a possibility that the input video signal may be interrupted in the middle of the frame, it is necessary to wait for the reception of the pixel signals of all the pixels used for display among the pixels forming the input image. It is necessary to display.

従って、ネットワークを介した映像信号受信を第1実施例に適用する場合、例えば、表示に使用する画素が属する最後の水平ラインに1ラインを加えた水平ライン上の画素の画素信号が受信された時に、指定フレームメモリ(即ち、表示に使用するフレームメモリ)の切替判定を行うようにする。同様に、ネットワークを介した映像信号受信を第2実施例に適用する場合、例えば、表示に使用する最後の画素の次の画素の画素信号が受信された時に、指定フレームメモリの切替判定を行うようにする。第3実施例では、タイマを用いて切替判定タイミングの予測を行っているため、ネットワークを介した映像信号受信をそのまま第3実施例に使用することができない。ネットワークを介した映像信号受信を第3実施例に適用する場合は、表示に使用する最後の画素の受信時にMPU16に対して割り込み要求が発生するようにしておき、その割り込み要求に対応してMPU16内で実行される割り込みルーチン中において、指定フレームメモリの切替判定を行う必要がある。   Therefore, when the video signal reception via the network is applied to the first embodiment, for example, the pixel signal of the pixel on the horizontal line obtained by adding one line to the last horizontal line to which the pixel used for display belongs is received. Sometimes, a switching determination of a designated frame memory (that is, a frame memory used for display) is performed. Similarly, when the video signal reception via the network is applied to the second embodiment, for example, when the pixel signal of the pixel next to the last pixel used for display is received, the switching determination of the designated frame memory is performed. Like that. In the third embodiment, since the switching determination timing is predicted using a timer, video signal reception via the network cannot be used as it is in the third embodiment. When the video signal reception via the network is applied to the third embodiment, an interrupt request is generated to the MPU 16 when the last pixel used for display is received, and the MPU 16 corresponding to the interrupt request is generated. It is necessary to determine whether to switch the designated frame memory during the interrupt routine executed in the program.

[注釈5]
例えば、以下のように考えることができる。各カメラから取得した入力画像より出力画像を生成する画像処理装置は、主として、図3の画像処理回路11、RAM部12及びMPU16によって形成される。第1又は第2実施例では、指定フレームメモリを選択する選択手段は画像処理回路11に内在しているが、第3実施例では、選択手段はMPU16に内在している。
[Note 5]
For example, it can be considered as follows. An image processing apparatus that generates an output image from an input image acquired from each camera is mainly formed by the image processing circuit 11, the RAM unit 12, and the MPU 16 of FIG. In the first or second embodiment, the selection means for selecting the designated frame memory is included in the image processing circuit 11, but in the third embodiment, the selection means is included in the MPU 16.

本発明の実施形態に係る運転支援システムが適用される車両を上方から見た平面図である。It is the top view which looked at the vehicle to which the driving assistance system concerning the embodiment of the present invention is applied from the upper part. 図1の車両を左斜め前方から見た図である。It is the figure which looked at the vehicle of FIG. 1 from the diagonally left front. 本発明の実施形態に係る運転支援システムの全体構成ブロック図である。1 is an overall configuration block diagram of a driving support system according to an embodiment of the present invention. 図3の画像処理回路の入力画像及び出力画像の構成を示す図である。It is a figure which shows the structure of the input image and output image of the image processing circuit of FIG. 図3のRAM部内に設けられるフレームメモリ群を示す図である。It is a figure which shows the frame memory group provided in the RAM part of FIG. 図3の運転支援システムによる出力画像の生成方法を説明するための図であり、入力画像の入力タイミングと出力画像の出力タイミングとの関係を表す図である。FIG. 4 is a diagram for explaining a method for generating an output image by the driving support system of FIG. 図3の運転支援システムによる出力画像の生成方法を説明するための図であり、入力画像の入力タイミングと出力画像の出力タイミングとの関係を表す図である。FIG. 4 is a diagram for explaining a method for generating an output image by the driving support system of FIG. 図3の運転支援システムによる出力画像の生成方法を説明するための図であり、入力画像の入力タイミングと出力画像の出力タイミングとの関係を表す図である。FIG. 4 is a diagram for explaining a method for generating an output image by the driving support system in FIG. 3, and is a diagram illustrating a relationship between an input timing of an input image and an output timing of the output image. 図3の運転支援システムによる出力画像の生成方法を説明するための図であり、入力画像からの切り出し画像が出力画像内に嵌め込まれる様子を示す図である。FIG. 4 is a diagram for explaining a method for generating an output image by the driving support system of FIG. 3, and is a diagram illustrating a state in which a cut-out image from the input image is fitted in the output image. ch4に対するフレームメモリ群に画像データが書き込まれていく様子を示す図である。It is a figure which shows a mode that image data is written in the frame memory group with respect to ch4. 図3のLUT領域内に形成されるLUTのテーブルデータを示す図である。It is a figure which shows the table data of LUT formed in the LUT area | region of FIG. 本発明の第1実施例に係り、画像処理回路の内部構成をも示す、図3の運転支援システムの一部ブロック図である。FIG. 4 is a partial block diagram of the driving support system of FIG. 3, showing the internal configuration of the image processing circuit according to the first embodiment of the present invention. 本発明の第1実施例に係り、図12の読み出しアドレス生成回路に与えられる読み出しメモリ切替情報の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of read memory switching information applied to the read address generation circuit of FIG. 12 according to the first embodiment of the present invention. 本発明の第2実施例に係り、図12の読み出しアドレス生成回路に与えられる読み出しメモリ切替情報の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of read memory switching information applied to the read address generation circuit of FIG. 12 according to the second embodiment of the present invention. 本発明の第3実施例に係り、画像処理回路の内部構成をも示す、図3の運転支援システムの一部ブロック図である。FIG. 4 is a partial block diagram of the driving support system in FIG. 3 according to a third embodiment of the present invention and also showing an internal configuration of an image processing circuit. 本発明の第3実施例に係り、MPU内蔵タイマによる割り込み発生の様子を示す図である。It is a figure which shows the mode of the interruption generation | occurrence | production by the MPU built-in timer concerning 3rd Example of this invention. 本発明の第3実施例に係り、MPU内蔵タイマによる割り込み発生の様子を示す図である。It is a figure which shows the mode of the interruption generation | occurrence | production by the MPU built-in timer concerning 3rd Example of this invention. 出力画像(表示画像)の例を示す図である。It is a figure which shows the example of an output image (display image). 従来技術に係り、入力画像の入力タイミングと図18の出力画像の出力タイミングとの関係を表す図である。FIG. 19 is a diagram illustrating a relationship between input timing of an input image and output timing of an output image in FIG. 18 according to the related art. 出力画像(表示画像)の他の例を示す図である。It is a figure which shows the other example of an output image (display image). 従来技術に係り、入力画像の入力タイミングと図20の出力画像の出力タイミングとの関係を表す図である。FIG. 21 is a diagram illustrating a relationship between input timing of an input image and output timing of an output image in FIG. 20 according to the related art.

符号の説明Explanation of symbols

CA1〜CA4 カメラ
100 車両
11 画像処理回路
12 RAM部
12a フレームメモリ領域
12b LUT領域
16 MPU
CA1 to CA4 Camera 100 Vehicle 11 Image processing circuit 12 RAM section 12a Frame memory area 12b LUT area 16 MPU

Claims (9)

第1〜第nの内部同期カメラの夫々にて順次撮像される入力画像の画像データの入力を受け、各々が1枚分の入力画像の画像データを記憶する複数のフレームメモリを前記内部同期カメラごとに有する入力メモリ部と(nは2以上の整数)、
前記第1〜第nの内部同期カメラの夫々からの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係に基づいて、前記内部同期カメラごとに前記出力画像の形成に利用されるフレームメモリを指定フレームメモリとして選択する選択手段と、
各指定フレームメモリに記憶される前記入力画像を合成することによって前記出力画像の画像データを生成して出力する出力手段と、を備えた画像処理装置であって、
前記選択手段は、
各入力画像を前記出力画像に反映させる、前記出力画像上の位置に基づいて、前記内部同期カメラごとに個別に選択タイミングを設定し、
前記内部同期カメラごとに前記指定フレームメモリを前記選択タイミングにおいて選択する
ことを特徴とする画像処理装置。
A plurality of frame memories that receive image data of input images sequentially picked up by each of the first to n-th internal synchronous cameras and each store image data of one input image include the internal synchronous camera An input memory unit for each (n is an integer of 2 or more),
Based on the timing relationship between the input timing of the image data from each of the first to n-th internal synchronous cameras and the output timing of the image data of the output image, it is used for forming the output image for each internal synchronous camera. Selecting means for selecting a designated frame memory as a designated frame memory;
Output means for generating and outputting image data of the output image by synthesizing the input images stored in each designated frame memory, and an image processing apparatus comprising:
The selection means includes
Each input image is reflected in the output image, based on the position on the output image, the selection timing is set individually for each internal synchronization camera,
The image processing apparatus, wherein the designated frame memory is selected at the selection timing for each internal synchronization camera.
iを1以上n以下の整数とした場合、
前記選択手段は、
第iの内部同期カメラからの最新の入力画像の画像データを記憶すべきフレームメモリに着目し、
第iの内部同期カメラからの入力画像の画像データが前記出力画像の画像データとして出力されるべきタイミングにおいて着目したフレームメモリの画像データを利用できるか否か、の判定を行い、
その判定結果に基づいて、第iの内部同期カメラに対する前記指定フレームメモリを選択する
ことを特徴とする請求項1に記載の画像処理装置。
When i is an integer of 1 to n,
The selection means includes
Paying attention to the frame memory to store the image data of the latest input image from the i-th internal synchronous camera,
A determination is made as to whether or not the image data of the focused frame memory can be used at a timing when the image data of the input image from the i-th internal synchronization camera is to be output as the image data of the output image;
The image processing apparatus according to claim 1, wherein the designated frame memory for the i-th internal synchronization camera is selected based on the determination result.
前記出力手段は、各内部同期カメラからの前記入力画像上の各画素と前記出力画像上の各画素との対応関係を規定する所定の対応情報に基づいて、各指定フレームメモリに記憶される前記入力画像の画像データから前記出力画像の画像データを生成し、
前記選択手段は、前記対応情報から定まる情報に基づいて前記判定を行う
ことを特徴とする請求項2に記載の画像処理装置。
The output means is stored in each designated frame memory based on predetermined correspondence information that defines a correspondence relationship between each pixel on the input image and each pixel on the output image from each internal synchronization camera. Generating image data of the output image from image data of the input image;
The image processing apparatus according to claim 2, wherein the selection unit performs the determination based on information determined from the correspondence information.
第iの内部同期カメラからの前記入力画像上の水平ラインと該水平ラインに対応する前記出力画像上の水平ラインとのライン位置の相違及び該相違の最大量が前記対応情報によって定まり、
前記選択手段は、前記選択タイミングを水平ライン単位で設定し、前記相違の最大量に基づいて前記判定を行う
ことを特徴とする請求項3に記載の画像処理装置。
The difference in line position between the horizontal line on the input image from the i-th internal synchronization camera and the horizontal line on the output image corresponding to the horizontal line and the maximum amount of the difference are determined by the correspondence information,
The image processing apparatus according to claim 3, wherein the selection unit sets the selection timing in units of horizontal lines and performs the determination based on the maximum amount of the difference.
第iの内部同期カメラからの前記入力画像上の画素と該画素に対応する前記出力画像上の画素との画素位置の相違及び該相違の最大量が前記対応情報によって定まり、
前記選択手段は、前記選択タイミングを画素単位で設定し、前記相違の最大量に基づいて前記判定を行う
ことを特徴とする請求項3に記載の画像処理装置。
The difference in pixel position between the pixel on the input image from the i-th internal synchronization camera and the pixel on the output image corresponding to the pixel and the maximum amount of the difference are determined by the correspondence information,
The image processing apparatus according to claim 3, wherein the selection unit sets the selection timing in units of pixels and performs the determination based on the maximum amount of difference.
前記選択手段は、前記第1〜第nの内部同期カメラの内の少なくとも1台の内部同期カメラに対する前記選択タイミングを複数個設定し、複数個の選択タイミングが設定された内部同期カメラに対する前記指令フレームメモリの選択を前記複数個の選択タイミングの夫々において行う
ことを特徴とする請求項1〜請求項5の何れかに記載の画像処理装置。
The selection means sets a plurality of the selection timings for at least one of the first to n-th internal synchronization cameras, and the command to the internal synchronization camera in which a plurality of selection timings are set. 6. The image processing apparatus according to claim 1, wherein the frame memory is selected at each of the plurality of selection timings.
前記選択手段を有するとともに割り込み要求を発生するタイマを内蔵した演算処理手段を更に備え、
前記演算処理手段は、前記選択タイミングに前記割り込み要求が発生するように前記タイマを作動させて前記割り込み要求の発生時に前記指定フレームメモリの選択を行う
ことを特徴とする請求項1〜請求項6の何れかに記載の画像処理装置。
Arithmetic processing means having the selection means and a built-in timer for generating an interrupt request,
7. The arithmetic processing unit operates the timer so that the interrupt request is generated at the selection timing, and selects the designated frame memory when the interrupt request is generated. An image processing apparatus according to any one of the above.
車両に取り付けられた第1〜第nの内部同期カメラと(nは2以上の整数)、
請求項1〜請求項7の何れかに記載の画像処理装置と、を備え、
前記画像処理装置にて生成された出力画像の画像データを表示手段に供給することにより前記出力画像を表示手段において表示する
ことを特徴とする運転支援システム。
First to nth internal synchronous cameras attached to the vehicle (n is an integer of 2 or more);
An image processing apparatus according to any one of claims 1 to 7,
A driving support system, wherein the output image is displayed on the display means by supplying image data of the output image generated by the image processing device to the display means.
第1〜第nの内部同期カメラが取り付けられ(nは2以上の整数)、且つ、請求項1〜請求項7の何れかに記載の画像処理装置が設置された
ことを特徴とする車両。
A vehicle, wherein first to nth internal synchronous cameras are attached (n is an integer of 2 or more), and the image processing apparatus according to any one of claims 1 to 7 is installed.
JP2007313103A 2007-12-04 2007-12-04 Image processing apparatus, driving support system, and vehicle Expired - Fee Related JP5091643B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007313103A JP5091643B2 (en) 2007-12-04 2007-12-04 Image processing apparatus, driving support system, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007313103A JP5091643B2 (en) 2007-12-04 2007-12-04 Image processing apparatus, driving support system, and vehicle

Publications (2)

Publication Number Publication Date
JP2009141456A true JP2009141456A (en) 2009-06-25
JP5091643B2 JP5091643B2 (en) 2012-12-05

Family

ID=40871671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007313103A Expired - Fee Related JP5091643B2 (en) 2007-12-04 2007-12-04 Image processing apparatus, driving support system, and vehicle

Country Status (1)

Country Link
JP (1) JP5091643B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013642A1 (en) * 2009-07-29 2011-02-03 クラリオン株式会社 Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles
WO2016024395A1 (en) * 2014-08-11 2016-02-18 セイコーエプソン株式会社 Vehicular imaging device, vehicular image display system, and vehicle
WO2016024396A1 (en) * 2014-08-11 2016-02-18 セイコーエプソン株式会社 Imaging device, image display device, and vehicle
JP2017050818A (en) * 2015-09-04 2017-03-09 株式会社ソシオネクスト Image processing method and image processing program
WO2018088061A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Image transfer device, image transfer method, program, and moving image generation system
WO2019158287A1 (en) * 2018-02-16 2019-08-22 Renault S.A.S Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera
US11381714B2 (en) 2020-09-18 2022-07-05 Kabushiki Kaisha Toshiba Image processing device and image processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268557A (en) * 2000-03-21 2001-09-28 Aiwa Co Ltd Device and method for processing video signal
JP2007020019A (en) * 2005-07-11 2007-01-25 Clarion Co Ltd Memory controller and synchronization device of signal string
JP2007158639A (en) * 2005-12-05 2007-06-21 Alpine Electronics Inc Car driving support apparatus
JP2007180635A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Image display apparatus for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268557A (en) * 2000-03-21 2001-09-28 Aiwa Co Ltd Device and method for processing video signal
JP2007020019A (en) * 2005-07-11 2007-01-25 Clarion Co Ltd Memory controller and synchronization device of signal string
JP2007158639A (en) * 2005-12-05 2007-06-21 Alpine Electronics Inc Car driving support apparatus
JP2007180635A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Image display apparatus for vehicle

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013642A1 (en) * 2009-07-29 2011-02-03 クラリオン株式会社 Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles
JP2011030141A (en) * 2009-07-29 2011-02-10 Clarion Co Ltd Vehicle periphery monitoring device and method of displaying vehicle peripheral images
CN102273201A (en) * 2009-07-29 2011-12-07 歌乐牌株式会社 Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles
US9247217B2 (en) 2009-07-29 2016-01-26 Clarion Co., Ltd. Vehicle periphery monitoring device and vehicle periphery image display method
JP2016040904A (en) * 2014-08-11 2016-03-24 セイコーエプソン株式会社 Imaging device for vehicle, image display system for vehicle, and vehicle
WO2016024396A1 (en) * 2014-08-11 2016-02-18 セイコーエプソン株式会社 Imaging device, image display device, and vehicle
US10358090B2 (en) 2014-08-11 2019-07-23 Seiko Epson Corporation Vehicle imaging device, vehicle imaging display system, and vehicle
JP2016040163A (en) * 2014-08-11 2016-03-24 セイコーエプソン株式会社 Imaging device, image display device, and vehicle
CN106537903A (en) * 2014-08-11 2017-03-22 精工爱普生株式会社 Imaging device, image display device, and vehicle
CN106576154A (en) * 2014-08-11 2017-04-19 精工爱普生株式会社 Vehicular imaging device, vehicular image display system, and vehicle
US10389920B2 (en) 2014-08-11 2019-08-20 Seiko Epson Corporation Imaging device, imaging display apparatus, and vehicle
WO2016024395A1 (en) * 2014-08-11 2016-02-18 セイコーエプソン株式会社 Vehicular imaging device, vehicular image display system, and vehicle
CN106576154B (en) * 2014-08-11 2019-06-21 精工爱普生株式会社 Vehicle camera, vehicle camera shooting display system and vehicle
CN106537903B (en) * 2014-08-11 2019-06-21 精工爱普生株式会社 Filming apparatus, shooting display device and vehicle
JP2017050818A (en) * 2015-09-04 2017-03-09 株式会社ソシオネクスト Image processing method and image processing program
CN109891875A (en) * 2016-11-08 2019-06-14 索尼公司 Image transmission devices, image transmission method, program and moving image generate system
WO2018088061A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Image transfer device, image transfer method, program, and moving image generation system
JPWO2018088061A1 (en) * 2016-11-08 2019-09-26 ソニー株式会社 Image transfer apparatus, image transfer method, program, and moving image generation system
US10834315B2 (en) 2016-11-08 2020-11-10 Sony Corporation Image transfer apparatus and moving image generating system for transferring moving image data
CN109891875B (en) * 2016-11-08 2021-11-16 索尼公司 Image transmission apparatus, method, system, and storage medium
WO2019158287A1 (en) * 2018-02-16 2019-08-22 Renault S.A.S Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera
FR3078224A1 (en) * 2018-02-16 2019-08-23 Renault S.A.S METHOD FOR MONITORING A MOTOR VEHICLE IN PARKING ENVIRONMENT COMPRISING AN ASYNCHRONOUS CAMERA
KR20200118866A (en) * 2018-02-16 2020-10-16 르노 에스.아.에스. How to monitor the environment of a parked car with an asynchronous camera
US11282392B2 (en) 2018-02-16 2022-03-22 Renault S.A.S Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera
KR102564994B1 (en) * 2018-02-16 2023-08-08 르노 에스.아.에스. A method for monitoring the environment of a parked car with an asynchronous camera
US11381714B2 (en) 2020-09-18 2022-07-05 Kabushiki Kaisha Toshiba Image processing device and image processing system

Also Published As

Publication number Publication date
JP5091643B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5091643B2 (en) Image processing apparatus, driving support system, and vehicle
US10462372B2 (en) Imaging device, imaging system, and imaging method
JP5178961B2 (en) Image synthesizer
JP2006180340A (en) Video signal processor, its method and on-vehicle camera system
US20150254820A1 (en) Semiconductor integrated circuit and multi-angle video system
JP2010028537A (en) Image processing apparatus and recording device
US8462222B2 (en) Image processing method and device, and imaging apparatus using the image processing device
US20100172599A1 (en) Image signal scaler and image signal processor including the same
JP4556502B2 (en) Video converter
US8447035B2 (en) Contract based memory management for isochronous streams
JP2010081024A (en) Device for interpolating image
EP1455338A1 (en) Image processor with frame-rate conversion
JP4818854B2 (en) Image display device, electronic device, display control device, and display control method
JP2012028997A (en) Image processing device and camera
US7868913B2 (en) Apparatus for converting images of vehicle surroundings
JP2015096920A (en) Image processor and control method of image processing system
TWI533701B (en) Apparatus and method for generating picture-in-picture (pip) image
JP2015125411A (en) Video processing device
JP2009071616A (en) Image processor and control method thereof
JP2011066498A (en) Image processor and in-vehicle imaging system
JP4525382B2 (en) Display device and imaging device
WO2024098284A1 (en) Imaging device
JP2011055021A (en) Image generating device, display system and image generating method
JP3985451B2 (en) Image processing apparatus and image display apparatus
US20110292292A1 (en) Method and apparatus for displaying video data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120820

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees