JP2009141456A - Image processing apparatus, drive support system, and vehicle - Google Patents
Image processing apparatus, drive support system, and vehicle Download PDFInfo
- Publication number
- JP2009141456A JP2009141456A JP2007313103A JP2007313103A JP2009141456A JP 2009141456 A JP2009141456 A JP 2009141456A JP 2007313103 A JP2007313103 A JP 2007313103A JP 2007313103 A JP2007313103 A JP 2007313103A JP 2009141456 A JP2009141456 A JP 2009141456A
- Authority
- JP
- Japan
- Prior art keywords
- image
- output
- input
- frame memory
- timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、複数の入力画像から出力画像を生成する画像処理装置に関する。また本発明は、その画像処理装置を利用した運転支援システム及び車両に関する。 The present invention relates to an image processing apparatus that generates an output image from a plurality of input images. The present invention also relates to a driving support system and a vehicle using the image processing apparatus.
近年、安全志向の高まりから、運転補助用のシステムとして後退時に車両後方を映像として表示するリアビューカメラシステムや車両側方を映像として表示するサイドカメラシステムが実用化されて販売されている。この種のシステムの中で、複数のカメラにて取得された画像を合成して同時に表示するシステムも提案されている。例えば、車体四方に取り付けた複数のカメラからの入力画像を合成して表示する全周カメラシステムの開発が活発化している。全周カメラシステムの一種として、複数のカメラからの入力画像を地面上に投影して合成することにより全周鳥瞰画像を生成し、これを表示する全周鳥瞰システムも提案されている(例えば、下記特許文献2参照)。
2. Description of the Related Art In recent years, due to the increasing safety orientation, rear view camera systems that display the rear of a vehicle as an image when driving backward and side camera systems that display the side of a vehicle as an image have been put into practical use and sold as driving assistance systems. Among these types of systems, a system has also been proposed in which images acquired by a plurality of cameras are combined and displayed simultaneously. For example, development of an all-around camera system that synthesizes and displays input images from a plurality of cameras attached to the vehicle body in all directions has become active. As a kind of all-around camera system, an all-around bird's-eye view system that generates and displays an all-around bird's-eye view image by projecting and synthesizing input images from a plurality of cameras on the ground has also been proposed (for example, See
図18に、全周鳥瞰画像の例を示す。図18の全周鳥瞰画像は、車両を上空から見た画像となっている。画像の中央に車体のイラストを描画し、その車体の前後左右に各カメラからの入力画像を地面上に投影した画像を配置することで、全周鳥瞰画像は形成される。図18において、ch1、ch2、ch3及びch4は、夫々、車両の前側、右側、後側及び左側に設置されたカメラからの映像に対応している。尚、図18において、車体のイラスト内に示された矢印は、車両の進行方向を示している。 FIG. 18 shows an example of the all-around bird's-eye view image. The all-around bird's-eye view image of FIG. 18 is an image of the vehicle viewed from above. An all-around bird's-eye view image is formed by drawing an illustration of the vehicle body at the center of the image and arranging images obtained by projecting input images from the cameras on the ground on the front, rear, left and right sides of the vehicle body. In FIG. 18, ch1, ch2, ch3, and ch4 correspond to images from cameras installed on the front side, right side, rear side, and left side of the vehicle, respectively. In FIG. 18, the arrow shown in the illustration of the vehicle body indicates the traveling direction of the vehicle.
複数のカメラからの入力画像を合成して1画面内に同時に表示する場合、複数の入力画像間で同期をとる必要がある。同期をとる方式の1つとして外部同期方式がある。外部同期方式では、各カメラ共通の外部同期信号を生成し、この外部同期信号を各カメラに与えることで複数のカメラから同期のとれた映像信号を出力させる。 When combining input images from a plurality of cameras and displaying them simultaneously in one screen, it is necessary to synchronize the plurality of input images. One of the synchronization methods is an external synchronization method. In the external synchronization method, an external synchronization signal common to each camera is generated, and a synchronized video signal is output from a plurality of cameras by giving this external synchronization signal to each camera.
但し、外部同期方式を採用すると、外部同期信号を生成する同期信号発生部が必要となると共に外部同期信号を各カメラに供給する配線が必要となるため、システムの構成が複雑化する。また、カメラモジュール自体の小型化にも悪影響を与える。このため、外部同期信号を必要としない内部同期カメラを用いてシステムを構築することが一般的となっている。 However, when the external synchronization method is adopted, a synchronization signal generating unit for generating an external synchronization signal is required and wiring for supplying the external synchronization signal to each camera is required, which complicates the system configuration. In addition, the camera module itself is adversely affected. For this reason, it is common to construct a system using an internal synchronization camera that does not require an external synchronization signal.
しかしながら、複数の内部同期カメラを用いてシステムを構築すると、特許文献1にも指摘されているような、表示映像の遅延や複数の入力画像間の取得時間ずれが問題となってくる。
However, when a system is constructed using a plurality of internal synchronous cameras, the delay of the display video and the acquisition time shift between the plurality of input images as pointed out in
運転者は危険を認識してから回避行動を起こすため、危険の認識の元となる映像表示にはリアルタイム性が要求される。従って、特許文献1にも示唆されているように、車両用システムにおいてカメラからの入力画像が表示されるまでの遅延は短ければ短いほど良い、ことは自明である。これを考慮し、引用文献1の手法では、相互に非同期な複数のカメラからの入力画像を入力バッファに記憶しておき、出力画像の垂直同期信号の発生時点において入力バッファに記憶されている最新の入力画像を選択し、選択した入力画像から出力画像を生成するようにしている。
Since the driver recognizes the danger and then performs an avoidance action, the video display that is the basis for the danger recognition is required to have real-time characteristics. Therefore, as suggested in
引用文献1の手法を採用した画像処理回路(不図示)を用いて、図18に示すような全周鳥瞰画像を出力画像として生成して表示する場合を考える。尚、説明の便宜上、映像信号がノンインターレース方式の映像信号であることを想定し、映像をフレーム単位で考える。インターレース方式を採用する場合は、フレームをフィールドに置き換えて考えればよい。
Consider a case where an all-around bird's-eye view image as shown in FIG. 18 is generated and displayed as an output image using an image processing circuit (not shown) employing the technique of cited
ch4に対応する画像にのみ着目した図19を参照する。図19には、ch4の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch4の入力画像が、順次、画像処理回路(不図示)に与えられ、それらは入力バッファに記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路は、タイミングt1、t2、t3及びt4において、出力画像201、202、203及び204用の垂直同期信号を発生する。
Reference is made to FIG. 19 focusing on only the image corresponding to ch4. FIG. 19 shows the relationship between the input timing of the ch4 input image and the output timing of the output image. The input images of ch4 in the first, second, third, fourth and fifth frames are sequentially given to an image processing circuit (not shown), and are stored in the input buffer (input of the first frame). (Image not shown). The image processing circuit generates vertical synchronization signals for the
図19に示す例の場合、タイミングt1では、第1フレームのch4の入力画像の全体が入力バッファに保持されているものの第2フレームのch4の入力画像は入力バッファに書き込まれている最中である。そこで、画像処理回路は、第1フレームのch4の入力画像を用いて出力画像201を生成する。同様に、第2、3、4フレームのch4の入力画像を用いて、夫々、出力画像202、203及び204を生成する。生成された各出力画像は順次表示される。尚、図19において、出力画像201〜204内の、ch4に対応する部分に記載された数値は、ch4のフレーム番号を表している。
In the example shown in FIG. 19, at the timing t1, the entire input image of ch4 of the first frame is held in the input buffer, but the input image of ch4 of the second frame is being written to the input buffer. is there. Therefore, the image processing circuit generates an
更に、引用文献1の手法を採用した画像処理回路(不図示)を用いて、図20に示すような表示画像を表示する場合を考える。この場合、表示画面の全表示領域が左側領域と右上領域と右下領域に3分割される。そして、左側領域に全周鳥瞰画像が表示され、右上領域にch3の入力画像が拡大表示され、右下領域に車両速度等の付加情報が表示される。尚、図20において、車体のイラスト内に示された矢印は、車両の進行方向を示している。
Further, consider a case where a display image as shown in FIG. 20 is displayed using an image processing circuit (not shown) employing the technique of the cited
ch3に対応する画像にのみ着目した図21を参照する。図21には、ch3の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch3の入力画像が、順次、画像処理回路(不図示)に与えられ、それらは入力バッファに記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路は、タイミングt11、t12、t13及びt14において出力画像211、212、213及び214用の垂直同期信号を発生する。
Reference is made to FIG. 21 focusing on only the image corresponding to ch3. FIG. 21 shows the relationship between the input timing of the ch3 input image and the output timing of the output image. The input images of ch3 in the first, second, third, fourth and fifth frames are sequentially given to an image processing circuit (not shown), and are stored in the input buffer (input of the first frame). (Image not shown). The image processing circuit generates vertical synchronization signals for the
図21に示す例の場合、タイミングt11では、第1フレームのch3の入力画像の全体が入力バッファに保持されているものの第2フレームのch3の入力画像は入力バッファに書き込まれている最中である。そこで、画像処理回路は、第1フレームのch3の入力画像を用いて出力画像211を生成する。出力画像211には、ch3の入力画像に基づく画像を表示する領域が2つ設けられているが、その2つの領域の双方に対して第1フレームの入力画像が適用される。同様に、第2、3、4フレームのch3の入力画像を用いて、夫々、出力画像212、213及び214を生成する。生成された各出力画像は順次表示される。尚、図21において、出力画像211〜214内の、ch3に対応する部分に記載された数値は、ch3のフレーム番号を表している。
In the example shown in FIG. 21, at the timing t11, the entire ch3 input image of the first frame is held in the input buffer, but the ch3 input image of the second frame is being written to the input buffer. is there. Therefore, the image processing circuit generates the
上述したように、リアルタイム性が要求される用途においてカメラからの入力画像が表示されるまでの遅延は短ければ短いほど良いが、特許文献1の手法はあらゆる状況に対して最適な遅延低減作用をもたらすとは言えない(詳細は後の説明文から明らかとなる)。より遅延低減効果の高い技術が望まれる。
As described above, the shorter the delay until the input image from the camera is displayed in an application where real-time performance is required, the better. However, the technique of
そこで本発明は、複数の入力画像から出力画像を生成する際の遅延の低減に寄与する画像処理装置を提供することを目的とする。また本発明は、それを利用した運転支援システム及び車両を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing apparatus that contributes to a reduction in delay when generating an output image from a plurality of input images. Another object of the present invention is to provide a driving support system and a vehicle using the same.
上記目的を達成するために本発明に係る画像処理装置は、第1〜第nの内部同期カメラの夫々にて順次撮像される入力画像の画像データの入力を受け、各々が1枚分の入力画像の画像データを記憶する複数のフレームメモリを前記内部同期カメラごとに有する入力メモリ部と(nは2以上の整数)、前記第1〜第nの内部同期カメラの夫々からの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係に基づいて、前記内部同期カメラごとに前記出力画像の形成に利用されるフレームメモリを指定フレームメモリとして選択する選択手段と、各指定フレームメモリに記憶される前記入力画像を合成することによって前記出力画像の画像データを生成して出力する出力手段と、を備えた画像処理装置であって、前記選択手段は、各入力画像を前記出力画像に反映させる、前記出力画像上の位置に基づいて、前記内部同期カメラごとに個別に選択タイミングを設定し、前記内部同期カメラごとに前記指定フレームメモリを前記選択タイミングにおいて選択することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention receives input of image data of input images sequentially picked up by each of the first to n-th internal synchronous cameras, and each inputs one image. An input memory unit having a plurality of frame memories for storing image data of each image for each internal synchronous camera (n is an integer of 2 or more), and input of image data from each of the first to nth internal synchronous cameras Selection means for selecting a frame memory used for forming the output image as a designated frame memory for each of the internal synchronous cameras based on a timing relationship between timing and output timing of image data of the output image; and each designated frame memory Output means for generating and outputting image data of the output image by synthesizing the input images stored in the image processing apparatus, The selection means sets the selection timing individually for each internal synchronization camera based on the position on the output image that reflects each input image on the output image, and the designated frame memory for each internal synchronization camera. Is selected at the selection timing.
内部同期カメラごとに指定フレームメモリの選択タイミングを設定することにより、内部同期カメラごとに遅延低減の最適化を図ることができる。 By setting the selection timing of the designated frame memory for each internal synchronous camera, it is possible to optimize the delay reduction for each internal synchronous camera.
具体的には例えば、iを1以上n以下の整数とした場合、前記選択手段は、第iの内部同期カメラからの最新の入力画像の画像データを記憶すべきフレームメモリに着目し、第iの内部同期カメラからの入力画像の画像データが前記出力画像の画像データとして出力されるべきタイミングにおいて着目したフレームメモリの画像データを利用できるか否か、の判定を行い、その判定結果に基づいて、第iの内部同期カメラに対する前記指定フレームメモリを選択する。 Specifically, for example, when i is an integer greater than or equal to 1 and less than or equal to n, the selection unit pays attention to a frame memory in which image data of the latest input image from the i-th internal synchronous camera is to be stored. It is determined whether the image data of the frame memory focused on can be used at the timing when the image data of the input image from the internal synchronous camera should be output as the image data of the output image, and based on the determination result The designated frame memory for the i-th internal synchronous camera is selected.
そして例えば、前記出力手段は、各内部同期カメラからの前記入力画像上の各画素と前記出力画像上の各画素との対応関係を規定する所定の対応情報に基づいて、各指定フレームメモリに記憶される前記入力画像の画像データから前記出力画像の画像データを生成し、前記選択手段は、前記対応情報から定まる情報に基づいて前記判定を行う。 For example, the output means stores in each designated frame memory based on predetermined correspondence information that defines a correspondence relationship between each pixel on the input image and each pixel on the output image from each internal synchronization camera. The image data of the output image is generated from the image data of the input image, and the selection unit performs the determination based on information determined from the correspondence information.
より具体的には例えば、第iの内部同期カメラからの前記入力画像上の水平ラインと該水平ラインに対応する前記出力画像上の水平ラインとのライン位置の相違及び該相違の最大量が前記対応情報によって定まり、前記選択手段は、前記選択タイミングを水平ライン単位で設定し、前記相違の最大量に基づいて前記判定を行う。 More specifically, for example, the difference in line position between the horizontal line on the input image from the i-th internal synchronization camera and the horizontal line on the output image corresponding to the horizontal line and the maximum amount of the difference are The selection means sets the selection timing in units of horizontal lines and performs the determination based on the maximum amount of difference.
或いは例えば、第iの内部同期カメラからの前記入力画像上の画素と該画素に対応する前記出力画像上の画素との画素位置の相違及び該相違の最大量が前記対応情報によって定まり、前記選択手段は、前記選択タイミングを画素単位で設定し、前記相違の最大量に基づいて前記判定を行う。 Alternatively, for example, the difference in pixel position between the pixel on the input image from the i-th internal synchronization camera and the pixel on the output image corresponding to the pixel and the maximum amount of the difference are determined by the correspondence information, and the selection The means sets the selection timing in pixel units and performs the determination based on the maximum amount of the difference.
また例えば、前記選択手段は、前記第1〜第nの内部同期カメラの内の少なくとも1台の内部同期カメラに対する前記選択タイミングを複数個設定し、複数個の選択タイミングが設定された内部同期カメラに対する前記指令フレームメモリの選択を前記複数個の選択タイミングの夫々において行う。 Also, for example, the selection means sets a plurality of selection timings for at least one of the first to n-th internal synchronization cameras, and the internal synchronization camera has a plurality of selection timings set. The command frame memory is selected for each of the plurality of selection timings.
これにより、1つの内部同期カメラからの入力画像に基づく画像を1枚の出力画像内の複数領域に描画する場合においても、各領域に対して遅延低減の最適化が図られる。 As a result, even when an image based on an input image from one internal synchronous camera is drawn in a plurality of regions in one output image, the delay reduction is optimized for each region.
また例えば、当該画像処理装置は、前記選択手段を有するとともに割り込み要求を発生するタイマを内蔵した演算処理手段を更に備え、前記演算処理手段は、前記選択タイミングに前記割り込み要求が発生するように前記タイマを作動させて前記割り込み要求の発生時に前記指定フレームメモリの選択を行う。 In addition, for example, the image processing apparatus further includes an arithmetic processing unit that includes the selection unit and includes a timer that generates an interrupt request, and the arithmetic processing unit is configured to generate the interrupt request at the selection timing. A timer is activated to select the designated frame memory when the interrupt request is generated.
また本発明に係る運転支援システムは、車両に取り付けられた第1~第nの内部同期カメラと(nは2以上の整数)、上記の画像処理装置と、を備え、前記画像処理装置にて生成された出力画像の画像データを表示手段に供給することにより前記出力画像を表示手段において表示することを特徴とする。 A driving support system according to the present invention includes first to n-th internal synchronous cameras (n is an integer equal to or greater than 2) attached to a vehicle, and the above-described image processing device. The output image is displayed on the display means by supplying image data of the generated output image to the display means.
また本発明に係る車両は、第1〜第nの内部同期カメラが取り付けられ(nは2以上の整数)、且つ、上記の画像処理装置が設置されたことを特徴とする。 The vehicle according to the present invention is characterized in that the first to nth internal synchronous cameras are attached (n is an integer of 2 or more), and the image processing apparatus is installed.
本発明によれば、複数の入力画像から出力画像を生成する際の遅延の低減に寄与する。 The present invention contributes to a reduction in delay when generating an output image from a plurality of input images.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to third embodiments will be described later. First, matters common to each embodiment or items referred to in each embodiment will be described.
図1は、本実施形態に係る運転支援システムが適用される車両100を上方から見た平面図であり、その車両100へのカメラの設置状態を表している。図2は、車両100を左斜め前方から見た図である。図1及び図2には、車両100としてトラックが示されているが、車両100はトラック以外の車両(普通乗用車など)であってもよい。また、車両100は地面(例えば路面)上に配置されているものとする。
FIG. 1 is a plan view of a
図1に示す如く、車両100の前部、右側部、後部及び左側部に、夫々、カメラCA1、CA2、CA3及びCA4が取り付けられている。また、本実施形態において、カメラCA1、CA2、CA3及びCA4を区別せずに、単にカメラ或いは各カメラと呼ぶ場合もある。
As shown in FIG. 1, cameras CA1, CA2, CA3, and CA4 are attached to the front, right, rear, and left sides of the
また、図2に示す如く、カメラCA1は、例えば車両100のフロントミラー上部に設置され、カメラCA4は、例えば車両100の左側面の最上部に設置される。図2には示されていないが、カメラCA3は、例えば車両100の後部の最上部に設置され、カメラCA2は、例えば車両100の右側面の最上部に設置される。
As shown in FIG. 2, the camera CA <b> 1 is installed, for example, on the upper part of the front mirror of the
カメラCA1の光軸の向きが車両100の前方斜め下向きになるように、且つ、カメラCA2の光軸の向きが車両100の右方斜め下向きになるように、且つ、カメラCA3の光軸の向きが車両100の後方斜め下向きになるように、且つ、カメラCA4の光軸の向きが車両100の左方斜め下向きになるように、カメラCA1〜CA4は車両100に設置される。
The direction of the optical axis of the camera CA1 is obliquely downward to the front of the
図2には、カメラCA1とCA4の視野(即ち、撮影領域)が斜線領域によって示されている。カメラCA1は、車両100前方の所定領域内に位置する被写体(路面を含む)を撮像する。カメラCA2は、車両100右側の所定領域内に位置する被写体を撮像する。カメラCA3は、車両100後方の所定領域内に位置する被写体を撮像する。カメラCA4は、車両100左側の所定領域内に位置する被写体を撮像する。
In FIG. 2, the fields of view of the cameras CA1 and CA4 (that is, the imaging area) are indicated by hatched areas. Camera CA1 images a subject (including a road surface) located within a predetermined area in front of
図3に、本発明の実施形態に係る運転支援システムの全体構成ブロック図を示す。運転支援システムは、カメラCA1〜CA4の他、デコーダDEC1〜DEC4及び符号11〜17にて参照される各部位を備える。
FIG. 3 is a block diagram showing the overall configuration of the driving support system according to the embodiment of the present invention. The driving support system includes each part referred to by the decoders DEC1 to DEC4 and
カメラCA1〜CA4として、CCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。カメラCA1〜CA4の夫々は、外部同期信号を必要としない内部同期カメラである。即ち、各カメラは内部クロックを発生する内部クロック発生回路を備えており、カメラCA1〜CA4は、各々の内部クロックに従い、各々が独立したタイミングで映像信号を出力する。このため、カメラCA1〜CA4からの映像信号は互いに非同期であり、各カメラを非同期カメラと呼ぶこともできる。 As the cameras CA1 to CA4, a camera using a CCD (Charge Coupled Devices) or a camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used. Each of the cameras CA1 to CA4 is an internal synchronization camera that does not require an external synchronization signal. That is, each camera includes an internal clock generation circuit that generates an internal clock, and the cameras CA1 to CA4 output video signals at independent timings according to the internal clocks. For this reason, the video signals from the cameras CA1 to CA4 are asynchronous with each other, and each camera can also be called an asynchronous camera.
各カメラから出力される映像信号をVinにて表す。各カメラは、所定のフレーム周期にて順次撮像を行い、撮像によって得られた画像を表す画像データを含む映像信号Vinを出力する。この撮像によって得られた画像は画像処理回路11に入力されるため、その画像を以下、「入力画像」と呼ぶことにする。映像信号Vinは、入力画像の画像データDinと垂直同期信号Vsync及び水平同期信号Hsyncを含む。
The video signal output from each camera is represented by Vin. Each camera sequentially captures images at a predetermined frame period, and outputs a video signal Vin including image data representing an image obtained by the imaging. Since an image obtained by this imaging is input to the
カメラCA1に関する画像や信号、データ等がチャネルch1に対応するものとする。同様に、カメラCA2、CA3、CA4に関する画像や信号、データ等が、夫々、チャネルch2、ch3及びch4に対応するものとする。 Assume that an image, a signal, data, and the like related to the camera CA1 correspond to the channel ch1. Similarly, it is assumed that images, signals, data, and the like regarding the cameras CA2, CA3, and CA4 correspond to the channels ch2, ch3, and ch4, respectively.
カメラCA1、CA2、CA3及びCA4からの映像信号Vinは、夫々、デコーダDEC1、DEC2、DEC3及びDEC4によって画像データと垂直同期信号Vsync及び水平同期信号Hsyncに同期分離されて画像処理回路11に送られる。画像処理回路11に送られた画像データは、RAM部12内のフレームメモリ領域12aに書き込まれて記憶される。RAM部12は、SRAM(Static Random Access Memory)やSDARM(Synchronous Dynamic Random Access Memory)などから形成される。
Video signals Vin from the cameras CA1, CA2, CA3, and CA4 are synchronized and separated into image data, a vertical synchronization signal Vsync, and a horizontal synchronization signal Hsync by the decoders DEC1, DEC2, DEC3, and DEC4, respectively, and sent to the
RAM部12内のLUT領域12bには、各カメラからの入力画像の各画素と画像処理回路11の出力画像の各画素との対応関係を表すテーブルデータが記憶される。このテーブルデータに従ってフレームメモリ領域12a内に書き込まれた入力画像の画像データを読み出すことで出力画像の画像データが得られ、出力画像の画像データをエンコーダ13に送ることで出力画像が表示画像として表示装置14の表示画面上に表示される。尚、以下の説明において、単に表示画面といった場合、それは、表示装置14の表示画面を意味するものとする。
The
上記のテーブルデータは、運転支援システムの電源投入時などの適切なタイミングにおいて不揮発性メモリであるFROM(Flash Read Only Memory)15からLUT領域12bに送られてLUR領域12b内に記憶される。テーブルデータは複数個あり、複数のテーブルデータが個別にLUT領域12bに格納される。LUT領域12bに格納された複数のテーブルデータの夫々はLUT(ルックアップテーブル)を形成する。LUTによって規定される入力画像の各画素と出力画像の各画素との対応関係は、複数のLUT間で互いに異なる。
The table data is sent from the FROM (Flash Read Only Memory) 15 which is a nonvolatile memory to the
形成される複数のLUTは、第1及び第2LUTを含むものとする。第1LUTは、各カメラからの入力画像より図18に示すような出力画像を生成して表示装置14に表示させるためのLUTであり、第2LUTは、各カメラからの入力画像より図20に示すような出力画像を生成して表示装置14に表示させるためのLUTである。
The plurality of LUTs formed includes the first and second LUTs. The first LUT is an LUT for generating an output image as shown in FIG. 18 from the input image from each camera and displaying it on the
第1LUTを用いると、表示画面の全表示領域を用いて全周鳥瞰画像が表示される。各カメラからの入力画像を地面上に投影して合成することにより全周鳥瞰画像は形成される。図18の表示画面上には、全周鳥瞰画像の中央位置に車両100の車体のイラストが重畳表示されている。尚、図18において、車体のイラスト内に示された矢印は、車両100の進行方向を示している。
When the first LUT is used, the all-around bird's-eye view image is displayed using the entire display area of the display screen. An all-around bird's-eye view image is formed by projecting and synthesizing input images from the cameras on the ground. On the display screen of FIG. 18, an illustration of the vehicle body of the
第2LUTを用いると、表示画面の全表示領域が左側領域と右上領域と右下領域に3分割される。そして、左側領域に全周鳥瞰画像が表示され、右上領域にカメラCA3の入力画像が拡大表示され、右下領域に付加情報が表示される。付加情報は、車両100に設けられたセンサ等によって計測された車両100の走行速度や車両100のエンジンの回転数などであり、それらを表す情報は車両100に設けられたCAN(コントロールエリアネットワーク)を介して運転支援システムに伝達される。
When the second LUT is used, the entire display area of the display screen is divided into a left area, an upper right area, and a lower right area. Then, the all-around bird's-eye view image is displayed in the left area, the input image of the camera CA3 is enlarged and displayed in the upper right area, and the additional information is displayed in the lower right area. The additional information is the traveling speed of the
尚、出力画像を生成する時点で付加情報を付加して図20のような表示画像を得ることも可能であるが、付加情報を含まない出力画像を画像処理回路11にて生成した後に図示されない別回路で付加情報を表す画像を出力画像に重畳することによって、図20のような表示画像を得ることも可能である。図18又は図20における車体のイラストに関しても同様である。付加情報や車体のイラストを表示画面上で描画すること自体は本実施形態の特徴的な技術に関与しないので、以下の説明では、それらを描画するための処理を無視する。
It is possible to add additional information at the time of generating the output image to obtain a display image as shown in FIG. 20, but it is not shown after the output image including no additional information is generated by the
LUT領域12bに形成された複数のLUTの内の何れか1つがMPU(Micro Processing Unit)16に選択され、選択されたLUTを用いて出力画像(及び表示画像)が生成される。操作部17に対する操作内容に応じて或るいはCANを介してMPU16に与えられるLUT選択信号に応じて、MPU16は何れのLUTを選択するかを決定すると共に決定内容に応じたLUT選択情報を画像処理回路11に送る(図12参照)。尚、操作部17は、ユーザによる操作を受け付け、その操作内容はMPU16に伝達される。
Any one of the plurality of LUTs formed in the
出力画像の映像信号をVoutで表し、その映像信号Voutに含まれる画像データ、垂直同期信号及び水平同期信号を夫々Dout、Vsync2及びHsync2で表す。入力画像の映像信号Vinと出力画像の映像信号Voutは互いに非同期である。即ち、画像処理回路11は、入力画像の映像信号Vinの垂直同期信号Vsync及び水平同期信号Hsyncと独立して、出力画像の映像信号Voutの垂直同期信号Vsync2及び水平同期信号Hsync2を生成及び出力し、その垂直同期信号Vsync2及び水平同期信号Hsync2の生成及び出力のタイミングに同期させて出力画像の画像データDoutを出力する。エンコーダ13は、画像処理回路11からの垂直同期信号Vsync2及び水平同期信号Hsync2と画像データDoutとを結合して映像信号Voutを生成し、これを表示装置14に供給することで出力画像を表示画面上に表示させる。
The video signal of the output image is represented by Vout, and the image data, the vertical synchronization signal, and the horizontal synchronization signal included in the video signal Vout are represented by Dout, Vsync2, and Hsync2, respectively. The video signal Vin of the input image and the video signal Vout of the output image are asynchronous with each other. That is, the
表示装置14は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、運転支援システムにおける表示装置14として流用しても良い。運転支援システムを形成する各部位は車両100の適切な部分に設置されるが、表示装置14は車両100の運転席付近に設置される。
The
図4(a)及び(b)に示す如く、入力画像又は出力画像上の画素の水平位置及び垂直位置を表す記号としてx及びyを導入し、入力画像又は出力画像上における各画素の位置を(x,y)にて表す。入力画像上の画素に対するx及びyは、それぞれ、その画素の属する、入力画像の垂直ライン及び水平ラインの位置を表している。出力画像上の画素に対するx及びyは、それぞれ、その画素の属する、出力画像の垂直ライン及び水平ラインの位置を表している。入力画像に関し、xが大きくなれば入力画像上の位置は右方向に向かい、yが大きくなれば入力画像上の位置は下方向に向かう。同様に、出力画像に関し、xが大きくなれば出力画像上の位置は右方向に向かい、yが大きくなれば出力画像上の位置は下方向に向かう。 As shown in FIGS. 4A and 4B, x and y are introduced as symbols representing the horizontal position and vertical position of pixels on the input image or output image, and the position of each pixel on the input image or output image is determined. It is represented by (x, y). X and y for a pixel on the input image represent the positions of the vertical line and horizontal line of the input image to which the pixel belongs, respectively. X and y for a pixel on the output image represent the positions of the vertical line and horizontal line of the output image to which the pixel belongs, respectively. With respect to the input image, when x increases, the position on the input image moves to the right, and when y increases, the position on the input image moves downward. Similarly, with respect to the output image, when x increases, the position on the output image moves to the right, and when y increases, the position on the output image moves downward.
入力画像の水平方向及び垂直方向の画素数を夫々Xsize及びYsizeとする。以下の説明では、Xsize=640且つYsize=480、であるとする。出力画像の水平方向及び垂直方向の画素数は、入力画像のそれらと同じであるとする。従って、xは「0≦x<Xsize」を満たす各整数値を取り、yは「0≦y<Ysize」を満たす各整数値を取る。 The number of pixels in the horizontal direction and the vertical direction of the input image is assumed to be Xsize and Ysize, respectively. In the following description, it is assumed that Xsize = 640 and Ysize = 480. Assume that the number of pixels in the horizontal and vertical directions of the output image is the same as that of the input image. Therefore, x takes each integer value that satisfies “0 ≦ x <Xsize”, and y takes each integer value that satisfies “0 ≦ y <Ysize”.
映像信号Vin及びVoutをインターレース方式による映像信号とすることも可能であるが、今、映像信号Vin及びVoutがノンインターレース方式による映像信号であるものとし、入力画像の画像データ及び出力画像の画像データがラスター走査順に入力及び出力されるものとする。つまり、1枚の入力画像に関し、位置(0,0)、(1,0)、(2,0)、・・・、(Xsize−1,0)、(0,1)、(1,1)、(2,1)、・・・、(Xsize−1,1)、・・・、(0,Ysize−2)、・・・、(Xsize−1,Ysize−2)、(0,Ysize−1)、・・・、(Xsize−1,Ysize−1)の画素信号の順番で、入力画像の画像データが画像処理回路11に入力される。出力画像の画像データも同様である。画素信号とは、画像を形成する画素の輝度又は輝度及び色を表す値である。入力画像を形成する各画素の画素信号によって入力画像の画像データが形成され、出力画像を形成する各画素の画素信号によって出力画像の画像データが形成される。
The video signals Vin and Vout can be converted to interlaced video signals. However, it is assumed that the video signals Vin and Vout are video signals based on the non-interlaced method. Are input and output in the order of raster scanning. That is, for one input image, the positions (0, 0), (1, 0), (2, 0),..., (Xsize-1, 0), (0, 1), (1, 1 ), (2, 1), ..., (Xsize-1, 1), ..., (0, Ysize-2), ..., (Xsize-1, Ysize-2), (0, Ysize) -1),..., (Xsize-1, Ysize-1) are input to the
本例では説明を簡単にするため、出力画像のフレーム周期は、入力画像のそれと同じであるとする。従って、垂直同期信号VsyncとVsync2の発生周期は同じである。更に説明を簡単にするため、本例では、或る入力画像の画素信号の入力周期(画像処理回路11への入力周期)と出力画像の画素信号の出力周期(画像処理回路11からの出力周期)は同じであるものとする(ピクセルクロックは同じであるものとする)。
In this example, to simplify the description, it is assumed that the frame period of the output image is the same as that of the input image. Therefore, the generation periods of the vertical synchronization signals Vsync and Vsync2 are the same. In order to further simplify the description, in this example, the input cycle of the pixel signal of an input image (input cycle to the image processing circuit 11) and the output cycle of the pixel signal of the output image (output cycle from the
図3のフレームメモリ領域12a内には、図5に示す如く、カメラごとに4つのフレームメモリが設けられる。カメラCA1に対して4つのフレームメモリM1[1]〜M1[4]が設けられ、カメラCA2に対して4つのフレームメモリM2[1]〜M2[4]が設けられ、カメラCA3に対して4つのフレームメモリM3[1]〜M3[4]が設けられ、カメラCA4に対して4つのフレームメモリM4[1]〜M4[4]が設けられる。各フレームメモリは、入力画像の画像データを1枚分記憶可能である。カメラCA1にて周期的に取得された入力画像は、M1[1]、M1[2]、M1[3]、M1[4]、M1[1]・・・の順番で4フレーム前の入力画像を最新フレームの入力画像で上書きするように循環的に(サイクリックに)記憶されてゆく。カメラCA2〜CA4に対しても同様である。
As shown in FIG. 5, four frame memories are provided for each camera in the
本実施形態に係る運転支援システムは、入力画像が取得されてから該入力画像に基づく出力画像が表示されるまでの遅延を低減する機能を備えている。この機能の基本原理について説明する。 The driving support system according to the present embodiment has a function of reducing a delay from when an input image is acquired until an output image based on the input image is displayed. The basic principle of this function will be described.
図18に示す如く表示画面の全表示領域を使って全周鳥瞰画像が表示されるように、第1LUTを用いて各入力画像から出力画像を生成する場合を考える。ch4に対応する画像にのみ着目した、図19と対比されるべき図6を参照する。図6には、ch4の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch4の入力画像が、順次、画像処理回路11に与えられ、それらはch4用のフレームメモリ(即ち、フレームメモリM4[1]〜M4[4])に循環的に記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路11は、タイミングt1、t2、t3及びt4において、夫々、出力画像301、302、303及び304用の垂直同期信号Vsync2を発生する。
Consider a case where an output image is generated from each input image using the first LUT so that the all-around bird's-eye view image is displayed using the entire display area of the display screen as shown in FIG. Reference is made to FIG. 6 to be compared with FIG. 19, focusing on only the image corresponding to ch4. FIG. 6 shows the relationship between the input timing of the ch4 input image and the output timing of the output image. The input images of ch4 in the first, second, third, fourth, and fifth frames are sequentially supplied to the
図6に示す例の場合、タイミングt1において、第1フレームのch4の入力画像の全画像データがフレームメモリ領域12aに保持されている一方で、第2フレームのch4の入力画像の画像データはフレームメモリ領域12aに書き込まれている最中である。しかしながら、ch4の入力画像が反映される領域は出力画像301内の下方に位置しており、ch4の入力画像の画像データを実際にフレームメモリ領域12aから読み出す開始タイミングtAにおいては、第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれている(尚、タイミングtAは、タイミングt1とt2との間のタイミングである)。
In the example shown in FIG. 6, at the timing t1, all the image data of the input image of ch4 of the first frame is held in the
従って、この場合、画像処理装置11は、第2フレームのch4の入力画像を用いて出力画像301を生成する。同様に、第3、4、5フレームのch4の入力画像を用いて、夫々、出力画像302、303及び304を生成して表示する。尚、図6において、出力画像301〜304内の、ch4に対応する部分に記載された数値は、ch4のフレーム番号を表している。
Accordingly, in this case, the
図6に示す例では、タイミングtAにおいて第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれているが、図7に示す如く、タイミングtAにおいて第2フレームのch4の入力画像の全画像データがフレームメモリ領域12aに書き込まれていなかったとしても、第2フレームのch4の入力画像を用いて出力画像301が生成されうる。タイミングtAにおいては未だ書き込まれていない第2フレームのch4の入力画像の一部画像データ306が、仮に、タイミングtA直後では読み出されず、タイミングt2近辺に出力画像301の一部画像データとして読み出されるならば、他の条件にも依存するが図7のような状況においても第2フレームのch4の入力画像を用いて出力画像301を生成することが可能である。
In the example shown in FIG. 6, the entire image data of ch4 input image of the second frame is written in the
次に、図20に示すような表示画像が表示されるように、第2LUTを用いて各入力画像から出力画像を生成する場合を考える。ch3に対応する画像にのみ着目した、図21と対比されるべき図8を参照する。図8には、ch3の入力画像の入力タイミングと出力画像の出力タイミングとの関係が示されている。第1、第2、第3、第4及び第5フレームにおけるch3の入力画像が、順次、画像処理回路11に与えられ、それらはch3用のフレームメモリ(即ち、フレームメモリM3[1]〜M3[4])に循環的に記憶されてゆく(第1フレームの入力画像は不図示)。画像処理回路11は、タイミングt11、t12、t13及びt14において、夫々、出力画像311、312、313及び314用の垂直同期信号Vsync2を発生する。
Next, consider a case where an output image is generated from each input image using the second LUT so that a display image as shown in FIG. 20 is displayed. Reference should be made to FIG. 8 to be compared with FIG. 21, focusing on only the image corresponding to ch3. FIG. 8 shows the relationship between the input timing of the ch3 input image and the output timing of the output image. The input images of ch3 in the first, second, third, fourth, and fifth frames are sequentially supplied to the
図8に示す例の場合、タイミングt11において、第1フレームのch3の入力画像の全画像データがフレームメモリ領域12aに保持されている一方で、第2フレームのch3の入力画像の画像データはフレームメモリ領域12aに書き込まれている最中である。タイミングt11直後から表示画面の右上領域にch3の入力画像に基づく画像を描画する必要があるため、出力画像311の右上領域には第1フレームのch3の入力画像を適用する。一方、出力画像311の左側領域に描画されるべき全周鳥瞰画像内のch3の対応領域は、出力画像311内の下方に位置しており、この領域に対するch3の画像データを実際にフレームメモリ領域12aから読み出す開始タイミングtBにおいては、第2フレームのch3の入力画像の全画像データがフレームメモリ領域12aに書き込まれている(尚、タイミングtBは、タイミングt11とt12との間のタイミングである)。
In the example shown in FIG. 8, at the timing t11, all image data of the input image of ch3 of the first frame is held in the
従って、画像処理装置11は、出力画像311に含まれる全周鳥瞰画像内のch3の対応領域に対して第2フレームのch3の入力画像を用いることも可能であり、この場合、出力画像311内に、第1フレームと第2フレームのch3の入力画像が混在することになる。出力画像312〜314に対しても同様である。このように画面下部のch3の画像の分だけでも最新の情報を運転者に提示できれば、安全上のメリットはある。尚、図8において、出力画像311〜314内の、ch3に対応する部分に記載された数値は、ch3のフレーム番号を表している。
Therefore, the
上述のような出力画像の生成のために、基本的には、以下のような判断処理を行う。説明の単純化のため、ch4の入力画像の一部矩形領域を切り出した画像を、そのまま、出力画像の所定領域に嵌め込んで出力画像を生成する場合を考える。図9は、この状況に対応するch4の入力画像と出力画像の関係を表している。具体的な例として、位置(100,100)と位置(300,300)とを結ぶ線分を対角線として有する矩形領域内の画像をch4の入力画像から切り出し、その切り出し画像を、位置(50,100)を起点として出力画像内に嵌め込むことを想定する。位置(50,100)と位置(250,300)とを結ぶ線分を対角線として有する、出力画像内の矩形領域に、その切り出し画像が嵌め込まれる。この場合、出力画像上の位置(50,100)の画素の画素信号を読み出す時点において、最新フレームのch4の位置(100,100)の画素信号が書き込まれて読み出し可能であるならば、その最新フレームのch4の入力画像を出力可能である。 In order to generate the output image as described above, basically the following determination process is performed. For simplification of description, consider a case where an output image is generated by fitting an image obtained by cutting out a partial rectangular area of the input image of ch4 into a predetermined area of the output image as it is. FIG. 9 shows the relationship between the input image and output image of ch4 corresponding to this situation. As a specific example, an image in a rectangular area having a line segment connecting position (100, 100) and position (300, 300) as a diagonal line is cut out from the input image of ch4, and the cut-out image is moved to position (50, 100) is assumed to be inserted into the output image. The cut-out image is fitted into a rectangular area in the output image having a line segment connecting the position (50, 100) and the position (250, 300) as a diagonal line. In this case, if the pixel signal at the position (100, 100) of the latest frame is written and readable at the time of reading the pixel signal of the pixel at the position (50, 100) on the output image, the latest An input image of ch4 of the frame can be output.
一般に、出力画像の位置(Xout,Yout)に入力画像の位置(Xin,Yin)の画素の像を表示する場合、Youtの水平ラインの画素信号の出力時点で着目フレームの(Yin+α)の水平ラインの各画素信号がフレームメモリ領域12aに書き込まれていると、その着目フレームの入力画像を用いて出力画像を生成することが可能となる。ここで、αは、SDRAMへのアクセス時間に代表される、回路内部の処理自体にかかるレイテンシ(遅延時間)をライン数で表したものである。αの値は、システムの処理速度などに依存して予め定められる。フレーム内補間(映像信号がインターレース方式の映像信号である場合は、フィールド内補間)を使用しない回路であれば、αを1とすれば十分である。以下、α=1であるとする。
In general, when an image of a pixel at the position (Xin, Yin) of the input image is displayed at the position (Xout, Yout) of the output image, the horizontal line (Yin + α) of the frame of interest at the time of outputting the pixel signal of the horizontal line of Yout. Are written in the
従って、図9に示す例の場合は、Yout=50且つ(Yin+α)≒(100+1)=101より、50番目の水平ラインの画素信号の出力時点で着目フレームの101番目の水平ラインの各画素信号がフレームメモリ領域12aに書き込まれていると、その着目フレームの入力画像を用いて出力画像を生成することが可能となる。つまり、ch4用のフレームメモリM4[1]〜M4[4]の内、最新の入力画像の画像データが書きこまれるべきフレームメモリ(図10の例において、M4[3])に着目し、50番目の水平ラインの各画素信号が出力されるべきタイミングにおいて着目したフレームメモリの101番目の水平ラインの各画素信号が書き込まれているか否かを判定すればよい。そして、書き込まれておれば、着目したフレームメモリ内の画像データを用いて出力画像を生成し、書き込まれていなければ、1つ前のフレームの入力画像が保持されているフレームメモリ(図10の例において、M4[2])内の画像データを用いて出力画像を生成する。
Therefore, in the example shown in FIG. 9, since Yout = 50 and (Yin + α) ≈ (100 + 1) = 101, each pixel signal of the 101st horizontal line of the frame of interest at the output time of the pixel signal of the 50th horizontal line. Is written in the
説明の単純化のため、切り出し画像を出力画像にそのまま嵌め込む例を説明したが、入力画像の画像データに、レンズ歪補正、鳥瞰変換及び(又は)画像の拡大/縮小処理を施す場合は、入力画像の画素と出力画像の画素との関係は非常に複雑となる。尚、鳥瞰変換とは、入力画像を地面に投影して鳥瞰画像を得るための変換を意味し、全周鳥瞰画像も鳥瞰変換を利用して得られる。 For simplification of explanation, the example in which the cutout image is directly inserted into the output image has been described. However, when the image data of the input image is subjected to lens distortion correction, bird's eye conversion and / or image enlargement / reduction processing, The relationship between the pixels of the input image and the pixels of the output image becomes very complicated. Note that the bird's-eye conversion means conversion for obtaining a bird's-eye image by projecting an input image onto the ground, and the all-around bird's-eye image is also obtained using the bird's-eye conversion.
図11に、図18に対応する全周鳥瞰画像を得るための第1LUTのテーブルデータを模式的に表す。図11は、(640×480)の画像サイズに適合したLUTのテーブルデータを表しており、このLUTのテーブルデータには(640×480)個の入力画素位置情報が含まれている。各入力画素位置情報には、画素の水平位置及び垂直位置を表す情報とチャネル番号とが含まれている。LUT上のアドレス(p,q)における入力画素位置情報は、出力画像上の位置(p,q)の画素に対する入力画素位置情報である(p及びqは、0≦p<Xsize且つ0≦q<Ysize、を満たす整数)。 FIG. 11 schematically shows table data of the first LUT for obtaining the all-around bird's-eye view image corresponding to FIG. FIG. 11 shows LUT table data suitable for an image size of (640 × 480), and the LUT table data includes (640 × 480) pieces of input pixel position information. Each input pixel position information includes information indicating the horizontal position and vertical position of the pixel and a channel number. The input pixel position information at the address (p, q) on the LUT is input pixel position information for the pixel at the position (p, q) on the output image (p and q are 0 ≦ p <Xsize and 0 ≦ q <An integer satisfying Ysize).
例えば、図11におけるLUT上のアドレス(0,0)には入力画素位置情報(600,80,ch1)が格納されており、これは、“ch1の入力画像における位置(600,80)の画素の画素信号を出力画像における位置(0,0)の画素の画素信号として読み出すべき”ことを規定している。また例えば、図11におけるLUT上のアドレス(1,0)には入力画素位置情報(10,78,ch2)が格納されており、これは、“ch2の入力画像における位置(10,78)の画素の画素信号を出力画像における位置(1,0)の画素の画素信号として読み出すべき”ことを規定している。また例えば、図11におけるLUT上のアドレス(0,1)には入力画素位置情報(601,79,ch1)が格納されており、これは、“ch1の入力画像における位置(601,79)の画素の画素信号を出力画像における位置(0,1)の画素の画素信号として読み出すべき”ことを規定している。 For example, the input pixel position information (600, 80, ch1) is stored at the address (0, 0) on the LUT in FIG. 11, which is the pixel at the position (600, 80) in the input image of ch1. Is to be read out as the pixel signal of the pixel at the position (0, 0) in the output image. Further, for example, the input pixel position information (10, 78, ch2) is stored at the address (1, 0) on the LUT in FIG. 11, and this indicates that “the position (10, 78) in the input image of ch2”. The pixel signal of the pixel should be read out as the pixel signal of the pixel at the position (1, 0) in the output image. Further, for example, the input pixel position information (601, 79, ch1) is stored in the address (0, 1) on the LUT in FIG. The pixel signal of the pixel should be read out as the pixel signal of the pixel at the position (0, 1) in the output image.
図9に示す例では、入力画像上の水平ラインと該水平ラインに対する出力画像上の水平ラインとのライン位置の相違は常に50ライン分であったが、鳥瞰変換などを実現すべく図11に示すようなLUTを用いると、この相違を表す(Yin−Yout)の値は、出力画像上の画素の位置によって様々の値をとる。最新の画像を表示するためには(Yin−Yout)の値を正確に把握する必要がある。 In the example shown in FIG. 9, the difference in line position between the horizontal line on the input image and the horizontal line on the output image with respect to the horizontal line has always been 50 lines, but FIG. When an LUT as shown is used, the value of (Yin-Yout) representing this difference varies depending on the position of the pixel on the output image. In order to display the latest image, it is necessary to accurately grasp the value of (Yin−Yout).
そこで、LUTによって入力画像上の位置(Xin,Yin)における画素が出力画像上の位置(Xout,Yout)に対応付けられていると考えた時の(Yin−Yout)をΔYとおき、LUT上で一塊となっているチャネル毎に全てのΔYの値を求める。そして、チャネル毎にΔYの値の最大値ΔYMAXを求め、その塊が表示される最初の水平ラインの画素信号の読み出しタイミングにおいて(Yout_top+ΔYMAX+α)番目の水平ラインの画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。Yout_topは、上記の塊が表示される最初の水平ラインの番号を表す。これにより、映像遅延の最小化が図られる。 Therefore, (Yin−Yout) when assuming that the pixel at the position (Xin, Yin) on the input image is associated with the position (Xout, Yout) on the output image by LUT is set as ΔY, Thus, all ΔY values are obtained for each channel in a lump. Then, the maximum value ΔY MAX of ΔY values is obtained for each channel, and the pixel signal of the (Yout_top + ΔY MAX + α) th horizontal line is written at the read timing of the pixel signal of the first horizontal line where the block is displayed. The latest frame memory is selected as the frame memory for generating the output image. Yout_top represents the number of the first horizontal line on which the above chunk is displayed. Thereby, the video delay can be minimized.
具体例を挙げてΔYMAX等の意義を説明する。図9に示す例では、ch1に対するΔYは全て50であるためch1に対するΔYMAXは50となる。一方で、ch1の入力画像に基づく画像が表示される、出力画像上の最初の水平ラインの番号は、Yout_top=50である。従って、ch1に対する(Yout_top+ΔYMAX+α)は、50+50+1=101より、101となる。従って、ch1の入力画像が表示される最初の水平ライン、即ち50(=Yout_top)番目の水平ラインの画素信号の読み出しタイミングにおいて101(=Yout_top+ΔYMAX+α)番目の水平ラインの画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。 The significance of ΔY MAX and the like will be described with specific examples. In the example shown in FIG. 9, [Delta] Y MAX is 50 for ch1 for [Delta] Y are all 50 for ch1. On the other hand, the number of the first horizontal line on the output image on which an image based on the input image of ch1 is displayed is Yout_top = 50. Therefore, (Yout_top + ΔY MAX + α) for ch1 is 101 from 50 + 50 + 1 = 101. Accordingly, the pixel signal of the 101 (= Yout_top + ΔY MAX + α) th horizontal line is written at the read timing of the pixel signal of the first horizontal line on which the input image of ch1 is displayed, that is, the 50 (= Yout_top) th horizontal line. The latest frame memory is selected as the frame memory for generating the output image.
図11に示す例では、LUT上のアドレス(0,0)に対するΔYは(Yin−Yout)=80−0より80となり且つLUT上のアドレス(0,1)に対するΔYは(Yin−Yout)=79−1より78となる。この2つのΔYは、ch1に対するΔYである。ch1に関して、LUT上の他のアドレスに対しても同様にΔYを求め、求めたΔYの最大値をch1に対するΔYMAXとする。一方、図11に示すLUTを用いると、ch1の入力画像に基づく画像が表示される、出力画像上の最初の水平ラインの番号Yout_topは0である(LUT上のアドレス(0,0)における入力画素位置情報はch1に対するものであるため)。従って、仮にch1に対するΔYMAXが120であるなら、ch1に対する(Yout_top+ΔYMAX+α)は、0+120+1=121より、121となる。ch2、ch3及びch4の夫々に対しても、ΔYMAX及びYout_topが同様にして求められる。尚、図11のLUTを用いる場合、ch4に対するYout_topだけが0以外の値をとる。 In the example shown in FIG. 11, ΔY for the address (0, 0) on the LUT is 80 from (Yin−Yout) = 80−0, and ΔY for the address (0, 1) on the LUT is (Yin−Yout) = 79-1 to 78. These two ΔY are ΔY with respect to ch1. Regarding ch1, ΔY is similarly obtained for other addresses on the LUT, and the maximum value of ΔY thus obtained is set as ΔY MAX for ch1. On the other hand, when the LUT shown in FIG. 11 is used, an image based on the input image of ch1 is displayed, and the first horizontal line number Yout_top on the output image is 0 (input at the address (0, 0) on the LUT). (The pixel position information is for ch1). Therefore, if ΔY MAX for ch1 is 120, (Yout_top + ΔY MAX + α) for ch1 is 121 from 0 + 120 + 1 = 121. ΔY MAX and Yout_top are similarly determined for each of ch2, ch3, and ch4. When the LUT of FIG. 11 is used, only Yout_top for ch4 takes a value other than zero.
以下、ch1〜ch4に対するΔYMAXをΔYMAX1〜ΔYMAX4で表すこととし、ch1〜ch4に対するYout_topをYout_top1〜Yout_top4で表すことする。図3のLUT領域12b内に形成されるLUTごとにΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値は定められ、出力画像を形成するために使用するLUTを指定すれば、その指定されたLUT内のテーブルデータに基づいてΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値は自動的に決まる。各LUT内のテーブルデータは予め定められるものであるため、各LUTに対するΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4の値も予め定めておくこととができる。
Hereinafter, a represent a [Delta] Y MAX for ch1~ch4 in ΔY MAX1 ~ΔY MAX4, to be representative of the Yout_top for ch1~ch4 in Yout_top 1 ~Yout_top 4. The value of ΔY MAX1 ~ΔY MAX4 and Yout_top 1 ~Yout_top 4 for each LUT formed in the
上述した出力画像の生成処理に関する実施例として、以下に、第1〜第3実施例を例示する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。 As examples relating to the output image generation processing described above, first to third examples will be exemplified below. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.
<<第1実施例>>
まず、第1実施例について説明する。図12は、第1実施例に係る画像処理回路11の内部構成をも示す、運転支援システムの一部ブロック図である。第1実施例に係る画像処理回路11は、図12の符号21〜25にて参照される各部位を備える。RAM部12は書き込みアドレス生成回路21、LUTアドレス生成回路23及び読み出しアドレス生成回路24の他、MPU16からもアクセスされる(MPU16によるアクセスの様子は不図示)。従って、RAM部12に対するデータの読み書きは実際には調停回路25による調停制御の下で実行されるが、説明の簡略化のため、この調停回路25の存在を無視して以下の説明を行うものとする。
<< First Example >>
First, the first embodiment will be described. FIG. 12 is a partial block diagram of the driving support system that also shows the internal configuration of the
チャネル数は4であるが各チャネルのデータに対する画像処理回路11の動作は4つのチャネル間で同様である。従って、チャネルの番号を表す変数iを導入し、適宜、iを用いて説明の簡略化を図る(iは、1、2、3又は4である)。例えば、デコーダDECiとは、チャネルch1を考える場合はデコーダDEC1を意味し、チャネルch2を考える場合はデコーダDEC2を意味する。
Although the number of channels is 4, the operation of the
書き込みアドレス生成回路21は、図3のデコーダDECiからの垂直同期信号Vsync及び水平同期信号HsyncとデコーダDECiからの画素信号の出力間隔に同期したピクセルクロック(不図示)とに基づいて、現時点において図3のデコーダDECiから送られてくる画素信号(画像データDinを形成する画素信号)が書き込まれるべきRAM部12上のアドレス(以下、書き込みアドレスという)を生成し、これをRAM部12に与える。書きこみアドレスは、RAM部12内のフレームメモリMi[1]〜Mi[4]上のアドレスである。
The write
図3のデコーダDECiからの画素信号は、フレームメモリMi[1]〜Mi[4]内の、書き込みアドレスにて指定されたアドレスに書き込まれる。現時点において入力される画素信号がフレームメモリMi[1]〜Mi[4]の内の何れのフレームメモリに格納されるべきかをも、書き込みアドレス生成回路21は管理している。また、書き込みアドレスは、読み出しアドレス生成回路24にも与えられる。
The pixel signal from the decoder DECi in FIG. 3 is written to the address specified by the write address in the frame memories M i [1] to M i [4]. The write
映像出力アドレス生成回路22は、映像信号Vinとは非同期で駆動し、出力画像用の垂直同期信号Vsync2及び水平同期信号Hsync2を生成して出力すると共に、垂直同期信号Vsync2及び水平同期信号Hsync2に同期した映像出力アドレスを生成し、該映像出力アドレスをLUTアドレス生成回路23に送る。
The video output
LUTアドレス生成回路23は、MPU16から送られてくるLUT選択情報に従って、RAM部12のLUT領域12bに格納されている複数のLUTの内の1つのLUTを選択する。選択されたLUTを、以下「指定LUT」と呼ぶ。そして、LUTアドレス生成回路23は、映像出力アドレスに応じた、指定LUT上のアドレス(以下、LUTアドレスという)を生成する。このLUTアドレスはRAM部12に送られて、指定LUT上のLUTアドレスにおけるデータがRAM部12からLUT情報として読み出され、このLUT情報は読み出しアドレス生成回路24に送られる。LUT情報は、図11を用いて示した、(600,80,ch1)などの入力画素位置情報と同じものである。
The LUT
読み出しアドレス生成回路24は、入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係と、指定LUTに対するΔYMAX1〜ΔYMAX4及びYout_top1〜Yout_top4に応じて作成される読み出しメモリ切替情報と、に基づいて、出力画像の生成に利用可能な最新の入力画像が格納されるフレームメモリをチャネル毎に1つずつ選択する。入力画像の画像データの入力タイミングは書き込みアドレスによって特定される。出力画像の画像データの出力タイミングは、垂直同期信号Vsync2及び水平同期信号Hsync2に基づいて、又は、映像出力アドレスに基づいて特定される。
A read
選択したフレームメモリを、以下、「指定フレームメモリ」という。つまり、上記タイミング関係と読み出しメモリ切替情報に基づいて、ch1用のフレームメモリM1[1]〜M1[4]の内の1つをch1用の指定フレームメモリとして選択し、且つ、ch2用のフレームメモリM2[1]〜M2[4]の内の1つをch2用の指定フレームメモリとして選択し、ch3用のフレームメモリM3[1]〜M3[4]の内の1つをch3用の指定フレームメモリとして選択し、ch4用のフレームメモリM4[1]〜M4[4]の内の1つをch4用の指定フレームメモリとして選択する。この選択は、読み出しメモリ切替情報に基づく、指定フレームメモリの切替判定を介して行われる(詳細は後述)。 The selected frame memory is hereinafter referred to as “designated frame memory”. That is, based on the timing relationship and the read memory switching information, one of the ch1 frame memories M 1 [1] to M 1 [4] is selected as the designated frame memory for ch1, and for ch2 One of the frame memories M 2 [1] to M 2 [4] is selected as the designated frame memory for ch2, and one of the frame memories M 3 [1] to M 3 [4] for ch3 is selected. one was chosen as the designated frame memory for ch3, selects one of the frame memory M 4 [1] ~M 4 [ 4] for the ch4 as specified frame memory for ch4. This selection is performed through switching determination of the designated frame memory based on the read memory switching information (details will be described later).
読み出しアドレス生成回路24は、LUT情報によって指定されるチャネル及び画素位置の画素信号を指定フレームメモリから読み出すべく、LUT情報に基づいて指定フレームメモリ上の読み出しアドレスを生成する。この読み出しアドレスに書き込まれていた画素信号は、出力画像の、映像出力アドレスに対応する位置の画素の画素信号としてエンコーダ13に出力される。
The read
以下、特に記述無き限り、指定LUTが第1LUTであって且つ第1LUTのテーブルデータが図11に示すそれと同じである場合を想定する。 Hereinafter, unless otherwise specified, it is assumed that the designated LUT is the first LUT and the table data of the first LUT is the same as that shown in FIG.
また、映像出力に関し、全期間は、出力画像上の各位置(0,0)〜(Xsize−1,Ysize−1)における画素信号が実際に出力される有効映像期間と、ブランキング期間を含む無効映像期間と、に分類される(図4(b)参照)。映像出力アドレス生成回路22から出力される映像出力アドレスは、無効映像期間をも含むアドレスであるため、その映像出力アドレスの水平成分(換言すれば、垂直ラインの番号を表す成分)及び垂直成分(換言すれば、水平ラインの番号を表す成分)は夫々Xsize及びYsize以上の値を示す場合がある。
Regarding video output, the entire period includes an effective video period in which pixel signals at each position (0, 0) to (Xsize-1, Ysize-1) on the output image are actually output, and a blanking period. And an invalid video period (see FIG. 4B). Since the video output address output from the video output
本実施例及び後述の各実施例では、映像出力アドレス生成回路22からの、無効映像期間をも含めた映像出力アドレスの水平成分及び垂直成分の最大値を夫々Xsize’及びYsize’とする。即ち、映像出力アドレス生成回路22は、(0,0)、(1,0)、(2,0)、・・・、(Xsize’,0)、(0,1)、(1,1)、(2,1)、・・・、(Xsize’,Ysize’)の順に映像出力アドレスを生成するものとする。ここで、Xsize’>Xsize、且つ、Ysize’>Ysizeである。
In the present embodiment and each embodiment described later, the maximum values of the horizontal component and the vertical component of the video output address including the invalid video period from the video output
上述してきた位置(x,y)は、出力画像上に実際に描写される画素の座標を表している。出力画像上に実際に描写される画素が配列される座標系を、有効映像座標系と呼ぶ。一方、無効映像期間をも含めた座標系を無効映像座標系と呼ぶ。有効映像座標系は、無効映像座標系に内包される。無効映像座標系上の座標を(x’,y’)で表す。以下、有効映像座標系上の座標(x,y)を有効映像座標とも呼び、無効映像座標系上の座標(x’,y’)を無効映像座標とも呼ぶ。そして、今、有効映像座標(0,0)に対応する無効映像座標(x’,y’)が(20,20)であり、無効映像座標(20,20)から出力画像上の実際の画素が配列されるものとする。 The position (x, y) described above represents the coordinates of the pixel actually drawn on the output image. A coordinate system in which pixels actually drawn on the output image are arranged is called an effective video coordinate system. On the other hand, a coordinate system including an invalid video period is called an invalid video coordinate system. The effective video coordinate system is included in the invalid video coordinate system. The coordinates on the invalid video coordinate system are represented by (x ′, y ′). Hereinafter, the coordinates (x, y) on the effective video coordinate system are also referred to as effective video coordinates, and the coordinates (x ′, y ′) on the invalid video coordinate system are also referred to as invalid video coordinates. Now, the invalid video coordinate (x ′, y ′) corresponding to the valid video coordinate (0, 0) is (20, 20), and the actual pixel on the output image from the invalid video coordinate (20, 20). Are arranged.
有効映像座標(0,0)の1水平ライン前の座標は無効映像座標(20,19)に相当し、無効映像座標(20,19)を有効映像座標で表すと(0,−1)となるものとして以下の説明を行う。また、説明の簡略化のため、映像出力アドレス生成回路22から出力される映像出力アドレスが無効映像期間に属するアドレス(例えば、(0,−1))である場合は、LUTアドレス生成回路23からLUTアドレス(0,0)が出力されるものとする。
The coordinates one horizontal line before the valid video coordinates (0, 0) correspond to the invalid video coordinates (20, 19). When the invalid video coordinates (20, 19) are expressed by the valid video coordinates, (0, -1) The following will be described as it is. For simplification of description, when the video output address output from the video output
尚、映像出力アドレスを基にしてLUTアドレスの生成を介してフレームメモリから読み出される画素信号と、垂直同期信号Vsync2及び水平同期信号Hsync2とのタイミング関係は、調停回路25とエンコーダ13との間に設けられた図示されないFIFO(First In, First Out)により調整されるものとする。また、エンコーダ13の前段に映像信号Voutを受ける同期付加回路(不図示)が設けられ、その同期付加回路によって、映像信号Voutに無効映像期間の同期信号が付加されると共に同期信号以外の信号の信号レベルが決定される。
The timing relationship between the pixel signal read from the frame memory through the generation of the LUT address based on the video output address and the vertical synchronization signal Vsync2 and horizontal synchronization signal Hsync2 is between the arbitration circuit 25 and the
具体的な数値を挙げて画素信号の読み出し動作の説明を具体化する。映像出力アドレス生成回路22は、SDRAMへのアクセス時間を含むレイテンシを考慮し、着目した画素が実際に表示されるタイミングよりも1水平ライン分早く、その画素に対応する映像出力アドレスを生成する。例えば、出力画像の位置(0,0)の画素信号をエンコーダ13に出力しようとする場合、映像出力アドレス生成回路22は、映像出力アドレス(0,−1)をLUTアドレス生成回路23に送る。LUTアドレス生成回路23は、映像出力アドレス(0,−1)に応じたLUTアドレスを生成する。このLUTアドレスは、出力画像上の位置(0,0)に対応した入力画素位置情報(即ち、(600,80,ch1);図11参照)が格納された指定LUT上のアドレスである。実際には、LUTアドレスはSDRAMの全体メモリ空間上のアドレスであるが、図11を参照して説明したように、出力画像上の位置(0,0)に対応した入力画素位置情報が格納されているLUT上のアドレスを(0,0)と捉えているため、LUTアドレスは(0,0)となる。
The description of the pixel signal reading operation is made concrete by giving specific numerical values. The video output
LUTアドレス(0,0)におけるデータはLUT情報として読み出される。このLUT情報は、出力画像上の位置(0,0)に対応した入力画素位置情報(600,80,ch1)である(図11参照)。今、ch1に対する指定フレームメモリがフレームメモリM1[3]であるとした場合、読み出しアドレス生成回路24は、このLUT情報に基づき、ch1の入力画像における位置(600,80)の画素の画素信号が書き込まれているフレームメモリM1[3]上のアドレスを、読み出しアドレスとして生成する。この読み出しアドレスに従って読み出された画素信号は、出力画像の位置(0,0)の画素信号としてエンコーダ13に出力される。以上のような動作を出力画像上の各位置に対して実行することにより、出力画像の全体を表す画像データDoutがエンコーダ13に出力され、出力画像が表示画面上に表示されるようになる。
Data at the LUT address (0, 0) is read as LUT information. This LUT information is input pixel position information (600, 80, ch1) corresponding to the position (0, 0) on the output image (see FIG. 11). Now, assuming that the designated frame memory for ch1 is the frame memory M 1 [3], the read
図13に、読み出しメモリ切替情報の構成を示す。読み出しメモリ切替情報は、切替判定タイミングを規定する切替判定タイミング情報と切替判定条件を規定する切替判定条件情報とをチャネルごとに含んでいる。chiに対する切替判定タイミング情報は(Yout_topi−α)であり、chiに対する切替判定条件情報は(Yout_topi+ΔYMAXi)である(上述したように、iは1、2、3又は4である)。読み出しメモリ切替情報はLUTごとに設定されており、指定LUTが或るLUTから他のLUTに切り替えられると、その切り替え時の垂直帰線期間にMPU16から切り替え先のLUTに適応した読み出しメモリ切替情報が読み出しアドレス生成回路24に送られる。
FIG. 13 shows the configuration of the read memory switching information. The read memory switching information includes switching determination timing information that defines switching determination timing and switching determination condition information that defines switching determination conditions for each channel. The switching determination timing information for chi is (Yout_top i −α), and the switching determination condition information for chi is (Yout_top i + ΔY MAXi ) (as described above, i is 1, 2, 3, or 4). The read memory switching information is set for each LUT, and when the designated LUT is switched from one LUT to another LUT, the read memory switching information adapted from the
読み出しアドレス生成回路24は、各チャネルを対象とし、切替判定タイミング情報によって規定される切替判定タイミングにおいて、対象となるチャネルの入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断は、対象となるチャネルに対する切替判定条件が満たされるか否かを判定することによって行われる。
The read
ch4に着目してより具体的に説明する(図10の状況を想定する)。出力画像の(Yout_top4−α)番目の水平ライン、即ち、ch4の切替判定タイミング情報によって表される(Yout_top4−α)番目の水平ラインの画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。尚、切替判定タイミングを認識できるように、読み出しアドレス生成回路24は、適宜、垂直同期信号Vsync2及び水平同期信号Hsync2や映像出力アドレスを参照する。
A more specific description will be given focusing on ch4 (assuming the situation of FIG. 10). (Yout_top 4 -α) th horizontal line of the output image, i.e., (Yout_top 4 -α) represented by the switching determination timing information ch4 th output pixel signals of the horizontal lines to the
読み出しアドレス生成回路24は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かを書き込みアドレスに基づいて判断する。この判断前におけるch4の指定フレームメモリがフレームメモリM4[2]である場合は、指定フレームメモリをフレームメモリM4[2]からch4の最新の入力画像の画像データが書き込まれている最中であることが想定されるフレームメモリM4[3]に切り替えるか否かを判断する。
At this switching determination timing, the read
この切り替えに関する判断は、ch4の最新の入力画像における(Yout_top4+ΔYMAX4)番目の水平ラインの各画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって行われる。即ち、ch4の切替判定条件情報によって表される(Yout_top4+ΔYMAX4)番目の水平ラインの各画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって、この切り替えに関する判断を行う。そして、書き込みアドレスに基づいて、それが既に書き込まれていると判定された場合は出力画像の形成にフレームメモリM4[3]を利用できるためch4の指令フレームメモリをフレームメモリM4[2]からフレームメモリM4[3]へと切り替え、それが既に書き込まれていると判定されなかった場合はch4の指令フレームメモリをフレームメモリM4[2]のままとする。 Decision on this switching, whether the most recent (Yout_top 4 + ΔY MAX4) in the input image of th pixel signals of the horizontal lines of ch4 is, in the switching judgment timing of ch4, already written in the frame memory M 4 [3] This is done by determining whether or not. That, (Yout_top 4 + ΔY MAX4) th pixel signals of horizontal lines represented by the switching determination condition information ch4 is, in the switching judgment timing of ch4, whether already written in the frame memory M 4 [3] This determination is made regarding the switching. Then, if it is determined based on the write address that it has already been written, the frame memory M 4 [3] can be used to form an output image, so the ch4 command frame memory is used as the frame memory M 4 [2]. Is switched to the frame memory M 4 [3], and if it is not determined that it has already been written, the ch4 command frame memory remains the frame memory M 4 [2].
このように、読み出しアドレス生成回路24は、各カメラからの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係を考慮して、チャネルごとに出力画像の形成に利用される指定フレームメモリを複数のフレームメモリの中から選択する。この際、この選択動作を、チャネルごとに個別に設定された切替判定タイミング(換言すれば、選択タイミング)において行うようにする。上述の説明から理解されるように、切替判定タイミング情報を含む読み出しメモリ切替情報は、各チャネルの入力画像に基づく画像を出力画像上のどの位置にどのように配置するかに依存して決定され、その決定内容はLUTによって表現される。
As described above, the read
また、切替判定条件は、ΔYMAX1〜ΔYMAX4に依存する。一方で、入力画像上の各画素と出力画像上の各画素との対応関係を規定するLUTのテーブルデータが定まれば自動的にΔYMAX1〜ΔYMAX4が決まる。従って、切替判定条件に基づく指定フレームメモリの切替判定はそのテーブルデータに基づいて実行されていると解釈することができる。 The switching determination condition is dependent on ΔY MAX1 ~ΔY MAX4. On the other hand, automatically ΔY MAX1 ~ΔY MAX4 determines if LUT table data defining the correspondence between each pixel on each pixel and the output image on the input image is Sadamare. Therefore, it can be interpreted that the switching determination of the designated frame memory based on the switching determination condition is executed based on the table data.
また、図18に示すような表示画像を得るための第1LUTが指定LUTとなっている場合、各チャネルの切替判定タイミングの個数は1枚の出力画像に対して1つであるが、指定LUTによっては、それを2つ以上とすることもできる。例えば、図20に示すような表示画像を得るための第2LUTが指定LUTとなっている場合は、ch3の入力画像に基づく画像が配置される領域が1枚の出力画像中に2つ設けられるため、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。 When the first LUT for obtaining a display image as shown in FIG. 18 is a designated LUT, the number of switching determination timings for each channel is one for one output image. Depending on the case, it may be more than one. For example, when the second LUT for obtaining a display image as shown in FIG. 20 is the designated LUT, two areas in which an image based on the input image of ch3 is arranged are provided in one output image. Therefore, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, whether the corresponding switching determination condition is satisfied or not is determined, and the designated frame memory for ch3 is selected based on the determination result.
<<第2実施例>>
第1実施例では、ライン単位で指定フレームメモリの切替判定を行うことで映像出力における遅延の低減を図っているが、回路規模の増大が許されるなら、画素単位で該切替判定を行うことも可能である。画素単位で指定フレームメモリの切替判定を行えば、遅延の低減効果が更に高まる。画素単位で指定フレームメモリの切替判定を行う実施例を、第2実施例として説明する。第2実施例は、第1実施例の一部を変形した実施例に相当する。そのため、第1実施例との相違点にのみ着目して説明を行う。
<< Second Example >>
In the first embodiment, the switching determination of the designated frame memory is performed in line units to reduce the delay in video output. However, if the circuit scale is allowed to increase, the switching determination may be performed in pixel units. Is possible. If the switching determination of the designated frame memory is performed on a pixel basis, the delay reduction effect is further enhanced. An embodiment in which the switching determination of the designated frame memory is performed on a pixel basis will be described as a second embodiment. The second embodiment corresponds to an embodiment obtained by modifying a part of the first embodiment. For this reason, only the differences from the first embodiment will be described.
まず、図3のLUT領域12b内の各LUTに着目し、上述したΔYの代わりにΔXYを求める。具体的には(図11参照)、LUTによって入力画像上の位置(Xin,Yin)(即ち、無効映像期間をも含めた無効映像座標(Xin’,Yin’))における画素が出力画像上の位置(Xout,Yout)(即ち、無効映像期間をも含めた無効映像座標(Xout’,Yout’))に対応付けられていると考えた時の(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))をΔXYとおき、LUT上で一塊となっているチャネル毎に全てのΔXYの値を求める。そして、チャネル毎にΔXYの値の最大値ΔXYMAXを求め、その塊が表示される最初の画素の画素信号の読み出しタイミングにおいて(XYout_top+ΔXYMAX+α’)の画素の画素信号が書き込まれている最新のフレームメモリを出力画像生成用のフレームメモリとして選択するようにする。
First, paying attention to each LUT in the
XYout_topは、上記の塊が表示される最初の画素の画素番号を表し、その画素の位置(換言すれば座標)が(x,y)である場合、即ち無効映像期間をも含めた該画素の座標が(x’,y’)である場合は、XYout_top=x’+y’・Xsize’、と定義される。α’は、SDRAMへのアクセス時間に代表される、回路内部の処理自体にかかるレイテンシ(遅延時間)を画素数で表したものである。α’の値は、システムの処理速度などに依存して予め定められる。 XYout_top represents the pixel number of the first pixel in which the above-mentioned block is displayed. When the position of the pixel (in other words, the coordinate) is (x, y), that is, the pixel including the invalid video period. When the coordinates are (x ′, y ′), it is defined as XYout_top = x ′ + y ′ · Xsize ′. α ′ represents the latency (delay time) of the processing inside the circuit, represented by the access time to the SDRAM, by the number of pixels. The value of α ′ is determined in advance depending on the processing speed of the system.
具体例を挙げてΔXY等の意義を説明する。Xsize’=720且つYsize’=525であるとし、図11に示すLUTを例にとる。LUT上のアドレス(0,0)に対するΔXYは(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))=600+80・720−(0+0・720)=58200より58200となり且つLUT上のアドレス(0,1)に対するΔXYは(Xin+Yin・Xsize’−(Xout+Yout・Xsize’))=601+79・720−(0+1・720)=56761より56761となる。この2つのΔXYは、ch1に対するΔXYである。ch1に関する、LUT上の他のアドレスに対しても同様にΔXYを求め、求めたΔXYの最大値をch1に対するΔXYMAXとする。 The significance of ΔXY and the like will be described with specific examples. Assuming that Xsize ′ = 720 and Ysize ′ = 525, the LUT shown in FIG. 11 is taken as an example. ΔXY for the address (0,0) on the LUT is 58200 from (Xin + Yin · Xsize ′ − (Xout + Yout · Xsize ′)) = 600 + 80 · 720− (0 + 0 · 720) = 58200 and the address (0,1) on the LUT ΔXY with respect to is (Xin + Yin · Xsize ′ − (Xout + Yout · Xsize ′)) = 601 + 79 · 720− (0 + 1 · 720) = 56761 to 56761. These two ΔXY are ΔXY with respect to ch1. Similarly, ΔXY is obtained for other addresses on the LUT related to ch1, and the obtained maximum value of ΔXY is set to ΔXY MAX for ch1.
一方、図11に示すLUTを用いると、ch1の入力画像に基づく画像が表示される、出力画像上の最初の画素の画素番号XYout_topは0である(LUT上のアドレス(0,0)における入力画素位置情報はch1に対するものであるため)。従って、仮にch1に対するΔXYMAXが60000であるなら、ch1に対する(XYout_top+ΔXYMAX+α’)は、(60000+α’)となる。ch2、ch3及びch4の夫々に対しても、ΔXYMAX及びXYout_topが同様にして求められる。 On the other hand, when the LUT shown in FIG. 11 is used, an image based on the input image of ch1 is displayed, and the pixel number XYout_top of the first pixel on the output image is 0 (input at the address (0, 0) on the LUT). (The pixel position information is for ch1). Therefore, if it is [Delta] xy MAX 60000 for temporarily ch1, 'it is, (60000 + α (XYout_top + ΔXY MAX + α)' for ch1 becomes). ΔXY MAX and XYout_top are similarly determined for each of ch2, ch3, and ch4.
以下、ch1〜ch4に対するΔXYMAXをΔXYMAX1〜ΔXYMAX4で表すこととし、ch1〜ch4に対するXYout_topをXYout_top1〜XYout_top4で表すことする。図3のLUT領域12b内に形成されるLUTごとにΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値は定められ、出力画像を形成するために使用する指定LUTを定まれば、その指定LUT内のテーブルデータに基づいてΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値は自動的に決まる。各LUT内のテーブルデータは予め定められるものであるため、各LUTに対するΔXYMAX1〜ΔXYMAX4及びXYout_top1〜XYout_top4の値も予め定めておくこととができる。
Hereinafter, a represent a [Delta] xy MAX for ch1~ch4 in ΔXY MAX1 ~ΔXY MAX4, to be representative of the XYout_top for ch1~ch4 in XYout_top 1 ~XYout_top 4. The value of ΔXY MAX1 ~ΔXY MAX4 and XYout_top 1 ~XYout_top 4 for each LUT formed in the
第2実施例に係る画像処理回路11の内部構成は、図12のそれと同じであり、画像処理回路11内の各部の動作は基本的には第1実施例と同じである。但し、画素単位の切替判定を行うべく、読み出しメモリ切替情報は、第1実施例のそれと異なる。
The internal configuration of the
図14に、第2実施例に係る読み出しメモリ切替情報の構成を示す。読み出しメモリ切替情報は、切替判定タイミングを規定する切替判定タイミング情報と切替判定条件を規定する切替判定条件情報とをチャネルごとに含んでいる。chiに対する切替判定タイミング情報は(XYout_topi−α’)であり、chiに対する切替判定条件情報は(XYout_topi+ΔXYMAXi)である(上述したように、iは1、2、3又は4である)。読み出しメモリ切替情報はLUTごとに設定されており、指定LUTが或るLUTから他のLUTに切り替えられると、その切り替え時の垂直帰線期間にMPU16から切り替え先のLUTに適応した読み出しメモリ切替情報が読み出しアドレス生成回路24に送られる。
FIG. 14 shows the configuration of read memory switching information according to the second embodiment. The read memory switching information includes switching determination timing information that defines switching determination timing and switching determination condition information that defines switching determination conditions for each channel. The switching determination timing information for chi is (XYout_top i −α ′), and the switching determination condition information for chi is (XYout_top i + ΔXY MAXi ) (as described above, i is 1, 2, 3, or 4). . The read memory switching information is set for each LUT, and when the designated LUT is switched from one LUT to another LUT, the read memory switching information adapted from the
読み出しアドレス生成回路24は、各チャネルを対象とし、切替判定タイミング情報によって規定される切替判定タイミングにおいて、対象となるチャネルの入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断は、対象となるチャネルに対する切替判定条件が満たされるか否かを判定することによって行われる。
The read
ch4に着目してより具体的に説明する(図10の状況を想定する)。出力画像の(XYout_top4−α’)番目の画素、即ち、ch4の切替判定タイミング情報によって表される(XYout_top4−α’)番目の画素の画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。尚、切替判定タイミングを認識できるように、読み出しアドレス生成回路24は、適宜、垂直同期信号Vsync2及び水平同期信号Hsync2や映像出力アドレスを参照する。
A more specific description will be given focusing on ch4 (assuming the situation of FIG. 10). (XYout_top 4 -α ') of the output image th pixel, i.e., (XYout_top 4 -α represented by the switching determination timing information ch4' outputs a pixel signal of) th pixel to the
読み出しアドレス生成回路24は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かを判断する。この判断前におけるch4の指定フレームメモリがフレームメモリM4[2]である場合は、指定フレームメモリをフレームメモリM4[2]からch4の最新の入力画像の画像データが書き込まれている最中であることが想定されるフレームメモリM4[3]に切り替えるか否かを判断する。
The read
この切り替えに関する判断は、ch4の最新の入力画像における(XYout_top4+ΔXYMAX4)番目の画素の画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって行われる。即ち、ch4の切替判定条件情報によって表される(XYout_top4+ΔXYMAX4)番目の画素の画素信号が、ch4の切替判定タイミングにおいて、フレームメモリM4[3]に既に書き込まれているか否かを判定することによって、この切り替えに関する判断を行う。そして、書き込みアドレスに基づいて、それが既に書き込まれていると判定された場合は出力画像の形成にフレームメモリM4[3]を利用できるためch4の指令フレームメモリをフレームメモリM4[2]からフレームメモリM4[3]へと切り替え、それが既に書き込まれていると判定されなかった場合はch4の指令フレームメモリをフレームメモリM4[2]のままとする。 Decision on this switching, the pixel signals of the latest in the input image (XYout_top 4 + ΔXY MAX4) th pixel ch4 is, in the switching determination timing ch4, whether already written in the frame memory M 4 [3] This is done by judging. That is, the determination pixel signal (XYout_top 4 + ΔXY MAX4) th pixels represented by the switching determination condition information ch4 is, in the switching determination timing ch4, whether already written in the frame memory M 4 [3] By doing so, a judgment regarding this switching is made. Then, if it is determined based on the write address that it has already been written, the frame memory M 4 [3] can be used to form an output image, so the ch4 command frame memory is used as the frame memory M 4 [2]. Is switched to the frame memory M 4 [3], and if it is not determined that it has already been written, the ch4 command frame memory remains the frame memory M 4 [2].
第1実施例では、切替判定タイミングをライン単位で設定し、入出力画像間の対応する水平ラインの位置の相違ΔYの最大値(ΔYMAX1〜ΔYMAX4)に基づいて指定フレームメモリの切替判定(換言すれば、指定フレームメモリの選択)を行っているのに対し、第2実施例では、切替判定タイミングを画素単位で設定し、入出力画像間の対応する画素の位置の相違ΔXYの最大値(ΔXYMAX1〜ΔXYMAX4)に基づいて指定フレームメモリの切替判定(換言すれば、指定フレームメモリの選択)を行っている。 In the first embodiment, sets the switching determination timing in units of lines, the corresponding maximum value of the difference [Delta] Y position of the horizontal line between the input and output image (ΔY MAX1 ~ΔY MAX4) switching determination of the designated frame memory based on ( In other words, in the second embodiment, the switching determination timing is set in units of pixels, and the corresponding pixel position difference ΔXY between the input and output images is the maximum value. (in other words, selection of the designated frame memory) switching determination of the designated frame memory based on (ΔXY MAX1 ~ΔXY MAX4) is performed.
尚、第1実施例でも述べたのと同様、指定LUTによっては、或るチャネルの切替判定タイミングの個数が1枚の出力画像に対して2以上となりうる。例えば、第2LUTが指定LUTとなっている場合は、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。 As described in the first embodiment, depending on the designated LUT, the number of switching determination timings for a certain channel can be two or more for one output image. For example, when the second LUT is a designated LUT, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, whether the corresponding switching determination condition is satisfied or not is determined, and the designated frame memory for ch3 is selected based on the determination result.
<<第3実施例>>
第1及び第2実施例では、画像処理回路11内部で指定フレームメモリの選択などをも行っているが、第1及び第2実施例の画像処理回路11が行っていた機能の一部を、演算処理手段としてのMPU16に担わせることも当然に可能である。このことを具体化した実施例として、第3実施例を説明する。
<< Third Example >>
In the first and second embodiments, the designated frame memory is selected in the
図15は、第3実施例に係る画像処理回路11の内部構成をも示す、運転支援システムの一部ブロック図である。第3実施例に係る画像処理回路11は、図15の符号21〜23、24a、25及び26にて参照される各部位を備える。第3実施例でも、調停回路25の存在を無視した説明を行う。
FIG. 15 is a partial block diagram of the driving support system that also shows the internal configuration of the
図15の書き込みアドレス生成回路21、映像出力アドレス生成回路22及びLUTアドレス生成回路23の各動作は、第1実施例で示したものと同じである。LUTアドレス生成回路23が生成したLUTアドレスに従ってRAM部12から読み出されたLUT情報は、読み出しアドレス生成回路24aに送られる。
The operations of the write
読み出しアドレス生成回路24aには、MPU16からフレームメモリ指定情報が与えられる。フレームメモリ指定情報は、各チャネルの指定フレームメモリを定める情報である。読み出しアドレス生成回路24aは、フレームメモリ指定情報に従って各チャネルの指定フレームメモリを特定し、LUT情報によって指定されるチャネル及び画素位置の画素信号を指定フレームメモリから読み出すべく、LUT情報に基づいて指定フレームメモリ上の読み出しアドレスを生成する。この読み出しアドレスに書き込まれていた画素信号は、出力画像の、映像出力アドレスに対応する位置の画素の画素信号としてエンコーダ13に出力される。
Frame memory designation information is supplied from the
MPU16にてフレームメモリ指定情報を作成するために、MPU16が入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングを正確に把握する必要がある。そこで、図15に示す構成では、書き込みアドレス生成回路21が生成した書き込みアドレスをレジスタ26に与えるようにし、垂直同期信号Vsync2の発生時点における書き込みアドレスをレジスタ26にラッチさせてMPU16に与える。一方で、垂直同期信号Vsync2の発生時点において、MPU16に対する割り込み要求を発生させるようにする。これにより、MPU16は、割り込み要求発生時点を垂直同期信号Vsync2の発生時点として把握すると共に、その時点における書き込みアドレスを同時に認識する。即ち、入力画像の画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係がMPU16において認識される。
In order for the
MPU16は、指定LUTに適応した図13に示すような読み出しメモリ切替情報を予め認識している。そして、MPU16は、切替判定タイミングをMPU16に内蔵されたタイマ(不図示)を用いて認識し、その切替判定タイミングにおいて切替判定条件の成立/不成立を判断することにより指定フレームメモリの切替判断及びその判断結果に応じたフレームメモリ指定情報の更新を行う(尚、切替判定タイミングがVsync2の発生時点と同じであるのなら、タイマの使用は必要ない)。
The
指定LUTが第1LUTであって且つ図13に示す読み出しメモリ切替情報が定められている場合を想定し、ch4に対するMPU16の動作について説明する。出力画像の(Yout_top4−α)番目の水平ライン、即ち、ch4の切替判定タイミング情報によって表される(Yout_top4−α)番目の水平ラインの画素信号をRAM部12から読み出してエンコーダ13に出力すべきタイミングが、ch4に対する切替判定タイミングである。この切替判定タイミングにおいてタイマによる割り込み要求が発生するようにVsync2の発生時点を基準にタイマを設定しておくことで、MPU16は、この切替判定タイミングを認識する。図16に、タイマによる割り込み要求の様子を示す。
The operation of the
そして、MPU16は、この切替判定タイミングにおいて、ch4の入力画像を読み出すべきフレームメモリを切り替えるか否かの判断を、レジスタ26から与えられた書き込みアドレスに基づいて実行する。判断の主体がMPU16に変わっただけで、この判断の方法自体は第1実施例で述べたものと同様である。判断結果は、フレームメモリ指定情報に反映される。
The
尚、第1実施例でも述べたのと同様、指定LUTによっては、或るチャネルの切替判定タイミングの個数が1枚の出力画像に対して2以上となりうる。例えば、第2LUTが指定LUTとなっている場合は、ch3の切替判定タイミングの個数を1枚の出力画像に対して2つとすることも可能である。この場合、その2つの切替判定タイミングの夫々に対して切替判定条件が設定される。そして、各切替判定タイミングにおいて、MPU16が、対応する切替判定条件の成立/不成立を判定し、その判定結果に基づいてch3に対する指定フレームメモリの選択を行えば良い。例えば、第2LUTを指定LUTとして用いた場合、ch3に対しては、Vsync2の発生タイミングと(Yout_top3−α)で表されるタイミングが切替判定タイミングとされ、後者のタイミングにおいてタイマによる割り込み要求が発生するようにしておく(図17参照)。
As described in the first embodiment, depending on the designated LUT, the number of switching determination timings for a certain channel can be two or more for one output image. For example, when the second LUT is a designated LUT, the number of ch3 switching determination timings can be two for one output image. In this case, a switching determination condition is set for each of the two switching determination timings. Then, at each switching determination timing, the
また、ライン単位で指定フレームメモリの切替判定を行う例を示したが、第2実施例に記載した事項を第3実施例に適用することも可能である。即ち、回路規模の増大が許されるなら、第2実施例で示したように、画素単位で該切替判定を行うことも可能である。 Moreover, although the example which performs the switching determination of the designation | designated frame memory per line was shown, the matter described in 2nd Example is also applicable to 3rd Example. That is, if the circuit scale is allowed to increase, the switching determination can be performed on a pixel basis as shown in the second embodiment.
また、第1又は第2実施例の如くハードウェアが主体となって指定フレームメモリの切替判定を行うようにすると、時間の管理が正確になり、映像出力における遅延を良好に低減することができる。これに対し、第3実施例では、MPU16がリアルタイム制御に介在するため、Vsync2による割り込みやタイマによる割り込みの処理優先順位によっては、時間管理に誤差が発生しうる。このため、映像出力における遅延の低減効果は第1実施例のそれよりも若干小さいと言えるが、一方で、読み出しアドレス生成回路の回路構成を簡素化できるというメリットがある。
Further, when the switching determination of the designated frame memory is performed mainly by hardware as in the first or second embodiment, the time management becomes accurate and the delay in video output can be reduced well. . On the other hand, in the third embodiment, since the
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
上述の例では、1つのチャネルに対して設けられているフレームメモリの個数が4であるが、その個数を2以上の任意の個数とすることができる。
[Note 1]
In the above example, the number of frame memories provided for one channel is 4, but the number can be any number of 2 or more.
[注釈2]
上述の例では、入力画像上の各画素と出力画像上の各画素との対応関係を規定する対応情報としてLUT(テーブルデータ)を用意し、該LUTを用いて各入力画像から出力画像を形成するようにしているが、LUTを用いる場合と等価な出力画像が得られるのであればLUTの使用は必須ではない。例えば、上記の対応情報に応じた幾何学的変換を各入力画像に施すことよって出力画像を得るようにしていもよい。
[Note 2]
In the above example, LUT (table data) is prepared as correspondence information that defines the correspondence between each pixel on the input image and each pixel on the output image, and an output image is formed from each input image using the LUT. However, the use of the LUT is not essential if an output image equivalent to the case of using the LUT can be obtained. For example, an output image may be obtained by performing geometric transformation according to the correspondence information on each input image.
[注釈3]
図3の運転支援システムは、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図12又は図15に示される、画像処理装置11内の各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 3]
The driving support system in FIG. 3 can be realized by hardware or a combination of hardware and software. In particular, the function of each part in the
[注釈4]
車両に対する運転支援システムに本発明を適用した場合の実施形態を上述したが、本発明は、車両用途に限定されない。即ち、本発明は、互いに非同期の複数カメラからの入力画像に対して画像処理を施して出力画像を得る様々な装置及びシステム(監視システムなど)に適用可能であり、特にリアルタイム性を要求する用途全てに適用可能である。尚、画像処理の内容によっては画像処理にかかる時間が大きくなるが、その際は、上述のレイテンシ(α又はα’)を大きな値に設定しておくことで対応可能である。
[Note 4]
Although the embodiment in the case where the present invention is applied to the driving support system for the vehicle has been described above, the present invention is not limited to the vehicle application. That is, the present invention can be applied to various apparatuses and systems (such as a monitoring system) that obtain an output image by performing image processing on input images from a plurality of cameras that are asynchronous with each other. Applicable to all. Depending on the contents of the image processing, the time required for the image processing increases. In this case, the above-described latency (α or α ′) can be set to a large value.
また、カメラからの映像信号がデコーダを介して画像処理回路に入力される構成を上述の実施形態にて示したが、本発明に係る映像信号の入出力形態は、上述の実施形態におけるそれに限定されない。例えば、カメラからの映像信号をネットワークを介して受信する形態であっても、その映像信号を一旦復号してフレームメモリに蓄えることができるのであれば、本発明を適用可能である。但し、この場合は、入力される映像信号がフレーム途中で途切れる可能性があることを想定し、入力画像を形成する画素の内、表示に使用する画素全ての画素信号の受信を待って実際の表示を行う必要がある。 Further, the configuration in which the video signal from the camera is input to the image processing circuit via the decoder has been described in the above embodiment, but the input / output mode of the video signal according to the present invention is limited to that in the above embodiment. Not. For example, even if the video signal from the camera is received via a network, the present invention can be applied as long as the video signal can be once decoded and stored in the frame memory. However, in this case, assuming that there is a possibility that the input video signal may be interrupted in the middle of the frame, it is necessary to wait for the reception of the pixel signals of all the pixels used for display among the pixels forming the input image. It is necessary to display.
従って、ネットワークを介した映像信号受信を第1実施例に適用する場合、例えば、表示に使用する画素が属する最後の水平ラインに1ラインを加えた水平ライン上の画素の画素信号が受信された時に、指定フレームメモリ(即ち、表示に使用するフレームメモリ)の切替判定を行うようにする。同様に、ネットワークを介した映像信号受信を第2実施例に適用する場合、例えば、表示に使用する最後の画素の次の画素の画素信号が受信された時に、指定フレームメモリの切替判定を行うようにする。第3実施例では、タイマを用いて切替判定タイミングの予測を行っているため、ネットワークを介した映像信号受信をそのまま第3実施例に使用することができない。ネットワークを介した映像信号受信を第3実施例に適用する場合は、表示に使用する最後の画素の受信時にMPU16に対して割り込み要求が発生するようにしておき、その割り込み要求に対応してMPU16内で実行される割り込みルーチン中において、指定フレームメモリの切替判定を行う必要がある。
Therefore, when the video signal reception via the network is applied to the first embodiment, for example, the pixel signal of the pixel on the horizontal line obtained by adding one line to the last horizontal line to which the pixel used for display belongs is received. Sometimes, a switching determination of a designated frame memory (that is, a frame memory used for display) is performed. Similarly, when the video signal reception via the network is applied to the second embodiment, for example, when the pixel signal of the pixel next to the last pixel used for display is received, the switching determination of the designated frame memory is performed. Like that. In the third embodiment, since the switching determination timing is predicted using a timer, video signal reception via the network cannot be used as it is in the third embodiment. When the video signal reception via the network is applied to the third embodiment, an interrupt request is generated to the
[注釈5]
例えば、以下のように考えることができる。各カメラから取得した入力画像より出力画像を生成する画像処理装置は、主として、図3の画像処理回路11、RAM部12及びMPU16によって形成される。第1又は第2実施例では、指定フレームメモリを選択する選択手段は画像処理回路11に内在しているが、第3実施例では、選択手段はMPU16に内在している。
[Note 5]
For example, it can be considered as follows. An image processing apparatus that generates an output image from an input image acquired from each camera is mainly formed by the
CA1〜CA4 カメラ
100 車両
11 画像処理回路
12 RAM部
12a フレームメモリ領域
12b LUT領域
16 MPU
CA1 to
Claims (9)
前記第1〜第nの内部同期カメラの夫々からの画像データの入力タイミングと出力画像の画像データの出力タイミングとのタイミング関係に基づいて、前記内部同期カメラごとに前記出力画像の形成に利用されるフレームメモリを指定フレームメモリとして選択する選択手段と、
各指定フレームメモリに記憶される前記入力画像を合成することによって前記出力画像の画像データを生成して出力する出力手段と、を備えた画像処理装置であって、
前記選択手段は、
各入力画像を前記出力画像に反映させる、前記出力画像上の位置に基づいて、前記内部同期カメラごとに個別に選択タイミングを設定し、
前記内部同期カメラごとに前記指定フレームメモリを前記選択タイミングにおいて選択する
ことを特徴とする画像処理装置。 A plurality of frame memories that receive image data of input images sequentially picked up by each of the first to n-th internal synchronous cameras and each store image data of one input image include the internal synchronous camera An input memory unit for each (n is an integer of 2 or more),
Based on the timing relationship between the input timing of the image data from each of the first to n-th internal synchronous cameras and the output timing of the image data of the output image, it is used for forming the output image for each internal synchronous camera. Selecting means for selecting a designated frame memory as a designated frame memory;
Output means for generating and outputting image data of the output image by synthesizing the input images stored in each designated frame memory, and an image processing apparatus comprising:
The selection means includes
Each input image is reflected in the output image, based on the position on the output image, the selection timing is set individually for each internal synchronization camera,
The image processing apparatus, wherein the designated frame memory is selected at the selection timing for each internal synchronization camera.
前記選択手段は、
第iの内部同期カメラからの最新の入力画像の画像データを記憶すべきフレームメモリに着目し、
第iの内部同期カメラからの入力画像の画像データが前記出力画像の画像データとして出力されるべきタイミングにおいて着目したフレームメモリの画像データを利用できるか否か、の判定を行い、
その判定結果に基づいて、第iの内部同期カメラに対する前記指定フレームメモリを選択する
ことを特徴とする請求項1に記載の画像処理装置。 When i is an integer of 1 to n,
The selection means includes
Paying attention to the frame memory to store the image data of the latest input image from the i-th internal synchronous camera,
A determination is made as to whether or not the image data of the focused frame memory can be used at a timing when the image data of the input image from the i-th internal synchronization camera is to be output as the image data of the output image;
The image processing apparatus according to claim 1, wherein the designated frame memory for the i-th internal synchronization camera is selected based on the determination result.
前記選択手段は、前記対応情報から定まる情報に基づいて前記判定を行う
ことを特徴とする請求項2に記載の画像処理装置。 The output means is stored in each designated frame memory based on predetermined correspondence information that defines a correspondence relationship between each pixel on the input image and each pixel on the output image from each internal synchronization camera. Generating image data of the output image from image data of the input image;
The image processing apparatus according to claim 2, wherein the selection unit performs the determination based on information determined from the correspondence information.
前記選択手段は、前記選択タイミングを水平ライン単位で設定し、前記相違の最大量に基づいて前記判定を行う
ことを特徴とする請求項3に記載の画像処理装置。 The difference in line position between the horizontal line on the input image from the i-th internal synchronization camera and the horizontal line on the output image corresponding to the horizontal line and the maximum amount of the difference are determined by the correspondence information,
The image processing apparatus according to claim 3, wherein the selection unit sets the selection timing in units of horizontal lines and performs the determination based on the maximum amount of the difference.
前記選択手段は、前記選択タイミングを画素単位で設定し、前記相違の最大量に基づいて前記判定を行う
ことを特徴とする請求項3に記載の画像処理装置。 The difference in pixel position between the pixel on the input image from the i-th internal synchronization camera and the pixel on the output image corresponding to the pixel and the maximum amount of the difference are determined by the correspondence information,
The image processing apparatus according to claim 3, wherein the selection unit sets the selection timing in units of pixels and performs the determination based on the maximum amount of difference.
ことを特徴とする請求項1〜請求項5の何れかに記載の画像処理装置。 The selection means sets a plurality of the selection timings for at least one of the first to n-th internal synchronization cameras, and the command to the internal synchronization camera in which a plurality of selection timings are set. 6. The image processing apparatus according to claim 1, wherein the frame memory is selected at each of the plurality of selection timings.
前記演算処理手段は、前記選択タイミングに前記割り込み要求が発生するように前記タイマを作動させて前記割り込み要求の発生時に前記指定フレームメモリの選択を行う
ことを特徴とする請求項1〜請求項6の何れかに記載の画像処理装置。 Arithmetic processing means having the selection means and a built-in timer for generating an interrupt request,
7. The arithmetic processing unit operates the timer so that the interrupt request is generated at the selection timing, and selects the designated frame memory when the interrupt request is generated. An image processing apparatus according to any one of the above.
請求項1〜請求項7の何れかに記載の画像処理装置と、を備え、
前記画像処理装置にて生成された出力画像の画像データを表示手段に供給することにより前記出力画像を表示手段において表示する
ことを特徴とする運転支援システム。 First to nth internal synchronous cameras attached to the vehicle (n is an integer of 2 or more);
An image processing apparatus according to any one of claims 1 to 7,
A driving support system, wherein the output image is displayed on the display means by supplying image data of the output image generated by the image processing device to the display means.
ことを特徴とする車両。 A vehicle, wherein first to nth internal synchronous cameras are attached (n is an integer of 2 or more), and the image processing apparatus according to any one of claims 1 to 7 is installed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007313103A JP5091643B2 (en) | 2007-12-04 | 2007-12-04 | Image processing apparatus, driving support system, and vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007313103A JP5091643B2 (en) | 2007-12-04 | 2007-12-04 | Image processing apparatus, driving support system, and vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009141456A true JP2009141456A (en) | 2009-06-25 |
JP5091643B2 JP5091643B2 (en) | 2012-12-05 |
Family
ID=40871671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007313103A Expired - Fee Related JP5091643B2 (en) | 2007-12-04 | 2007-12-04 | Image processing apparatus, driving support system, and vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5091643B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011013642A1 (en) * | 2009-07-29 | 2011-02-03 | クラリオン株式会社 | Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles |
WO2016024395A1 (en) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | Vehicular imaging device, vehicular image display system, and vehicle |
WO2016024396A1 (en) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | Imaging device, image display device, and vehicle |
JP2017050818A (en) * | 2015-09-04 | 2017-03-09 | 株式会社ソシオネクスト | Image processing method and image processing program |
WO2018088061A1 (en) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | Image transfer device, image transfer method, program, and moving image generation system |
WO2019158287A1 (en) * | 2018-02-16 | 2019-08-22 | Renault S.A.S | Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera |
US11381714B2 (en) | 2020-09-18 | 2022-07-05 | Kabushiki Kaisha Toshiba | Image processing device and image processing system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001268557A (en) * | 2000-03-21 | 2001-09-28 | Aiwa Co Ltd | Device and method for processing video signal |
JP2007020019A (en) * | 2005-07-11 | 2007-01-25 | Clarion Co Ltd | Memory controller and synchronization device of signal string |
JP2007158639A (en) * | 2005-12-05 | 2007-06-21 | Alpine Electronics Inc | Car driving support apparatus |
JP2007180635A (en) * | 2005-12-27 | 2007-07-12 | Alpine Electronics Inc | Image display apparatus for vehicle |
-
2007
- 2007-12-04 JP JP2007313103A patent/JP5091643B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001268557A (en) * | 2000-03-21 | 2001-09-28 | Aiwa Co Ltd | Device and method for processing video signal |
JP2007020019A (en) * | 2005-07-11 | 2007-01-25 | Clarion Co Ltd | Memory controller and synchronization device of signal string |
JP2007158639A (en) * | 2005-12-05 | 2007-06-21 | Alpine Electronics Inc | Car driving support apparatus |
JP2007180635A (en) * | 2005-12-27 | 2007-07-12 | Alpine Electronics Inc | Image display apparatus for vehicle |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011013642A1 (en) * | 2009-07-29 | 2011-02-03 | クラリオン株式会社 | Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles |
JP2011030141A (en) * | 2009-07-29 | 2011-02-10 | Clarion Co Ltd | Vehicle periphery monitoring device and method of displaying vehicle peripheral images |
CN102273201A (en) * | 2009-07-29 | 2011-12-07 | 歌乐牌株式会社 | Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles |
US9247217B2 (en) | 2009-07-29 | 2016-01-26 | Clarion Co., Ltd. | Vehicle periphery monitoring device and vehicle periphery image display method |
JP2016040904A (en) * | 2014-08-11 | 2016-03-24 | セイコーエプソン株式会社 | Imaging device for vehicle, image display system for vehicle, and vehicle |
WO2016024396A1 (en) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | Imaging device, image display device, and vehicle |
US10358090B2 (en) | 2014-08-11 | 2019-07-23 | Seiko Epson Corporation | Vehicle imaging device, vehicle imaging display system, and vehicle |
JP2016040163A (en) * | 2014-08-11 | 2016-03-24 | セイコーエプソン株式会社 | Imaging device, image display device, and vehicle |
CN106537903A (en) * | 2014-08-11 | 2017-03-22 | 精工爱普生株式会社 | Imaging device, image display device, and vehicle |
CN106576154A (en) * | 2014-08-11 | 2017-04-19 | 精工爱普生株式会社 | Vehicular imaging device, vehicular image display system, and vehicle |
US10389920B2 (en) | 2014-08-11 | 2019-08-20 | Seiko Epson Corporation | Imaging device, imaging display apparatus, and vehicle |
WO2016024395A1 (en) * | 2014-08-11 | 2016-02-18 | セイコーエプソン株式会社 | Vehicular imaging device, vehicular image display system, and vehicle |
CN106576154B (en) * | 2014-08-11 | 2019-06-21 | 精工爱普生株式会社 | Vehicle camera, vehicle camera shooting display system and vehicle |
CN106537903B (en) * | 2014-08-11 | 2019-06-21 | 精工爱普生株式会社 | Filming apparatus, shooting display device and vehicle |
JP2017050818A (en) * | 2015-09-04 | 2017-03-09 | 株式会社ソシオネクスト | Image processing method and image processing program |
CN109891875A (en) * | 2016-11-08 | 2019-06-14 | 索尼公司 | Image transmission devices, image transmission method, program and moving image generate system |
WO2018088061A1 (en) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | Image transfer device, image transfer method, program, and moving image generation system |
JPWO2018088061A1 (en) * | 2016-11-08 | 2019-09-26 | ソニー株式会社 | Image transfer apparatus, image transfer method, program, and moving image generation system |
US10834315B2 (en) | 2016-11-08 | 2020-11-10 | Sony Corporation | Image transfer apparatus and moving image generating system for transferring moving image data |
CN109891875B (en) * | 2016-11-08 | 2021-11-16 | 索尼公司 | Image transmission apparatus, method, system, and storage medium |
WO2019158287A1 (en) * | 2018-02-16 | 2019-08-22 | Renault S.A.S | Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera |
FR3078224A1 (en) * | 2018-02-16 | 2019-08-23 | Renault S.A.S | METHOD FOR MONITORING A MOTOR VEHICLE IN PARKING ENVIRONMENT COMPRISING AN ASYNCHRONOUS CAMERA |
KR20200118866A (en) * | 2018-02-16 | 2020-10-16 | 르노 에스.아.에스. | How to monitor the environment of a parked car with an asynchronous camera |
US11282392B2 (en) | 2018-02-16 | 2022-03-22 | Renault S.A.S | Method for monitoring an environment of a parked motor vehicle comprising an asynchronous camera |
KR102564994B1 (en) * | 2018-02-16 | 2023-08-08 | 르노 에스.아.에스. | A method for monitoring the environment of a parked car with an asynchronous camera |
US11381714B2 (en) | 2020-09-18 | 2022-07-05 | Kabushiki Kaisha Toshiba | Image processing device and image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP5091643B2 (en) | 2012-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5091643B2 (en) | Image processing apparatus, driving support system, and vehicle | |
US10462372B2 (en) | Imaging device, imaging system, and imaging method | |
JP5178961B2 (en) | Image synthesizer | |
JP2006180340A (en) | Video signal processor, its method and on-vehicle camera system | |
US20150254820A1 (en) | Semiconductor integrated circuit and multi-angle video system | |
JP2010028537A (en) | Image processing apparatus and recording device | |
US8462222B2 (en) | Image processing method and device, and imaging apparatus using the image processing device | |
US20100172599A1 (en) | Image signal scaler and image signal processor including the same | |
JP4556502B2 (en) | Video converter | |
US8447035B2 (en) | Contract based memory management for isochronous streams | |
JP2010081024A (en) | Device for interpolating image | |
EP1455338A1 (en) | Image processor with frame-rate conversion | |
JP4818854B2 (en) | Image display device, electronic device, display control device, and display control method | |
JP2012028997A (en) | Image processing device and camera | |
US7868913B2 (en) | Apparatus for converting images of vehicle surroundings | |
JP2015096920A (en) | Image processor and control method of image processing system | |
TWI533701B (en) | Apparatus and method for generating picture-in-picture (pip) image | |
JP2015125411A (en) | Video processing device | |
JP2009071616A (en) | Image processor and control method thereof | |
JP2011066498A (en) | Image processor and in-vehicle imaging system | |
JP4525382B2 (en) | Display device and imaging device | |
WO2024098284A1 (en) | Imaging device | |
JP2011055021A (en) | Image generating device, display system and image generating method | |
JP3985451B2 (en) | Image processing apparatus and image display apparatus | |
US20110292292A1 (en) | Method and apparatus for displaying video data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120820 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120914 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |