JP2016201585A - Image processing apparatus and image processing apparatus control method - Google Patents

Image processing apparatus and image processing apparatus control method Download PDF

Info

Publication number
JP2016201585A
JP2016201585A JP2015078251A JP2015078251A JP2016201585A JP 2016201585 A JP2016201585 A JP 2016201585A JP 2015078251 A JP2015078251 A JP 2015078251A JP 2015078251 A JP2015078251 A JP 2015078251A JP 2016201585 A JP2016201585 A JP 2016201585A
Authority
JP
Japan
Prior art keywords
image processing
processing apparatus
image
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015078251A
Other languages
Japanese (ja)
Inventor
昌俊 小柴
Masatoshi Koshiba
昌俊 小柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2015078251A priority Critical patent/JP2016201585A/en
Publication of JP2016201585A publication Critical patent/JP2016201585A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid increase in data amount stored in a storage device in accordance with a generated composite image.SOLUTION: An image processing apparatus comprises: a retaining part for retaining plural images captured with plural cameras; a calculation part which calculates, from the images, pixel information indicating pixels included in a designated range out of a captured range obtained by composing the images; a control part which transfers the pixels indicated by the pixel information, among the images retained by the retaining part, from the retaining part to the storage part; and a composing part which composes the pixels transferred to the storage part and generates ap composite image indicating the designated range.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置および画像処理装置の制御方法に関する。   The present invention relates to an image processing apparatus and a control method for the image processing apparatus.

自動車に設置された複数のカメラで撮影された複数の画像を合成して、自動車の周囲の状況を示す合成画像を生成する画像処理装置が提案されている(例えば、特許文献1参照)。この種の画像処理装置では、記憶装置は、各カメラにより撮影された画像のうち合成画像の生成に使用する画素を示す合成情報を予め記憶する。そして、画像処理装置は、合成情報が示す画素を複数のカメラから記憶装置に転送する。これにより、合成画像に用いられない画素が複数のカメラから記憶装置に転送されず、記憶装置に記憶されるデータ量が削減される。   There has been proposed an image processing apparatus that combines a plurality of images photographed by a plurality of cameras installed in an automobile to generate a composite image indicating the situation around the automobile (see, for example, Patent Document 1). In this type of image processing apparatus, the storage device stores in advance composite information indicating pixels used to generate a composite image among images captured by each camera. Then, the image processing apparatus transfers the pixels indicated by the combination information from the plurality of cameras to the storage device. Thereby, pixels that are not used in the composite image are not transferred from the plurality of cameras to the storage device, and the amount of data stored in the storage device is reduced.

特開2002−302001号公報JP 2002-302001 A

合成画像の生成に使用する画素が合成情報で指定される画像処理装置では、合成画像で表示される範囲を変更する度に新たな合成情報を外部の装置から取得するため、手間がかかる。なお、新たな合成情報取得せずに合成画像で表示される範囲を変更する構成では、合成情報が示す画素以外の画素が、合成情報が示す画素とともに記憶装置に転送される場合がある。この場合、記憶装置に転送されるデータ量が増大する。   In an image processing apparatus in which pixels used to generate a composite image are specified by composite information, it takes time to acquire new composite information from an external device every time the range displayed in the composite image is changed. Note that in a configuration in which the range displayed in the composite image is changed without acquiring new composite information, pixels other than the pixels indicated by the composite information may be transferred to the storage device together with the pixels indicated by the composite information. In this case, the amount of data transferred to the storage device increases.

一つの側面では、本発明が開示する画像処理装置および画像処理装置の制御方法は、生成される合成画像に応じて記憶装置に転送されるデータ量を削減することを目的とする。   In one aspect, an object of the image processing apparatus and the control method for the image processing apparatus disclosed by the present invention is to reduce the amount of data transferred to a storage device according to a generated composite image.

一つの観点の画像処理装置は、複数のカメラで撮影された複数の画像を保持する保持部と、複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出する算出部と、保持部に保持された複数の画像のうち、画素情報が示す画素を保持部から記憶部に転送する制御部と、記憶部に転送された画素を合成して、指定された範囲を示す合成画像を生成する合成部とを有する。   An image processing apparatus according to one aspect includes a holding unit that holds a plurality of images shot by a plurality of cameras, and pixels that indicate pixels included in a specified range among shooting ranges obtained by combining the plurality of images. A calculation unit that calculates information from a plurality of images, a control unit that transfers pixels indicated by pixel information from the holding unit to the storage unit among the plurality of images held in the holding unit, and a pixel that is transferred to the storage unit And a combining unit that generates a combined image indicating the specified range.

別の観点の画像処理装置の制御方法は、複数のカメラで撮影された複数の画像を保持する保持部を含む画像処理装置の制御方法において、複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出し、保持部に保持された複数の画像のうち、画素情報が示す画素を保持部から記憶部に転送し、記憶部に転送された画素を合成して、指定された範囲を示す合成画像を生成する。   Another aspect of the image processing apparatus control method is an image processing apparatus control method including a holding unit that holds a plurality of images captured by a plurality of cameras. Pixel information indicating pixels included in the specified range is calculated from a plurality of images, and among the plurality of images held in the holding unit, the pixels indicated by the pixel information are transferred from the holding unit to the storage unit, and the storage unit Are combined to generate a composite image indicating the specified range.

本発明が開示する画像処理装置および画像処理装置の制御方法は、生成される合成画像に応じて記憶装置に転送されるデータ量を削減することができる。   The image processing apparatus and the control method for the image processing apparatus disclosed in the present invention can reduce the amount of data transferred to the storage device in accordance with the generated composite image.

画像処理装置および画像処理装置の制御方法の一実施形態を示す図である。It is a figure which shows one Embodiment of the control method of an image processing apparatus and an image processing apparatus. 画像処理装置および画像処理装置の制御方法の別の実施形態を示す図である。It is a figure which shows another embodiment of the control method of an image processing apparatus and an image processing apparatus. 図2に示したカメラの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the camera shown in FIG. 図2に示したカメラにより撮影された画像を用いて生成された合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image produced | generated using the image image | photographed with the camera shown in FIG. 図4(a)に示した合成画像における画素情報の一例を示す図である。It is a figure which shows an example of the pixel information in the synthesized image shown to Fig.4 (a). 図4(b)に示した合成画像における画素情報の一例を示す図である。It is a figure which shows an example of the pixel information in the synthesized image shown in FIG.4 (b). 図2に示したカメラから受信する画像の一例を示す図である。It is a figure which shows an example of the image received from the camera shown in FIG. 図2に示した画像処理装置における画像処理の一例を示す図である。It is a figure which shows an example of the image process in the image processing apparatus shown in FIG. 図1および図2に示した画像処理装置のハードウェアの一例を示す図である。FIG. 3 is a diagram illustrating an example of hardware of the image processing apparatus illustrated in FIGS. 1 and 2.

以下、図面を用いて実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、画像処理装置および画像処理装置の制御方法の一実施形態を示す。   FIG. 1 shows an embodiment of an image processing apparatus and a control method for the image processing apparatus.

図1に示した画像処理装置100は、記憶部50と複数のカメラ60とに接続される。画像処理装置100は、各カメラ60により撮影された画像を受信する。画像処理装置100は、受信した画像の少なくとも一部を記憶部50に転送する。記憶部50は、画像処理装置100から転送される画像を格納する記憶領域を有する。画像処理装置100の機能が、プログラムにより実現される場合、記憶部50には、プログラムが格納されてもよい。また、記憶部50は、画像処理装置100内に配置されてもよい。   The image processing apparatus 100 illustrated in FIG. 1 is connected to a storage unit 50 and a plurality of cameras 60. The image processing apparatus 100 receives an image captured by each camera 60. The image processing apparatus 100 transfers at least a part of the received image to the storage unit 50. The storage unit 50 has a storage area for storing an image transferred from the image processing apparatus 100. When the function of the image processing apparatus 100 is realized by a program, the storage unit 50 may store the program. The storage unit 50 may be disposed in the image processing apparatus 100.

画像処理装置100は、プログラムを実行するCPU(Central Processing Unit)等の演算処理装置を含むコンピュータ装置により実現される。画像処理装置100は、自動車等の移動体に搭載され、移動体に設置されたカメラ60により撮影される複数の画像を合成し、合成画像を生成する。例えば、画像処理装置100は、保持部10、算出部20、制御部30および合成部40を有する。   The image processing apparatus 100 is realized by a computer device including an arithmetic processing device such as a CPU (Central Processing Unit) that executes a program. The image processing apparatus 100 is mounted on a moving body such as an automobile, and synthesizes a plurality of images taken by a camera 60 installed on the moving body to generate a combined image. For example, the image processing apparatus 100 includes a holding unit 10, a calculation unit 20, a control unit 30, and a synthesis unit 40.

保持部10は、カメラ60の各々から出力される画像を取得し、取得した画像を保持する。   The holding unit 10 acquires an image output from each of the cameras 60 and holds the acquired image.

算出部20は、複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出する。算出部20は、例えば、生成する合成画像が1つの仮想のカメラで撮影される場合に、仮想のカメラが配置される位置、仮想のカメラのレンズが向く方向、レンズの焦点距離等を示す指定情報を、画像処理装置100に接続されたタッチパネル等の入力装置から受ける。そして、算出部20は、受けた指定情報に基づいて、指定された範囲に含まれる画素を示す画素情報を、複数の画像の各々について算出する。   The calculation unit 20 calculates pixel information indicating pixels included in a designated range from a plurality of images, among imaging ranges obtained by combining a plurality of images. For example, when the synthesized image to be generated is shot with one virtual camera, the calculation unit 20 specifies the position where the virtual camera is arranged, the direction in which the virtual camera lens faces, the focal length of the lens, and the like. Information is received from an input device such as a touch panel connected to the image processing apparatus 100. Then, the calculation unit 20 calculates pixel information indicating pixels included in the specified range for each of the plurality of images based on the received specification information.

制御部30は、保持部10に保持された複数の画像のうち、算出部20が算出した画素情報が示す画素を保持部10から記憶部50に転送する。合成部40は、記憶部50に転送された画素を合成して、指定された範囲を示す合成画像を生成する。   The control unit 30 transfers the pixel indicated by the pixel information calculated by the calculation unit 20 from the plurality of images held in the holding unit 10 from the holding unit 10 to the storage unit 50. The synthesizer 40 synthesizes the pixels transferred to the storage unit 50 and generates a synthesized image indicating the designated range.

画像処理装置100は、生成した合成画像を記憶部50に格納してもよく、画像処理装置100に接続された液晶ディスプレイ等のモニタに出力してもよい。   The image processing apparatus 100 may store the generated composite image in the storage unit 50 or may output it to a monitor such as a liquid crystal display connected to the image processing apparatus 100.

以上、図1に示した実施形態では、画像処理装置100は、複数の画像を組み合わせて表示される表示範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出し、算出した画素情報が示す画素を保持部10から記憶部50に転送する。このように、保持部10から記憶部50に転送される画素の数は、生成する合成画像に応じて調整される。この結果、保持部10から記憶部50に転送されるデータ量を削減することができる。   As described above, in the embodiment illustrated in FIG. 1, the image processing apparatus 100 calculates, from a plurality of images, pixel information indicating pixels included in a specified range among display ranges displayed by combining a plurality of images. Then, the pixel indicated by the calculated pixel information is transferred from the holding unit 10 to the storage unit 50. As described above, the number of pixels transferred from the holding unit 10 to the storage unit 50 is adjusted according to the generated composite image. As a result, the amount of data transferred from the holding unit 10 to the storage unit 50 can be reduced.

また、画像処理装置100は、生成する合成画像に応じた画素情報を算出する。これにより、記憶部50は、生成する合成画像に応じた画素情報を予め記憶することなく記憶するデータ量の増加を回避することができる。   Further, the image processing apparatus 100 calculates pixel information corresponding to the generated composite image. Thereby, the memory | storage part 50 can avoid the increase in the data amount memorize | stored, without memorize | storing beforehand the pixel information according to the synthesized image to produce | generate.

図2は、画像処理装置および画像処理装置の制御方法の別の実施形態を示す。   FIG. 2 shows another embodiment of the image processing apparatus and the control method of the image processing apparatus.

図2に示した画像処理装置100aは、CPU等の演算処理装置を含むコンピュータ装置である。画像処理装置100aは、4つのカメラ200(200a、200b、200c、200d)に接続される。画像処理装置100aは、各カメラ200により撮影された画像を受信する。また、画像処理装置100aは、出力装置300に接続され、生成された合成画像等を出力装置300に出力する。画像処理装置100aは、入力装置400に接続され、入力装置400を介してユーザから指示を受ける。例えば、画像処理装置100a、カメラ200、出力装置300および入力装置400は、自動車等の移動体に搭載される。   The image processing apparatus 100a illustrated in FIG. 2 is a computer apparatus including an arithmetic processing apparatus such as a CPU. The image processing apparatus 100a is connected to four cameras 200 (200a, 200b, 200c, 200d). The image processing apparatus 100a receives an image captured by each camera 200. The image processing apparatus 100 a is connected to the output device 300 and outputs the generated composite image and the like to the output device 300. The image processing apparatus 100 a is connected to the input device 400 and receives instructions from the user via the input device 400. For example, the image processing device 100a, the camera 200, the output device 300, and the input device 400 are mounted on a moving body such as an automobile.

カメラ200a、200b、200c、200dは、例えば、搭載された移動体の周囲を撮影する。カメラ200a、200b、200c、200dは、撮影により得られた画像を画像処理装置100aに出力する。カメラ200の配置については、図3で説明する。   The cameras 200a, 200b, 200c, and 200d capture, for example, the surroundings of a mounted moving body. The cameras 200a, 200b, 200c, and 200d output images obtained by shooting to the image processing apparatus 100a. The arrangement of the camera 200 will be described with reference to FIG.

出力装置300は、液晶ディスプレイ等のモニタであり、画像処理装置100aから合成画像等を含むデータを受信し、受信したデータを表示する。   The output device 300 is a monitor such as a liquid crystal display, receives data including a composite image from the image processing device 100a, and displays the received data.

入力装置400は、キーボード、タッチパネルあるいはジョイスティック等を含み、ユーザからの指示を受ける。例えば、入力装置400は、画像処理装置100aが生成する合成画像が1つの仮想のカメラで撮影される場合における、仮想のカメラが配置される位置、仮想のカメラのレンズが向く方向、レンズの焦点距離等を示す指定情報を、ユーザの入力操作により受ける。入力装置400は、受けた指定情報を画像処理装置100aに出力する。なお、仮想のカメラが配置される位置は、例えば、合成画像で表示させるユーザの視点の位置を示し、XYZ座標等の3次元座標で指示される。仮想のカメラのレンズが向く方向は、例えば、合成画像で表示させるユーザの視線方向を示し、XYZ座標等の3次元ベクトルで指示される。レンズの焦点距離は、例えば、合成画像で表示させる範囲を拡大あるいは縮小を示し、拡大率あるいは縮小率等の数値で指示される。以下、仮想のカメラが配置される位置は、“視点の位置”とも称され、仮想のカメラのレンズが向けられる方向は、“視線方向”とも称される。   The input device 400 includes a keyboard, a touch panel, a joystick, etc., and receives instructions from the user. For example, when the composite image generated by the image processing apparatus 100a is captured by one virtual camera, the input device 400 is positioned where the virtual camera is disposed, the direction in which the virtual camera lens faces, and the focal point of the lens. Designation information indicating a distance or the like is received by a user input operation. The input device 400 outputs the received designation information to the image processing device 100a. Note that the position at which the virtual camera is arranged indicates, for example, the position of the viewpoint of the user to be displayed as a composite image, and is designated by three-dimensional coordinates such as XYZ coordinates. The direction in which the lens of the virtual camera faces is, for example, the direction of the user's line of sight displayed in the composite image, and is indicated by a three-dimensional vector such as XYZ coordinates. The focal length of the lens indicates, for example, enlargement or reduction of the range to be displayed in the composite image, and is designated by a numerical value such as an enlargement ratio or a reduction ratio. Hereinafter, the position where the virtual camera is arranged is also referred to as “viewpoint position”, and the direction in which the lens of the virtual camera is directed is also referred to as “line-of-sight direction”.

画像処理装置100aは、IF(Interface)部110a、110b、110c、110dおよびFIFO(First In First Out)120a、120b、120c、120dを有する。画像処理装置100aは、記憶部130、算出部140、制御部150および合成部160を有する。   The image processing apparatus 100a includes IF (Interface) units 110a, 110b, 110c, and 110d and FIFOs (First In First Out) 120a, 120b, 120c, and 120d. The image processing apparatus 100a includes a storage unit 130, a calculation unit 140, a control unit 150, and a synthesis unit 160.

IF部110(110a、110b、110c、110d)は、カメラ200に接続され、カメラ200により撮影された画像を受信する。IF部110は、カメラ200から受信した画像をFIFO120(120a、120b、120c、120d)に出力する。   The IF unit 110 (110a, 110b, 110c, 110d) is connected to the camera 200 and receives an image taken by the camera 200. The IF unit 110 outputs the image received from the camera 200 to the FIFO 120 (120a, 120b, 120c, 120d).

FIFO120は、バッファ等であり、カメラ200から受信した画像を保持する。例えば、FIFO120は、カメラ200から画像の開始を示す同期信号を受信した場合、同期信号に続いて受信した画像の1番目の画素から順次に保持する。   The FIFO 120 is a buffer or the like and holds an image received from the camera 200. For example, when receiving a synchronization signal indicating the start of an image from the camera 200, the FIFO 120 sequentially holds the first pixel of the image received following the synchronization signal.

記憶部130は、RAM(Random Access Memory)等であり、FIFO120から転送される画像を格納する記憶領域を有する。画像処理装置100aの機能が、プログラムにより実現される場合、プログラムが記憶部130に格納されてもよい。なお、記憶部130は、画像処理装置100aの外部に配置されてもよい。   The storage unit 130 is a RAM (Random Access Memory) or the like, and has a storage area for storing an image transferred from the FIFO 120. When the function of the image processing apparatus 100a is realized by a program, the program may be stored in the storage unit 130. Note that the storage unit 130 may be disposed outside the image processing apparatus 100a.

算出部140は、各カメラ200で撮影された画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出する。算出部140は、例えば、生成する合成画像が1つの仮想のカメラで撮影される場合における、視点の位置、視線方向、レンズの焦点距離等を示す指定情報を入力装置400から受ける。算出部140は、視点の位置、視線方向、レンズの焦点距離等により指定される範囲を、指定情報に基づいて算出し、指定された範囲に含まれる画素を示す画素情報をカメラ200により撮影された画像の各々について算出する。算出部140の動作については、図4、図5および図6で説明する。   The calculation unit 140 calculates, from a plurality of images, pixel information indicating pixels included in a specified range among shooting ranges obtained by combining images shot by the cameras 200. For example, the calculation unit 140 receives designation information indicating the position of the viewpoint, the line-of-sight direction, the focal length of the lens, and the like from the input device 400 when the generated composite image is captured by one virtual camera. The calculation unit 140 calculates a range designated by the position of the viewpoint, the line-of-sight direction, the focal length of the lens, and the like based on the designation information, and pixel information indicating pixels included in the designated range is captured by the camera 200. For each of the images. The operation of the calculation unit 140 will be described with reference to FIGS. 4, 5, and 6.

制御部150は、各FIFO120に保持された画像のうち、算出部140が算出した画素情報が示す画素をFIFO120から記憶部130に転送する。また、制御部150は、画素情報が示す画素以外の画素をFIFO120から記憶部130に転送せず、FIFO120で削除する。制御部150の動作については、図6で説明する。   The control unit 150 transfers, from the FIFO 120 to the storage unit 130, the pixel indicated by the pixel information calculated by the calculation unit 140 among the images held in each FIFO 120. In addition, the control unit 150 deletes pixels other than the pixel indicated by the pixel information from the FIFO 120 to the storage unit 130, but deletes them using the FIFO 120. The operation of the control unit 150 will be described with reference to FIG.

合成部160は、記憶部130に転送された画素を合成して、指定された範囲を示す合成画像を生成する。合成部160は、合成画像を出力装置300に出力する。   The synthesizing unit 160 synthesizes the pixels transferred to the storage unit 130 to generate a synthesized image indicating the designated range. The combining unit 160 outputs the combined image to the output device 300.

図3は、図2に示したカメラ200の配置の一例を示す。例えば、カメラ200は、魚眼レンズ等のレンズを有し、点線で示した範囲(以下、“視野”とも称する)の被写体を撮影する。図3に示すように、カメラ200a、200b、200c、200dは、互いに隣接するカメラ200の視野の一部が互いに重なるように、自動車VC等の移動体の周囲に配置される。例えば、カメラ200aは自動車VCの前面に、カメラ200bは自動車VCの左側面に、カメラ200cは右側面に、カメラ200dは自動車VCの後面にそれぞれ配置される。画像処理装置100aは、200a、200b、200c、200dにより撮影された画像を組み合わせることで、網掛けで示した撮影範囲(自動車VCの周囲を含む撮影範囲)を得る。   FIG. 3 shows an example of the arrangement of the camera 200 shown in FIG. For example, the camera 200 has a lens such as a fisheye lens and shoots a subject in a range indicated by a dotted line (hereinafter also referred to as “field of view”). As shown in FIG. 3, the cameras 200 a, 200 b, 200 c, and 200 d are arranged around a moving body such as an automobile VC so that parts of the fields of view of the cameras 200 adjacent to each other overlap each other. For example, the camera 200a is disposed on the front surface of the vehicle VC, the camera 200b is disposed on the left side surface of the vehicle VC, the camera 200c is disposed on the right side surface, and the camera 200d is disposed on the rear surface of the vehicle VC. The image processing apparatus 100a obtains a shooting range (shooting range including the periphery of the vehicle VC) indicated by shading by combining the images shot by 200a, 200b, 200c, and 200d.

なお、カメラ200a、200b、200c、200dは、自動車VCの四隅等に配置されてもよい。また、4つ以外の複数のカメラ200が、自動車VCに配置されてもよい。   The cameras 200a, 200b, 200c, and 200d may be disposed at the four corners of the automobile VC. In addition, a plurality of cameras 200 other than four may be arranged in the automobile VC.

図4は、図2に示したカメラ200により撮影された画像を用いて生成された合成画像の一例を示す。図4(a)は、自動車VCの真上に位置する視点から見下ろす視線方向の合成画像CI1を示す。合成画像CI1は、カメラ200aが撮影した画像IMGaと、カメラ200bが撮影した画像IMGbと、カメラ200cが撮影した画像IMGcと、カメラ200dが撮影した画像IMGdとを用いて生成される。なお、画像IVCは、設定された視点から視線方向に自動車VCを見た場合の画像である。例えば、合成部160は、3次元のコンピュータグラフィックス等の画像処理に基づいて、画像IVCを生成する。   FIG. 4 shows an example of a composite image generated using an image taken by the camera 200 shown in FIG. FIG. 4A shows a composite image CI1 in the line-of-sight direction looking down from a viewpoint located directly above the automobile VC. The composite image CI1 is generated using an image IMGa photographed by the camera 200a, an image IMGb photographed by the camera 200b, an image IMGc photographed by the camera 200c, and an image IMGd photographed by the camera 200d. Note that the image IVC is an image when the automobile VC is viewed in the viewing direction from the set viewpoint. For example, the synthesis unit 160 generates the image IVC based on image processing such as three-dimensional computer graphics.

図4(b)は、自動車VCの正面に位置する視点から自動車VCを見る視線方向の合成画像CI2を示す。合成画像CI2は、カメラ200bが撮影した画像IMGbと、カメラ200cが撮影した画像IMGcと、カメラ200dが撮影した画像IMGdとを用いて合成される。なお、合成画像CI2では、視点が自動車VCの正面に位置し視線が自動車VCの方向のため、カメラ200aが撮影した画像IMGaの画素は用いられない。   FIG. 4B shows a composite image CI2 in the line-of-sight direction when the automobile VC is viewed from the viewpoint located in front of the automobile VC. The synthesized image CI2 is synthesized using the image IMGb taken by the camera 200b, the image IMGc taken by the camera 200c, and the image IMGd taken by the camera 200d. Note that in the composite image CI2, since the viewpoint is located in front of the automobile VC and the line of sight is the direction of the automobile VC, the pixels of the image IMGa taken by the camera 200a are not used.

図5は、図4(a)に示した合成画像CI1における画素情報の一例を示す。図5は、カメラ200aが撮影した画像IMGaを自動車VCの正面に配置される矩形で示し、カメラ200bが撮影した画像IMGbを自動車VCの左側に配置した矩形で示す。図5は、カメラ200cが撮影した画像IMGcを自動車VCの右側に配置した矩形で示し、カメラ200dが撮影した画像IMGdを自動車VCの後に配置した矩形で示す。図5に示した各画像IMG(IMGa、IMGb、IMGc、IMGd)の白色(網掛けされていない)の領域は、図4(a)に示した合成画像CI1を生成するために、指定情報で指定された範囲を示す。   FIG. 5 shows an example of pixel information in the composite image CI1 shown in FIG. FIG. 5 shows an image IMGa taken by the camera 200a as a rectangle arranged in front of the automobile VC, and an image IMGb taken by the camera 200b as a rectangle arranged on the left side of the automobile VC. FIG. 5 shows an image IMGc taken by the camera 200c as a rectangle arranged on the right side of the automobile VC, and shows an image IMGd taken by the camera 200d as a rectangle arranged after the automobile VC. The white (non-shaded) area of each image IMG (IMGa, IMGb, IMGc, IMGd) shown in FIG. 5 is designated information to generate the composite image CI1 shown in FIG. Indicates the specified range.

例えば、算出部140は、入力装置400から受けた指定情報(視点の位置、視線方向およびレンズの焦点距離等を含む指定情報)に基づいて、生成する合成画像CI1における指定された範囲(白色の領域)を算出する。算出部140は、指定された範囲に含まれる各画像IMGの画素を特定する。そして、算出部140は、各画像IMGにおいて特定した画素を示す画素情報を制御部150および合成部160に出力する。   For example, the calculation unit 140, based on the designation information received from the input device 400 (designation information including the position of the viewpoint, the line-of-sight direction, the focal length of the lens, and the like), a designated range (white color) in the generated composite image CI1. Region). The calculation unit 140 identifies pixels of each image IMG included in the designated range. Then, the calculation unit 140 outputs pixel information indicating the pixel specified in each image IMG to the control unit 150 and the synthesis unit 160.

図6は、図4(b)に示した合成画像CI2における画素情報の一例を示す。画像IMGa、IMGb、IMGc、IMGdの配置は、図5と同様である。図6に示した各画像IMGにおける白色の領域は、図4(b)に示した合成画像CI2を生成するために、指定情報で指定された範囲を示す。算出部140は、入力装置400から受けた指定情報(視点の位置、視線方向およびレンズの焦点距離等を含む指定情報)に基づいて、生成する合成画像CI2における指定された範囲(白色の領域)を算出する。算出部140は、指定された範囲に含まれる各画像IMGにおける画素を特定する。そして、算出部140は、各画像IMGにおいて特定した画素を示す画素情報を制御部150および合成部160に出力する。なお、合成画像CI2では、画像IMGaの画素は用いられないため、画像IMGa全体が網掛けされる。   FIG. 6 shows an example of pixel information in the composite image CI2 shown in FIG. The arrangement of the images IMGa, IMGb, IMGc, and IMGd is the same as that in FIG. A white area in each image IMG shown in FIG. 6 indicates a range designated by the designation information in order to generate the composite image CI2 shown in FIG. 4B. Based on the designation information received from the input device 400 (designation information including the position of the viewpoint, the line-of-sight direction, the focal length of the lens, and the like), the calculation unit 140 designates a designated range (white region) in the generated composite image CI2. Is calculated. The calculation unit 140 identifies pixels in each image IMG included in the specified range. Then, the calculation unit 140 outputs pixel information indicating the pixel specified in each image IMG to the control unit 150 and the synthesis unit 160. Note that in the composite image CI2, the pixels of the image IMGa are not used, and therefore the entire image IMGa is shaded.

図7は、図2に示したカメラ200から受信する画像IMGの一例を示す。図7(a)は、IF部110を介してカメラ200から受信する画像IMGを含む信号を示す。図7(a)に示した画像IMGを含む信号は、画像IMGの開始を示す同期信号SSと、k個の画素P1、P2、・・・Pkとを有する。そして、画像IMG含む信号は、同期信号SSを先頭にカメラ200から順次に送信される。なお、kの値は受信する画像IMGの画素数を示す。また、kの値は画像IMG(すなわちカメラ200)ごとに異なってもよい。   FIG. 7 shows an example of an image IMG received from the camera 200 shown in FIG. FIG. 7A shows a signal including an image IMG received from the camera 200 via the IF unit 110. The signal including the image IMG illustrated in FIG. 7A includes a synchronization signal SS indicating the start of the image IMG and k pixels P1, P2,... Pk. The signals including the image IMG are sequentially transmitted from the camera 200 with the synchronization signal SS as the head. Note that the value of k indicates the number of pixels of the received image IMG. Further, the value of k may be different for each image IMG (that is, the camera 200).

図7(b)は、図7(a)に示した画像IMGのうち、画素情報に基づく制御部150の制御により、FIFO120に保持される画素を示す。例えば、画素情報において、画像IMGのうち指定された範囲に含まれる画素が画素P1、P2、P101、・・・Pkの場合、制御部150は、画素P1、P2、P101、・・・PkをFIFO120に選択させる。制御部150は、選択させた画素P1、P2、P101、・・・Pkを、FIFO120に記憶領域を詰めて保持させる。また、制御部150は、同期信号SSと画素情報が示す画素以外の画素P3、・・・P100とをFIFO120に削除させる。制御部150は、FIFO120に保持された画素P1、P2、P101、・・・Pkを記憶部130に転送する。   FIG. 7B shows pixels held in the FIFO 120 by the control of the control unit 150 based on the pixel information in the image IMG shown in FIG. For example, in the pixel information, when the pixels included in the specified range of the image IMG are the pixels P1, P2, P101,... Pk, the control unit 150 sets the pixels P1, P2, P101,. The FIFO 120 is selected. The control unit 150 holds the selected pixels P1, P2, P101,... Pk in a FIFO 120 with a storage area packed. Further, the control unit 150 causes the FIFO 120 to delete the pixels P3,... P100 other than the pixel indicated by the synchronization signal SS and the pixel information. The control unit 150 transfers the pixels P1, P2, P101,... Pk held in the FIFO 120 to the storage unit 130.

これにより、FIFO120に保持される画素の数を削減でき、FIFO120の記憶領域を効率良く使用することができる。また、FIFO120から記憶部130に転送されるデータ量を削減することができる。   Thereby, the number of pixels held in the FIFO 120 can be reduced, and the storage area of the FIFO 120 can be used efficiently. In addition, the amount of data transferred from the FIFO 120 to the storage unit 130 can be reduced.

なお、制御部150は、削除する画素の記憶領域に空のデータをFIFO120に格納させ、空のデータが格納された画素をFIFO120から記憶部130に転送させないようにしてもよい。また、FIFO120は、画像IMGの全ての画素を保持してもよい。この場合、制御部150は、画素情報が示す画素を選択して記憶部130に転送する。例えば、FIFO120は、画像IMGの全ての画素を保持し、保持した画素を記憶部130に転送する転送処理を実行し、制御部150は、画素情報が示す画素以外の画素に対する転送処理を無効にしてもよい。   Note that the control unit 150 may store empty data in the storage area of the pixel to be deleted in the FIFO 120 and may not transfer a pixel in which empty data is stored from the FIFO 120 to the storage unit 130. Further, the FIFO 120 may hold all the pixels of the image IMG. In this case, the control unit 150 selects a pixel indicated by the pixel information and transfers it to the storage unit 130. For example, the FIFO 120 holds all the pixels of the image IMG and executes a transfer process for transferring the held pixels to the storage unit 130, and the control unit 150 invalidates the transfer process for pixels other than the pixels indicated by the pixel information. May be.

図8は、図2に示した画像処理装置100aにおける画像処理の一例を示す。図8に示したステップS100からステップS160の処理は、画像処理装置100aのCPUが画像処理プログラムを実行することにより実現される。すなわち、図8は、画像処理装置の制御方法の別の実施形態を示す。なお、図8に示した処理は、画像処理装置100aに搭載されるハードウェアにより実行されてもよい。この場合、図2に示した算出部140、制御部150および合成部160は、画像処理装置100a内に配置される回路により実現される。   FIG. 8 shows an example of image processing in the image processing apparatus 100a shown in FIG. The processing from step S100 to step S160 shown in FIG. 8 is realized by the CPU of the image processing apparatus 100a executing the image processing program. That is, FIG. 8 shows another embodiment of the control method of the image processing apparatus. Note that the processing illustrated in FIG. 8 may be executed by hardware installed in the image processing apparatus 100a. In this case, the calculation unit 140, the control unit 150, and the synthesis unit 160 illustrated in FIG. 2 are realized by circuits arranged in the image processing apparatus 100a.

ステップS100では、算出部140は、視点の位置、視線方向およびレンズの焦点距離等を含む指定情報を、入力装置400を介して取得する。すなわち、合成画像で表示される範囲は、指定情報により指示される。   In step S100, the calculation unit 140 acquires designation information including the position of the viewpoint, the line-of-sight direction, the focal length of the lens, and the like via the input device 400. That is, the range displayed in the composite image is indicated by the designation information.

ステップS110では、算出部140は、ステップS100で取得した指定情報で指定された範囲(合成画像で表示される範囲)を算出する。   In step S110, the calculation unit 140 calculates the range specified by the specification information acquired in step S100 (the range displayed in the composite image).

ステップS120では、算出部140は、ステップS110で算出された範囲(指定情報で指定された範囲)に含まれる各画像IMGa、IMGb、IMGc、IMGdの画素を特定する。   In step S120, the calculation unit 140 identifies pixels of the images IMGa, IMGb, IMGc, and IMGd included in the range calculated in step S110 (the range specified by the specification information).

ステップS130では、算出部140は、ステップS120で特定された各画像IMGの画素を示す画素情報を制御部150および合成部160に出力する。   In step S130, the calculation unit 140 outputs pixel information indicating the pixel of each image IMG specified in step S120 to the control unit 150 and the synthesis unit 160.

ステップS140では、制御部150は、カメラ200から受ける画像のうち、ステップS130で受信した画素情報が示す画素をFIFO120に保持させる。   In step S140, the control unit 150 causes the FIFO 120 to hold the pixel indicated by the pixel information received in step S130 out of the image received from the camera 200.

ステップS150では、制御部150は、ステップS140で保持された画素情報が示す画素をFIFO120から記憶部130に転送する。すなわち、制御部150は、画素情報が示す画素をFIFO120から記憶部130に転送する。   In step S150, the control unit 150 transfers the pixel indicated by the pixel information held in step S140 from the FIFO 120 to the storage unit 130. That is, the control unit 150 transfers the pixel indicated by the pixel information from the FIFO 120 to the storage unit 130.

ステップS160では、合成部160は、ステップS150で記憶部130に転送された画素を用いて、指定された範囲を示す画像(合成画像)を生成する。合成部160は、生成した合成画像を出力装置300に出力する。   In step S160, the synthesizing unit 160 generates an image (synthesized image) indicating the specified range using the pixels transferred to the storage unit 130 in step S150. The combining unit 160 outputs the generated combined image to the output device 300.

そして、画像処理装置100aは、処理を終了する。なお、図8に示した処理は、画像処理装置100aが、入力装置400を介して指定情報を受ける度に実行されるのがよい。   Then, the image processing apparatus 100a ends the process. Note that the process shown in FIG. 8 is preferably executed every time the image processing apparatus 100a receives the designation information via the input apparatus 400.

以上、図2から図8に示した実施形態では、画像処理装置100aは、複数の画像を組み合わせて表示される表示範囲のうち、指定された範囲に含まれる画素を示す画素情報を、複数の画像から算出する。画像処理装置100aは、算出した画素情報が示す画素をFIFO120から記憶部130に転送する。このように、FIFO120から記憶部130に転送される画素の数は、生成する合成画像に応じて調整される。この結果、FIFO120から記憶部130に転送されるデータ量を削減することができる。   As described above, in the embodiment illustrated in FIGS. 2 to 8, the image processing apparatus 100 a displays pixel information indicating pixels included in a designated range among a plurality of display ranges displayed by combining a plurality of images. Calculate from the image. The image processing apparatus 100 a transfers the pixel indicated by the calculated pixel information from the FIFO 120 to the storage unit 130. As described above, the number of pixels transferred from the FIFO 120 to the storage unit 130 is adjusted according to the generated composite image. As a result, the amount of data transferred from the FIFO 120 to the storage unit 130 can be reduced.

また、画像処理装置100aは、受けた指定情報に基づいて生成する合成画像に応じた画素情報を算出する。これにより、記憶部130は、生成する合成画像に応じた画素情報を予め記憶することなく記憶するデータ量の増加を回避することができる。   In addition, the image processing apparatus 100a calculates pixel information corresponding to the composite image generated based on the received designation information. Thereby, the memory | storage part 130 can avoid the increase in the data amount memorize | stored, without memorize | storing beforehand the pixel information according to the synthesized image to produce | generate.

図9は、図1および図2に示した画像処理装置100、100aのハードウェアの一例を示す。図1および図2で説明した要素と同一または同様の機能を有する要素については、同一または同様の符号を付し、これらについては、詳細な説明を省略する。   FIG. 9 shows an example of hardware of the image processing apparatuses 100 and 100a shown in FIGS. Elements having the same or similar functions as those described in FIGS. 1 and 2 are denoted by the same or similar reference numerals, and detailed description thereof will be omitted.

コンピュータ装置500は、プロセッサ510、複数のバッファ520、複数のカメラIF(Interface)530、メモリ540および入出力IF550を有する。図9に示したプロセッサ510、バッファ520、メモリ540および入出力IF550は、バスBUSを介して互いに接続される。   The computer apparatus 500 includes a processor 510, a plurality of buffers 520, a plurality of camera IFs (Interface) 530, a memory 540, and an input / output IF 550. The processor 510, the buffer 520, the memory 540, and the input / output IF 550 illustrated in FIG. 9 are connected to each other via the bus BUS.

複数のカメラIF530は、有線あるいは無線で複数のカメラ600にそれぞれ接続される。これにより、コンピュータ装置500は、カメラIF530を介して、カメラ600が撮影した画像を受信する。また、コンピュータ装置500は、入出力IF550を介して、有線あるいは無線で出力装置300および入力装置400に接続される。   The plurality of camera IFs 530 are connected to the plurality of cameras 600 by wire or wireless, respectively. Thereby, the computer apparatus 500 receives an image captured by the camera 600 via the camera IF 530. The computer device 500 is connected to the output device 300 and the input device 400 via an input / output IF 550 in a wired or wireless manner.

バッファ520は、カメラIF530を介して、カメラ600により受信した画像を保持する。バッファ520は、保持した画素を、プロセッサ510の制御に基づきバスBUSを介してメモリ540に転送する。   The buffer 520 holds an image received by the camera 600 via the camera IF 530. The buffer 520 transfers the held pixels to the memory 540 via the bus BUS under the control of the processor 510.

メモリ540は、バッファ520から転送される画素を記憶する。また、メモリ540は、コンピュータ装置500のオペレーティングシステムと、プロセッサ510が合成画像を生成する画像処理を実行するためのアプリケーションプログラム等とを格納する。   The memory 540 stores the pixels transferred from the buffer 520. In addition, the memory 540 stores an operating system of the computer device 500, an application program for executing image processing for the processor 510 to generate a composite image, and the like.

なお、画像処理を実行するためのアプリケーションプログラムは、例えば、CD(Compact Disc)あるいはDVD(Digital Versatile Disc)等の光ディスクに記録して頒布することができる。また、コンピュータ装置500は、コンピュータ装置500に含まれるネットワークIFを介して、ネットワークを通じて画像処理を実行するためのアプリケーションプログラムをダウンロードし、メモリ540に格納してもよい。   Note that an application program for executing image processing can be recorded and distributed on an optical disc such as a CD (Compact Disc) or a DVD (Digital Versatile Disc). Further, the computer device 500 may download an application program for executing image processing through a network via a network IF included in the computer device 500 and store the application program in the memory 540.

プロセッサ510は、メモリ540に格納された画像処理のアプリケーションプログラムを実行することで、図1に示した算出部20、制御部30および合成部40として機能する。また、プロセッサ510は、メモリ540に格納された画像処理のアプリケーションプログラムを実行することで、図2に示した算出部140、制御部150および合成部160として機能する。   The processor 510 functions as the calculation unit 20, the control unit 30, and the synthesis unit 40 illustrated in FIG. 1 by executing an image processing application program stored in the memory 540. In addition, the processor 510 functions as the calculation unit 140, the control unit 150, and the synthesis unit 160 illustrated in FIG. 2 by executing an image processing application program stored in the memory 540.

すなわち、画像処理装置100、100aは、プロセッサ510およびメモリ540の協働によって実現する。   That is, the image processing apparatuses 100 and 100a are realized by the cooperation of the processor 510 and the memory 540.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. This is intended to cover the features and advantages of the embodiments described above without departing from the spirit and scope of the claims. Also, any improvement and modification should be readily conceivable by those having ordinary knowledge in the art. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
複数のカメラで撮影された複数の画像を保持する保持部と、
前記複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、前記複数の画像から算出する算出部と、
前記保持部に保持された前記複数の画像のうち、前記画素情報が示す画素を前記保持部から記憶部に転送する制御部と、
前記記憶部に転送された画素を合成し、前記指定された範囲を示す合成画像を生成する合成部と
を備えることを特徴とする画像処理装置。
(付記2)
付記1に記載の画像処理装置において、
前記制御部は、前記複数の画像のうち、前記画素情報が示す画素を前記保持部に保持させることを特徴とする画像処理装置。
(付記3)
付記1に記載の画像処理装置において、
前記保持部は、前記複数のカメラで撮影された複数の画像を保持し、保持した前記複数の画像の画素を前記記憶部に転送する転送処理を実行し、
前記制御部は、前記画素情報が示す画素以外の画素に対する前記転送処理の実行を無効にする
ことを特徴とする画像処理装置。
(付記4)
付記1に記載の画像処理装置において、
前記記憶部は、前記画像処理装置の外部に配置されることを特徴とする画像処理装置。
(付記5)
複数のカメラで撮影された複数の画像を保持する保持部を含む画像処理装置の制御方法において、
前記複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、前記複数の画像から算出し、
前記保持部に保持された前記複数の画像のうち、前記画素情報が示す画素を前記保持部から記憶部に転送し、
前記記憶部に転送された画素を合成し、前記指定された範囲を示す合成画像を生成する
ことを特徴とする画像処理装置の制御方法。
(付記6)
付記5に記載の画像処理装置の制御方法において、
前記複数の画像のうち、前記画素情報が示す画素を前記保持部に保持させることを特徴とする画像処理装置の制御方法。
(付記7)
付記5に記載の画像処理装置の制御方法において、
前記転送する処理は、前記複数のカメラで撮影された複数の画像を前記保持部に保持し、保持した前記複数の画像の画素を前記記憶部に転送する転送処理を実行し、前記画素情報が示す画素以外の画素に対する前記転送処理の実行を無効にすることを特徴とする画像処理装置の制御方法。
(付記8)
付記5に記載の画像処理装置の制御方法において、
前記記憶部は、前記画像処理装置の外部に配置されることを特徴とする画像処理装置の制御方法。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A holding unit for holding a plurality of images taken by a plurality of cameras;
A calculation unit that calculates pixel information indicating pixels included in a specified range from a plurality of images, among imaging ranges obtained by combining the plurality of images;
A control unit that transfers a pixel indicated by the pixel information from the plurality of images held in the holding unit to the storage unit;
An image processing apparatus comprising: a combining unit that combines the pixels transferred to the storage unit and generates a combined image indicating the specified range.
(Appendix 2)
In the image processing apparatus according to attachment 1,
The control unit causes the holding unit to hold a pixel indicated by the pixel information among the plurality of images.
(Appendix 3)
In the image processing apparatus according to attachment 1,
The holding unit holds a plurality of images taken by the plurality of cameras, and executes a transfer process of transferring pixels of the held images to the storage unit.
The control unit invalidates execution of the transfer process for pixels other than the pixel indicated by the pixel information.
(Appendix 4)
In the image processing apparatus according to attachment 1,
The image processing apparatus, wherein the storage unit is disposed outside the image processing apparatus.
(Appendix 5)
In a control method of an image processing apparatus including a holding unit that holds a plurality of images taken by a plurality of cameras,
Among the imaging ranges obtained by combining the plurality of images, pixel information indicating pixels included in a specified range is calculated from the plurality of images,
Of the plurality of images held in the holding unit, the pixel indicated by the pixel information is transferred from the holding unit to the storage unit,
A control method for an image processing apparatus, comprising combining the pixels transferred to the storage unit to generate a composite image indicating the designated range.
(Appendix 6)
In the control method of the image processing device according to attachment 5,
A control method for an image processing apparatus, wherein the holding unit holds a pixel indicated by the pixel information among the plurality of images.
(Appendix 7)
In the control method of the image processing device according to attachment 5,
The process of transferring performs a transfer process of holding a plurality of images captured by the plurality of cameras in the holding unit, and transferring pixels of the held images to the storage unit, and the pixel information is A method of controlling an image processing apparatus, wherein execution of the transfer process for pixels other than the pixels shown is invalidated.
(Appendix 8)
In the control method of the image processing device according to attachment 5,
The method for controlling an image processing apparatus, wherein the storage unit is arranged outside the image processing apparatus.

10…保持部;20,140…算出部;30,150…制御部;40,160…合成部;50,130…記憶部;60,200a,200b,200c,200d,600…カメラ;100,100a…画像処理装置;110a,110b,110c,110d…IF部;120a,120b,120c,120d…FIFO;300…出力装置;400…入力装置;500…コンピュータ装置;510…プロセッサ;520…バッファ;530…カメラIF;540…メモリ;550…入出力IF;BUS…バス;CI1,CI2…合成画像;IMGa,IMGb,IMGc,IMGd,IVC…画像;VC…自動車 DESCRIPTION OF SYMBOLS 10 ... Holding part; 20,140 ... Calculation part; 30,150 ... Control part; 40,160 ... Synthesis | combination part; 50,130 ... Storage part; 60,200a, 200b, 200c, 200d, 600 ... Camera; 100,100a 110a, 110b, 110c, 110d, IF unit; 120a, 120b, 120c, 120d, FIFO; 300, output device, 400, input device, 500, computer device, 510, processor, 520, buffer; ... Camera IF; 540 ... Memory; 550 ... Input / output IF; BUS ... Bus; CI1, CI2 ... Composite image; IMGa, IMGb, IMGc, IMGd, IVC ... Image; VC ... Automobile

Claims (4)

複数のカメラで撮影された複数の画像を保持する保持部と、
前記複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、前記複数の画像から算出する算出部と、
前記保持部に保持された前記複数の画像のうち、前記画素情報が示す画素を前記保持部から記憶部に転送する制御部と、
前記記憶部に転送された画素を合成して、前記指定された範囲を示す合成画像を生成する合成部と
を備えることを特徴とする画像処理装置。
A holding unit for holding a plurality of images taken by a plurality of cameras;
A calculation unit that calculates pixel information indicating pixels included in a specified range from a plurality of images, among imaging ranges obtained by combining the plurality of images;
A control unit that transfers a pixel indicated by the pixel information from the plurality of images held in the holding unit to the storage unit;
An image processing apparatus comprising: a combining unit that combines the pixels transferred to the storage unit to generate a combined image indicating the specified range.
請求項1に記載の画像処理装置において、
前記制御部は、前記複数の画像のうち、前記画素情報が示す画素を前記保持部に保持させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The control unit causes the holding unit to hold a pixel indicated by the pixel information among the plurality of images.
請求項1に記載の画像処理装置において、
前記保持部は、前記複数のカメラで撮影された複数の画像を保持し、保持した前記複数の画像の画素を前記記憶部に転送する転送処理を実行し、
前記制御部は、前記画素情報が示す画素以外の画素に対する前記転送処理の実行を無効にする
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The holding unit holds a plurality of images taken by the plurality of cameras, and executes a transfer process of transferring pixels of the held images to the storage unit.
The control unit invalidates execution of the transfer process for pixels other than the pixel indicated by the pixel information.
複数のカメラで撮影された複数の画像を保持する保持部を含む画像処理装置の制御方法において、
前記複数の画像を組み合わせて得られる撮影範囲のうち、指定された範囲に含まれる画素を示す画素情報を、前記複数の画像から算出し、
前記保持部に保持された前記複数の画像のうち、前記画素情報が示す画素を前記保持部から記憶部に転送し、
前記記憶部に転送された画素を合成して、前記指定された範囲を示す合成画像を生成する
ことを特徴とする画像処理装置の制御方法。
In a control method of an image processing apparatus including a holding unit that holds a plurality of images taken by a plurality of cameras,
Among the imaging ranges obtained by combining the plurality of images, pixel information indicating pixels included in a specified range is calculated from the plurality of images,
Of the plurality of images held in the holding unit, the pixel indicated by the pixel information is transferred from the holding unit to the storage unit,
A method for controlling an image processing apparatus, comprising combining the pixels transferred to the storage unit to generate a combined image indicating the designated range.
JP2015078251A 2015-04-07 2015-04-07 Image processing apparatus and image processing apparatus control method Pending JP2016201585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015078251A JP2016201585A (en) 2015-04-07 2015-04-07 Image processing apparatus and image processing apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015078251A JP2016201585A (en) 2015-04-07 2015-04-07 Image processing apparatus and image processing apparatus control method

Publications (1)

Publication Number Publication Date
JP2016201585A true JP2016201585A (en) 2016-12-01

Family

ID=57422792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015078251A Pending JP2016201585A (en) 2015-04-07 2015-04-07 Image processing apparatus and image processing apparatus control method

Country Status (1)

Country Link
JP (1) JP2016201585A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2002027446A (en) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd Monitoring system
JP2006277738A (en) * 2005-03-03 2006-10-12 Nissan Motor Co Ltd On-vehicle image processor and image processing method for vehicle
JP2007180635A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Image display apparatus for vehicle
JP2010263499A (en) * 2009-05-08 2010-11-18 Fujitsu Ltd Video processing system and video processing method
WO2012007993A1 (en) * 2010-07-14 2012-01-19 三菱電機株式会社 Image synthesis device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2001320616A (en) * 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2002027446A (en) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd Monitoring system
JP2006277738A (en) * 2005-03-03 2006-10-12 Nissan Motor Co Ltd On-vehicle image processor and image processing method for vehicle
JP2007180635A (en) * 2005-12-27 2007-07-12 Alpine Electronics Inc Image display apparatus for vehicle
JP2010263499A (en) * 2009-05-08 2010-11-18 Fujitsu Ltd Video processing system and video processing method
WO2012007993A1 (en) * 2010-07-14 2012-01-19 三菱電機株式会社 Image synthesis device

Similar Documents

Publication Publication Date Title
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
KR102502404B1 (en) Information processing device and method, and program
JP5835383B2 (en) Information processing method, information processing apparatus, and program
JP5835384B2 (en) Information processing method, information processing apparatus, and program
JP6434947B2 (en) Imaging system, image processing apparatus, image processing method, and program
JP6218787B2 (en) Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method
JP2017204674A (en) Imaging device, head-mounted display, information processing system, and information processing method
US10362231B2 (en) Head down warning system
JP6350695B2 (en) Apparatus, method, and program
KR20130055967A (en) System for providing panoramic image and method thereof
JP7081265B2 (en) Image processing equipment
JP6513305B2 (en) Video combining apparatus and video combining method
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP7029350B2 (en) Image processing device and image processing method
JP6128185B2 (en) Apparatus, method, and program
JP2016201585A (en) Image processing apparatus and image processing apparatus control method
JP6777208B2 (en) program
JP7210180B2 (en) Image processing device, image display device, image processing method, and program
JP6641525B2 (en) Optical device control device, optical device control method, and optical device control program
JP6442619B2 (en) Information processing device
JP7319575B2 (en) Image processing device, its processing method, and program
JP2016021267A (en) Device, method, and program
WO2018084051A1 (en) Information processing device, head-mounted display, information processing system, and information processing method
JP7148779B2 (en) Image processing device, its processing method, and program
JP2017224330A (en) Device, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180209

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190618