JP2012212952A - Image processing system, image processing device, and image processing method - Google Patents

Image processing system, image processing device, and image processing method Download PDF

Info

Publication number
JP2012212952A
JP2012212952A JP2011076190A JP2011076190A JP2012212952A JP 2012212952 A JP2012212952 A JP 2012212952A JP 2011076190 A JP2011076190 A JP 2011076190A JP 2011076190 A JP2011076190 A JP 2011076190A JP 2012212952 A JP2012212952 A JP 2012212952A
Authority
JP
Japan
Prior art keywords
unit
image
viewpoint
image processing
operation mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011076190A
Other languages
Japanese (ja)
Inventor
Kiyoto Someya
清登 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011076190A priority Critical patent/JP2012212952A/en
Publication of JP2012212952A publication Critical patent/JP2012212952A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a multi-viewpoint image to be photographed at low cost.SOLUTION: A main camera device photographs images at two viewpoints constituting a 3D image, determines an operation mode, and transmits the operation mode. A sub camera device receives the operation mode transmitted from the main camera device, photographs an image at one predetermined viewpoint, and moves a photographing unit which photographs the image at the predetermined viewpoint according to the operation mode. The present technique can be applied to, for example, an image processing system for photographing a 3D image.

Description

本技術は、画像処理システム、画像処理装置、および画像処理方法に関し、特に、安価で多視点の画像を撮影することができるようにした画像処理システム、画像処理装置、および画像処理方法に関する。   The present technology relates to an image processing system, an image processing apparatus, and an image processing method, and more particularly, to an image processing system, an image processing apparatus, and an image processing method that are capable of capturing multi-viewpoint images at low cost.

従来、多視点の画像を撮影する撮影システムでは、例えば、視点ごとに同一の機能を有するカメラが設けられていた(例えば、特許文献1参照)。   Conventionally, in a photographing system for photographing multi-viewpoint images, for example, a camera having the same function is provided for each viewpoint (see, for example, Patent Document 1).

特開2007−256897号公報JP 2007-256897 A

しかしながら、視点ごとに同一の機能を有するカメラが設けられる場合、視点数が多いと製造コストが高くなる。   However, when a camera having the same function is provided for each viewpoint, the manufacturing cost increases if the number of viewpoints is large.

本技術は、このような状況に鑑みてなされたものであり、安価で多視点の画像を撮影することができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to capture a multi-viewpoint image at low cost.

本技術の第1の側面の画像処理システムは、3D画像を構成する2視点の画像を撮影する2視点撮影部と、動作モードを決定する動作モード決定部と、前記動作モード決定部により決定された前記動作モードを送信する送信部とを備える主の画像処理装置と、前記送信部により送信された前記動作モードを受信する受信部と、所定の1視点の画像を撮影する1視点撮影部と、前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部とを備える副の画像処理装置とを備える画像処理システムである。   The image processing system according to the first aspect of the present technology is determined by a two-viewpoint photographing unit that photographs two-viewpoint images constituting a 3D image, an operation mode determination unit that determines an operation mode, and the operation mode determination unit. A main image processing apparatus including a transmission unit that transmits the operation mode, a reception unit that receives the operation mode transmitted by the transmission unit, and a one-viewpoint imaging unit that captures a predetermined one-viewpoint image. And an auxiliary image processing device including a movement control unit that moves the one-viewpoint imaging unit according to the operation mode received by the reception unit.

本技術の第1の側面の画像処理方法は、本技術の第1の側面の画像処理システムに対応する。   The image processing method according to the first aspect of the present technology corresponds to the image processing system according to the first aspect of the present technology.

本技術の第1の側面においては、主の画像処理装置により、3D画像を構成する2視点の画像が撮影され、動作モードが決定され、決定された前記動作モードが送信される。また、副の画像処理装置により、送信された前記動作モードが受信され、所定の1視点の画像が撮影され、受信された前記動作モードに応じて、前記所定の1視点の画像を撮影する1視点撮影部が移動される。   In the first aspect of the present technology, images of two viewpoints constituting a 3D image are taken by the main image processing apparatus, an operation mode is determined, and the determined operation mode is transmitted. The sub image processing apparatus receives the transmitted operation mode, captures a predetermined one viewpoint image, and captures the predetermined one viewpoint image according to the received operation mode. The viewpoint photographing unit is moved.

本技術の第2の側面の画像処理装置は、3D画像を構成する2視点の画像を撮影する2視点撮影部と、動作モードを決定する動作モード決定部と、前記動作モード決定部により決定された前記動作モードを送信する送信部とを備える画像処理装置である。   The image processing device according to the second aspect of the present technology is determined by a two-viewpoint photographing unit that captures two viewpoint images constituting a 3D image, an operation mode determination unit that determines an operation mode, and the operation mode determination unit. In addition, the image processing apparatus includes a transmission unit that transmits the operation mode.

本技術の第2の側面においては、3D画像を構成する2視点の画像が撮影され、動作モードが決定され、決定された前記動作モードが送信される。   In the second aspect of the present technology, images of two viewpoints constituting a 3D image are captured, an operation mode is determined, and the determined operation mode is transmitted.

本技術の第3の側面の画像処理装置は、動作モードを受信する受信部と、所定の1視点の画像を撮影する1視点撮影部と、前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部とを備える画像処理装置である。   An image processing apparatus according to a third aspect of the present technology includes a receiving unit that receives an operation mode, a one-viewpoint shooting unit that captures a predetermined one-viewpoint image, and the operation mode received by the receiving unit. An image processing apparatus comprising: a movement control unit that moves the one-viewpoint imaging unit.

本技術の第3の側面においては、動作モードが受信され、所定の1視点の画像が撮影され、前記動作モードに応じて前記所定の1視点の画像を撮影する1視点撮影部が移動される。   In the third aspect of the present technology, an operation mode is received, an image of a predetermined one viewpoint is captured, and a one-viewpoint imaging unit that captures the image of the predetermined one viewpoint is moved according to the operation mode. .

なお、第1の側面の画像処理システム並びに第2および第3の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。   The image processing system according to the first aspect and the image processing apparatuses according to the second and third aspects can be realized by causing a computer to execute a program.

また、第1の側面の画像処理システム並びに第2および第3の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。   In order to realize the image processing system according to the first aspect and the image processing apparatuses according to the second and third aspects, a program to be executed by a computer is transmitted via a transmission medium or recorded on a recording medium. Can be recorded and provided.

本技術の第1の側面によれば、安価で多視点の画像を撮影することができる。   According to the first aspect of the present technology, it is possible to capture a multi-viewpoint image at low cost.

本技術の第2の側面によれば、安価で多視点の画像を撮影することが可能であるように制御を行うことができる。   According to the second aspect of the present technology, it is possible to perform control so that a multi-viewpoint image can be taken at a low cost.

本技術の第3の側面によれば、安価で多視点の画像を撮影することが可能であるように、所定の1視点の画像を撮影することができる。   According to the third aspect of the present technology, a predetermined one-viewpoint image can be captured so that a multi-viewpoint image can be captured at low cost.

本技術を適用した画像処理システムの一実施の形態の外観構成例を示す図である。It is a figure showing an example of appearance composition of an embodiment of an image processing system to which this art is applied. 図1の主カメラ装置の内部構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of the main camera apparatus of FIG. 図1の副カメラ装置の内部構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of the sub camera apparatus of FIG. 図1の画像処理システムの動作モードの例を示す図である。It is a figure which shows the example of the operation mode of the image processing system of FIG. 超広角画像モード時の副カメラ装置の移動を説明する図である。It is a figure explaining the movement of the sub camera apparatus at the time of super-wide-angle image mode. 注目点高解像度化モード時の副カメラ装置の移動を説明する図である。It is a figure explaining the movement of the sub camera apparatus at the time of attention point high resolution mode. 超多視点画像モード時の副カメラ装置の移動の第1の例を説明する図である。It is a figure explaining the 1st example of a movement of the sub camera apparatus at the time of super multi viewpoint image mode. 超多視点画像モード時の副カメラ装置の移動の第2の例を説明する図である。It is a figure explaining the 2nd example of a movement of the sub camera apparatus at the time of super multi viewpoint image mode. 図1の画像処理システムの撮影モードの例を示す図である。It is a figure which shows the example of the imaging | photography mode of the image processing system of FIG. 図2の主カメラ装置の撮影処理を説明するフローチャートである。3 is a flowchart for describing a photographing process of the main camera device of FIG. 2. 図3の副カメラ装置の撮影処理を説明するフローチャートである。FIG. 4 is a flowchart illustrating a photographing process of the sub camera device of FIG. 3. FIG. 図3の画像処理部における画像処理の例を説明する図である。It is a figure explaining the example of the image process in the image process part of FIG. 超多視点画像処理部の構成例を示すブロック図であるIt is a block diagram which shows the structural example of a super multi viewpoint image processing part. 超多視点画像処理を説明するフローチャートである。It is a flowchart explaining super multi-viewpoint image processing. 解像度補間処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a resolution interpolation process part. 図15の解像度補間処理部の処理の概略を説明する図である。It is a figure explaining the outline of a process of the resolution interpolation process part of FIG. 解像度補間処理を説明するフローチャートである。It is a flowchart explaining a resolution interpolation process. 図2の画像処理部における画像処理の例を説明する図である。It is a figure explaining the example of the image processing in the image processing part of FIG. 符号化処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an encoding process part. 図19の符号化処理部の符号化処理の概略を説明する図である。It is a figure explaining the outline of the encoding process of the encoding process part of FIG. 図19の符号化処理部による符号化処理を説明するフローチャートである。It is a flowchart explaining the encoding process by the encoding process part of FIG. 図19の符号化処理部による符号化処理を説明するフローチャートである。It is a flowchart explaining the encoding process by the encoding process part of FIG. 符号化処理部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of an encoding process part. 図23の符号化処理部の符号化処理の概略を説明する図である。It is a figure explaining the outline of the encoding process of the encoding process part of FIG. 動き予測・補償処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a motion prediction and compensation process. コンピュータの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of a computer.

<一実施の形態>
[画像処理システムの一実施の形態の外観構成例]
図1は、本技術を適用した画像処理システムの一実施の形態の外観構成例を示す図である。
<One embodiment>
[External configuration example of one embodiment of image processing system]
FIG. 1 is a diagram illustrating an external configuration example of an embodiment of an image processing system to which the present technology is applied.

なお、図1は、通常の使用状態における画像処理システム10を側面から見た図である。以下では、図1の上下方向を垂直方向といい、左右方向を水平方向という。   FIG. 1 is a side view of the image processing system 10 in a normal use state. In the following, the vertical direction in FIG. 1 is referred to as the vertical direction, and the horizontal direction is referred to as the horizontal direction.

図1の画像処理システム10は、主カメラ装置11と、副カメラ装置12−1乃至12−4とにより構成される。   The image processing system 10 in FIG. 1 includes a main camera device 11 and sub camera devices 12-1 to 12-4.

主カメラ装置11は、主の画像処理装置として機能し、左目用の画像(以下、左目画像という)と右目用の画像(以下、右目画像という)からなる3D画像を撮影する装置である。主カメラ装置11は、左目画像を撮影する左目カメラ11−1、右目画像を撮影する右目カメラ11−2などにより構成される。   The main camera device 11 functions as a main image processing device, and is a device that captures a 3D image including a left-eye image (hereinafter referred to as a left-eye image) and a right-eye image (hereinafter referred to as a right-eye image). The main camera device 11 includes a left eye camera 11-1 that captures a left eye image, a right eye camera 11-2 that captures a right eye image, and the like.

副カメラ装置12−1乃至12−4は、副の画像処理装置として機能し、主カメラ装置11に対して自由に移動可能な装置である。また、副カメラ装置12−1乃至12−4は、主カメラ装置11に比べて低機能であり、安価な装置である。なお、以下では、副カメラ装置12−1乃至12−4を特に区別する必要がない場合、副カメラ装置12という。   The secondary camera devices 12-1 to 12-4 function as secondary image processing devices and are devices that can freely move with respect to the primary camera device 11. In addition, the sub camera devices 12-1 to 12-4 are low-function and inexpensive devices compared to the main camera device 11. Hereinafter, the secondary camera devices 12-1 to 12-4 are referred to as the secondary camera device 12 when it is not necessary to distinguish them.

[主カメラ装置の内部構成例]
図2は、図1の主カメラ装置11の内部構成例を示すブロック図である。
[Example of internal configuration of main camera unit]
FIG. 2 is a block diagram showing an example of the internal configuration of the main camera apparatus 11 of FIG.

図2に示すように、主カメラ装置11は、入力部21、動作モード決定部22、送信部23、撮影モード決定部24、撮影部25、画像処理部26、および受信部27により構成される。   As shown in FIG. 2, the main camera device 11 includes an input unit 21, an operation mode determination unit 22, a transmission unit 23, a shooting mode determination unit 24, a shooting unit 25, an image processing unit 26, and a reception unit 27. .

主カメラ装置11の入力部21は、ユーザからの指示を受け付け、その指示を動作モード決定部22および撮影モード決定部24に供給する。   The input unit 21 of the main camera device 11 receives an instruction from the user and supplies the instruction to the operation mode determination unit 22 and the shooting mode determination unit 24.

動作モード決定部22は、入力部21から供給される指示に応じて、画像処理システム10の動作モードを決定し、送信部23に供給する。   The operation mode determination unit 22 determines the operation mode of the image processing system 10 according to the instruction supplied from the input unit 21 and supplies the operation mode to the transmission unit 23.

送信部23は、主カメラ装置11の情報である主カメラ情報を、副カメラ装置12に送信する。なお、主カメラ情報は、動作モード決定部22からの動作モード、撮影モード決定部24からの画像処理システム10の撮影モード、撮影部25からの主カメラ画像、画像処理部26からの画像処理情報などにより構成される。   The transmission unit 23 transmits main camera information, which is information on the main camera device 11, to the sub camera device 12. The main camera information includes the operation mode from the operation mode determination unit 22, the shooting mode of the image processing system 10 from the shooting mode determination unit 24, the main camera image from the shooting unit 25, and the image processing information from the image processing unit 26. Etc.

撮影モード決定部24は、入力部21から供給される指示に応じて、画像処理システム10の撮影モードを決定し、送信部23と撮影部25に供給する。   The shooting mode determination unit 24 determines the shooting mode of the image processing system 10 in accordance with an instruction supplied from the input unit 21 and supplies the determined shooting mode to the transmission unit 23 and the shooting unit 25.

撮影部25は、左目カメラ11−1と右目カメラ11−2により構成され、2視点撮影部として機能する。左目カメラ11−1は、撮影モード決定部24から供給される撮影モードに応じて、焦点距離、被写界深度等の撮影に関するパラメータである撮影パラメータの値を決定する。左目カメラ11−1は、その撮影パラメータの値に基づいて所定の1視点の画像を撮影し、その結果得られる画像を左目画像とする。   The photographing unit 25 includes a left eye camera 11-1 and a right eye camera 11-2, and functions as a two-viewpoint photographing unit. The left-eye camera 11-1 determines the value of a shooting parameter, which is a parameter related to shooting, such as a focal length and a depth of field, according to the shooting mode supplied from the shooting mode determination unit 24. The left-eye camera 11-1 shoots an image of a predetermined one viewpoint based on the value of the shooting parameter, and uses the resulting image as the left-eye image.

また、右目カメラ11−2は、左目カメラ11−1と同様に、撮影モードに応じて撮影パラメータの値を決定する。右目カメラ11−2は、その撮影パラメータの値に基づいて、左目カメラ11−1とは異なる所定の1視点の画像を撮影し、その結果得られる画像を右目画像とする。そして、撮影部25は、左目画像と右目画像からなる3D画像を主カメラ画像として、送信部23と画像処理部26に供給する。   The right eye camera 11-2 determines the value of the shooting parameter according to the shooting mode, as with the left eye camera 11-1. The right-eye camera 11-2 captures an image of a predetermined one viewpoint different from the left-eye camera 11-1 based on the value of the capturing parameter, and sets the resulting image as the right-eye image. The photographing unit 25 supplies a 3D image including the left eye image and the right eye image as a main camera image to the transmission unit 23 and the image processing unit 26.

画像処理部26は、2視点画像処理部として機能し、撮影部25から供給される主カメラ画像に対して、各種の画像処理を行う。このとき、画像処理部26は、必要に応じて、受信部27から供給される副カメラ装置12の情報である副カメラ情報を用いる。画像処理部26は、画像処理の結果得られる情報である画像処理情報を送信部23に供給する。   The image processing unit 26 functions as a two-viewpoint image processing unit, and performs various types of image processing on the main camera image supplied from the photographing unit 25. At this time, the image processing unit 26 uses sub camera information that is information of the sub camera device 12 supplied from the receiving unit 27 as necessary. The image processing unit 26 supplies image processing information, which is information obtained as a result of image processing, to the transmission unit 23.

受信部27は、副カメラ装置12から送信されてくる副カメラ情報を受信し、画像処理部26に供給する。   The receiving unit 27 receives the sub camera information transmitted from the sub camera device 12 and supplies the sub camera information to the image processing unit 26.

[副カメラ装置の内部構成例]
図3は、図1の副カメラ装置12の内部構成例を示すブロック図である。
[Internal configuration example of secondary camera device]
FIG. 3 is a block diagram illustrating an internal configuration example of the sub camera device 12 of FIG.

図3に示すように、副カメラ装置12は、撮影部41、送信部42、受信部43、移動制御部44、および画像処理部45により構成される。   As shown in FIG. 3, the sub camera device 12 includes an imaging unit 41, a transmission unit 42, a reception unit 43, a movement control unit 44, and an image processing unit 45.

副カメラ装置12の撮影部41は、受信部43から供給される主カメラ情報に含まれる撮影モードに応じて撮影パラメータの値を決定する。撮影部41は、1視点撮影部として機能し、撮影パラメータの値に基づいて所定の1視点の画像を撮影する。撮影部41は、その結果得られる画像を副カメラ画像として送信部42および画像処理部45に供給する。   The photographing unit 41 of the sub camera device 12 determines the value of the photographing parameter according to the photographing mode included in the main camera information supplied from the receiving unit 43. The photographing unit 41 functions as a one-viewpoint photographing unit, and photographs a predetermined one-viewpoint image based on the photographing parameter value. The imaging unit 41 supplies the image obtained as a result to the transmission unit 42 and the image processing unit 45 as a sub camera image.

送信部42は、撮影部41から供給される副カメラ画像、画像処理部45から供給される画像処理後の副カメラ画像などを、副カメラ情報として、主カメラ装置11に送信する。   The transmission unit 42 transmits the sub camera image supplied from the imaging unit 41, the sub camera image after image processing supplied from the image processing unit 45, and the like to the main camera apparatus 11 as sub camera information.

受信部43は、主カメラ装置11から送信されてくる主カメラ情報を受信する。受信部43は、主カメラ情報に含まれる撮影モードを撮影部41に供給し、動作モード、画像処理情報などを移動制御部44に供給する。また、受信部43は、主カメラ情報に含まれる主カメラ画像、画像処理情報、および動作モードを画像処理部45に供給する。   The receiving unit 43 receives main camera information transmitted from the main camera device 11. The receiving unit 43 supplies the shooting mode included in the main camera information to the shooting unit 41, and supplies the operation mode, image processing information, and the like to the movement control unit 44. The receiving unit 43 supplies the main camera image, the image processing information, and the operation mode included in the main camera information to the image processing unit 45.

移動制御部44は、受信部43から供給される動作モードに応じて、副カメラ装置12の移動を制御する。このとき、移動制御部44は、必要に応じて、受信部43から供給される画像処理情報を用いる。   The movement control unit 44 controls the movement of the sub camera device 12 according to the operation mode supplied from the receiving unit 43. At this time, the movement control unit 44 uses the image processing information supplied from the receiving unit 43 as necessary.

画像処理部45は、1視点画像処理部として機能し、撮影部41から供給される副カメラ画像に対して画像処理を行う。このとき、画像処理部45は、必要に応じて、受信部43から供給される主カメラ画像、画像処理情報、および動作モードを用いる。画像処理部45は、画像処理後の副カメラ画像を送信部42に供給する。   The image processing unit 45 functions as a one-viewpoint image processing unit and performs image processing on the sub camera image supplied from the photographing unit 41. At this time, the image processing unit 45 uses the main camera image, the image processing information, and the operation mode supplied from the receiving unit 43 as necessary. The image processing unit 45 supplies the sub camera image after the image processing to the transmission unit 42.

[動作モードの例]
図4は、図1の画像処理システム10の動作モードの例を示す図である。
[Example of operation mode]
FIG. 4 is a diagram illustrating an example of an operation mode of the image processing system 10 of FIG.

図4に示すように、画像処理システム10の動作モードとしては、超広角画像モード、注目点高解像度化モード、超多視点画像モードなどがある。   As shown in FIG. 4, the operation mode of the image processing system 10 includes a super wide-angle image mode, an attention point resolution increasing mode, a super multi-viewpoint image mode, and the like.

超広角画像モードとは、水平方向に並ぶ多視点の画像を撮影し、各視点の画像を合成することにより広角の画像を生成するモードである。従って、超広角画像モード時には、副カメラ装置12は、主カメラ装置11と垂直方向の位置が略同一であり、水平方向の位置が所定の位置である位置を開始位置とし、その開始位置から副カメラ装置12を水平方向に移動させる。これにより、画像処理システム10自体を移動させずに、超広角画像を撮影することができる。   The super wide-angle image mode is a mode in which images of multiple viewpoints arranged in the horizontal direction are taken and a wide-angle image is generated by combining the images of the viewpoints. Therefore, in the super wide-angle image mode, the sub camera device 12 has a position in the vertical direction substantially the same as that of the main camera device 11 and a position in which the horizontal position is a predetermined position as a start position, and the sub camera device 12 starts from the start position. The camera device 12 is moved in the horizontal direction. Thereby, a super wide-angle image can be taken without moving the image processing system 10 itself.

注目点高解像度化モードとは、主カメラ装置11における画像処理で検出された注目点を高解像度で撮影し、3D画像の他に、注目点の複数視点の画像を生成するモードである。従って、注目点高解像度化モード時には、副カメラ装置12は、画像処理情報としての注目点の位置に基づいて、その注目点を撮影可能な位置に副カメラ装置12を移動させる。これにより、ユーザの所望の領域の複数視点の画像を高解像度で撮影することができる。   The attention point high-resolution mode is a mode in which attention points detected by image processing in the main camera device 11 are photographed with high resolution, and in addition to the 3D image, images of a plurality of viewpoints of the attention points are generated. Accordingly, in the attention point resolution increasing mode, the sub camera device 12 moves the sub camera device 12 to a position where the attention point can be photographed based on the position of the attention point as the image processing information. As a result, it is possible to capture images of a plurality of viewpoints in a desired area of the user with high resolution.

超多視点画像モードとは、左目画像の視点(以下、左視点という)および右目画像の視点(以下、右視点という)それぞれの上下の視点の画像を撮影し、水平方向および垂直方向の位置の異なる視点の画像からなる3D画像を生成するモードである。従って、超多視点画像モード時には、副カメラ装置12は、副カメラ装置12を水平方向および垂直方向に高速移動させる。   The super multi-viewpoint image mode captures images of the upper and lower viewpoints of the viewpoint of the left-eye image (hereinafter referred to as the left viewpoint) and the viewpoint of the right-eye image (hereinafter referred to as the right viewpoint). In this mode, a 3D image composed of images from different viewpoints is generated. Accordingly, in the super multi-viewpoint image mode, the sub camera device 12 moves the sub camera device 12 at high speed in the horizontal direction and the vertical direction.

具体的には、副カメラ装置12は、主カメラ装置11と垂直方向の位置が略同一であり、水平方向の位置が所定の位置である位置を開始位置とし、その開始位置から副カメラ装置12を水平方向に高速移動させることと、主カメラ装置11と水平方向の位置が略同一であり、垂直方向の位置が所定の位置である位置を開始位置とし、その開始位置から副カメラ装置12を垂直方向に高速移動させることを繰り返す。これにより、上下左右に首を移動しても裸眼で視認可能な自然な3D画像を撮影することができる。   Specifically, the sub camera device 12 has a position in the vertical direction substantially the same as that of the main camera device 11 and a position in which the horizontal position is a predetermined position as a start position, and the sub camera device 12 starts from the start position. Is moved at a high speed in the horizontal direction, and the position in the horizontal direction is substantially the same as that of the main camera device 11 and the position in the vertical direction is a predetermined position, and the sub camera device 12 is moved from the start position. Repeat high-speed movement in the vertical direction. This makes it possible to capture a natural 3D image that can be viewed with the naked eye even when the neck is moved vertically and horizontally.

[各動作モード時の副カメラ装置の移動の説明]
図5は、超広角画像モード時の副カメラ装置12の移動を説明する図である。
[Description of movement of sub camera device in each operation mode]
FIG. 5 is a diagram for explaining the movement of the sub camera device 12 in the super wide angle image mode.

図5に示すように、画像処理システム10の動作モードが超広角画像モードである場合、まず、副カメラ装置12は、主カメラ装置11と垂直方向の位置が略同一であり、水平方向の位置が所定の位置である開始位置に副カメラ装置12を移動させる。その結果、図5の例では、副カメラ装置12−1および副カメラ装置12−2が、主カメラ装置11の左側の上下に位置し、副カメラ装置12−3および副カメラ装置12−4が、主カメラ装置11の右側の上下に位置する。次に、副カメラ装置12は、開始位置から水平方向に副カメラ装置12を移動させる。即ち、副カメラ装置12−1および12−2の視点が、左視点の左で左右方向に移動し、副カメラ装置12−3および12−4の視点が、右視点の右で左右方向に移動する。   As shown in FIG. 5, when the operation mode of the image processing system 10 is the super-wide-angle image mode, first, the sub camera device 12 has substantially the same vertical position as the main camera device 11 and the horizontal position. The sub camera device 12 is moved to a start position where is a predetermined position. As a result, in the example of FIG. 5, the sub camera device 12-1 and the sub camera device 12-2 are positioned above and below the left side of the main camera device 11, and the sub camera device 12-3 and the sub camera device 12-4 are located. , Located above and below the right side of the main camera device 11. Next, the sub camera device 12 moves the sub camera device 12 in the horizontal direction from the start position. That is, the viewpoints of the secondary camera devices 12-1 and 12-2 move in the left-right direction on the left of the left viewpoint, and the viewpoints of the secondary camera devices 12-3 and 12-4 move in the left-right direction on the right of the right viewpoint. To do.

図6は、注目点高解像度化モード時の副カメラ装置12の移動を説明する図である。   FIG. 6 is a diagram for explaining the movement of the sub camera device 12 in the attention point resolution increasing mode.

図6に示すように、画像処理システム10の動作モードが注目点高解像度化モードである場合、副カメラ装置12は、主カメラ装置11における画像処理で検出された注目点を撮影可能な位置に副カメラ装置12を移動させる。   As shown in FIG. 6, when the operation mode of the image processing system 10 is the attention point resolution increasing mode, the sub camera device 12 takes the attention point detected by the image processing in the main camera device 11 at a position where it can be photographed. The sub camera device 12 is moved.

図7は、超多視点画像モード時の副カメラ装置12の移動の第1の例を説明する図である。   FIG. 7 is a diagram illustrating a first example of movement of the sub camera device 12 in the super multi-viewpoint image mode.

図7の例では、画像処理システム10の動作モードが超多視点画像モードである場合、まず、副カメラ装置12は、図5に示したように、開始位置から水平方向に副カメラ装置12を移動させる。   In the example of FIG. 7, when the operation mode of the image processing system 10 is the super multi-viewpoint image mode, first, as shown in FIG. 5, the secondary camera device 12 moves the secondary camera device 12 horizontally from the start position. Move.

次に、副カメラ装置12は、主カメラ装置11と水平方向の位置が略同一であり、垂直方向の位置が所定の位置である開始位置に副カメラ装置12を移動させる。その結果、図7の例では、副カメラ装置12−1および副カメラ装置12−2の水平方向の位置が、主カメラ装置11の左目カメラ11−1の中心と同一になり、垂直方向の位置が左目カメラ11−1の上または下になる。また、副カメラ装置12−3および副カメラ装置12−4の水平方向の位置が、右目カメラ11−2の中心と同一になり、垂直方向の位置が右目カメラ11−2の上または下になる。そして、副カメラ装置12は、その開始位置から垂直方向に副カメラ装置12を移動させる。即ち、副カメラ装置12−1乃至12−4の視点が、それぞれ、左視点の上、下、右視点の上、下で上下方向に移動する。   Next, the sub camera device 12 moves the sub camera device 12 to a start position where the horizontal position is substantially the same as the main camera device 11 and the vertical position is a predetermined position. As a result, in the example of FIG. 7, the horizontal positions of the sub camera device 12-1 and the sub camera device 12-2 are the same as the center of the left eye camera 11-1 of the main camera device 11. Is above or below the left-eye camera 11-1. Also, the horizontal positions of the sub camera device 12-3 and the sub camera device 12-4 are the same as the center of the right eye camera 11-2, and the vertical position is above or below the right eye camera 11-2. . Then, the sub camera device 12 moves the sub camera device 12 in the vertical direction from the start position. That is, the viewpoints of the sub camera devices 12-1 to 12-4 move in the vertical direction above and below the left viewpoint, above and below the right viewpoint, respectively.

図8は、超多視点画像モード時の副カメラ装置12の移動の第2の例を説明する図である。   FIG. 8 is a diagram for explaining a second example of movement of the sub camera device 12 in the super multi-viewpoint image mode.

図8の例では、画像処理システム10の動作モードが超多視点画像モードである場合、まず、副カメラ装置12は、図5に示した開始位置を水平方向の開始位置とし、その開始位置に副カメラ装置12を移動させる。その後、図7に示した開始位置を垂直方向の開始位置とし、その開始位置に副カメラ装置12を移動させる。次に、副カメラ装置12は、水平方向の開始位置と水平方向の位置が異なる位置に副カメラ装置12を移動させ、次に、垂直方向の開始位置と垂直方向の位置が異なる位置に副カメラ装置12を移動させる。以降も同様にして、副カメラ装置12は、主カメラ装置11と垂直方向の位置が略同一である位置と、左目カメラ11−1または右目カメラ11−2と水平方向の位置が略同一である位置に交互に副カメラ装置12を移動させる。   In the example of FIG. 8, when the operation mode of the image processing system 10 is the super multi-viewpoint image mode, first, the sub camera device 12 sets the start position shown in FIG. The sub camera device 12 is moved. Thereafter, the start position shown in FIG. 7 is set as the start position in the vertical direction, and the sub camera device 12 is moved to the start position. Next, the sub camera device 12 moves the sub camera device 12 to a position where the horizontal start position and the horizontal position are different, and then moves the sub camera to a position where the vertical start position and the vertical position are different. The device 12 is moved. Similarly, the sub camera device 12 is substantially the same in position in the vertical direction as the main camera device 11 and in the horizontal direction as the left eye camera 11-1 or the right eye camera 11-2. The sub camera device 12 is moved alternately to the position.

これにより、図7の場合のように、水平方向および垂直方向のいずれか一方の移動が行われている際に、他方の移動による副カメラ画像が長時間得られないことを防止することができる。即ち、図7の場合に比べて、連続して撮影される水平方向の撮影位置が異なる副カメラ画像どうしの時間間隔の最大値と、垂直方向の撮影位置が異なる副カメラ画像どうしの時間間隔の最大値を短くすることができる。その結果、例えば、副カメラ画像に対して、その副カメラ画像を用いた高精度のフレーム補間処理を行うことができる。   As a result, as in the case of FIG. 7, when one of the horizontal and vertical movements is performed, it is possible to prevent a secondary camera image from being obtained for a long time due to the other movement. . That is, compared with the case of FIG. 7, the maximum value of the time interval between the sub camera images with different horizontal shooting positions and the time interval between the sub camera images with different vertical shooting positions are compared. The maximum value can be shortened. As a result, for example, a highly accurate frame interpolation process using the sub camera image can be performed on the sub camera image.

[撮影モードの例]
図9は、図1の画像処理システム10の撮影モードの例を示す図である。
[Example of shooting mode]
FIG. 9 is a diagram illustrating an example of a shooting mode of the image processing system 10 of FIG.

図9に示すように、画像処理システム10の撮影モードとしては、動的被写界深度モードなどがある。   As shown in FIG. 9, the imaging mode of the image processing system 10 includes a dynamic depth of field mode.

動的被写界深度モードとは、主カメラ装置11および副カメラ装置12それぞれの焦点距離および被写界深度が異なるように撮影するモードである。撮影モードが動的被写界深度モードである場合、例えば、主カメラ装置11は、パンフォーカス撮影を行い、副カメラ装置12は、テレ端やワイド端で撮影を行う。   The dynamic depth of field mode is a mode in which the main camera device 11 and the sub camera device 12 are photographed so that the focal lengths and the depth of field are different. When the shooting mode is the dynamic depth of field mode, for example, the main camera device 11 performs pan-focus shooting, and the sub camera device 12 performs shooting at the tele end or the wide end.

動的被写界深度モード時、画像処理システム10は、フォーカスや被写界深度の異なる画像を撮影することができる。例えば、1眼レフカメラで撮影したときのようなボケ味のある画像と、コンパクトデジタルカメラで撮影したときのような被写界深度の深い画像を撮影することができる。   In the dynamic depth of field mode, the image processing system 10 can capture images with different focus and depth of field. For example, it is possible to shoot an image with a blur like when taken with a single-lens reflex camera and an image with a deep depth of field like when taken with a compact digital camera.

[主カメラ装置の撮影処理の説明]
図10は、図2の主カメラ装置11の撮影処理を説明するフローチャートである。この撮影処理は、例えば、主カメラ装置11の入力部21が、ユーザからの撮影開始の指示を受け付けたとき、開始される。
[Explanation of shooting process of main camera unit]
FIG. 10 is a flowchart for explaining the photographing process of the main camera device 11 of FIG. This photographing process is started, for example, when the input unit 21 of the main camera device 11 receives a photographing start instruction from the user.

図10のステップS11において、動作モード決定部22は、入力部21を介して供給されるユーザからの指示に応じて、超広角画像モード、注目点高解像度化モード、超多視点画像モード等のいずれかに動作モードを決定し、送信部23に供給する。   In step S11 of FIG. 10, the operation mode determination unit 22 performs a super-wide-angle image mode, an attention point high-resolution mode, a super multi-viewpoint image mode, or the like in accordance with an instruction from a user supplied via the input unit 21. Either one determines the operation mode and supplies it to the transmitter 23.

ステップS12において、撮影モード決定部24は、入力部21を介して供給されるユーザからの指示に応じて、動的被写界深度モード、通常モード等のいずれかに撮影モードを決定し、送信部23に供給する。なお、通常モードとは、主カメラ装置11および副カメラ装置12の焦点距離と被写界深度が同一であるように撮影するモードである。   In step S <b> 12, the shooting mode determination unit 24 determines the shooting mode to be one of the dynamic depth-of-field mode, the normal mode, and the like according to the instruction from the user supplied via the input unit 21, and transmits it. To the unit 23. Note that the normal mode is a mode in which shooting is performed so that the focal length and the depth of field of the main camera device 11 and the sub camera device 12 are the same.

ステップS13において、撮影部25の左目カメラ11−1および右目カメラ11−2は、撮影モード決定部24から供給される撮影モードに応じて撮影パラメータの値を設定する。   In step S <b> 13, the left eye camera 11-1 and the right eye camera 11-2 of the photographing unit 25 set the photographing parameter value according to the photographing mode supplied from the photographing mode determining unit 24.

ステップS14において、撮影部25の左目カメラ11−1および右目カメラ11−2は、撮影パラメータに基づく撮影を開始する。左目カメラ11−1および右目カメラ11−2は、撮影の結果得られる左目画像と右目画像からなる3D画像を主カメラ画像として、送信部23と画像処理部26に供給する。   In step S14, the left eye camera 11-1 and the right eye camera 11-2 of the photographing unit 25 start photographing based on the photographing parameters. The left-eye camera 11-1 and the right-eye camera 11-2 supply a 3D image composed of a left-eye image and a right-eye image obtained as a result of shooting as a main camera image to the transmission unit 23 and the image processing unit 26.

ステップS15において、動作モード決定部22は、動作モードが注目点高解像度化モードであるかどうかを判定する。   In step S15, the operation mode determination unit 22 determines whether or not the operation mode is the attention point high resolution mode.

ステップS15で動作モードが注目点高解像度化モードであると判定された場合、ステップS16において、画像処理部26は、撮影部25から供給される主カメラ画像の注目点を検出し、注目点の位置を表す情報を画像処理情報として送信部23に供給する。そして処理はステップS17に進む。   When it is determined in step S15 that the operation mode is the attention point high resolution mode, in step S16, the image processing unit 26 detects the attention point of the main camera image supplied from the photographing unit 25, and Information representing the position is supplied to the transmission unit 23 as image processing information. Then, the process proceeds to step S17.

一方、ステップS15で動作モードが注目点高解像度化モードではないと判定された場合、処理はステップS17に進む。   On the other hand, if it is determined in step S15 that the operation mode is not the attention point high resolution mode, the process proceeds to step S17.

ステップS17において、送信部23は、動作モード決定部22からの動作モード、撮影モード決定部24からの撮影モード、および画像処理部26からの画像処理情報などを、主カメラ情報として副カメラ装置12に送信する。   In step S <b> 17, the transmission unit 23 uses the operation mode from the operation mode determination unit 22, the shooting mode from the shooting mode determination unit 24, and the image processing information from the image processing unit 26 as main camera information as the sub camera device 12. Send to.

ステップS18において、入力部21は、ユーザにより動作モードの変更が指示されたかどうかを判定する。入力部21は、ユーザからの動作モードの変更指示を受け付けた場合、ステップS18でユーザにより動作モードの変更が指示されたと判定して、その指示を動作モード決定部22に供給し、処理をステップS19に進める。   In step S18, the input unit 21 determines whether or not the user has instructed to change the operation mode. When the input unit 21 receives an instruction to change the operation mode from the user, the input unit 21 determines in step S18 that the user has instructed to change the operation mode, supplies the instruction to the operation mode determination unit 22, and performs processing. Proceed to S19.

ステップS19において、動作モード決定部22は、入力部21から供給される動作モードの変更指示に応じて、動作モードを変更し、処理をステップS15に戻す。   In step S19, the operation mode determination unit 22 changes the operation mode in response to the operation mode change instruction supplied from the input unit 21, and returns the process to step S15.

一方、入力部21は、ユーザからの動作モードの変更指示を受け付けていない場合、ステップS19でユーザにより動作モードの変更が指示されていないと判定し、処理をステップS20に進める。   On the other hand, if the input unit 21 has not received an instruction to change the operation mode from the user, the input unit 21 determines in step S19 that the user has not instructed to change the operation mode, and advances the process to step S20.

ステップS20において、入力部21は、ユーザにより撮影モードの変更が指示されたかどうかを判定する。入力部21は、ユーザからの撮影モードの変更指示を受け付けた場合、ステップS20でユーザにより撮影モードの変更が指示されたと判定して、その指示を撮影モード決定部24に供給し、処理をステップS21に進める。   In step S20, the input unit 21 determines whether or not the user has instructed to change the shooting mode. When the input unit 21 receives an instruction to change the shooting mode from the user, the input unit 21 determines in step S20 that the user has instructed to change the shooting mode, supplies the instruction to the shooting mode determination unit 24, and performs processing. Proceed to S21.

ステップS21において、撮影モード決定部24は、入力部21から供給される撮影モードの変更の指示に応じて、撮影モードを変更し、送信部23と撮影部25に供給する。   In step S <b> 21, the shooting mode determination unit 24 changes the shooting mode in accordance with the shooting mode change instruction supplied from the input unit 21 and supplies the changed shooting mode to the transmission unit 23 and the shooting unit 25.

ステップS22において、撮影部25の左目カメラ11−1および右目カメラ11−2は、ステップS21で撮影モード決定部24から供給される変更後の撮影モードに応じて撮影パラメータの値を変更する。そして、処理はステップS15に戻り、以降の処理が繰り返される。   In step S22, the left-eye camera 11-1 and the right-eye camera 11-2 of the photographing unit 25 change the value of the photographing parameter according to the changed photographing mode supplied from the photographing mode determining unit 24 in step S21. Then, the process returns to step S15, and the subsequent processes are repeated.

一方、入力部21は、ユーザからの撮影モードの変更指示を受け付けていない場合、ステップS20でユーザにより撮影モードの変更が指示されていないと判定し、処理をステップS23に進める。   On the other hand, when the input unit 21 has not received an instruction to change the shooting mode from the user, the input unit 21 determines in step S20 that the user has not instructed to change the shooting mode, and the process proceeds to step S23.

ステップS23において、入力部21は、撮影を終了するかどうか、即ちユーザからの撮影終了の指示を受け付けたかどうかを判定する。ステップS24で撮影を終了しないと判定された場合、処理はステップS15に戻り、撮影を終了すると判定されるまで、ステップS15乃至S23の処理が繰り返される。   In step S <b> 23, the input unit 21 determines whether or not to end shooting, that is, whether or not an instruction to end shooting is received from the user. If it is determined in step S24 that shooting is not ended, the process returns to step S15, and the processes in steps S15 to S23 are repeated until it is determined that shooting is to be ended.

ステップS23で撮影を終了すると判定された場合、ステップS24において、撮影部25の左目カメラ11−1と右目カメラ11−2は、ステップS14で開始された撮影を停止する。また、送信部23は、撮影の終了指令を副カメラ装置12に送信する。そして撮影処理は終了する。   If it is determined in step S23 that the shooting is to be ended, in step S24, the left eye camera 11-1 and the right eye camera 11-2 of the shooting unit 25 stop the shooting started in step S14. In addition, the transmission unit 23 transmits an imaging end command to the sub camera device 12. Then, the photographing process ends.

[副カメラ装置の撮影処理の説明]
図11は、図3の副カメラ装置12の撮影処理を説明するフローチャートである。この撮影処理は、例えば、主カメラ装置11から主カメラ情報が送信されてきたとき、開始される。
[Explanation of shooting process of sub camera device]
FIG. 11 is a flowchart for describing a photographing process of the sub camera device 12 of FIG. This photographing process is started, for example, when main camera information is transmitted from the main camera device 11.

図11のステップS31において、副カメラ装置12の受信部43は、主カメラ装置11から主カメラ情報を受信する。受信部43は、受信された動作モード、画像処理情報などを移動制御部44に供給し、撮影モードを撮影部41に供給する。   In step S <b> 31 of FIG. 11, the receiving unit 43 of the sub camera device 12 receives main camera information from the main camera device 11. The receiving unit 43 supplies the received operation mode, image processing information, and the like to the movement control unit 44 and supplies the shooting mode to the shooting unit 41.

ステップS32において、移動制御部44は、受信部43から供給される動作モードに応じた副カメラ装置12の移動制御を開始する。このとき、動作モードが注目点高解像度化モードである場合には、移動制御部44は、受信部43から供給される画像処理情報としての注目点の位置を表す情報に基づいて、副カメラ装置12の移動制御を行う。   In step S <b> 32, the movement control unit 44 starts movement control of the sub camera device 12 according to the operation mode supplied from the reception unit 43. At this time, when the operation mode is the attention point resolution increasing mode, the movement control unit 44 uses the sub camera device based on the information indicating the position of the attention point as the image processing information supplied from the reception unit 43. 12 movement controls are performed.

ステップS33において、撮影部41は、受信部43から供給される撮影モードに応じて撮影パラメータの値を決定し、その撮影パラメータの値に基づく撮影を開始する。撮影の結果得られる副カメラ画像は、送信部42を介して副カメラ情報として送信されるか、または、画像処理部45と送信部42を介して副カメラ情報として送信される。   In step S33, the photographing unit 41 determines a photographing parameter value according to the photographing mode supplied from the receiving unit 43, and starts photographing based on the photographing parameter value. The sub camera image obtained as a result of photographing is transmitted as sub camera information via the transmission unit 42, or is transmitted as sub camera information via the image processing unit 45 and the transmission unit 42.

ステップS34において、移動制御部44は、動作モードが変更されたかどうか、即ち、受信部43により受信される動作モードが変更されたかどうかを判定する。ステップS34で動作モードが変更されたと判定された場合、処理は、ステップS35に進む。   In step S34, the movement control unit 44 determines whether or not the operation mode has been changed, that is, whether or not the operation mode received by the reception unit 43 has been changed. If it is determined in step S34 that the operation mode has been changed, the process proceeds to step S35.

ステップS35において、移動制御部44は、変更後の動作モードに応じて移動制御を変更し、処理をステップS34に戻す。   In step S35, the movement control unit 44 changes the movement control according to the changed operation mode, and returns the process to step S34.

一方、ステップS34で動作モードが変更されていないと判定された場合、ステップS36において、撮影モードが変更されたかどうか、即ち、受信部43により受信される撮影モードが変更されたかどうかを判定する。   On the other hand, if it is determined in step S34 that the operation mode has not been changed, it is determined in step S36 whether or not the shooting mode has been changed, that is, whether or not the shooting mode received by the receiving unit 43 has been changed.

ステップS36で撮影モードが変更されたと判定された場合、処理はステップS37に進む。ステップS37において、撮影部41は、変更後の撮影モードに応じて撮影パラメータの値を変更し、処理をステップS34に戻す。   If it is determined in step S36 that the shooting mode has been changed, the process proceeds to step S37. In step S37, the imaging unit 41 changes the value of the imaging parameter according to the changed imaging mode, and returns the process to step S34.

一方、ステップS36で撮影モードが変更されていないと判定された場合、ステップS38において、撮影部41は、撮影を終了するかどうか、即ち主カメラ装置11から撮影の終了指令が送信されてきたかどうかを判定する。ステップS38で撮影を終了すると判定されない場合、処理はステップS34に戻り、撮影を終了すると判定されるまで、ステップS34乃至S38の処理が繰り返される。   On the other hand, when it is determined in step S36 that the shooting mode has not been changed, in step S38, the shooting unit 41 determines whether to end shooting, that is, whether a shooting end command has been transmitted from the main camera device 11. Determine. If it is not determined in step S38 to end shooting, the process returns to step S34, and the processes in steps S34 to S38 are repeated until it is determined to end shooting.

ステップS38で撮影を終了すると判定された場合、ステップS39において、撮影部41は、撮影を停止する。   If it is determined in step S38 that shooting is to be ended, in step S39, the shooting unit 41 stops shooting.

ステップS40において、移動制御部44は、副カメラ装置12の移動制御を停止すし、処理を終了する。   In step S40, the movement control unit 44 stops the movement control of the sub camera device 12 and ends the process.

以上のように、画像処理システム10では、主カメラ装置11が動作モードを決定して送信し、副カメラ装置12が主カメラ装置11から送信されてくる動作モードに応じて1視点の画像を撮影する撮影部41を移動させる。従って、撮影部41において、動作モードに応じた複数視点の画像を撮影することができる。その結果、画像処理システム10では、視点ごとにカメラが設けられる場合に比べて、安価で多視点の画像を撮影することができる。   As described above, in the image processing system 10, the main camera device 11 determines and transmits the operation mode, and the sub camera device 12 captures one viewpoint image according to the operation mode transmitted from the main camera device 11. The photographing unit 41 to be moved is moved. Therefore, the imaging unit 41 can capture images from a plurality of viewpoints according to the operation mode. As a result, the image processing system 10 can capture multi-viewpoint images at a lower cost than when a camera is provided for each viewpoint.

[副カメラ装置の画像処理の例]
図12は、図3の副カメラ装置12の画像処理部45における画像処理の例を説明する図である。
[Example of image processing of secondary camera device]
FIG. 12 is a diagram illustrating an example of image processing in the image processing unit 45 of the sub camera device 12 of FIG.

図12に示すように、画像処理部45における画像処理としては、例えば、フレームレート可変処理、第1のフレーム補間処理、第2のフレーム補間処理、動きボケ補償処理、解像度補間処理、色空間補間処理、符号化処理等がある。   As shown in FIG. 12, the image processing in the image processing unit 45 includes, for example, variable frame rate processing, first frame interpolation processing, second frame interpolation processing, motion blur compensation processing, resolution interpolation processing, color space interpolation. Processing, encoding processing, and the like.

フレームレート可変処理は、画像処理情報としての被写体や主カメラ装置11の動き情報に基づいて、副カメラ画像のフレームレートを変更する処理である。例えば、フレームレート可変処理では、動き情報が比較的小さい場合、即ち被写体や主カメラ装置11が略静止している場合、副カメラ画像のフレームレートが下げられる。また、動き情報が比較的大きい場合、即ち被写体や主カメラ装置11に動きがある場合、副カメラ画像のフレームレートが上げられる。フレームレート可変処理により、副カメラ装置12が、被写体や副カメラ装置12の動き情報を検出する機能を有しない安価な装置である場合であっても、副カメラ画像のビットレートを削減することができる。   The frame rate variable process is a process of changing the frame rate of the sub camera image based on the subject as the image processing information and the motion information of the main camera device 11. For example, in the frame rate variable process, when the motion information is relatively small, that is, when the subject and the main camera device 11 are substantially stationary, the frame rate of the sub camera image is lowered. Further, when the motion information is relatively large, that is, when the subject or the main camera device 11 is moving, the frame rate of the sub camera image is increased. By the frame rate variable processing, the bit rate of the sub camera image can be reduced even when the sub camera device 12 is an inexpensive device that does not have a function of detecting motion information of the subject or the sub camera device 12. it can.

第1のフレーム補間処理は、画像処理情報としての主カメラ画像の動きベクトルや主カメラ画像そのものを利用して、副カメラ画像を補間する処理である。これにより、副カメラ装置12が、フレームレートの低い安価な装置である場合であっても、滑らかな副カメラ画像を生成することができる。   The first frame interpolation process is a process for interpolating the sub camera image using the motion vector of the main camera image as the image processing information and the main camera image itself. Thereby, even if the secondary camera device 12 is an inexpensive device with a low frame rate, a smooth secondary camera image can be generated.

第2のフレーム補間処理は、撮影時刻の異なる主カメラ画像を利用して、副カメラ画像を補間する処理である。これにより、副カメラ装置12が、フレームレートの低い安価な装置である場合であっても、滑らかな副カメラ画像を生成することができる。   The second frame interpolation process is a process of interpolating the sub camera image using the main camera image having a different shooting time. Thereby, even if the secondary camera device 12 is an inexpensive device with a low frame rate, a smooth secondary camera image can be generated.

動きボケ補償処理は、画像処理情報としての主カメラ画像の動きボケ量に基づいて副カメラ画像の動きボケ補償を行う処理である。これにより、副カメラ装置12のシャッタスピードが主カメラ装置11に比べて遅い場合であっても、シャッタスピードの速い主カメラ装置11の主カメラ画像から検出された動きボケ量に基づいて、副カメラ画像の動きボケを精度良く改善することができる。   The motion blur compensation process is a process of performing motion blur compensation of the sub camera image based on the motion blur amount of the main camera image as the image processing information. Thereby, even if the shutter speed of the secondary camera device 12 is slower than that of the primary camera device 11, the secondary camera is based on the amount of motion blur detected from the primary camera image of the primary camera device 11 having a fast shutter speed. Image motion blur can be improved with high accuracy.

解像度補間処理は、主カメラ画像と動作モードを利用して副カメラ画像を高解像度化する処理である。これにより、副カメラ装置12の撮影時の解像度を所望の解像度より低くし、ビットレートを削減することができる。   The resolution interpolation process is a process for increasing the resolution of the sub camera image using the main camera image and the operation mode. Thereby, the resolution at the time of imaging | photography of the sub camera apparatus 12 can be made lower than desired resolution, and a bit rate can be reduced.

色空間補間処理は、色空間の広い主カメラ画像を利用して副カメラ画像の色空間を補間する処理である。例えば、色空間補間処理では、YCbCr422の主カメラ画像を用いてYCbCr420の副カメラ画像の色空間が補間され、YCbCr422の副カメラ画像が生成される。
これにより、撮影時の色空間を所望の色空間より狭くし、ビットレートを削減することができる。
The color space interpolation process is a process of interpolating the color space of the sub camera image using the main camera image having a wide color space. For example, in the color space interpolation process, the color space of the YCbCr420 secondary camera image is interpolated using the YCbCr422 primary camera image, and a YCbCr422 secondary camera image is generated.
Thereby, the color space at the time of photographing can be made narrower than the desired color space, and the bit rate can be reduced.

符号化処理は、主カメラ画像の符号化に関する特徴量を用いて副カメラ画像の符号化を行う処理である。なお、符号化に関する特徴量としては、例えば、フォーカス値や、画像処理情報としてのエッジ、シーンチェンジ、トランジション、注目領域などがある。この符号化処理により、副カメラ装置12が符号化に関する特徴量を生成しなくて済むため、副カメラ装置12の製造コストを削減することができる。   The encoding process is a process of encoding the sub camera image using the feature amount related to the encoding of the main camera image. Note that the feature amount related to encoding includes, for example, a focus value, an edge as an image processing information, a scene change, a transition, an attention area, and the like. With this encoding process, the secondary camera device 12 does not have to generate a feature quantity related to encoding, and thus the manufacturing cost of the secondary camera device 12 can be reduced.

[超多視点画像処理部の構成例]
図13は、動作モードが超多視点画像モードである場合に動作する、図3の画像処理部45の一部を構成する超多視点画像処理部60の構成例を示すブロック図である。
[Configuration example of super multi-viewpoint image processing unit]
FIG. 13 is a block diagram illustrating a configuration example of the super multi-view image processing unit 60 that constitutes a part of the image processing unit 45 of FIG. 3 that operates when the operation mode is the super multi-view image mode.

図13の超多視点画像処理部60は、フレームメモリ61、動きボケ補償部62、補間部63、フレームメモリ64、補間フレームメモリ65、および画像出力部66により構成される。超多視点画像処理部60は、超多視点画像モード時に動きボケ補償処理等を行う。   The super multi-view image processing unit 60 in FIG. 13 includes a frame memory 61, a motion blur compensation unit 62, an interpolation unit 63, a frame memory 64, an interpolation frame memory 65, and an image output unit 66. The super multi-view image processing unit 60 performs motion blur compensation processing and the like in the super multi-view image mode.

具体的には、超多視点画像処理部60のフレームメモリ61には、撮影部41からフレーム単位の副カメラ画像が供給され、保持される。   Specifically, the frame memory 61 of the super multi-viewpoint image processing unit 60 is supplied with the sub-camera image for each frame from the photographing unit 41 and is held.

動きボケ補償部62は、フレームメモリ61から副カメラ画像をフレーム単位で読み出す。動きボケ補償部62は、受信部43から供給される画像処理情報としての主カメラ画像の動きボケ量に基づいて、読み出された副カメラ画像に対して動きボケ補償処理を行う。動きボケ補償部62は、動きボケ補償処理後のフレーム単位の副カメラ画像を補間部63とフレームメモリ64に供給する。   The motion blur compensation unit 62 reads the sub camera image from the frame memory 61 in units of frames. The motion blur compensation unit 62 performs motion blur compensation processing on the read sub camera image based on the motion blur amount of the main camera image as the image processing information supplied from the reception unit 43. The motion blur compensation unit 62 supplies the sub-camera image of the frame unit after the motion blur compensation process to the interpolation unit 63 and the frame memory 64.

補間部63は、動きボケ補償部62から供給されるフレーム単位の副カメラ画像に対してフレーム補間処理を行う。具体的には、補間部63は、動きボケ補償部62からのフレーム単位の副カメラ画像と、そのフレームより1つ前のフレームの、フレームメモリ64に記憶されている副カメラ画像とを用いて、両フレームの間の時刻のフレーム単位の副カメラ画像を補間する。補間部63は、補間された副カメラ画像を補間フレームメモリ65に供給する。   The interpolation unit 63 performs frame interpolation processing on the sub-camera image in units of frames supplied from the motion blur compensation unit 62. Specifically, the interpolation unit 63 uses the sub-camera image in units of frames from the motion blur compensation unit 62 and the sub-camera image stored in the frame memory 64 of the previous frame. The inter-camera image of the frame unit at the time between both frames is interpolated. The interpolation unit 63 supplies the interpolated sub camera image to the interpolation frame memory 65.

フレームメモリ64は、動きボケ補償部62から供給される動きボケ補償処理後のフレーム単位の副カメラ画像を保持する。補間フレームメモリ65は、補間部63から供給される、補間された副カメラ画像を保持する。   The frame memory 64 holds the sub-camera image for each frame after the motion blur compensation process supplied from the motion blur compensation unit 62. The interpolated frame memory 65 holds the interpolated sub camera image supplied from the interpolating unit 63.

画像出力部66は、フレームメモリ64に保持されているフレーム単位の副カメラ画像と、補間フレームメモリ65に保持されているフレーム単位の副カメラ画像を交互に送信部42に出力する。これにより、送信部42に入力される副カメラ画像のフレームレートは、撮影時のフレームレートの2倍になる。   The image output unit 66 alternately outputs the sub camera image in units of frames held in the frame memory 64 and the sub camera image in units of frames held in the interpolation frame memory 65 to the transmission unit 42. As a result, the frame rate of the sub camera image input to the transmission unit 42 is twice the frame rate at the time of shooting.

[超多視点画像処理部の処理の説明]
図14は、図13の超多視点画像処理部60の超多視点画像処理を説明するフローチャートである。この超多視点画像処理は、例えば、撮影部41からフレーム単位の副カメラ画像が供給されるとき、開始される。
[Description of super multi-viewpoint image processing unit]
FIG. 14 is a flowchart illustrating super multi-view image processing of the super multi-view image processing unit 60 in FIG. This super multi-viewpoint image processing is started when, for example, a sub-camera image in units of frames is supplied from the photographing unit 41.

図14のステップS51において、超多視点画像処理部60のフレームメモリ61は、撮影部41から供給される副カメラ画像を保持する。   In step S <b> 51 of FIG. 14, the frame memory 61 of the super multi-viewpoint image processing unit 60 holds the sub camera image supplied from the imaging unit 41.

ステップS52において、動きボケ補償部62は、受信部43から供給される画像処理情報としての動きボケ量に基づいて、フレームメモリ61に記憶されている副カメラ画像の動きボケ補償処理を行う。動きボケ補償部62は、動きボケ補償処理後の副カメラ画像を補間部63とフレームメモリ64に供給する。   In step S <b> 52, the motion blur compensation unit 62 performs motion blur compensation processing of the sub camera image stored in the frame memory 61 based on the motion blur amount as the image processing information supplied from the reception unit 43. The motion blur compensation unit 62 supplies the sub camera image after the motion blur compensation processing to the interpolation unit 63 and the frame memory 64.

ステップS53において、フレームメモリ64は、動きボケ補償部62から供給される動きボケ補償処理後の副カメラ画像を保持する。   In step S <b> 53, the frame memory 64 holds the sub-camera image after the motion blur compensation process supplied from the motion blur compensation unit 62.

ステップS54において、補間部63は、動きボケ補償部62から供給される動きボケ補償処理後の副カメラ画像が先頭フレームの副カメラ画像であるかどうかを判定する。ステップS54で動きボケ補償処理後の副カメラ画像が先頭フレームの副カメラ画像であると判定された場合、処理はステップS55乃至S57をスキップし、ステップS58に進む。   In step S54, the interpolation unit 63 determines whether or not the sub camera image after the motion blur compensation process supplied from the motion blur compensation unit 62 is the sub camera image of the first frame. If it is determined in step S54 that the sub-camera image after the motion blur compensation process is the sub-camera image of the first frame, the process skips steps S55 to S57 and proceeds to step S58.

一方、ステップS54で動きボケ補償処理後の副カメラ画像が先頭フレームの副カメラ画像ではないと判定された場合、処理はステップS55に進む。   On the other hand, if it is determined in step S54 that the sub camera image after the motion blur compensation process is not the sub camera image of the first frame, the process proceeds to step S55.

ステップS55において、補間部63は、動きボケ補償部62から供給されるフレーム単位の副カメラ画像と、そのフレームより1つ前のフレームの、フレームメモリ64に記憶されている副カメラ画像とを用いて補間を行う。これにより、両フレームの間の時刻のフレーム単位の副カメラ画像が補間される。補間部63は、補間された副カメラ画像を補間フレームメモリ65に供給する。   In step S55, the interpolation unit 63 uses the sub-camera image in units of frames supplied from the motion blur compensation unit 62 and the sub-camera image stored in the frame memory 64 of the previous frame. Interpolation. Thereby, the sub camera image of the frame unit at the time between both frames is interpolated. The interpolation unit 63 supplies the interpolated sub camera image to the interpolation frame memory 65.

ステップS56において、補間フレームメモリ65は、補間部63から供給される、補間された副カメラ画像を保持する。   In step S <b> 56, the interpolation frame memory 65 holds the interpolated sub camera image supplied from the interpolation unit 63.

ステップS57において、画像出力部66は、補間フレームメモリ65に保持されている補間された副カメラ画像を送信部42に出力する。   In step S <b> 57, the image output unit 66 outputs the interpolated sub camera image held in the interpolation frame memory 65 to the transmission unit 42.

ステップS58において、画像出力部66は、フレームメモリ64に保持されている副カメラ画像を送信部42に出力し、処理を終了する。   In step S58, the image output unit 66 outputs the sub camera image held in the frame memory 64 to the transmission unit 42, and ends the process.

[解像度補間処理部の構成例]
図15は、図3の画像処理部45の一部を構成する解像度補間処理部80の構成例を示すブロック図である。
[Configuration example of resolution interpolation processing unit]
FIG. 15 is a block diagram illustrating a configuration example of the resolution interpolation processing unit 80 that constitutes a part of the image processing unit 45 of FIG.

図14の解像度補間処理部80は、選択部81および高解像度化部82乃至84により構成され、解像度補間処理を行う。   A resolution interpolation processing unit 80 in FIG. 14 includes a selection unit 81 and resolution enhancement units 82 to 84, and performs resolution interpolation processing.

具体的には、解像度補間処理部80の選択部81は、図3の受信部43から供給される主カメラ画像と動作モードに基づいて、副カメラ画像に適した方法で解像度補間を行う高解像度化部82乃至84のいずれかを選択する。解像度補間処理部80は、選択された高解像度化部82乃至84を示す選択情報を高解像度化部82乃至84に供給する。   Specifically, the selection unit 81 of the resolution interpolation processing unit 80 performs high-resolution resolution interpolation using a method suitable for the sub camera image based on the main camera image and the operation mode supplied from the reception unit 43 in FIG. One of the conversion units 82 to 84 is selected. The resolution interpolation processing unit 80 supplies selection information indicating the selected resolution enhancement units 82 to 84 to the resolution enhancement units 82 to 84.

高解像度化部82は、選択部81から供給される選択情報が自分自身を示す場合、図3の撮影部41から供給される副カメラ画像に対して、再構成型解像度補間を行う。再構成型解像度補間とは、前のフレームの処理結果を用いた数理的に最適なIIR(Infinite Impulse Response)処理により高解像度化する処理である。高解像度化部82は、再構成型解像度補間後の副カメラ画像を図3の送信部42に供給する。   When the selection information supplied from the selection unit 81 indicates itself, the high resolution unit 82 performs reconfigurable resolution interpolation on the sub camera image supplied from the imaging unit 41 in FIG. The reconfigurable resolution interpolation is a process for increasing the resolution by mathematically optimal IIR (Infinite Impulse Response) processing using the processing result of the previous frame. The resolution enhancement unit 82 supplies the sub-camera image after the reconfigurable resolution interpolation to the transmission unit 42 in FIG.

高解像度化部83は、選択部81から供給される選択情報が自分自身を示す場合、撮影部41から供給される副カメラ画像に対して、学習型解像度補間を行う。学習型解像度補間とは、事前に学習により求められた係数を用いて高解像度化する処理である。なお、事前に行われる学習とは、学習型解像度補間前の副カメラ画像に対応する画像を生徒画像とし、学習型解像度補間後の副カメラ画像に対応する画像を教師画像とした学習であり、この学習により、生徒画像から教師画像を求めるための係数が求められる。高解像度化部83は、学習型解像度補間後の副カメラ画像を送信部42に供給する。   When the selection information supplied from the selection unit 81 indicates itself, the high resolution unit 83 performs learning-type resolution interpolation on the sub camera image supplied from the imaging unit 41. Learning-type resolution interpolation is a process for increasing the resolution using a coefficient obtained by learning in advance. Note that learning performed in advance is learning using an image corresponding to the sub-camera image before learning-type resolution interpolation as a student image and an image corresponding to the sub-camera image after learning-type resolution interpolation as a teacher image, By this learning, a coefficient for obtaining a teacher image from the student image is obtained. The resolution increasing unit 83 supplies the sub-camera image after learning type resolution interpolation to the transmission unit 42.

高解像度化部84は、選択部81から供給される選択情報が自分自身を示す場合、撮影部41から供給される副カメラ画像に対して、特徴モデル型解像度補間を行う。特徴モデル型解像度補間とは、処理対象の画像を、エッジ成分、テクスチャ成分等の成分に分解し、各成分を既知の特徴モデルに合わせて最適に高解像度化する処理である。高解像度化部84は、特徴モデル型解像度補間後の副カメラ画像を送信部42に供給する。   When the selection information supplied from the selection unit 81 indicates itself, the resolution enhancement unit 84 performs feature model type resolution interpolation on the sub camera image supplied from the imaging unit 41. The feature model type resolution interpolation is a process of decomposing an image to be processed into components such as edge components and texture components and increasing the resolution of each component optimally according to a known feature model. The high resolution unit 84 supplies the sub camera image after the feature model type resolution interpolation to the transmission unit 42.

[解像度補間処理部の処理の概略説明]
図16は、図15の解像度補間処理部80の処理の概略を説明する図である。
[Outline of processing of resolution interpolation processing unit]
FIG. 16 is a diagram for explaining the outline of the processing of the resolution interpolation processing unit 80 of FIG.

図16に示すように、副カメラ画像12の撮影部41により撮影された低解像度の副カメラ画像は、高解像度化部82による再構成型解像度補間、高解像度化部83による学習型解像度補間、または高解像度化部84による特徴モデル型解像度補間により高解像度化される。   As shown in FIG. 16, the low-resolution sub-camera image captured by the imaging unit 41 of the sub-camera image 12 includes a reconfiguration-type resolution interpolation by the high-resolution unit 82, a learning-type resolution interpolation by the high-resolution unit 83, Alternatively, the resolution is increased by feature model type resolution interpolation by the resolution enhancement unit 84.

具体的には、例えば、動作モードが超多視点画像モードであり、副カメラ画像が3D画像を構成する所定の視点の画像である場合、副カメラ画像に対応する主カメラ画像が折り返し歪みを有する場合などには、再構成型解像度補間が行われる。   Specifically, for example, when the operation mode is the super multi-viewpoint image mode and the sub camera image is an image of a predetermined viewpoint constituting the 3D image, the main camera image corresponding to the sub camera image has aliasing distortion. In some cases, reconfigurable resolution interpolation is performed.

また、例えば、主カメラ画像の特徴が、学習型解像度補間における学習時に用いられた教師画像の特徴に近似する場合には、学習型解像度補間が行われる。   Further, for example, when the feature of the main camera image approximates the feature of the teacher image used during learning in learning-type resolution interpolation, learning-type resolution interpolation is performed.

さらに、例えば、主カメラ画像が、アニメーション、CG(Computer Graphics)、ゲーム用画像等のエッジを多く含む画像である場合には、特徴モデル型解像度補間が行われる。   Furthermore, for example, when the main camera image is an image including many edges such as an animation, CG (Computer Graphics), and a game image, feature model type resolution interpolation is performed.

[解像度補間処理部の説明]
図17は、図15の解像度補間処理部80の解像度補間処理を説明するフローチャートである。この解像度補間処理は、例えば、解像度補間処理部80に図3の撮影部41から副カメラ画像が供給されたとき、開始される。
[Description of resolution interpolation processing unit]
FIG. 17 is a flowchart for explaining the resolution interpolation processing of the resolution interpolation processing unit 80 of FIG. This resolution interpolation process is started when, for example, a sub camera image is supplied from the imaging unit 41 in FIG.

図17のステップS71において、解像度補間処理部80の選択部81は、受信部43から供給される主カメラ画像と動作モードに基づいて、副カメラ画像に適した解像度補間処理を行う高解像度化部82乃至84のいずれかを選択する。解像度補間処理部80は、選択された高解像度化部82乃至84を示す選択情報を高解像度化部82乃至84に供給する。   In step S71 of FIG. 17, the selection unit 81 of the resolution interpolation processing unit 80 performs a resolution interpolation process suitable for the sub camera image based on the main camera image and the operation mode supplied from the reception unit 43. One of 82 to 84 is selected. The resolution interpolation processing unit 80 supplies selection information indicating the selected resolution enhancement units 82 to 84 to the resolution enhancement units 82 to 84.

ステップS72において、高解像度化部82は、選択部81から供給される選択情報が高解像度化部82を示す情報であるかどうかを判定する。ステップS72で選択情報が高解像度化部82を示す情報であると判定された場合、高解像度化部82は、撮影部41から供給される副カメラ画像に対して、再構成型解像度補間を行う。そして、高解像度化部82は、再構成型解像度補間後の副カメラ画像を図3の送信部42に供給し、処理を終了する。   In step S <b> 72, the resolution increasing unit 82 determines whether the selection information supplied from the selection unit 81 is information indicating the resolution increasing unit 82. When it is determined in step S72 that the selection information is information indicating the resolution enhancement unit 82, the resolution enhancement unit 82 performs reconfigurable resolution interpolation on the sub-camera image supplied from the imaging unit 41. . Then, the resolution increasing unit 82 supplies the sub-camera image after the reconfigurable resolution interpolation to the transmitting unit 42 in FIG. 3 and ends the process.

一方、ステップS72で選択情報が高解像度化部82を示す情報ではないと判定された場合、ステップS74において、高解像度化部83は、選択情報が高解像度化部83を示す情報であるかどうかを判定する。   On the other hand, when it is determined in step S72 that the selection information is not information indicating the high resolution unit 82, in step S74, the high resolution unit 83 determines whether the selection information is information indicating the high resolution unit 83. Determine.

ステップS74で選択情報が高解像度化部83を示す情報であると判定された場合、ステップS75において、高解像度化部83は、撮影部41から供給される副カメラ画像に対して、学習型解像度補間を行う。そして、高解像度化部83は、学習型解像度補間後の副カメラ画像を送信部42に供給し、処理を終了する。   When it is determined in step S74 that the selection information is information indicating the resolution increasing unit 83, in step S75, the resolution increasing unit 83 performs learning-type resolution on the sub camera image supplied from the imaging unit 41. Interpolate. Then, the resolution increasing unit 83 supplies the sub-camera image after learning-type resolution interpolation to the transmission unit 42, and ends the process.

一方、ステップS74で選択情報が高解像度化部83を示す情報ではないと判定された場合、即ち選択情報が高解像度化部84を示す情報である場合、処理はステップS76に進む。   On the other hand, if it is determined in step S74 that the selection information is not information indicating the resolution enhancement unit 83, that is, if the selection information is information indicating the resolution enhancement unit 84, the process proceeds to step S76.

ステップS76において、高解像度化部84は、撮影部41から供給される副カメラ画像に対して、特徴モデル型解像度補間を行う。そして、高解像度化部84は、特徴モデル型解像度補間後の副カメラ画像を送信部42に供給し、処理を終了する。   In step S <b> 76, the resolution increasing unit 84 performs feature model type resolution interpolation on the sub camera image supplied from the imaging unit 41. Then, the high resolution unit 84 supplies the sub-camera image after the feature model type resolution interpolation to the transmission unit 42 and ends the process.

以上のように、解像度補間処理部80では、主カメラ画像と動作モードに基づいて選択された、再構成型解像度補間、学習型解像度補間、または特徴モデル型解像度補間が、副カメラ画像に対して行われるので、精度良く高解像度化を行うことができる。   As described above, the resolution interpolation processing unit 80 performs reconstruction-type resolution interpolation, learning-type resolution interpolation, or feature model-type resolution interpolation on the secondary camera image, which is selected based on the main camera image and the operation mode. As a result, it is possible to increase the resolution with high accuracy.

[主カメラ装置の画像処理の例]
図18は、図2の主カメラ装置11の画像処理部26における画像処理の例を説明する図である。
[Example of main camera device image processing]
FIG. 18 is a diagram illustrating an example of image processing in the image processing unit 26 of the main camera apparatus 11 of FIG.

図18に示すように、画像処理部26における画像処理としては、例えば、手ぶれ補正処理、符号化処理等がある。   As shown in FIG. 18, image processing in the image processing unit 26 includes, for example, camera shake correction processing, encoding processing, and the like.

手ぶれ補正処理は、主カメラ画像の手振れ補正を行い、副カメラ情報としての副カメラ画像を用いて、手振れ補正後の主カメラ画像の画枠付近の存在しない画素を補間する処理である。これにより、手振れ補正後の主カメラ画像の画質を高画質にすることができる。   The camera shake correction process is a process of performing camera shake correction of the main camera image and interpolating non-existing pixels near the image frame of the main camera image after camera shake correction using the sub camera image as the sub camera information. Thereby, the image quality of the main camera image after camera shake correction can be improved.

符号化処理は、副カメラ画像と主カメラ画像のGOPの位相をずらすように、副カメラ画像と主カメラ画像を符号化する処理である。これにより、副カメラ画像や主カメラ画像のGOPフリッカを軽減することができる。   The encoding process is a process of encoding the sub camera image and the main camera image so that the GOP phases of the sub camera image and the main camera image are shifted. Thereby, it is possible to reduce GOP flicker in the sub camera image and the main camera image.

[符号化処理部の構成例]
図19は、図2の画像処理部26の一部を構成する符号化処理部100の構成例を示すブロック図である。
[Configuration example of encoding processing unit]
FIG. 19 is a block diagram illustrating a configuration example of the encoding processing unit 100 that constitutes a part of the image processing unit 26 of FIG.

図19の符号化処理部100は、A/D変換部111、画面並べ替えバッファ112、演算部113、直交変換部114、量子化部115、可逆符号化部116、蓄積バッファ117、逆量子化部118、逆直交変換部119、加算部120、デブロックフィルタ121、フレームメモリ122、イントラ予測部123、動き予測・補償部124、選択部125、およびレート制御部126により構成される。図19の符号化処理部100は、主カメラ画像の一方に対して、イントラ予測または時間方向のインター予測を行い、主カメラ画像の他方と副カメラ画像に対して、イントラ予測または時間方向と視差方向のインター予測を行うことにより、圧縮符号化を行う。なお、以下では、イントラ予測または時間方向のインター予測が行われる主カメラ画像の一方を、ベース主カメラ画像といい、イントラ予測または時間方向と視差方向のインター予測が行われる主カメラ画像の他方を、ノンベース主カメラ画像という。   The encoding processing unit 100 in FIG. 19 includes an A / D conversion unit 111, a screen rearrangement buffer 112, a calculation unit 113, an orthogonal transformation unit 114, a quantization unit 115, a lossless encoding unit 116, a storage buffer 117, and an inverse quantization. Unit 118, inverse orthogonal transform unit 119, addition unit 120, deblock filter 121, frame memory 122, intra prediction unit 123, motion prediction / compensation unit 124, selection unit 125, and rate control unit 126. The encoding processing unit 100 in FIG. 19 performs intra prediction or inter prediction in the temporal direction for one of the main camera images, and performs intra prediction or temporal direction and disparity for the other of the main camera image and the sub camera image. Compression encoding is performed by performing inter prediction of directions. In the following, one of the main camera images on which intra prediction or inter prediction in the time direction is performed is referred to as a base main camera image, and the other of the main camera images on which intra prediction or inter prediction in the time direction and the parallax direction is performed. This is called a non-base main camera image.

具体的には、符号化処理部100のA/D変換部111は、入力信号として入力されたフレーム単位の主カメラ画像および副カメラ画像をA/D変換し、画面並べ替えバッファ112に出力して記憶させる。画面並べ替えバッファ112は、記憶した表示の順番のフレーム単位の主カメラ画像および副カメラ画像を、GOP(Group of Picture)構造に応じて、符号化のための順番に並べ替える。なお、このとき、主カメラ画像および副カメラ画像それぞれのGOPの位相がずれるように、GOPが設定される。画面並べ替えバッファ112は、並べ替え後の主カメラ画像および副カメラ画像を時刻ごとに順に、符号化対象の画像として、演算部113、イントラ予測部123、および動き予測・補償部124に出力する。   Specifically, the A / D conversion unit 111 of the encoding processing unit 100 performs A / D conversion on the main camera image and the sub camera image in units of frames input as input signals, and outputs them to the screen rearrangement buffer 112. To remember. The screen rearrangement buffer 112 rearranges the main camera image and the sub camera image in frame units in the stored display order in the order for encoding according to the GOP (Group of Picture) structure. At this time, the GOP is set so that the GOP phases of the main camera image and the sub camera image are shifted. The screen rearrangement buffer 112 outputs the rearranged main camera image and sub-camera image to the calculation unit 113, the intra prediction unit 123, and the motion prediction / compensation unit 124 as images to be encoded in order for each time. .

演算部113は、選択部125から供給される予測画像と、画面並べ替えバッファ112から出力された符号化対象の画像の差分を演算する。具体的には、演算部113は、画面並べ替えバッファ112から出力された符号化対象の画像から、選択部125から供給される予測画像を減算する。演算部113は、減算の結果得られる画像を、残差情報として直交変換部114に出力する。なお、選択部125から予測画像が供給されない場合、演算部113は、画面並べ替えバッファ112から読み出された画像をそのまま残差情報として直交変換部114に出力する。   The calculation unit 113 calculates the difference between the predicted image supplied from the selection unit 125 and the encoding target image output from the screen rearrangement buffer 112. Specifically, the calculation unit 113 subtracts the predicted image supplied from the selection unit 125 from the encoding target image output from the screen rearrangement buffer 112. The calculation unit 113 outputs an image obtained as a result of the subtraction to the orthogonal transform unit 114 as residual information. When the prediction image is not supplied from the selection unit 125, the calculation unit 113 outputs the image read from the screen rearrangement buffer 112 to the orthogonal transformation unit 114 as residual information as it is.

直交変換部114は、演算部113からの残差情報に対して離散コサイン変換、カルーネン・レーベ変換等の直交変換を施し、その結果得られる係数を量子化部115に供給する。   The orthogonal transform unit 114 performs orthogonal transform such as discrete cosine transform and Karhunen-Loeve transform on the residual information from the calculation unit 113 and supplies the resulting coefficient to the quantization unit 115.

量子化部115は、直交変換部114から供給される係数を量子化する。量子化された係数は、可逆符号化部116に入力される。   The quantization unit 115 quantizes the coefficient supplied from the orthogonal transform unit 114. The quantized coefficient is input to the lossless encoding unit 116.

可逆符号化部116は、最適イントラ予測モードを示す情報(以下、イントラ予測モード情報という)をイントラ予測部123から取得し、最適インター予測モードを示す情報(以下、インター予測モード情報という)、動きベクトル、参照画像を特定する情報などを動き予測・補償部124から取得する。   The lossless encoding unit 116 acquires information indicating the optimal intra prediction mode (hereinafter referred to as intra prediction mode information) from the intra prediction unit 123, information indicating the optimal inter prediction mode (hereinafter referred to as inter prediction mode information), motion Information specifying a vector, a reference image, and the like is acquired from the motion prediction / compensation unit 124.

可逆符号化部116は、量子化部115から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行い、その結果得られる情報を圧縮画像とする。また、可逆符号化部116は、イントラ予測モード情報、または、インター予測モード情報および動きベクトルなどを可逆符号化し、その結果得られる情報を圧縮画像に付加されるヘッダ情報とする。可逆符号化部116は、可逆符号化の結果得られるヘッダ情報が付加された圧縮画像を画像圧縮情報として蓄積バッファ117に供給し、蓄積させる。   The lossless encoding unit 116 performs variable length encoding (for example, CAVLC (Context-Adaptive Variable Length Coding)) and arithmetic encoding (for example, CABAC) on the quantized coefficients supplied from the quantization unit 115. (Context-Adaptive Binary Arithmetic Coding, etc.) is performed, and the resulting information is used as a compressed image. Further, the lossless encoding unit 116 losslessly encodes intra prediction mode information, inter prediction mode information, motion vectors, and the like, and uses the resulting information as header information added to the compressed image. The lossless encoding unit 116 supplies the compressed image to which the header information obtained as a result of the lossless encoding is added to the accumulation buffer 117 as image compression information and accumulates the compressed image.

蓄積バッファ117は、可逆符号化部116から供給される画像圧縮情報を、一時的に記憶し、例えば、後段の図示せぬ記録装置や伝送路などに出力する。   The accumulation buffer 117 temporarily stores the image compression information supplied from the lossless encoding unit 116 and outputs the information to, for example, a recording device or a transmission path (not shown) in the subsequent stage.

また、量子化部115より出力された、量子化された係数は、逆量子化部118にも入力され、逆量子化された後、逆直交変換部119に供給される。   Further, the quantized coefficient output from the quantization unit 115 is also input to the inverse quantization unit 118, and after inverse quantization, is supplied to the inverse orthogonal transform unit 119.

逆直交変換部119は、逆量子化部118から供給される係数に対して、逆離散コサイン変換、逆カルーネン・レーベ変換等の逆直交変換を施し、その結果得られる残差情報を加算部120に供給する。   The inverse orthogonal transform unit 119 performs inverse orthogonal transform such as inverse discrete cosine transform and inverse Karhunen-Loeve transform on the coefficient supplied from the inverse quantization unit 118, and adds the residual information obtained as a result thereof. To supply.

加算部120は、逆直交変換部119から供給される復号対象の画像としての残差情報と、選択部125から供給される予測画像を加算して、局部的に復号された画像を得る。なお、選択部125から予測画像が供給されない場合、加算部120は、逆直交変換部119から供給される残差情報を局部的に復号された画像とする。加算部120は、局部的に復号された画像をデブロックフィルタ121に供給するとともに、参照画像としてイントラ予測部123に供給する。   The adding unit 120 adds the residual information as the decoding target image supplied from the inverse orthogonal transform unit 119 and the prediction image supplied from the selection unit 125 to obtain a locally decoded image. When the prediction image is not supplied from the selection unit 125, the addition unit 120 sets the residual information supplied from the inverse orthogonal transform unit 119 as a locally decoded image. The adding unit 120 supplies the locally decoded image to the deblocking filter 121 and also supplies the image to the intra prediction unit 123 as a reference image.

デブロックフィルタ121は、加算部120から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ121は、その結果得られる画像をフレームメモリ122に供給し、蓄積させる。フレームメモリ122に蓄積された画像は、参照画像として動き予測・補償部124に出力される。   The deblocking filter 121 removes block distortion by filtering the locally decoded image supplied from the adding unit 120. The deblocking filter 121 supplies the image obtained as a result to the frame memory 122 and accumulates it. The image stored in the frame memory 122 is output to the motion prediction / compensation unit 124 as a reference image.

イントラ予測部123は、画面並べ替えバッファ112から読み出された符号化対象の画像と、加算部120から供給された参照画像とに基づいて、候補となる全てのイントラ予測モードのイントラ予測を行い、予測画像を生成する。   The intra prediction unit 123 performs intra prediction of all candidate intra prediction modes based on the encoding target image read from the screen rearrangement buffer 112 and the reference image supplied from the addition unit 120. Generate a predicted image.

また、イントラ予測部123は、候補となる全てのイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部123は、コスト関数値が最小となるイントラ予測モードを最適イントラ予測モードに決定する。イントラ予測部123は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、選択部125に供給する。イントラ予測部123は、選択部125から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部116に供給する。   The intra prediction unit 123 calculates cost function values (details will be described later) for all candidate intra prediction modes. Then, the intra prediction unit 123 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode. The intra prediction unit 123 supplies the prediction image generated in the optimal intra prediction mode and the corresponding cost function value to the selection unit 125. The intra prediction unit 123 supplies the intra prediction mode information to the lossless encoding unit 116 when the selection unit 125 is notified of selection of a predicted image generated in the optimal intra prediction mode.

なお、コスト関数値は、RD(Rate Distortion)コストともいい、例えば、H.264/AVC方式における参照ソフトウェアであるJM(Joint Model)で定められているような、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて算出される。   The cost function value is also referred to as RD (Rate Distortion) cost. It is calculated based on either the High Complexity mode or the Low Complexity mode as defined by JM (Joint Model) which is reference software in the H.264 / AVC format.

具体的には、コスト関数値の算出手法としてHigh Complexity モードが採用される場合、候補となる全ての予測モードに対して、仮に可逆符号化までが行われ、次の式(1)で表わされるコスト関数値が各予測モードに対して算出される。   Specifically, when the High Complexity mode is employed as the cost function value calculation method, all the prediction modes that are candidates are subjected to lossless encoding, and are expressed by the following equation (1). A cost function value is calculated for each prediction mode.

Cost(Mode)=D+λ・R ・・・(1)   Cost (Mode) = D + λ ・ R (1)

Dは、原画像と復号画像の差分(歪)、Rは、直交変換の係数まで含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。   D is a difference (distortion) between the original image and the decoded image, R is a generated code amount including up to the coefficient of orthogonal transform, and λ is a Lagrange multiplier given as a function of the quantization parameter QP.

一方、コスト関数値の算出手法としてLow Complexity モードが採用される場合、候補となる全ての予測モードに対して、復号画像の生成、および、予測モードを示す情報などのヘッダビットの算出が行われ、次の式(2)で表わされるコスト関数が各予測モードに対して算出される。   On the other hand, when the Low Complexity mode is adopted as a cost function value calculation method, a decoded image is generated and header bits such as information indicating the prediction mode are calculated for all candidate prediction modes. A cost function represented by the following equation (2) is calculated for each prediction mode.

Cost(Mode)=D+QPtoQuant(QP)・Header_Bit ・・・(2)   Cost (Mode) = D + QPtoQuant (QP) ・ Header_Bit (2)

Dは、原画像と復号画像の差分(歪)、Header_Bitは、予測モードに対するヘッダビット、QPtoQuantは、量子化パラメータQPの関数として与えられる関数である。   D is a difference (distortion) between the original image and the decoded image, Header_Bit is a header bit for the prediction mode, and QPtoQuant is a function given as a function of the quantization parameter QP.

Low Complexity モードにおいては、全ての予測モードに対して、復号画像を生成するだけでよく、可逆符号化を行う必要がないため、演算量が少なくて済む。なお、ここでは、コスト関数値の算出手法としてHigh Complexity モードが採用されるものとする。   In the Low Complexity mode, it is only necessary to generate a decoded image for all the prediction modes, and it is not necessary to perform lossless encoding. Here, it is assumed that the High Complexity mode is employed as a cost function value calculation method.

動き予測・補償部124は、候補となる全てのインター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部124は、例えば、符号化対象がベース主カメラ画像のGOPの先頭以外の画像である場合、フレームメモリ122から、符号化対象と時刻の異なるベース主カメラ画像を参照画像として読み出す。一方、動き予測・補償部124は、例えば、符号化対象がノンベース主カメラ画像と副カメラ画像のGOPの先頭の画像である場合、フレームメモリ122から、符号化対象と同一の時刻のベース主カメラ画像を参照画像として読み出す。また、動き予測・補償部124は、例えば、符号化対象がノンベース主カメラ画像と副カメラ画像のGOPの先頭以外の画像である場合、フレームメモリ122から符号化対象と同一の時刻のベース主カメラ画像、および、異なる時刻かつ同一の視点の副カメラ画像を参照画像として読み出す。   The motion prediction / compensation unit 124 performs motion prediction / compensation processing for all candidate inter prediction modes. Specifically, for example, when the encoding target is an image other than the head of the GOP of the base main camera image, the motion prediction / compensation unit 124 reads the base main camera image having a different time from the encoding target from the frame memory 122. As a reference image. On the other hand, for example, when the encoding target is the first image of the GOP of the non-base main camera image and the sub camera image, the motion prediction / compensation unit 124 reads the base main at the same time as the encoding target from the frame memory 122. A camera image is read as a reference image. In addition, for example, when the encoding target is an image other than the top of the GOP of the non-base main camera image and the sub camera image, the motion prediction / compensation unit 124 reads the base main at the same time as the encoding target from the frame memory 122. A camera image and sub camera images at different times and at the same viewpoint are read out as reference images.

そして、動き予測・補償部124は、画面並べ替えバッファ112から供給される符号化対象の画像と、フレームメモリ122から読み出される参照画像に基づいて、所定のブロックごとに、候補となる全てのインター予測モードの動きベクトルを検出する。動き予測・補償部124は、その動きベクトルに基づいて参照画像に補償処理を施し、予測画像を生成する。   Then, the motion prediction / compensation unit 124, based on the encoding target image supplied from the screen rearrangement buffer 112 and the reference image read from the frame memory 122, sets all candidate interfaces for each predetermined block. A motion vector in the prediction mode is detected. The motion prediction / compensation unit 124 performs compensation processing on the reference image based on the motion vector, and generates a predicted image.

このとき、動き予測・補償部124は、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部124は、最適インター予測モードのコスト関数値と、対応する予測画像を選択部125に供給する。また、動き予測・補償部124は、選択部125から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトルや参照画像を特定する情報などを可逆符号化部116に出力する。   At this time, the motion prediction / compensation unit 124 calculates cost function values for all candidate inter prediction modes, and determines the inter prediction mode with the minimum cost function value as the optimal inter measurement mode. Then, the motion prediction / compensation unit 124 supplies the cost function value in the optimal inter prediction mode and the corresponding prediction image to the selection unit 125. In addition, when the selection unit 125 is notified of selection of a predicted image generated in the optimal inter prediction mode, the motion prediction / compensation unit 124 receives inter prediction mode information, information for specifying a corresponding motion vector or reference image, and the like. The result is output to the lossless encoding unit 116.

選択部125は、イントラ予測部123および動き予測・補償部124から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのいずれかを、最適予測モードに決定する。そして、選択部125は、最適予測モードの予測画像を、演算部113および加算部120に供給する。また、選択部125は、最適予測モードの予測画像の選択をイントラ予測部123または動き予測・補償部124に通知する。   Based on the cost function values supplied from the intra prediction unit 123 and the motion prediction / compensation unit 124, the selection unit 125 determines one of the optimal intra prediction mode and the optimal inter prediction mode as the optimal prediction mode. Then, the selection unit 125 supplies the prediction image in the optimal prediction mode to the calculation unit 113 and the addition unit 120. In addition, the selection unit 125 notifies the intra prediction unit 123 or the motion prediction / compensation unit 124 of selection of the prediction image in the optimal prediction mode.

レート制御部126は、蓄積バッファ117に蓄積された画像圧縮情報に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部115の量子化動作のレートを制御する。   The rate control unit 126 controls the quantization operation rate of the quantization unit 115 based on the image compression information stored in the storage buffer 117 so that overflow or underflow does not occur.

[第1の符号化処理の概略の説明]
図20は、図19の符号化処理部100の符号化処理の概略を説明する図である。
[Overview of first encoding process]
FIG. 20 is a diagram for explaining the outline of the encoding process of the encoding processing unit 100 in FIG.

図20に示すように、図19の符号化処理部100の符号化処理では、主カメラ画像と副カメラ画像それぞれのGOPの位相がずらされる。従って、副カメラ画像が、時間方向のインター予測を行えないGOPの先頭の画像である場合、その副カメラ画像に対して、時間方向のインター予測を用いて符号化されるベース主カメラ画像のGOPの先頭以外の画像を参照画像として、動き予測・補償処理を行うことができる。即ち、GOPの先頭の副カメラ画像に対して、GOPの先頭ではないベース主カメラ画像を用いて視差方向の予測を行うことができる。その結果、GOPの先頭の副カメラ画像で発生するフリッカを軽減することができる。なお、図示は省略するが、ノンベース主カメラ画像についても、副カメラ画像と同様である。   As shown in FIG. 20, in the encoding process of the encoding processing unit 100 in FIG. 19, the GOP phases of the main camera image and the sub camera image are shifted. Therefore, if the secondary camera image is the first image of the GOP that cannot perform inter prediction in the time direction, the GOP of the base main camera image that is encoded using inter prediction in the time direction for the sub camera image. Motion prediction / compensation processing can be performed using an image other than the head of the reference image as a reference image. That is, the parallax direction can be predicted for the sub camera image at the head of the GOP using the base main camera image that is not at the head of the GOP. As a result, it is possible to reduce flicker that occurs in the first sub-camera image of the GOP. Although not shown, the non-base main camera image is the same as the sub camera image.

[第1の符号化部の処理の説明]
図21および図22は、図19の符号化処理部100による符号化処理を説明するフローチャートである。この符号化処理は、例えば、入力信号としてフレーム単位の主カメラ画像や副カメラ画像が符号化処理部100に入力されるたびに行われる。
[Description of Processing of First Encoding Unit]
21 and 22 are flowcharts for explaining the encoding process by the encoding processing unit 100 in FIG. This encoding process is performed, for example, every time a main camera image or sub camera image in units of frames is input to the encoding processing unit 100 as an input signal.

図21のステップS111において、符号化処理部100のA/D変換部111は、入力信号として入力されたフレーム単位の主カメラ画像や副カメラ画像をA/D変換し、画面並べ替えバッファ112に出力して記憶させる。   In step S111 of FIG. 21, the A / D conversion unit 111 of the encoding processing unit 100 performs A / D conversion on the main camera image and the sub camera image in units of frames input as an input signal, and stores them in the screen rearrangement buffer 112. Output and store.

ステップS112において、画面並べ替えバッファ112は、記憶した表示の順番のフレーム単位の主カメラ画像や副カメラ画像を、GOP構造に応じて、符号化のための順番に並べ替える。なお、このとき、主カメラ画像および副カメラ画像それぞれのGOPの位相がずれるように、GOPが設定される。画面並べ替えバッファ112は、並べ替え後の主カメラ画像や副カメラ画像を、符号化対象の画像として、演算部113、イントラ予測部123、および動き予測・補償部124に出力する。   In step S112, the screen rearrangement buffer 112 rearranges the main camera image and the sub camera image in the frame order of the stored display order in the order for encoding according to the GOP structure. At this time, the GOP is set so that the GOP phases of the main camera image and the sub camera image are shifted. The screen rearrangement buffer 112 outputs the rearranged main camera image and sub-camera image to the computing unit 113, the intra prediction unit 123, and the motion prediction / compensation unit 124 as an encoding target image.

なお、以下のステップS113乃至S129の処理は、例えばマクロブロック単位で行われる。但し、ベース主カメラ画像のGOPの先頭フレームの先頭マクロブロック等の処理時には、ステップS113乃至S119およびS127の処理は行われず、先頭フレームの画像が残差情報および局部的に復号された画像とされる。また、ベース主カメラ画像のGOPの先頭フレームの先頭以外のマクロブロック等の処理時には、ステップS114の処理が行われず、ステップS115において最適イントラ予測モードが最適予測モードに決定される。   Note that the processing in the following steps S113 to S129 is performed, for example, in units of macroblocks. However, at the time of processing the first macroblock of the first frame of the GOP of the base main camera image, the processing of steps S113 to S119 and S127 is not performed, and the image of the first frame is the residual information and the locally decoded image. The Further, when processing a macro block other than the head of the first frame of the GOP of the base main camera image, the process of step S114 is not performed, and the optimal intra prediction mode is determined as the optimal prediction mode in step S115.

ステップS113において、画面並べ替えバッファ112から読み出された符号化対象の画像と、加算部120から供給された参照画像とに基づいて、候補となる全てのイントラ予測モードのイントラ予測を行い、予測画像を生成する。また、イントラ予測部123は、候補となる全てのイントラ予測モードに対してコスト関数値を算出する。そして、イントラ予測部123は、コスト関数値が最小となるイントラ予測モードを最適イントラ予測モードに決定する。イントラ予測部123は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、選択部125に供給する。   In step S113, based on the encoding target image read from the screen rearrangement buffer 112 and the reference image supplied from the addition unit 120, intra prediction of all candidate intra prediction modes is performed, and prediction is performed. Generate an image. The intra prediction unit 123 calculates cost function values for all candidate intra prediction modes. Then, the intra prediction unit 123 determines the intra prediction mode that minimizes the cost function value as the optimal intra prediction mode. The intra prediction unit 123 supplies the prediction image generated in the optimal intra prediction mode and the corresponding cost function value to the selection unit 125.

ステップS114において、動き予測・補償部124は、画面並べ替えバッファ112から読み出された符号化対象の画像と、フレームメモリ122から読み出された参照画像とに基づいて、候補となる全てのインター予測モードの動き予測・補償処理を行う。また、動き予測・補償部124は、候補となる全てのインター予測モードに対してコスト関数値を算出する。そして、動き予測・補償部124は、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定する。動き予測・補償部124は、最適インター予測モードで生成された予測画像、および、対応するコスト関数値を、選択部125に供給する。   In step S <b> 114, the motion prediction / compensation unit 124 selects all the candidate interfaces based on the encoding target image read from the screen rearrangement buffer 112 and the reference image read from the frame memory 122. Perform motion prediction / compensation processing in prediction mode. The motion prediction / compensation unit 124 calculates cost function values for all candidate inter prediction modes. Then, the motion prediction / compensation unit 124 determines the inter prediction mode that minimizes the cost function value as the optimal inter prediction mode. The motion prediction / compensation unit 124 supplies the prediction image generated in the optimal inter prediction mode and the corresponding cost function value to the selection unit 125.

ステップS115において、選択部125は、イントラ予測部123および動き予測・補償部124から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのコスト関数値が最小となる方を、最適予測モードに決定する。そして、選択部125は、最適予測モードの予測画像を、演算部113および加算部120に供給する。   In step S115, the selection unit 125 minimizes the cost function value of the optimal intra prediction mode and the optimal inter prediction mode based on the cost function values supplied from the intra prediction unit 123 and the motion prediction / compensation unit 124. Is determined to be the optimal prediction mode. Then, the selection unit 125 supplies the prediction image in the optimal prediction mode to the calculation unit 113 and the addition unit 120.

ステップS116において、選択部125は、最適予測モードが最適インター予測モードであるかどうかを判定する。ステップS116で最適予測モードが最適インター予測モードであると判定された場合、選択部125は、最適インター予測モードで生成された予測画像の選択を動き予測・補償部124に通知する。これにより、動き予測・補償部124は、インター予測モード情報、対応する動きベクトルや参照画像を特定する情報などを可逆符号化部116に出力する。   In step S116, the selection unit 125 determines whether or not the optimal prediction mode is the optimal inter prediction mode. When it is determined in step S116 that the optimal prediction mode is the optimal inter prediction mode, the selection unit 125 notifies the motion prediction / compensation unit 124 of selection of the prediction image generated in the optimal inter prediction mode. Thereby, the motion prediction / compensation unit 124 outputs the inter prediction mode information, the corresponding motion vector, information specifying the reference image, and the like to the lossless encoding unit 116.

そして、ステップS117において、可逆符号化部116は、動き予測・補償部124から供給されるインター予測モード情報、動きベクトル、参照画像を特定する情報などを可逆符号化し、その結果得られる情報を圧縮画像に付加されるヘッダ情報とする。そして、処理はステップS119に進む。   In step S117, the lossless encoding unit 116 losslessly encodes the inter prediction mode information supplied from the motion prediction / compensation unit 124, the motion vector, information specifying the reference image, and the like, and compresses the resulting information. Header information added to the image. Then, the process proceeds to step S119.

一方、ステップS116で最適予測モードが最適インター予測モードではないと判定された場合、即ち最適予測モードが最適イントラ予測モードである場合、選択部125は、最適イントラ予測モードで生成された予測画像の選択をイントラ予測部123に通知する。これにより、イントラ予測部123は、イントラ予測モード情報を可逆符号化部116に供給する。   On the other hand, when it is determined in step S116 that the optimal prediction mode is not the optimal inter prediction mode, that is, when the optimal prediction mode is the optimal intra prediction mode, the selection unit 125 selects the prediction image generated in the optimal intra prediction mode. The selection is notified to the intra prediction unit 123. Accordingly, the intra prediction unit 123 supplies the intra prediction mode information to the lossless encoding unit 116.

そして、ステップS118において、可逆符号化部116は、イントラ予測部123から供給されるイントラ予測モード情報などを可逆符号化し、その結果得られる情報を圧縮画像に付加されるヘッダ情報とする。そして、処理はステップS119に進む。   In step S118, the lossless encoding unit 116 performs lossless encoding on the intra prediction mode information and the like supplied from the intra prediction unit 123, and uses the resulting information as header information added to the compressed image. Then, the process proceeds to step S119.

ステップS119において、演算部113は、画面並べ替えバッファ112から供給される画像から、選択部125から供給される予測画像を減算する。演算部113は、減算の結果得られる画像を、残差情報として直交変換部114に出力する。   In step S119, the calculation unit 113 subtracts the predicted image supplied from the selection unit 125 from the image supplied from the screen rearrangement buffer 112. The calculation unit 113 outputs an image obtained as a result of the subtraction to the orthogonal transform unit 114 as residual information.

ステップS120において、直交変換部114は、演算部113からの残差情報に対して直交変換を施し、その結果得られる係数を量子化部115に供給する。   In step S <b> 120, the orthogonal transform unit 114 performs orthogonal transform on the residual information from the calculation unit 113 and supplies the coefficient obtained as a result to the quantization unit 115.

ステップS121において、量子化部115は、直交変換部114から供給される係数を量子化する。量子化された係数は、可逆符号化部116と逆量子化部118に入力される。   In step S121, the quantization unit 115 quantizes the coefficient supplied from the orthogonal transform unit 114. The quantized coefficient is input to the lossless encoding unit 116 and the inverse quantization unit 118.

ステップS122において、可逆符号化部116は、量子化部115から供給される量子化された係数を可逆符号化し、その結果得られる情報を圧縮画像とする。そして、可逆符号化部116は、ステップS117またはS118の処理で生成されたヘッダ情報を圧縮画像に付加し、画像圧縮情報を生成する。   In step S122, the lossless encoding unit 116 performs lossless encoding on the quantized coefficient supplied from the quantization unit 115, and uses the resulting information as a compressed image. Then, the lossless encoding unit 116 adds the header information generated by the process of step S117 or S118 to the compressed image, and generates compressed image information.

図21のステップS123において、可逆符号化部116は、画像圧縮情報を蓄積バッファ117に供給し、蓄積させる。   In step S123 of FIG. 21, the lossless encoding unit 116 supplies the image compression information to the accumulation buffer 117 and accumulates it.

ステップS124において、蓄積バッファ117は、蓄積されている画像圧縮情報を、例えば、後段の図示せぬ記録装置や伝送路などに出力する。   In step S124, the storage buffer 117 outputs the stored image compression information to, for example, a recording device or transmission path (not shown) in the subsequent stage.

ステップS125において、逆量子化部118は、量子化部115から供給される量子化された係数を逆量子化する。   In step S125, the inverse quantization unit 118 inversely quantizes the quantized coefficient supplied from the quantization unit 115.

ステップS126において、逆直交変換部119は、逆量子化部118から供給される係数に対して逆直交変換を施し、その結果得られる残差情報を加算部120に供給する。   In step S <b> 126, the inverse orthogonal transform unit 119 performs inverse orthogonal transform on the coefficient supplied from the inverse quantization unit 118, and supplies residual information obtained as a result to the addition unit 120.

ステップS127において、加算部120は、逆直交変換部119から供給される残差情報と、選択部125から供給される予測画像を加算し、局部的に復号された画像を得る。加算部120は、得られた画像をデブロックフィルタ121に供給するとともに、参照画像としてイントラ予測部123に供給する。   In step S127, the addition unit 120 adds the residual information supplied from the inverse orthogonal transform unit 119 and the prediction image supplied from the selection unit 125, and obtains a locally decoded image. The adding unit 120 supplies the obtained image to the deblocking filter 121 and also supplies it to the intra prediction unit 123 as a reference image.

ステップS128において、デブロックフィルタ121は、加算部120から供給される局部的に復号された画像に対してフィルタリングを行うことにより、ブロック歪を除去する。   In step S128, the deblocking filter 121 removes block distortion by filtering the locally decoded image supplied from the adding unit 120.

ステップS129において、デブロックフィルタ121は、フィルタリング後の画像をフレームメモリ122に供給し、蓄積させる。フレームメモリ122に蓄積された画像は、参照画像として動き予測・補償部124に出力される。そして、処理は終了する。   In step S129, the deblocking filter 121 supplies the image after filtering to the frame memory 122 and accumulates it. The image stored in the frame memory 122 is output to the motion prediction / compensation unit 124 as a reference image. Then, the process ends.

[符号化処理部の他の構成例]
図23は、図2の画像処理部26の一部を構成する符号化処理部100の他の構成例を示すブロック図である。
[Another configuration example of the encoding processing unit]
FIG. 23 is a block diagram illustrating another configuration example of the encoding processing unit 100 that constitutes a part of the image processing unit 26 in FIG. 2.

図23に示す構成のうち、図19の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。   Of the configurations shown in FIG. 23, the same configurations as those in FIG. 19 are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.

図23の符号化処理部100の構成は、主に、動き予測・補償部124の代わりに動き予測・補償部141が設けられている点、および、フリッカ検出部142が新たに設けられている点が図19の構成と異なる。図23の符号化処理部100は、GOPの先頭のノンベース主カメラ画像または副カメラ画像でフリッカの発生が予測される場合、そのノンベース主カメラ画像または副カメラ画像の1つ前のノンベース主カメラ画像または副カメラ画像に対して、ベース主カメラ画像を用いた視差方向の予測を行う。   The configuration of the encoding processing unit 100 in FIG. 23 is mainly provided with a motion prediction / compensation unit 141 instead of the motion prediction / compensation unit 124, and a flicker detection unit 142 is newly provided. This is different from the configuration of FIG. When the occurrence of flicker is predicted in the first non-base main camera image or sub camera image of the GOP, the encoding processing unit 100 in FIG. 23 performs non-base one immediately before the non-base main camera image or sub camera image. The parallax direction is predicted using the base main camera image for the main camera image or the sub camera image.

具体的には、図23の符号化処理部100の動き予測・補償部141は、フリッカ検出部142から供給される、フリッカの発生が予測されるかどうかを表すフリッカ情報に基づいて、候補となる全てのインター予測モードの動き予測・補償処理を行う。より詳細には、フリッカ情報が、フリッカの発生が予測されることを表す場合、動き予測・補償部141は、フレームメモリ122から、現在の符号化対象と同一時刻のベース主カメラ画像を参照画像として読み出す。一方、フリッカ情報が、フリッカの発生が予測されないことを表す場合、動き予測・補償部141は、フレームメモリ122から動き予測・補償部124と同様の参照画像を読み出す。   Specifically, the motion prediction / compensation unit 141 of the encoding processing unit 100 in FIG. 23 determines candidates and candidates based on flicker information supplied from the flicker detection unit 142 and indicating whether or not the occurrence of flicker is predicted. Motion prediction / compensation processing is performed for all inter prediction modes. More specifically, when the flicker information indicates that occurrence of flicker is predicted, the motion prediction / compensation unit 141 refers to the base main camera image at the same time as the current encoding target from the frame memory 122 as a reference image. Read as. On the other hand, when the flicker information indicates that occurrence of flicker is not predicted, the motion prediction / compensation unit 141 reads the same reference image as the motion prediction / compensation unit 124 from the frame memory 122.

そして、動き予測・補償部141は、動き予測・補償部124と同様に、画面並べ替えバッファ112から供給される符号化対象の画像と、フレームメモリ122から読み出される参照画像に基づいて、所定のブロックごとに、候補となる全てのインター予測モードの動きベクトルを検出する。動き予測・補償部141は、動き予測・補償部124と同様に、その動きベクトルに基づいて参照画像に補償処理を施し、予測画像を生成する。   Then, similarly to the motion prediction / compensation unit 124, the motion prediction / compensation unit 141 performs a predetermined process based on the encoding target image supplied from the screen rearrangement buffer 112 and the reference image read from the frame memory 122. For each block, motion vectors of all candidate inter prediction modes are detected. Similar to the motion prediction / compensation unit 124, the motion prediction / compensation unit 141 performs a compensation process on the reference image based on the motion vector to generate a predicted image.

このとき、動き予測・補償部141は、動き予測・補償部124と同様に、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測・補償部141は、動き予測・補償部124と同様に、最適インター予測モードのコスト関数値と、対応する予測画像を選択部125に供給する。また、動き予測・補償部141は、動き予測・補償部124と同様に、選択部125から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトルや参照画像を特定する情報などを可逆符号化部116に出力する。   At this time, like the motion prediction / compensation unit 124, the motion prediction / compensation unit 141 calculates cost function values for all candidate inter prediction modes, and selects an inter prediction mode that minimizes the cost function value. Determine the optimal inter measurement mode. Then, similarly to the motion prediction / compensation unit 124, the motion prediction / compensation unit 141 supplies the cost function value in the optimal inter prediction mode and the corresponding prediction image to the selection unit 125. Similarly to the motion prediction / compensation unit 124, the motion prediction / compensation unit 141, when notified of selection of a predicted image generated in the optimal inter prediction mode from the selection unit 125, inter prediction mode information, corresponding motion Information specifying a vector or a reference image is output to the lossless encoding unit 116.

フリッカ検出部142は、予測部として機能する。具体的には、フリッカ検出部142は、画面並べ替えバッファ112から供給される符号化対象の画像を保持する。フリッカ検出部142は、符号化対象の画像がGOPの終端の副カメラ画像である場合、保持されている、GOPの終端の副カメラ画像と、その副カメラ画像より前の同一視点の副カメラ画像を用いて、そのGOPの終端の副カメラ画像より1つ後のGOPの先頭の副カメラ画像におけるフリッカの発生を予測する。   The flicker detection unit 142 functions as a prediction unit. Specifically, the flicker detection unit 142 holds the encoding target image supplied from the screen rearrangement buffer 112. When the image to be encoded is a sub camera image at the end of the GOP, the flicker detection unit 142 holds the sub camera image at the end of the GOP and the sub camera image at the same viewpoint before the sub camera image. Is used to predict the occurrence of flicker in the sub camera image at the head of the GOP that is one after the sub camera image at the end of the GOP.

例えば、フリッカ検出部142は、GOPの終端の副カメラ画像と、その副カメラ画像より前の同一視点の副カメラ画像を用いて動きを検出する。そして、その動きが比較的少ない場合、フリッカ検出部142は、そのGOPの終端の副カメラ画像より1つ後のGOPの先頭の副カメラ画像におけるフリッカの発生を予測する。同様に、フリッカ検出部142は、符号化対象の画像がGOPの終端のノンベース主カメラ画像である場合、フリッカの発生を予測する。フリッカ検出部142は、予測結果を表すフリッカ情報を、動き予測・補償部141に供給する。   For example, the flicker detection unit 142 detects motion using the sub camera image at the end of the GOP and the sub camera image at the same viewpoint before the sub camera image. If the motion is relatively small, the flicker detection unit 142 predicts the occurrence of flicker in the first sub camera image of the GOP that is one after the sub camera image at the end of the GOP. Similarly, if the image to be encoded is a non-base main camera image at the end of the GOP, the flicker detection unit 142 predicts the occurrence of flicker. The flicker detection unit 142 supplies flicker information representing the prediction result to the motion prediction / compensation unit 141.

[第2の符号化処理の概略の説明]
図24は、図23の符号化処理部100の符号化処理の概略を説明する図である。
[Description of Outline of Second Encoding Process]
FIG. 24 is a diagram for explaining the outline of the encoding process of the encoding processing unit 100 in FIG.

図24に示すように、図23の符号化処理部100の符号化処理では、図19の符号化処理部100の符号化処理と同様に、主カメラ画像と副カメラ画像それぞれのGOPの位相がずらされる。従って、GOPの先頭の副カメラ画像に対して、GOPの先頭ではないベース主カメラ画像を用いて視差方向の予測を行うことができる。   As shown in FIG. 24, in the encoding process of the encoding processing unit 100 in FIG. 23, the GOP phases of the main camera image and the sub camera image are respectively similar to the encoding process of the encoding processing unit 100 in FIG. It is shifted. Therefore, the parallax direction can be predicted using the base main camera image that is not the head of the GOP for the head sub camera image of the GOP.

また、図23の符号化処理部100の符号化処理では、GOPの先頭の副カメラ画像においてフリッカの発生が予測される。そして、フリッカの発生が予測される場合、GOPの先頭の副カメラ画像より1つ前の副カメラ画像に対して、視差方向の予測が行われる。   In addition, in the encoding process of the encoding processing unit 100 in FIG. 23, occurrence of flicker is predicted in the first sub camera image of the GOP. When the occurrence of flicker is predicted, the parallax direction is predicted for the sub camera image immediately preceding the first sub camera image of the GOP.

以上により、GOPの先頭の副カメラ画像、および、その副カメラ画像より1つ前の副カメラ画像の両方において、視差方向の予測による歪みが発生するので、GOPの先頭の副カメラ画像におけるフリッカをより軽減することができる。なお、図示は省略するが、ノンベース主カメラ画像についても、副カメラ画像と同様である。   As described above, since the distortion due to the prediction of the parallax direction occurs in both the sub camera image at the head of the GOP and the sub camera image immediately before the sub camera image, flicker in the sub camera image at the head of the GOP is reduced. It can be reduced more. Although not shown, the non-base main camera image is the same as the sub camera image.

[第2の符号化部の処理の説明]
図23の符号化処理部100の符号化処理は、動き予測・補償処理を除いて図21および図22の符号化処理と同様であるので、動き予測・補償処理についてのみ説明する。
[Description of Processing of Second Encoding Unit]
Since the encoding process of the encoding processing unit 100 in FIG. 23 is the same as the encoding process in FIGS. 21 and 22 except for the motion prediction / compensation process, only the motion prediction / compensation process will be described.

図25は、図23の符号化処理部100の動き予測・補償処理の詳細を説明するフローチャートである。   FIG. 25 is a flowchart for explaining the details of the motion prediction / compensation processing of the encoding processing unit 100 of FIG.

図25のステップS161において、フリッカ検出部142は、符号化対象の画像がノンベース主カメラ画像または副カメラ画像であるかどうかを判定する。ステップS161で符号化対象の画像がノンベース主カメラ画像または副カメラ画像であると判定された場合、フリッカ検出部142は、画面並べ替えバッファ112から供給される符号化対象の画像を保持する。   In step S161 in FIG. 25, the flicker detection unit 142 determines whether the image to be encoded is a non-base main camera image or a sub camera image. If it is determined in step S161 that the encoding target image is a non-base main camera image or a sub camera image, the flicker detection unit 142 holds the encoding target image supplied from the screen rearrangement buffer 112.

そして、ステップS162において、フリッカ検出部142は、符号化対象の画像がGOPの先頭のノンベース主カメラ画像または副カメラ画像であるかどうかを判定する。ステップS162で符号化対象の画像がGOPの先頭のノンベース主カメラ画像および副カメラ画像ではないと判定された場合、ステップS163において、フリッカ検出部142は、符号化対象の画像がGOPの終端のノンベース主カメラ画像または副カメラ画像であるかどうかを判定する。   In step S162, the flicker detection unit 142 determines whether the encoding target image is the first non-base main camera image or sub camera image of the GOP. If it is determined in step S162 that the image to be encoded is not the first non-base main camera image or sub camera image of the GOP, in step S163, the flicker detection unit 142 determines that the image to be encoded is the end of the GOP. It is determined whether it is a non-base main camera image or a sub camera image.

ステップS163で符号化対象の画像がGOPの終端のノンベース主カメラ画像または副カメラ画像であると判定された場合、フリッカ検出部142は、画面並べ替えバッファ112から供給される符号化対象の画像を保持し、処理をステップS164に進める。   When it is determined in step S163 that the encoding target image is a non-base main camera image or sub camera image at the end of the GOP, the flicker detection unit 142 supplies the encoding target image supplied from the screen rearrangement buffer 112. Is held, and the process proceeds to step S164.

ステップS164において、フリッカ検出部142は、保持している符号化対象の画像と、その画像より1つ前の同一視点のノンベース主カメラ画像または副カメラ画像を用いて、符号化対象の画像より1つ後のGOPの先頭のノンベース主カメラ画像または副カメラ画像でフリッカが発生するかどうかを判定する。   In step S164, the flicker detection unit 142 uses the held image to be encoded and the non-base main camera image or sub-camera image of the same viewpoint immediately before that image, from the image to be encoded. It is determined whether or not flicker occurs in the first non-base main camera image or sub camera image of the next GOP.

ステップS164でフリッカが発生すると判定された場合、フリッカ検出部142は、フリッカの発生が予測されることを表すフリッカ情報を動き予測・補償部141に供給し、処理をステップS165に進める。   If it is determined in step S164 that flicker occurs, the flicker detection unit 142 supplies flicker information indicating that the occurrence of flicker is predicted to the motion prediction / compensation unit 141, and the process proceeds to step S165.

一方、ステップS162で符号化対象の画像がGOPの先頭のノンベース主カメラ画像または副カメラ画像であると判定された場合、処理はステップS165に進む。   On the other hand, if it is determined in step S162 that the image to be encoded is the first non-base main camera image or sub camera image of the GOP, the process proceeds to step S165.

ステップS165において、動き予測・補償部141は、フレームメモリ122から符号化対象の画像と同一時刻のベース主カメラ画像を参照画像として読み出し、処理をステップS169に進める。   In step S165, the motion prediction / compensation unit 141 reads the base main camera image at the same time as the encoding target image from the frame memory 122 as a reference image, and the process proceeds to step S169.

一方、ステップS163で符号化対象の画像がGOPの終端のノンベース主カメラ画像または副カメラ画像ではないと判定された場合、即ち、符号化対象の画像がGOPの先頭および終端以外のノンベース主カメラ画像または副カメラ画像である場合、処理はステップS166に進む。   On the other hand, if it is determined in step S163 that the image to be encoded is not the non-base main camera image or the sub camera image at the end of the GOP, that is, the image to be encoded is a non-base main image other than the beginning and end of the GOP. If it is a camera image or sub camera image, the process proceeds to step S166.

ステップS166において、動き予測・補償部141は、フレームメモリ122から符号化対象の画像と同一時刻のベース主カメラ画像および異なる時刻の同一視点のノンベース主カメラ画像または副カメラ画像を読み出し、処理をステップS169に進める。   In step S166, the motion prediction / compensation unit 141 reads the base main camera image at the same time as the encoding target image and the non-base main camera image or the sub camera image at the same viewpoint at different times from the frame memory 122, and performs processing. Proceed to step S169.

また、ステップS161で符号化対象の画像がノンベース主カメラ画像または副カメラ画像ではないと判定された場合、即ち符号化対象の画像がベース主カメラ画像である場合、処理はステップS167に進む。ステップS167において、動き予測・補償部141は、符号化対象の画像がGOPの先頭のベース主カメラ画像であるかどうかを判定する。   If it is determined in step S161 that the image to be encoded is not a non-base main camera image or a sub camera image, that is, if the image to be encoded is a base main camera image, the process proceeds to step S167. In step S167, the motion prediction / compensation unit 141 determines whether the encoding target image is the first base main camera image of the GOP.

ステップS167で符号化対象の画像がGOPの先頭のベース主カメラ画像ではないと判定された場合、即ち、符号化対象の画像がGOPの先頭以外のベース主カメラ画像である場合、処理はステップS168に進む。ステップS168において、動き予測・補償部141は、異なる時刻のベース主カメラ画像を参照画像として読み出し、処理をステップS169に進める。   If it is determined in step S167 that the image to be encoded is not the first base main camera image of the GOP, that is, if the image to be encoded is a base main camera image other than the beginning of the GOP, the process proceeds to step S168. Proceed to In step S168, the motion prediction / compensation unit 141 reads the base main camera image at a different time as a reference image, and the process proceeds to step S169.

ステップS169において、動き予測・補償部141は、画面並べ替えバッファ112から供給される符号化対象の画像と、フレームメモリ122から読み出される参照画像に基づいて、候補となる全てのインター予測モードの予測画像を生成する。このとき、動き予測・補償部141は、候補となる全てのインター予測モードに対してコスト関数値を算出する。   In step S169, the motion prediction / compensation unit 141 predicts all candidate inter prediction modes based on the encoding target image supplied from the screen rearrangement buffer 112 and the reference image read from the frame memory 122. Generate an image. At this time, the motion prediction / compensation unit 141 calculates cost function values for all candidate inter prediction modes.

ステップS170において、動き予測・補償部141は、候補となる全てのインター予測モードに対するコスト関数値の最小値に対応するインター予測モードを最適インター予測モードに決定し、処理を終了する。   In step S170, the motion prediction / compensation unit 141 determines the inter prediction mode corresponding to the minimum value of the cost function value for all candidate inter prediction modes as the optimal inter prediction mode, and ends the process.

一方、ステップS167で符号化対象の画像がGOPの先頭のベース主カメラ画像であると判定された場合、処理は終了する。   On the other hand, if it is determined in step S167 that the image to be encoded is the first base main camera image of the GOP, the process ends.

なお、図23の符号化処理部100は、フリッカを軽減するように符号化処理を行ったが、通常の符号化処理を行い、フリッカ情報を復号装置に伝送するようにしてもよい。この場合、復号装置において、フリッカ情報に基づいてフリッカを軽減する処理が行われる。   Note that the encoding processing unit 100 in FIG. 23 performs the encoding processing so as to reduce flicker, but may perform normal encoding processing and transmit the flicker information to the decoding device. In this case, the decoding device performs a process of reducing flicker based on the flicker information.

また、図23の符号化処理部100は、マクロブロック単位でフリッカの発生を予測するようにしてもよい。この場合、図25のステップS164乃至S166の処理がマクロブロック単位で行われる。   Also, the encoding processing unit 100 in FIG. 23 may predict the occurrence of flicker on a macroblock basis. In this case, the processes in steps S164 to S166 in FIG. 25 are performed in units of macroblocks.

さらに、図23の符号化処理部100は、各副カメラ画像を用いて各副カメラ画像のフリッカの発生を予測したが、主カメラ画像を用いて各副カメラ画像のフリッカの発生を予測してもよい。また、図23の符号化処理部100は、フリッカの発生を予測した場合、GOPの先頭のノンベース主カメラ画像または副カメラ画像より1つ前のノンベース主カメラ画像または副カメラ画像に対して、視差方向の予測を行ったが、GOPの先頭のノンベース主カメラ画像または副カメラ画像より前の複数のノンベース主カメラ画像または副カメラ画像に対して、視差方向の予測を行うようにしてもよい。   23 predicts the occurrence of flicker in each sub camera image using each sub camera image, but predicts the occurrence of flicker in each sub camera image using the main camera image. Also good. When the occurrence of flicker is predicted, the encoding processing unit 100 in FIG. 23 applies to the non-base main camera image or the sub-camera image one before the first non-base main camera image or the sub-camera image of the GOP. The parallax direction is predicted, but the parallax direction is predicted for a plurality of non-base main camera images or sub-camera images before the first non-base main camera image or sub-camera image of the GOP. Also good.

また、上述した図19や図23符号化処理部100では、主カメラ画像と副カメラ画像の解像度が同一であるものとしたが、主カメラ画像と副カメラ画像の解像度は異なるようにしてもよい。また、時間方向のインター予測のみを行う画像を可変にし、副カメラ画像を用いて主カメラ画像の両方のフリッカも軽減するようにしてもよい。   Further, in the encoding processing unit 100 in FIG. 19 and FIG. 23 described above, the resolutions of the main camera image and the sub camera image are the same, but the resolutions of the main camera image and the sub camera image may be different. . Further, it is also possible to change the image for which only inter prediction in the time direction is made variable, and to reduce both flickers of the main camera image using the sub camera image.

[本技術を適用したコンピュータの説明]
次に、上述した一連の少なくとも一部の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
[Description of computer to which this technology is applied]
Next, at least a part of the series of processes described above can be performed by hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図26は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 26 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としての記憶部209やROM(Read Only Memory)202に予め記録しておくことができる。   The program can be recorded in advance in a storage unit 209 or a ROM (Read Only Memory) 202 as a recording medium built in the computer.

あるいはまた、プログラムは、リムーバブルメディア212に格納(記録)しておくことができる。このようなリムーバブルメディア212は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア212としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。   Alternatively, the program can be stored (recorded) in the removable medium 212. Such a removable medium 212 can be provided as so-called package software. Here, examples of the removable medium 212 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.

なお、プログラムは、上述したようなリムーバブルメディア212からドライブ211を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部209にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。   The program can be installed in the computer from the removable medium 212 as described above via the drive 211, or can be downloaded to the computer via the communication network or the broadcast network and installed in the built-in storage unit 209. That is, for example, the program is wirelessly transferred from a download site to a computer via a digital satellite broadcasting artificial satellite, or wired to a computer via a network such as a LAN (Local Area Network) or the Internet. be able to.

コンピュータは、CPU(Central Processing Unit)201を内蔵しており、CPU201には、バス204を介して、入出力インタフェース205が接続されている。   The computer includes a CPU (Central Processing Unit) 201, and an input / output interface 205 is connected to the CPU 201 via a bus 204.

CPU201は、入出力インタフェース205を介して、ユーザによって、入力部207が操作等されることにより指令が入力されると、それに従って、ROM202に格納されているプログラムを実行する。あるいは、CPU201は、記憶部209に格納されたプログラムを、RAM(Random Access Memory)203にロードして実行する。   When a command is input by the user operating the input unit 207 or the like via the input / output interface 205, the CPU 201 executes a program stored in the ROM 202 accordingly. Alternatively, the CPU 201 loads a program stored in the storage unit 209 into a RAM (Random Access Memory) 203 and executes it.

これにより、CPU201は、撮影部206により撮影された画像等に対する上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース205を介して、出力部208から出力、あるいは、通信部210から送信、さらには、記憶部209に記録等させる。   Accordingly, the CPU 201 performs processing according to the above-described flowchart for the image captured by the imaging unit 206 or processing performed by the configuration of the above-described block diagram. Then, the CPU 201 outputs the processing result as necessary, for example, via the input / output interface 205, from the output unit 208, or from the communication unit 210, and further recorded in the storage unit 209.

なお、入力部207は、キーボードや、マウス、マイク等で構成される。また、出力部208は、LCD(Liquid Crystal Display)やスピーカ等で構成される。   The input unit 207 includes a keyboard, a mouse, a microphone, and the like. The output unit 208 includes an LCD (Liquid Crystal Display), a speaker, and the like.

ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。   Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in time series in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).

また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by one computer (processor) or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

なお、本技術は、以下のような構成もとることができる。
(1)
3D画像を構成する2視点の画像を撮影する2視点撮影部と、
動作モードを決定する動作モード決定部と、
前記動作モード決定部により決定された前記動作モードを送信する送信部と
を備える
主の画像処理装置と、
前記送信部により送信された前記動作モードを受信する受信部と、
所定の1視点の画像を撮影する1視点撮影部と、
前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部と
を備える
副の画像処理装置と
を備える画像処理システム。
(2)
4個の前記副の画像処理装置を備え、
4個の前記副の画像処理装置の前記移動制御部は、前記所定の1視点が、それぞれ、前記2視点の一方の視点の上、下、他方の視点の上、下で上下方向に移動するように、前記副の画像処理装置を移動させる
前記(1)に記載の画像処理システム。
(3)
前記1視点撮影部により撮影された前記所定の1視点の画像に対して画像処理を行う1視点画像処理部と、
前記2視点撮影部により撮影された前記2視点の画像に対して画像処理を行う2視点画像処理部と
をさらに備え、
前記1視点画像処理部は、前記2視点画像処理部により検出された前記2視点の画像の動きボケ量に基づいて、前記所定の1視点の画像に対して動きボケ補償処理を行う
前記(1)または(2)に記載の画像処理システム。
(4)
前記1視点画像処理部は、動きボケ補償処理後の前記所定の1視点の画像に対してフレーム補間処理を行う
前記(3)に記載の画像処理システム。
(5)
前記2視点撮影部により撮影された前記2視点の画像に対して画像処理を行う2視点画像処理部
をさらに備え、
前記移動制御部は、前記第1視点撮影部が、前記2視点画像処理部による画像処理の結果検出された注目点を撮影可能な位置に移動させる
前記(1)または(2)に記載の画像処理システム。
(6)
2個以上の前記副の画像処理装置を備え、
2個の前記副の画像処理装置の前記移動制御部は、前記所定の1視点が、それぞれ、前記2視点のうちの左側の視点の左、右側の視点の右で左右方向に移動するように、前記副の画像処理装置を移動させる
前記(1)、(2)、または(5)に記載の画像処理システム。
(7)
前記主の画像処理装置は、
前記画像処理システムの撮影モードを決定する撮影モード決定部
をさらに備え、
前記2視点撮影部は、前記撮影モードに対応する撮影に関するパラメータの値に基づいて、前記2視点の画像を撮影し、
前記送信部は、前記動作モードと前記撮影モードを送信し、
前記受信部は、前記動作モードと前記撮影モードを受信し、
前記第1視点撮影部は、前記受信部により受信された前記撮影モードに対応する、前記2視点撮影部における値とは異なる、前記撮影に関するパラメータの値に基づいて、前記所定の1視点の画像を撮影する
前記(1)乃至(6)のいずれかに記載の画像処理システム。
(8)
前記2視点撮影部により撮影された前記2視点の画像と、前記1視点撮影部により撮影された前記所定の1視点の画像とを、前記2視点の画像と前記所定の1視点の画像のGOP(Group Of Pictures)の位相がずれるように符号化する符号化部
をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理システム。
(9)
前記1視点撮影部により撮影された前記所定の1視点の画像において、フリッカの発生を予測する予測部
をさらに備え、
前記符号化部は、前記予測部によりフリッカの発生が予測された場合、フリッカの発生が予測された画像に対応するGOPの先頭より前の所定数の画像に対するインター予測において、視差方向の予測を行う
前記(8)に記載の画像処理システム。
(10)
前記1視点撮影部により撮影された前記所定の1視点の画像に対して画像処理を行う1視点画像処理部
をさらに備え、
前記送信部は、さらに、前記第2視点撮影部により撮影された前記2視点の画像を送信し、
前記受信部は、さらに、前記送信部により送信された前記2視点の画像を受信し、
前記1視点画像処理部は、前記受信部により受信された前記2視点の画像に基づいて選択された方法で、前記所定の1視点の画像を高解像度化する
前記(1)、(2)、または(5)乃至(9)のいずれかに記載の画像処理システム。
(11)
前記1視点画像処理部は、前記2視点の画像および前記動作モードに基づいて選択された方法で、前記所定の1視点の画像を高解像度化する
前記(10)に記載の画像処理システム。
(12)
画像処理システムの3D画像を構成する2視点の画像を撮影する2視点撮影部を備える主の画像処理装置が、
動作モードを決定する動作モード決定ステップと、
前記動作モード決定ステップの処理により決定された前記動作モードを送信する送信ステップと
を含み、
所定の1視点の画像を撮影する1視点撮影部を備える副の画像処理装置が、
前記送信ステップの処理により送信された前記動作モードを受信する受信ステップと、
前記受信ステップの処理により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御ステップと
を含む
画像処理方法。
(13)
3D画像を構成する2視点の画像を撮影する2視点撮影部と、
動作モードを決定する動作モード決定部と、
前記動作モード決定部により決定された前記動作モードを送信する送信部と
を備える画像処理装置。
(14)
画像処理装置が、
3D画像を構成する2視点の画像を撮影する2視点撮影ステップと、
動作モードを決定する動作モード決定ステップと、
前記動作モード決定ステップの処理により決定された前記動作モードを送信する送信ステップと
を含む画像処理方法。
(15)
動作モードを受信する受信部と、
所定の1視点の画像を撮影する1視点撮影部と、
前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部と
を備える画像処理装置。
(16)
所定の1視点の画像を撮影する1視点撮影部を備える画像処理装置が、
動作モードを受信する受信ステップと、
前記受信ステップの処理により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御ステップと
を含む画像処理方法。
In addition, this technique can also take the following structures.
(1)
A two-viewpoint photographing unit for photographing two-viewpoint images constituting a 3D image;
An operation mode determination unit for determining an operation mode;
A main image processing apparatus comprising: a transmission unit that transmits the operation mode determined by the operation mode determination unit;
A receiver for receiving the operation mode transmitted by the transmitter;
A one-viewpoint photographing unit for photographing an image of a predetermined one viewpoint;
An image processing system comprising: a secondary image processing apparatus comprising: a movement control unit that moves the one-viewpoint imaging unit according to the operation mode received by the reception unit.
(2)
Comprising four sub image processing devices,
The movement control unit of the four sub image processing apparatuses moves the predetermined one viewpoint in the vertical direction above, below, and above and below one of the two viewpoints. The image processing system according to (1), wherein the secondary image processing apparatus is moved.
(3)
A one-viewpoint image processing unit that performs image processing on the image of the predetermined one viewpoint captured by the one-viewpoint photographing unit;
A two-viewpoint image processing unit that performs image processing on the two-viewpoint image captured by the two-viewpoint capturing unit;
The one-viewpoint image processing unit performs a motion blur compensation process on the predetermined one-viewpoint image based on a motion blur amount of the two-viewpoint image detected by the two-viewpoint image processing unit. Or the image processing system according to (2).
(4)
The image processing system according to (3), wherein the one-viewpoint image processing unit performs a frame interpolation process on the predetermined one-viewpoint image after the motion blur compensation process.
(5)
A two-viewpoint image processing unit that performs image processing on the two-viewpoint image captured by the two-viewpoint capturing unit;
The image according to (1) or (2), wherein the movement control unit causes the first viewpoint photographing unit to move an attention point detected as a result of image processing by the two-viewpoint image processing unit to a position where photographing is possible. Processing system.
(6)
Comprising two or more sub-image processing devices,
The movement control units of the two sub image processing devices move the predetermined one viewpoint in the left-right direction on the left of the left viewpoint and the right of the right viewpoint of the two viewpoints, respectively. The image processing system according to (1), (2), or (5), wherein the sub image processing apparatus is moved.
(7)
The main image processing apparatus includes:
A shooting mode determining unit for determining a shooting mode of the image processing system;
The two-viewpoint photographing unit photographs the two-viewpoint image based on a value of a parameter relating to photographing corresponding to the photographing mode,
The transmission unit transmits the operation mode and the shooting mode,
The receiving unit receives the operation mode and the shooting mode,
The first viewpoint photographing unit is configured to generate an image of the predetermined one viewpoint based on a value of the shooting-related parameter that is different from a value in the two-viewpoint photographing unit corresponding to the photographing mode received by the receiving unit. The image processing system according to any one of (1) to (6).
(8)
The two-viewpoint image captured by the two-viewpoint capturing unit and the predetermined one-viewpoint image captured by the one-viewpoint capturing unit are converted into a GOP of the two-viewpoint image and the predetermined one-viewpoint image. The image processing system according to any one of (1) to (7), further including: an encoding unit that performs encoding so that a phase of (Group Of Pictures) is shifted.
(9)
A prediction unit that predicts occurrence of flicker in the image of the predetermined one viewpoint captured by the one-viewpoint imaging unit;
When the prediction unit predicts occurrence of flicker, the encoding unit performs prediction of a parallax direction in inter prediction for a predetermined number of images before the head of a GOP corresponding to an image for which occurrence of flicker is predicted. Perform The image processing system according to (8).
(10)
A one-viewpoint image processing unit that performs image processing on the predetermined one-viewpoint image captured by the one-viewpoint capturing unit;
The transmission unit further transmits the image of the two viewpoints photographed by the second viewpoint photographing unit,
The receiving unit further receives the image of the two viewpoints transmitted by the transmitting unit,
The one-viewpoint image processing unit increases the resolution of the predetermined one-viewpoint image by a method selected based on the two-viewpoint image received by the receiving unit (1), (2), Or the image processing system in any one of (5) thru | or (9).
(11)
The image processing system according to (10), wherein the one-viewpoint image processing unit increases the resolution of the predetermined one-viewpoint image by a method selected based on the two-viewpoint image and the operation mode.
(12)
A main image processing apparatus including a two-viewpoint photographing unit that photographs two-viewpoint images constituting a 3D image of the image processing system,
An operation mode determining step for determining an operation mode;
Transmitting the operation mode determined by the processing of the operation mode determination step, and
A secondary image processing apparatus including a one-viewpoint photographing unit that photographs a predetermined one-viewpoint image,
A reception step of receiving the operation mode transmitted by the processing of the transmission step;
A movement control step of moving the one-viewpoint imaging unit according to the operation mode received by the processing of the reception step.
(13)
A two-viewpoint photographing unit for photographing two-viewpoint images constituting a 3D image;
An operation mode determination unit for determining an operation mode;
An image processing apparatus comprising: a transmission unit that transmits the operation mode determined by the operation mode determination unit.
(14)
The image processing device
A two-viewpoint photographing step for photographing a two-viewpoint image constituting a 3D image;
An operation mode determining step for determining an operation mode;
A transmission step of transmitting the operation mode determined by the processing of the operation mode determination step.
(15)
A receiver for receiving the operation mode;
A one-viewpoint photographing unit for photographing an image of a predetermined one viewpoint;
An image processing apparatus comprising: a movement control unit that moves the one-viewpoint imaging unit according to the operation mode received by the reception unit.
(16)
An image processing apparatus including a one-viewpoint photographing unit that photographs a predetermined one-viewpoint image,
A receiving step for receiving the operation mode;
A movement control step of moving the one-viewpoint imaging unit according to the operation mode received by the processing of the reception step.

10 画像処理システム, 11 主カメラ装置, 12 副カメラ装置, 22 動作モード決定部, 23 送信部, 24 撮影モード決定部, 25 撮影部, 26 画像処理部, 41 撮影部, 43 受信部, 44 移動制御部, 45 画像処理部, 62 動きボケ補償部, 63 補間部, 80 解像度補間処理部, 82乃至84 高解像度化部, 100 符号化処理部, 142 フリッカ検出部   DESCRIPTION OF SYMBOLS 10 Image processing system, 11 Main camera apparatus, 12 Sub camera apparatus, 22 Operation mode determination part, 23 Transmission part, 24 Shooting mode determination part, 25 Shooting part, 26 Image processing part, 41 Shooting part, 43 Reception part, 44 Movement Control unit, 45 image processing unit, 62 motion blur compensation unit, 63 interpolation unit, 80 resolution interpolation processing unit, 82 to 84 high resolution unit, 100 encoding processing unit, 142 flicker detection unit

Claims (16)

3D画像を構成する2視点の画像を撮影する2視点撮影部と、
動作モードを決定する動作モード決定部と、
前記動作モード決定部により決定された前記動作モードを送信する送信部と
を備える
主の画像処理装置と、
前記送信部により送信された前記動作モードを受信する受信部と、
所定の1視点の画像を撮影する1視点撮影部と、
前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部と
を備える
副の画像処理装置と
を備える画像処理システム。
A two-viewpoint photographing unit for photographing two-viewpoint images constituting a 3D image;
An operation mode determination unit for determining an operation mode;
A main image processing apparatus comprising: a transmission unit that transmits the operation mode determined by the operation mode determination unit;
A receiver for receiving the operation mode transmitted by the transmitter;
A one-viewpoint photographing unit for photographing an image of a predetermined one viewpoint;
An image processing system comprising: a secondary image processing apparatus comprising: a movement control unit that moves the one-viewpoint imaging unit according to the operation mode received by the reception unit.
4個の前記副の画像処理装置を備え、
4個の前記副の画像処理装置の前記移動制御部は、前記所定の1視点が、それぞれ、前記2視点の一方の視点の上、下、他方の視点の上、下で上下方向に移動するように、前記副の画像処理装置を移動させる
請求項1に記載の画像処理システム。
Comprising four sub image processing devices,
The movement control unit of the four sub image processing apparatuses moves the predetermined one viewpoint in the vertical direction above, below, and above and below one of the two viewpoints. The image processing system according to claim 1, wherein the secondary image processing apparatus is moved as described above.
前記1視点撮影部により撮影された前記所定の1視点の画像に対して画像処理を行う1視点画像処理部と、
前記2視点撮影部により撮影された前記2視点の画像に対して画像処理を行う2視点画像処理部と
をさらに備え、
前記1視点画像処理部は、前記2視点画像処理部により検出された前記2視点の画像の動きボケ量に基づいて、前記所定の1視点の画像に対して動きボケ補償処理を行う
請求項1に記載の画像処理システム。
A one-viewpoint image processing unit that performs image processing on the image of the predetermined one viewpoint captured by the one-viewpoint photographing unit;
A two-viewpoint image processing unit that performs image processing on the two-viewpoint image captured by the two-viewpoint capturing unit;
The one-viewpoint image processing unit performs a motion blur compensation process on the predetermined one-viewpoint image based on a motion blur amount of the two-viewpoint image detected by the two-viewpoint image processing unit. The image processing system described in 1.
前記1視点画像処理部は、動きボケ補償処理後の前記所定の1視点の画像に対してフレーム補間処理を行う
請求項3に記載の画像処理システム。
The image processing system according to claim 3, wherein the one-viewpoint image processing unit performs a frame interpolation process on the predetermined one-viewpoint image after the motion blur compensation process.
前記2視点撮影部により撮影された前記2視点の画像に対して画像処理を行う2視点画像処理部
をさらに備え、
前記移動制御部は、前記第1視点撮影部が、前記2視点画像処理部による画像処理の結果検出された注目点を撮影可能な位置に移動させる
請求項1に記載の画像処理システム。
A two-viewpoint image processing unit that performs image processing on the two-viewpoint image captured by the two-viewpoint capturing unit;
The image processing system according to claim 1, wherein the movement control unit moves the point of interest detected as a result of image processing by the two-viewpoint image processing unit to a position where the first viewpoint photographing unit can shoot.
2個以上の前記副の画像処理装置を備え、
2個の前記副の画像処理装置の前記移動制御部は、前記所定の1視点が、それぞれ、前記2視点のうちの左側の視点の左、右側の視点の右で左右方向に移動するように、前記副の画像処理装置を移動させる
請求項1に記載の画像処理システム。
Comprising two or more sub-image processing devices,
The movement control units of the two sub image processing devices move the predetermined one viewpoint in the left-right direction on the left of the left viewpoint and the right of the right viewpoint of the two viewpoints, respectively. The image processing system according to claim 1, wherein the sub image processing apparatus is moved.
前記主の画像処理装置は、
前記画像処理システムの撮影モードを決定する撮影モード決定部
をさらに備え、
前記2視点撮影部は、前記撮影モードに対応する撮影に関するパラメータの値に基づいて、前記2視点の画像を撮影し、
前記送信部は、前記動作モードと前記撮影モードを送信し、
前記受信部は、前記動作モードと前記撮影モードを受信し、
前記第1視点撮影部は、前記受信部により受信された前記撮影モードに対応する、前記2視点撮影部における値とは異なる、前記撮影に関するパラメータの値に基づいて、前記所定の1視点の画像を撮影する
請求項1に記載の画像処理システム。
The main image processing apparatus includes:
A shooting mode determining unit for determining a shooting mode of the image processing system;
The two-viewpoint photographing unit photographs the two-viewpoint image based on a value of a parameter relating to photographing corresponding to the photographing mode,
The transmission unit transmits the operation mode and the shooting mode,
The receiving unit receives the operation mode and the shooting mode,
The first viewpoint photographing unit is configured to generate an image of the predetermined one viewpoint based on a value of the shooting-related parameter that is different from a value in the two-viewpoint photographing unit corresponding to the photographing mode received by the receiving unit. The image processing system according to claim 1.
前記2視点撮影部により撮影された前記2視点の画像と、前記1視点撮影部により撮影された前記所定の1視点の画像とを、前記2視点の画像と前記所定の1視点の画像のGOP(Group Of Pictures)の位相がずれるように符号化する符号化部
をさらに備える
請求項1に記載の画像処理システム。
The two-viewpoint image captured by the two-viewpoint capturing unit and the predetermined one-viewpoint image captured by the one-viewpoint capturing unit are converted into a GOP of the two-viewpoint image and the predetermined one-viewpoint image. The image processing system according to claim 1, further comprising: an encoding unit that performs encoding so that a phase of (Group Of Pictures) is shifted.
前記1視点撮影部により撮影された前記所定の1視点の画像におけるフリッカの発生を予測する予測部
をさらに備え、
前記符号化部は、前記予測部によりフリッカの発生が予測された場合、フリッカの発生が予測された画像に対応するGOPの先頭より前の所定数の画像に対するインター予測において、視差方向の予測を行う
請求項8に記載の画像処理システム。
A prediction unit that predicts occurrence of flicker in the image of the predetermined one viewpoint captured by the one-viewpoint imaging unit;
When the prediction unit predicts occurrence of flicker, the encoding unit performs prediction of a parallax direction in inter prediction for a predetermined number of images before the head of a GOP corresponding to an image for which occurrence of flicker is predicted. The image processing system according to claim 8.
前記1視点撮影部により撮影された前記所定の1視点の画像に対して画像処理を行う1視点画像処理部
をさらに備え、
前記送信部は、さらに、前記第2視点撮影部により撮影された前記2視点の画像を送信し、
前記受信部は、さらに、前記送信部により送信された前記2視点の画像を受信し、
前記1視点画像処理部は、前記受信部により受信された前記2視点の画像に基づいて選択された方法で、前記所定の1視点の画像を高解像度化する
請求項1に記載の画像処理システム。
A one-viewpoint image processing unit that performs image processing on the predetermined one-viewpoint image captured by the one-viewpoint capturing unit;
The transmission unit further transmits the image of the two viewpoints photographed by the second viewpoint photographing unit,
The receiving unit further receives the image of the two viewpoints transmitted by the transmitting unit,
The image processing system according to claim 1, wherein the one-viewpoint image processing unit increases the resolution of the predetermined one-viewpoint image by a method selected based on the two-viewpoint image received by the receiving unit. .
前記1視点画像処理部は、前記2視点の画像および前記動作モードに基づいて選択された方法で、前記所定の1視点の画像を高解像度化する
請求項10に記載の画像処理システム。
The image processing system according to claim 10, wherein the one-viewpoint image processing unit increases the resolution of the predetermined one-viewpoint image by a method selected based on the two-viewpoint image and the operation mode.
画像処理システムの3D画像を構成する2視点の画像を撮影する2視点撮影部を備える主の画像処理装置が、
動作モードを決定する動作モード決定ステップと、
前記動作モード決定ステップの処理により決定された前記動作モードを送信する送信ステップと
を含み、
所定の1視点の画像を撮影する1視点撮影部を備える副の画像処理装置が、
前記送信ステップの処理により送信された前記動作モードを受信する受信ステップと、
前記受信ステップの処理により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御ステップと
を含む
画像処理方法。
A main image processing apparatus including a two-viewpoint photographing unit that photographs two-viewpoint images constituting a 3D image of the image processing system,
An operation mode determining step for determining an operation mode;
Transmitting the operation mode determined by the processing of the operation mode determination step, and
A secondary image processing apparatus including a one-viewpoint photographing unit that photographs a predetermined one-viewpoint image,
A reception step of receiving the operation mode transmitted by the processing of the transmission step;
A movement control step of moving the one-viewpoint imaging unit according to the operation mode received by the processing of the reception step.
3D画像を構成する2視点の画像を撮影する2視点撮影部と、
動作モードを決定する動作モード決定部と、
前記動作モード決定部により決定された前記動作モードを送信する送信部と
を備える画像処理装置。
A two-viewpoint photographing unit for photographing two-viewpoint images constituting a 3D image;
An operation mode determination unit for determining an operation mode;
An image processing apparatus comprising: a transmission unit that transmits the operation mode determined by the operation mode determination unit.
画像処理装置が、
3D画像を構成する2視点の画像を撮影する2視点撮影ステップと、
動作モードを決定する動作モード決定ステップと、
前記動作モード決定ステップの処理により決定された前記動作モードを送信する送信ステップと
を含む画像処理方法。
The image processing device
A two-viewpoint photographing step for photographing a two-viewpoint image constituting a 3D image;
An operation mode determining step for determining an operation mode;
A transmission step of transmitting the operation mode determined by the processing of the operation mode determination step.
動作モードを受信する受信部と、
所定の1視点の画像を撮影する1視点撮影部と、
前記受信部により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御部と
を備える画像処理装置。
A receiver for receiving the operation mode;
A one-viewpoint photographing unit for photographing an image of a predetermined one viewpoint;
An image processing apparatus comprising: a movement control unit that moves the one-viewpoint imaging unit according to the operation mode received by the reception unit.
所定の1視点の画像を撮影する1視点撮影部を備える画像処理装置が、
動作モードを受信する受信ステップと、
前記受信ステップの処理により受信された前記動作モードに応じて前記1視点撮影部を移動させる移動制御ステップと
を含む画像処理方法。
An image processing apparatus including a one-viewpoint photographing unit that photographs a predetermined one-viewpoint image,
A receiving step for receiving the operation mode;
A movement control step of moving the one-viewpoint imaging unit according to the operation mode received by the processing of the reception step.
JP2011076190A 2011-03-30 2011-03-30 Image processing system, image processing device, and image processing method Withdrawn JP2012212952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076190A JP2012212952A (en) 2011-03-30 2011-03-30 Image processing system, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076190A JP2012212952A (en) 2011-03-30 2011-03-30 Image processing system, image processing device, and image processing method

Publications (1)

Publication Number Publication Date
JP2012212952A true JP2012212952A (en) 2012-11-01

Family

ID=47266594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076190A Withdrawn JP2012212952A (en) 2011-03-30 2011-03-30 Image processing system, image processing device, and image processing method

Country Status (1)

Country Link
JP (1) JP2012212952A (en)

Similar Documents

Publication Publication Date Title
US10412413B2 (en) Image processing device and image processing method
JP6687015B2 (en) Image processing apparatus and image processing method
WO2016140083A1 (en) Image processing device and image processing method
US11758179B2 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
JP7279154B2 (en) Motion vector prediction method and apparatus based on affine motion model
KR20130053452A (en) Calculating disparity for three-dimensional images
JP2012257198A (en) Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
JP6648753B2 (en) Image encoding apparatus and method
JP6039178B2 (en) Image encoding apparatus, image decoding apparatus, method and program thereof
JP6307152B2 (en) Image encoding apparatus and method, image decoding apparatus and method, and program thereof
JP7303894B2 (en) Encoders, decoders and corresponding inter-prediction methods
WO2012042895A1 (en) Three-dimensional video encoding apparatus, three-dimensional video capturing apparatus, and three-dimensional video encoding method
JP4944046B2 (en) Video encoding method, decoding method, encoding device, decoding device, program thereof, and computer-readable recording medium
JP5869839B2 (en) Image processing apparatus and control method thereof
JP2013258577A (en) Imaging device, imaging method and program, image encoding device, and image encoding method and program
JP2012212952A (en) Image processing system, image processing device, and image processing method
JP2014241507A (en) Image processing apparatus, method and program, and imaging apparatus
JP5815326B2 (en) Video decoding device and image display device
JP7417388B2 (en) Encoding device, decoding device, and program
JP2012178818A (en) Video encoder and video encoding method
JP2017060008A (en) Multi-viewpoint image encoding device, and multi-viewpoint image encoding method, and program
JP5750191B2 (en) Image decoding method
JP2017055425A (en) Image encoding method, image decoding method and recording medium
JP2019087827A (en) Encoding device, image processing device, and image processing method
JP2015186052A (en) Stereoscopic video encoding device and stereoscopic video encoding method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603