JP2021061504A - Imaging apparatus, image display apparatus, image generation apparatus, and image generation program - Google Patents

Imaging apparatus, image display apparatus, image generation apparatus, and image generation program Download PDF

Info

Publication number
JP2021061504A
JP2021061504A JP2019183914A JP2019183914A JP2021061504A JP 2021061504 A JP2021061504 A JP 2021061504A JP 2019183914 A JP2019183914 A JP 2019183914A JP 2019183914 A JP2019183914 A JP 2019183914A JP 2021061504 A JP2021061504 A JP 2021061504A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
viewed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019183914A
Other languages
Japanese (ja)
Inventor
静二 ▲高▼野
静二 ▲高▼野
Seiji Takano
康雄 木次
Yasuo Kitsugi
康雄 木次
泰正 中島
Yasumasa Nakajima
泰正 中島
大亮 築山
Daisuke Tsukiyama
大亮 築山
謙介 金丸
Kensuke Kanamaru
謙介 金丸
卓也 相原
Takuya Aihara
卓也 相原
ひとみ 長沼
Hitomi Naganuma
ひとみ 長沼
充弘 岩出
Mitsuhiro Iwade
充弘 岩出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019183914A priority Critical patent/JP2021061504A/en
Publication of JP2021061504A publication Critical patent/JP2021061504A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To display an image viewed from an arbitrary direction.SOLUTION: An imaging apparatus comprises: two imaging units which are connected by a connection part and image a subject from directions different from each other, and where the overlapping range of imaging ranges is to be changed; an image generation unit which, on the basis of an image of the overlapping range of a plurality of images obtained by imaging the subject from a plurality of directions by the imaging units, generates an image of the subject viewed from a direction different from the plurality of directions; and a display unit for displaying the image of the subject viewed from the different direction.SELECTED DRAWING: Figure 4

Description

本発明は、撮像装置、画像表示装置、画像生成装置、および画像生成プログラムに関する。 The present invention relates to an image pickup device, an image display device, an image generation device, and an image generation program.

右目用および左目用の視差画像をそれぞれ取得する複眼カメラが知られている(特許文献1参照)。従来、上記のようなカメラで撮影された視差画像を用いて任意の方向から見た画像を得ることができなかった。 A compound eye camera that acquires parallax images for the right eye and the left eye, respectively, is known (see Patent Document 1). Conventionally, it has not been possible to obtain an image viewed from an arbitrary direction using a parallax image taken by a camera as described above.

特開2009−188931号公報Japanese Unexamined Patent Publication No. 2009-188931

本発明の第1の態様による撮像装置は、接続部により接続され、互いに異なる方向から被写体を撮像し、撮影範囲の重複範囲が変更される2つの撮像部と、前記撮像部により、複数の方向から前記被写体を撮像して得られた複数の撮像画像の前記重複範囲の画像に基づいて前記複数の方向とは異なる方向から見た前記被写体の画像を生成する画像生成部と、前記異なる方向から見た前記被写体の画像を表示する表示部とを備える。
本発明の第2の態様による画像表示装置は、異なる複数の方向から被写体を撮像して得られた複数の撮像画像に基づいて、前記被写体までの距離を算出する距離算出部と、前記複数の撮像画像、前記距離、および前記複数の方向とは異なる方向から見た前記被写体の画像を生成する画像生成部と、前記画像を表示部に表示させる表示制御部とを備える。
本発明の第3の態様による画像生成装置は、2以上の方向から見た複数の撮像画像に基づき、設定した方向から見た画像を生成する画像生成装置であって、前記複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出する距離算出部と、前記複数の撮像画像、前記距離、および前記設定した方向に基づき、前記設定した方向から見た対象物の画像を生成する画像生成部とを備える。
本発明の第4の態様による画像生成プログラムは、2以上の方向から見た複数の撮像画像に基づき、設定した方向から見た画像を生成するための画像生成プログラムであって、前記複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出する処理と、前記複数の撮像画像、前記距離、および前記設定した方向に基づき、前記設定した方向から見た対象物の画像を生成する処理とを、コンピュータに実行させる。
The image pickup apparatus according to the first aspect of the present invention has two image pickup units connected by a connecting portion, images of a subject from different directions, and the overlapping range of shooting ranges is changed, and the image pickup unit provides a plurality of directions. An image generation unit that generates an image of the subject viewed from a direction different from the plurality of directions based on the images of the overlapping range of the plurality of captured images obtained by photographing the subject from the above, and from the different directions. It is provided with a display unit that displays an image of the subject as seen.
The image display device according to the second aspect of the present invention includes a distance calculation unit that calculates a distance to the subject based on a plurality of captured images obtained by imaging a subject from a plurality of different directions, and the plurality of images. It includes an image generation unit that generates an image of the subject as viewed from a direction different from the captured image, the distance, and the plurality of directions, and a display control unit that displays the image on the display unit.
The image generation device according to the third aspect of the present invention is an image generation device that generates an image viewed from a set direction based on a plurality of captured images viewed from two or more directions, and is an image generating device of the plurality of captured images. Among each, the distance calculation unit that calculates the distance to the subject in the overlapping areas based on the images of the overlapping areas, and the plurality of captured images, the distance, and the set direction. It includes an image generation unit that generates an image of an object viewed from a set direction.
The image generation program according to the fourth aspect of the present invention is an image generation program for generating an image viewed from a set direction based on a plurality of captured images viewed from two or more directions, and the plurality of images are captured. The process of calculating the distance to the subject in the overlapping regions based on the images of the overlapping regions of each of the images, and the processing based on the plurality of captured images, the distance, and the set direction. Let the computer execute the process of generating an image of the object viewed from the set direction.

図1(a)は本実施の形態による画像表示装置を正面から見た模式図、図1(b)は同画像表示装置を側面から見た模式図である。FIG. 1A is a schematic view of the image display device according to the present embodiment as viewed from the front, and FIG. 1B is a schematic view of the image display device as viewed from the side. 図2(a)から図2(c)は、図1の2つの撮像部を上から見た模式図であり、2つの撮像部の異なる開き状態を示す図である。2 (a) to 2 (c) are schematic views of the two imaging units of FIG. 1 as viewed from above, and are views showing different open states of the two imaging units. 図3(a)から図3(e)は、異なる開き状態における2つの撮像部の向きを示す模式図である。3 (a) to 3 (e) are schematic views showing the orientations of the two imaging units in different open states. 画像表示装置の構成を説明する図である。It is a figure explaining the structure of an image display device. 表示部の収納を説明する模式図であり、図5(a)は収納時を示す図、図5(b)は使用時を示す図である。It is a schematic diagram explaining the storage of the display unit, FIG. 5A is a diagram showing the storage time, and FIG. 5B is a diagram showing the time of use. 画像表示装置と対象物を示す模式図である。It is a schematic diagram which shows an image display device and an object. 画像表示装置による撮影範囲を説明する模式図である。It is a schematic diagram explaining the shooting range by an image display device. 図8(a)は、開き角度θ=360度の場合の重複範囲DUPを示す図、図8(b)は開き角度θ=270度の場合の重複範囲DUPを示す図、図8(c)は、開き角度θ=180度の場合の重複範囲DUPを示す図、図8(d)は、開き角度θ=90度の場合の重複範囲DUPを示す図である。FIG. 8 (a) is a diagram showing an overlapping range DUP when the opening angle θ = 360 degrees, and FIG. 8 (b) is a diagram showing an overlapping range DUP when the opening angle θ = 270 degrees, FIG. 8 (c). Is a diagram showing an overlapping range DUP when the opening angle θ = 180 degrees, and FIG. 8D is a diagram showing an overlapping range DUP when the opening angle θ = 90 degrees. 見る方向を変更する前後の画像の表示例を説明する図であり、図9(a)は変更前を示す図、図9(b)は変更後を示す図である。It is a figure explaining the display example of the image before and after changing the viewing direction, FIG. 9A is a figure which shows before the change, and FIG. 9B is a figure which shows after the change. 見る方向を変更する前後の画像の他の表示例を説明する図であり、図10(a)は変更前を示す図、図10(b)は変更後を示す図である。It is a figure explaining another display example of the image before and after changing the viewing direction, FIG. 10A is a figure which shows before the change, and FIG. 10B is a figure which shows after the change. 見る方向を変更する前後の画像の他の表示例を説明する図であり、図11(a)は変更前を示す図、図11(b)は変更後を示す図である。It is a figure explaining another display example of the image before and after changing the viewing direction, FIG. 11A is a figure which shows before the change, and FIG. 11B is a figure which shows after the change. 見る方向を変更する前後の画像の他の表示例を説明する図であり、図12(a)は変更前を示す図、図12(b)は変更後を示す図である。It is a figure explaining another display example of the image before and after changing the viewing direction, FIG. 12A is a figure which shows before the change, and FIG. 12B is a figure which shows after the change. 見る方向を変更した画像の生成と表示を行う画像表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the image display process which generates and displays the image which changed the viewing direction. 図14(a)は変形例5の初期表示を説明する図、図14(b)は変形例6の初期表示を説明する図である。FIG. 14 (a) is a diagram for explaining the initial display of the modified example 5, and FIG. 14 (b) is a diagram for explaining the initial display of the modified example 6.

本発明の一実施の形態による画像表示装置は、複眼カメラで撮影されて取得された視差画像に基づいて任意の方向から見た画像を生成し、生成した画像を表示部に表示する。以下の説明では、先に、視差画像を取得する撮像装置としての画像表示装置を説明し、その後で、視差画像に基づいて任意の方向から見た画像を生成、表示する画像表示装置について説明する。 The image display device according to the embodiment of the present invention generates an image viewed from an arbitrary direction based on the parallax image captured and acquired by the compound eye camera, and displays the generated image on the display unit. In the following description, an image display device as an image pickup device for acquiring a parallax image will be described first, and then an image display device for generating and displaying an image viewed from an arbitrary direction based on the parallax image will be described. ..

<撮像装置の外観>
図1(a)は、本実施の形態による撮像装置100を正面から見た模式図であり、図1(b)は撮像装置100を側面から見た模式図である。図2(a)から図2(c)は、図1の撮像装置100の2つの撮像部を上から見た模式図であり、2つの撮像部の異なる開き状態を例示する。撮像装置100は、第1の撮像部200と第2の撮像部300とが接続部400によって支持される。接続部400は、いわゆる蝶番と同様の機能を備えており、軸AXの周りに第1の撮像部200と第2の撮像部300とが回動可能である。このように構成したので、第1の撮像部200に対する第2の撮像部300の開き状態(軸AX周りの開き角度θ)を調節することができる。本例では、開き角度θを360度から0度の範囲で調整できる。
<Appearance of imaging device>
FIG. 1A is a schematic view of the image pickup apparatus 100 according to the present embodiment as viewed from the front, and FIG. 1B is a schematic view of the image pickup apparatus 100 as viewed from the side. 2 (a) to 2 (c) are schematic views of the two image pickup units of the image pickup apparatus 100 of FIG. 1 as viewed from above, exemplifying different open states of the two image pickup units. In the image pickup apparatus 100, the first image pickup unit 200 and the second image pickup unit 300 are supported by the connection unit 400. The connecting portion 400 has a function similar to that of a so-called hinge, and the first imaging unit 200 and the second imaging unit 300 can rotate around the axis AX. With this configuration, the open state of the second imaging unit 300 with respect to the first imaging unit 200 (opening angle θ around the axis AX) can be adjusted. In this example, the opening angle θ can be adjusted in the range of 360 degrees to 0 degrees.

図1(a)および図1(b)は、いずれも開き角度θ=360度の開き状態を例示する。図2(a)から図2(c)には、それぞれ開き角度θ=270度、θ=180度、θ=90度の開き状態を例示する。 Both FIGS. 1 (a) and 1 (b) exemplify an open state in which the opening angle θ = 360 degrees. 2 (a) to 2 (c) exemplify the opening states of the opening angles θ = 270 degrees, θ = 180 degrees, and θ = 90 degrees, respectively.

撮像装置100には、棒状の把持部450が設けられている。把持部450は、接続部400の軸AXと平行な軸GXに沿って設けられている。把持部450の軸GXを、接続部400の軸AXと同軸に設けていない理由は、把持部450を握る使用者の手が第1の撮像部200、第2の撮像部300に写り込むのを避けるためである。 The image pickup apparatus 100 is provided with a rod-shaped grip portion 450. The grip portion 450 is provided along an axis GX parallel to the axis AX of the connection portion 400. The reason why the shaft GX of the grip portion 450 is not provided coaxially with the shaft AX of the connection portion 400 is that the user's hand holding the grip portion 450 is reflected in the first imaging unit 200 and the second imaging unit 300. This is to avoid.

使用者は、撮像装置100を使用する時、たとえば撮像装置100の把持部450を手で把持して身体の前に構え、接続部400を主要被写体(図1(a)において矢印方向)に向ける。接続部400から見て主要被写体側(矢印方向)を前方とすると、把持部450は接続部400よりも後方に位置するので、把持部450を握る使用者の手が第1の撮像部200、第2の撮像部300に写りにくくなる。このとき、使用者は把持部450を地面(床面)に対して垂直方向に保つとともに、撮像装置100の接続部400を主要被写体の方向に向ける。
なお、把持部450を握る使用者の手が第1の撮像部200、第2の撮像部300に写り込むことが許容される場合には、把持部450の軸GXを接続部400の軸AXと同軸に設けてもよい。
When using the image pickup device 100, for example, the user holds the grip portion 450 of the image pickup device 100 by hand and holds it in front of the body, and directs the connection portion 400 toward the main subject (in the direction of the arrow in FIG. 1A). .. Assuming that the main subject side (arrow direction) is forward when viewed from the connection portion 400, the grip portion 450 is located behind the connection portion 400, so that the user's hand holding the grip portion 450 is the first imaging unit 200. It becomes difficult to capture the image on the second imaging unit 300. At this time, the user keeps the grip portion 450 in the direction perpendicular to the ground (floor surface) and directs the connection portion 400 of the image pickup apparatus 100 toward the main subject.
If it is permissible for the user's hand holding the grip portion 450 to be reflected in the first image pickup unit 200 and the second image pickup unit 300, the axis GX of the grip portion 450 is connected to the axis AX of the connection portion 400. It may be provided coaxially with.

把持部450において、接続部400に向く面、すなわち撮影時に主要被写体側(矢印方向)となる面には、レリーズ釦810が設けられている。レリーズ釦810は人差し指で操作可能である。また、把持部450において、接続部400と反対側(後方)には、開閉釦820が設けられている。開閉釦820は親指で操作可能である。操作部820は、第1撮像部200と第2撮像部300を、接続部400の軸AXを中心として開閉させるための操作部である。開閉釦820は、たとえばロッカータイプの操作部材によって構成され、一方の端が押下されると上記開き角度θを大きくする向きに変化させるための信号が出力され、他方の端が押下されると上記開き角度θを小さくする向きに変化させるための信号が出力される。第1撮像部200と第2撮像部300を手動で開閉(θの角度を変える)しても構わない。 The release button 810 is provided on the surface of the grip portion 450 that faces the connection portion 400, that is, the surface that faces the main subject (in the direction of the arrow) during shooting. The release button 810 can be operated with the index finger. Further, in the grip portion 450, an open / close button 820 is provided on the opposite side (rear side) of the connection portion 400. The open / close button 820 can be operated with the thumb. The operation unit 820 is an operation unit for opening and closing the first imaging unit 200 and the second imaging unit 300 around the axis AX of the connection unit 400. The open / close button 820 is composed of, for example, a rocker type operating member. When one end is pressed, a signal for changing the opening angle θ is output, and when the other end is pressed, the open / close button 820 is described. A signal for changing the opening angle θ in a direction to be reduced is output. The first imaging unit 200 and the second imaging unit 300 may be manually opened and closed (the angle of θ is changed).

第1の撮像部200には魚眼レンズ210が設けられ、第2の撮像部300には魚眼レンズ310が設けられている。魚眼レンズ210および魚眼レンズ310は、ともに180度を超える画角を有する。そのため、第1の撮像部200および第2の撮像部300は、それぞれが半天球より広い範囲を撮像することができる。これにより、開き角度θ=360度(第1の開き状態とする)において水平方向および垂直方向に360度の全天球の撮影を行う場合には、第1の撮像部200で取得された画像と第2の撮像部300で取得された画像とをつなぎ合わせるためののり代を確保することができる。また、開き角度θ=180度(第3の開き状態とする)においては、半天球より広い範囲の同一方向を、異なる位置から撮像することができる。 The first imaging unit 200 is provided with a fisheye lens 210, and the second imaging unit 300 is provided with a fisheye lens 310. Both the fisheye lens 210 and the fisheye lens 310 have an angle of view of more than 180 degrees. Therefore, each of the first imaging unit 200 and the second imaging unit 300 can image a wider range than the hemisphere. As a result, when the whole celestial sphere is photographed at 360 degrees in the horizontal and vertical directions at an opening angle of θ = 360 degrees (in the first open state), the image acquired by the first imaging unit 200 is used. It is possible to secure a margin for connecting the image and the image acquired by the second imaging unit 300. Further, when the opening angle θ = 180 degrees (the third open state is set), the same direction in a wider range than the hemisphere can be imaged from different positions.

<種々の開き状態>
図3(a)から図3(e)は、種々の開き状態における第1の撮像部200および第2の撮像部300で撮像する方向を示す模式図である。第1の撮像部200は、魚眼レンズ210と、魚眼レンズ210の結像面に配設された撮像素子220を有する。また、第2の撮像部300は、魚眼レンズ310と、魚眼レンズ310の結像面に配設された撮像素子320を有する。
<Various open states>
3 (a) to 3 (e) are schematic views showing directions of imaging by the first imaging unit 200 and the second imaging unit 300 in various open states. The first image pickup unit 200 includes a fisheye lens 210 and an image pickup element 220 arranged on the image plane of the fisheye lens 210. The second image pickup unit 300 includes a fisheye lens 310 and an image pickup device 320 arranged on the image plane of the fisheye lens 310.

図3(a)は、第1の開き状態を示す図であり、図1(a)、図1(b)の場合に相当する。第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とは逆向きで、180度異なる。そのため、第1の撮像部200の光学系を構成する魚眼レンズ210の光軸X200と、第2の撮像部300の光学系を構成する魚眼レンズ310の光軸X300とが同軸になる。上述したように、第1の開き状態では、第1の撮像部200で取得された画像と第2の撮像部300で取得された画像とをつなぎ合わせることにより、全天球の画像が得られる。 FIG. 3A is a diagram showing a first open state, and corresponds to the cases of FIGS. 1A and 1B. The direction of imaging by the first imaging unit 200 and the direction of imaging by the second imaging unit 300 are opposite to each other and differ by 180 degrees. Therefore, the optical axis X200 of the fisheye lens 210 that constitutes the optical system of the first imaging unit 200 and the optical axis X300 of the fisheye lens 310 that constitutes the optical system of the second imaging unit 300 are coaxial. As described above, in the first open state, an image of the whole celestial sphere can be obtained by joining the image acquired by the first imaging unit 200 and the image acquired by the second imaging unit 300. ..

図3(b)は、第2の開き状態(180度<開き角度θ<360度)を示す図であり、第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とは、θ−180度異なる。たとえば開き角度θ=270度の場合は図2(a)の場合に相当し、第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とが、270−180=90度異なる。 FIG. 3B is a diagram showing a second open state (180 degrees <opening angle θ <360 degrees), and is a direction in which the first image pickup unit 200 takes an image and a direction in which the second image pickup unit 300 takes an image. Is different from θ-180 degrees. For example, when the opening angle θ = 270 degrees, it corresponds to the case of FIG. 2A, and the direction of imaging by the first imaging unit 200 and the direction of imaging by the second imaging unit 300 are 270-180 = 90. Different degrees.

図3(c)は、第3の開き状態を示す図であり、図2(b)の場合に相当する。第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とは平行となる。すなわち、第1の撮像部200の光学系を構成する魚眼レンズ210の光軸X200と、第2の撮像部300の光学系を構成する魚眼レンズ310の光軸X300とが平行になり交差しない。 FIG. 3C is a diagram showing a third open state, and corresponds to the case of FIG. 2B. The direction of imaging by the first imaging unit 200 and the direction of imaging by the second imaging unit 300 are parallel. That is, the optical axis X200 of the fisheye lens 210 that constitutes the optical system of the first imaging unit 200 and the optical axis X300 of the fisheye lens 310 that constitutes the optical system of the second imaging unit 300 are parallel and do not intersect.

図3(d)は、第4の開き状態(0度<開き角度θ<180度)を示す図であり、第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とは、θ−180度異なる。たとえば開き角度θ=90度の場合は図2(c)の場合に相当し、第1の撮像部200で撮像する方向と第2の撮像部300で撮像する方向とが、90−180=−90度異なる。第1撮像部200と第2撮像部300とで撮像する方向がマイナスの角度で異なる場合、各撮像部の光軸X200、X300は互いに交差する。 FIG. 3D is a diagram showing a fourth open state (0 degree <open angle θ <180 degrees), and is a direction of imaging by the first imaging unit 200 and a direction of imaging by the second imaging unit 300. Is different from θ-180 degrees. For example, when the opening angle θ = 90 degrees, it corresponds to the case of FIG. 2C, and the direction of imaging by the first imaging unit 200 and the direction of imaging by the second imaging unit 300 are 90-180 =-. 90 degrees different. When the imaging directions of the first imaging unit 200 and the second imaging unit 300 differ by a negative angle, the optical axes X200 and X300 of the imaging units intersect each other.

図3(e)は、第5の開き状態(開き角度θ=0度)を示す図であり、第1の撮像部200で撮影する方向と第2の撮像部300で撮影する方向とが対向する。すなわち、第1の撮像部200の光学系を構成する魚眼レンズ210の光軸X200と、第2の撮像部300の光学系を構成する魚眼レンズ310の光軸X300とが同軸となる。 FIG. 3E is a diagram showing a fifth open state (opening angle θ = 0 degrees), and the direction of shooting by the first imaging unit 200 and the direction of shooting by the second imaging unit 300 are opposite to each other. To do. That is, the optical axis X200 of the fisheye lens 210 that constitutes the optical system of the first imaging unit 200 and the optical axis X300 of the fisheye lens 310 that constitutes the optical system of the second imaging unit 300 are coaxial.

<撮像装置の構成>
上記撮像装置100の構成について、図4に例示するブロック図を参照して説明する。撮像装置100は、第1の撮像部200と、第2の撮像部300と、接続部400と、制御部500と、表示制御部600と、表示部700と、操作部材800とを含み、記憶媒体900が着脱可能に構成される。
<Configuration of imaging device>
The configuration of the image pickup apparatus 100 will be described with reference to the block diagram illustrated in FIG. The image pickup apparatus 100 includes a first image pickup unit 200, a second image pickup unit 300, a connection unit 400, a control unit 500, a display control unit 600, a display unit 700, and an operation member 800, and stores the image. The medium 900 is detachably configured.

(第1の撮像部200、第2の撮像部300)
第1の撮像部200と第2の撮像部300とは、図3(c)に示すように開き角度θが180度に設定されたとき、光軸X200とX300とが所定の距離L(基線長と称される)を隔てて配設されたステレオカメラを構成する。魚眼レンズ210および310は、たとえば等距離射影方式の魚眼レンズによって構成する。このように構成すると、撮像素子220、320で得られる画像において、各光軸X200、X300からの距離が対象物(被写体)の方向を表す。また、撮像素子220、320で得られる画像にそれぞれ写る同じ対象物の画像上の位置の差が視差を表す。このため、撮像素子220による画像信号と、撮像素子320による画像信号とに基づき、三角測量の原理を用いて対象物までの距離を求めることができる。ステレオカメラの撮像素子220、320で得られる画像から距離情報を得ることは、ステレオマッチングとも称される。
対象物からの光は、魚眼レンズ210を透過して撮像素子220に入射し、魚眼レンズ310を透過して撮像素子320に入射する。第1の撮像部200の撮像素子220および第2の撮像部300の撮像素子320から出力される画像信号は、それぞれ制御部500に送られる。
(First imaging unit 200, second imaging unit 300)
When the opening angle θ of the first imaging unit 200 and the second imaging unit 300 is set to 180 degrees as shown in FIG. 3C, the optical axes X200 and X300 are at a predetermined distance L (baseline). It constitutes a stereo camera arranged with a distance (called a length). The fisheye lenses 210 and 310 are composed of, for example, equidistant projection type fisheye lenses. With this configuration, in the images obtained by the image sensors 220 and 320, the distance from each of the optical axes X200 and X300 represents the direction of the object (subject). Further, the difference in the position on the image of the same object reflected in the images obtained by the image sensors 220 and 320 represents the parallax. Therefore, the distance to the object can be obtained by using the principle of triangulation based on the image signal by the image sensor 220 and the image signal by the image sensor 320. Obtaining distance information from images obtained by the image sensors 220 and 320 of a stereo camera is also referred to as stereo matching.
The light from the object passes through the fisheye lens 210 and is incident on the image sensor 220, and is transmitted through the fisheye lens 310 and is incident on the image sensor 320. The image signals output from the image sensor 220 of the first image sensor 200 and the image sensor 320 of the second image sensor 300 are sent to the control unit 500, respectively.

(接続部400)
接続部400には、第1の撮像部200と第2の撮像部300の開き状態(軸AX周りの開き角度θ)を検出する角度センサ410と、開き状態を変更する駆動部420が設けられている。角度センサ410から出力された検出信号は、制御部500へ送出される。
駆動部420は、モータと、モータの駆動力を第1および第2撮像部200、300に伝達する減速機構とを有している。駆動部420は、制御部500から送出される駆動信号に基づき、モータを駆動することにより減速機構を介して軸AX(図1)の周りに第1の撮像部200と第2の撮像部300とを互いに逆方向に等角度回転させる。これにより、軸AX周りの開き角度θが制御される。
(Connection part 400)
The connection unit 400 is provided with an angle sensor 410 that detects the open state (opening angle θ around the axis AX) of the first image pickup unit 200 and the second image pickup unit 300, and a drive unit 420 that changes the open state. ing. The detection signal output from the angle sensor 410 is sent to the control unit 500.
The drive unit 420 includes a motor and a deceleration mechanism that transmits the driving force of the motor to the first and second imaging units 200 and 300. Based on the drive signal sent from the control unit 500, the drive unit 420 drives the motor to rotate the first imaging unit 200 and the second imaging unit 300 around the shaft AX (FIG. 1) via the deceleration mechanism. And are rotated at equal angles in opposite directions. As a result, the opening angle θ around the axis AX is controlled.

(制御部500)
制御部500は、CPU、ROM、RAM等により構成され、制御プログラムに基づいて撮像装置100の各部の動作を制御する。制御部500は、撮像制御部510、信号処理部520、記録/読出制御部530および開閉制御部540を含む。
(Control unit 500)
The control unit 500 is composed of a CPU, a ROM, a RAM, and the like, and controls the operation of each unit of the image pickup apparatus 100 based on a control program. The control unit 500 includes an image pickup control unit 510, a signal processing unit 520, a recording / reading control unit 530, and an open / close control unit 540.

撮像制御部510は、操作部材800のレリーズ釦810からの操作信号に基づき、第1の撮像部200および第2の撮像部300にそれぞれ撮像動作を行わせる。信号処理部520は、第1の撮像部200の撮像素子220および第2の撮像部300の撮像素子320からそれぞれ出力される画像信号に対して、所定の信号処理を行う。信号処理部520は、補間処理や階調補正処理などの他に、天球画像を二次元の画像、例えば正距円筒図法の画像へ変換する変換処理を行うこともできる。
撮像制御部510は、角度センサ410によって検出された開き角度θに基づいて撮像の可否を判断することができる。たとえば、第1の開き状態、第2の開き状態、第3の開き状態、および第4の開き状態では、いずれの状態でも第1の撮像部200および第2の撮像部300に撮像を許可し、第5の開き状態(開き角度θ=0度)では、撮像を禁止するように制御する。第5の開き状態で撮像を禁止する理由は、第1の撮像部200および第2の撮像部300が相互に撮像するだけで、実質的に他の被写体を撮れないからである。
The image pickup control unit 510 causes the first image pickup unit 200 and the second image pickup unit 300 to perform an image pickup operation, respectively, based on the operation signal from the release button 810 of the operation member 800. The signal processing unit 520 performs predetermined signal processing on the image signals output from the image sensor 220 of the first image sensor 200 and the image sensor 320 of the second image sensor 300, respectively. In addition to interpolation processing and gradation correction processing, the signal processing unit 520 can also perform conversion processing for converting a celestial sphere image into a two-dimensional image, for example, an equirectangular projection image.
The imaging control unit 510 can determine whether or not imaging is possible based on the opening angle θ detected by the angle sensor 410. For example, in the first open state, the second open state, the third open state, and the fourth open state, the first image pickup unit 200 and the second image pickup unit 300 are allowed to take an image in any of the states. , In the fifth open state (opening angle θ = 0 degree), control is performed so as to prohibit imaging. The reason why imaging is prohibited in the fifth open state is that the first imaging unit 200 and the second imaging unit 300 only image each other, and cannot substantially capture another subject.

記録/読出制御部530は、第1の撮像部200および第2の撮像部300によってそれぞれ撮像され、信号処理部520によってそれぞれ信号処理された画像のデータを記憶媒体900に記録する記録処理や、記憶媒体900に記録されている画像のデータの読出す読出し処理を行う。 The recording / reading control unit 530 is used for recording processing for recording image data captured by the first imaging unit 200 and the second imaging unit 300 and signal-processed by the signal processing unit 520 on the storage medium 900, respectively. A read-out process for reading out image data recorded on the storage medium 900 is performed.

記憶媒体900には、第1の撮像部200によって撮像された第1の画像のデータと、第2の撮像部300によって撮像された第2の画像のデータと、撮像時に角度センサ410によって検出された開き角度θを示す情報とが、関連付けて記録される。撮像時の開き角度θを示す情報を記録しておくことにより、開き角度θ、第1の撮像部200および第2の撮像部300の光学系の設計情報などに基づき、後述する第1の撮像部200による撮影範囲B200と第2の撮像部300による撮影範囲B300とが重複する重複範囲DUP(図7、図8)を求めることが可能になる。 In the storage medium 900, the data of the first image captured by the first imaging unit 200, the data of the second image captured by the second imaging unit 300, and the data of the second image captured by the second imaging unit 300 are detected by the angle sensor 410 at the time of imaging. Information indicating the opening angle θ is recorded in association with the information. By recording the information indicating the opening angle θ at the time of imaging, the first imaging described later will be performed based on the opening angle θ, the design information of the optical systems of the first imaging unit 200 and the second imaging unit 300, and the like. It is possible to obtain an overlapping range DUP (FIGS. 7 and 8) in which the photographing range B200 by the unit 200 and the photographing range B300 by the second imaging unit 300 overlap.

開閉制御部540は、操作部材800の開閉釦820からの操作信号に基づき、駆動部420に対する駆動信号を送出する。駆動部420のモータの駆動により、接続部400の軸AX周りに第1および第2撮像部200、300が互いに逆方向に回転して開き角度θが変化する。開閉制御部540は、上述したように、開閉釦820からの操作信号に基づき、開き角度θを大きくする向きに駆動部420を駆動するための駆動信号を送出したり、開き角度θを小さくする向きに駆動部420を駆動するための駆動信号を送出したりする。 The open / close control unit 540 sends a drive signal to the drive unit 420 based on the operation signal from the open / close button 820 of the operation member 800. By driving the motor of the drive unit 420, the first and second imaging units 200 and 300 rotate in opposite directions around the axis AX of the connection unit 400, and the opening angle θ changes. As described above, the open / close control unit 540 sends a drive signal for driving the drive unit 420 in a direction of increasing the opening angle θ, or reduces the opening angle θ, based on the operation signal from the open / close button 820. A drive signal for driving the drive unit 420 is sent in the direction.

たとえば、使用者が開閉釦820を操作するとモータが駆動を開始して第1および第2の撮像部200、300が回動する。実施の形態の撮像装置100では、使用者が開閉釦820を継続して操作している間は、開き角度θを変化させる動作を続行し、使用者が第1〜第5の開き状態を認識して開閉釦820の操作を中止すると、開き角度θを変化させる動作を停止する。
なお、使用者が開閉釦820を1回操作すると、角度センサ410が予め設定されている第1〜第5の開き角度を検出するまで自動でモータの駆動を継続するように構成してもよい。
第1〜第5の開き状態への設定は上記例に限定されない。たとえば、上記開き角度θを大きくする向きに開閉釦820が継続して操作されていても、各開き状態に相当する角度が角度センサ410で検出されるとモータの駆動が一旦停止され、再度、開閉釦820が操作されると、次の開き角度を検出するまでモータの駆動が再開される方式でもよい。
また開き角度は第1〜第5の開き角度には限定されず、第1〜第5の開き角度の間の任意の開き角度で停止しても構わない。
For example, when the user operates the open / close button 820, the motor starts driving and the first and second imaging units 200 and 300 rotate. In the image pickup apparatus 100 of the embodiment, while the user continuously operates the open / close button 820, the operation of changing the opening angle θ is continued, and the user recognizes the first to fifth opening states. When the operation of the open / close button 820 is stopped, the operation of changing the opening angle θ is stopped.
When the user operates the open / close button 820 once, the motor may be automatically continued to be driven until the angle sensor 410 detects the preset first to fifth opening angles. ..
The setting to the first to fifth open states is not limited to the above example. For example, even if the open / close button 820 is continuously operated in the direction of increasing the opening angle θ, when the angle sensor 410 detects an angle corresponding to each opening state, the drive of the motor is temporarily stopped, and the motor is driven again. When the open / close button 820 is operated, the driving of the motor may be restarted until the next opening angle is detected.
Further, the opening angle is not limited to the first to fifth opening angles, and may be stopped at an arbitrary opening angle between the first to fifth opening angles.

(表示制御部600)
表示制御部600は、使用者が操作部材800を操作することによって制御部500から送信される指示に基づき、第1の撮像部200および第2の撮像部300によって撮像されて取得された第1および第2の画像のデータの少なくとも一方、または、記憶媒体900に記録されている第1および第2の画像のデータの少なくとも一方に基づいて、表示部700に表示するための表示画像を生成する。
(Display control unit 600)
The display control unit 600 is a first image captured and acquired by the first image pickup unit 200 and the second image pickup unit 300 based on an instruction transmitted from the control unit 500 by the user operating the operation member 800. And, based on at least one of the data of the second image or at least one of the data of the first and second images recorded on the storage medium 900, a display image to be displayed on the display unit 700 is generated. ..

(表示部700)
表示部700は、たとえば液晶表示パネルや有機EL表示パネル等によって構成され、液晶表示パネルなどが図5に示すように開閉可能に構成されている。表示部700は、制御部500から送信される指示に基づき、表示制御部600で生成された表示画像や、設定メニュー画面などを表示する。
(Display unit 700)
The display unit 700 is composed of, for example, a liquid crystal display panel, an organic EL display panel, or the like, and the liquid crystal display panel or the like is configured to be openable and closable as shown in FIG. The display unit 700 displays a display image generated by the display control unit 600, a setting menu screen, and the like based on an instruction transmitted from the control unit 500.

表示部700には、その表示面にタッチパネルスイッチのような操作検出部710が備えられている。操作検出部710は、使用者による表示面に対する接触操作(タッチ操作やスワイプ操作等)を検出し、接触された位置を示す操作信号を表示制御部600へ送出する。
なお、操作検出部710からの操作信号が、制御部500へ送出される構成にしてもよい。
The display unit 700 is provided with an operation detection unit 710 such as a touch panel switch on the display surface thereof. The operation detection unit 710 detects a contact operation (touch operation, swipe operation, etc.) on the display surface by the user, and sends an operation signal indicating the contacted position to the display control unit 600.
The operation signal from the operation detection unit 710 may be sent to the control unit 500.

(操作部材800)
操作部材800は、図1のレリーズ釦810および開閉釦820などの釦やスイッチを含み、使用者の操作に応じた操作信号を制御部500へ送出する。
(Operating member 800)
The operation member 800 includes buttons and switches such as the release button 810 and the open / close button 820 of FIG. 1, and sends an operation signal corresponding to the operation of the user to the control unit 500.

(記憶媒体900)
記憶媒体900は、たとえば撮像装置100に対して着脱可能なメモリカードなどによって構成される。記憶媒体900に対するデータの記録や読出しは、上述した記録/読出制御部530によって制御される。
(Storage medium 900)
The storage medium 900 is composed of, for example, a memory card that can be attached to and detached from the image pickup apparatus 100. The recording and reading of data on the storage medium 900 is controlled by the recording / reading control unit 530 described above.

<表示部の収納>
図5は、表示部700の動作を説明する模式図である。図5(a)は収納時(非使用時)を示す図、図5(b)は表示部700の使用時を示す図である。表示部700は、第1の撮像部200の背面側、または第2の撮像部300の背面側に収納することができる。図5(a)に例示するように、本実施の形態では表示部700が第1の撮像部200の背面側に収納されている。そのため、第1の開き状態(開き角度θ=360度)では表示部700が外観に現れない。
<Storage of display>
FIG. 5 is a schematic diagram illustrating the operation of the display unit 700. FIG. 5A is a diagram showing a stored state (when not in use), and FIG. 5B is a diagram showing a display unit 700 in use. The display unit 700 can be housed on the back side of the first image pickup unit 200 or on the back side of the second image pickup unit 300. As illustrated in FIG. 5A, in the present embodiment, the display unit 700 is housed on the back side of the first imaging unit 200. Therefore, the display unit 700 does not appear in the appearance in the first open state (opening angle θ = 360 degrees).

第2の開き状態(180度<開き角度θ<360度)になると、開き角度θが小さくなるにつれて少しずつ表示部700が外観に現れる。そして、たとえば開き角度θが270度よりも小さくなると、図5(b)に例示するように、表示部700が矢印の向きに開くことが可能となる。 In the second opening state (180 degrees <opening angle θ <360 degrees), the display unit 700 gradually appears in the appearance as the opening angle θ becomes smaller. Then, for example, when the opening angle θ is smaller than 270 degrees, the display unit 700 can be opened in the direction of the arrow as illustrated in FIG. 5 (b).

<撮影範囲の重なり>
第1の撮像部200および第2の撮像部300による撮影範囲の重なり(重複)について、図6を参照して説明する。図6は、撮像装置100と対象物Pを示す模式図である。図6の撮像装置100は、第4の開き状態(図3(d))に対応する。そのため、第1の撮像部200と第2の撮像部300とで対象物Pを撮像する位置が異なる。すなわち、第1の撮像部200で撮像された対象物Pの画像と第2の撮像部300で撮像された対象物Pの画像とを比べると、対象物Pを見る方向が異なる。
<Overlapping shooting range>
The overlap (overlap) of the imaging ranges by the first imaging unit 200 and the second imaging unit 300 will be described with reference to FIG. FIG. 6 is a schematic view showing the image pickup apparatus 100 and the object P. The image pickup apparatus 100 of FIG. 6 corresponds to the fourth open state (FIG. 3 (d)). Therefore, the position where the object P is imaged differs between the first imaging unit 200 and the second imaging unit 300. That is, when the image of the object P captured by the first imaging unit 200 and the image of the object P captured by the second imaging unit 300 are compared, the direction in which the object P is viewed is different.

図7は、第1の撮像部200および第2の撮像部300で撮像される撮影範囲を説明する模式図であり、符号B200が第1の撮像部200による撮影範囲、符号B300が第2の撮像部300による撮影範囲である。また、符号DUPは、撮影範囲B200とB300とが重複する重複範囲である。本実施の形態では、第1の撮像部200および第2の撮像部300の開き状態を変更可能に構成したので、第1の撮像部200による撮影範囲B200と、第2の撮像部300による撮影範囲B300とが重複する重複範囲DUPを広げたり狭めたりして、重複量(すなわち重複範囲DUPのサイズ)を変更することができる。 FIG. 7 is a schematic diagram illustrating an imaging range imaged by the first imaging unit 200 and the second imaging unit 300, where reference numeral B200 is the imaging range taken by the first imaging unit 200 and reference numeral B300 is the second. This is the shooting range by the imaging unit 300. Further, the reference numeral DUP is an overlapping range in which the shooting ranges B200 and B300 overlap. In the present embodiment, since the open state of the first imaging unit 200 and the second imaging unit 300 can be changed, the imaging range B200 by the first imaging unit 200 and the imaging by the second imaging unit 300 The amount of overlap (that is, the size of the overlap range DUP) can be changed by widening or narrowing the overlap range DUP that overlaps with the range B300.

図8は、第1の撮像部200に対する第2の撮像部300の開き状態(軸AX周りの開き角度θ)と、重複範囲DUPとの関係を例示する図である。
図8(a)は、図3(a)に示すように、第1および第2の撮像部200、300の光軸X200とX300とが開き角度θ=360度で同軸となる第1の開き状態における重複範囲DUPを示す図であり、撮影範囲B200および撮影範囲B300のそれぞれわずかな領域が上述したのり代として重複範囲DUPに含まれる。魚眼レンズ210および魚眼レンズ310は、ともに180度を超える画角を有するので、重複範囲DUPは撮影範囲B200と撮影範囲B300のそれぞれの両側に二か所ある。図8(a)に示す撮影範囲B200の右側と撮影範囲B300の左側が重複する(図8(a)の中央部に重複して示している)。また撮影範囲B200の左側と撮影範囲B300の右側も重複する(図8(a)では両側に別々に示している)。
図8(b)は、図2(a)および図3(b)に示すように、第1および第2の撮像部200、300の光軸X200とX300とが開き角度θ=270度で交差する第2の開き状態における重複範囲DUPを示す図であり、撮影範囲B200および撮影範囲B300のそれぞれ半分程度が重複範囲DUPに含まれる。開き角度θ=360度のとき(図8(a))と異なり、重複範囲DUPは一か所である。
図8(c)は、図2(b)および図3(c)に示すように、第1および第2の撮像部200、300の光軸X200とX300とが開き角度θ=180度で同軸となる第3の開き状態における重複範囲DUPを示す図であり、撮影範囲B200および撮影範囲B300のそれぞれ全域が重複範囲DUPに含まれる。
図8(d)は、図2(c)および図3(d)に示すように、第1および第2の撮像部200,300の光軸X200とX300とが開き角度θ=90度で交差する第4の開き状態における重複範囲DUPを示す図であり、撮影範囲B200および撮影範囲B300のそれぞれ半分程度が重複範囲DUPに含まれる。
第1〜第4の開き状態の重複範囲DUPの重複量は、第1の開き状態(θ=360度)の第1の重複量<第2の開き状態(θ=270度)の第2の重複量<第3の開き状態(θ=180度)の第3の重複量である。第2の重複量と第4の開き状態(θ=90度)の第4の重複量とは同等である。
なお、図7、図8の横長の矩形形状の撮影範囲(撮影素子220と320の有効撮影領域)には、第1の撮像部200および第2の撮像部300で撮像した、180度を超える画角を有する魚眼レンズ210および魚眼レンズ310を介して取得した画像が現われる。
FIG. 8 is a diagram illustrating the relationship between the opening state of the second imaging unit 300 with respect to the first imaging unit 200 (opening angle θ around the axis AX) and the overlapping range DUP.
8 (a) shows, as shown in FIG. 3 (a), a first opening in which the optical axes X200 and X300 of the first and second imaging units 200 and 300 are coaxial at an opening angle θ = 360 degrees. It is a figure which shows the overlap range DUP in a state, and each small area of the photographing range B200 and the photographing range B300 is included in the overlap range DUP as the above-mentioned glue margin. Since both the fisheye lens 210 and the fisheye lens 310 have an angle of view exceeding 180 degrees, there are two overlapping range DUPs on both sides of the shooting range B200 and the shooting range B300. The right side of the shooting range B200 shown in FIG. 8A and the left side of the shooting range B300 overlap (the central portion of FIG. 8A is shown overlapping). Further, the left side of the shooting range B200 and the right side of the shooting range B300 also overlap (in FIG. 8A, both sides are shown separately).
In FIG. 8B, as shown in FIGS. 2A and 3B, the optical axes X200 and X300 of the first and second imaging units 200 and 300 intersect at an opening angle θ = 270 degrees. It is a figure which shows the overlap range DUP in the 2nd open state, and about half of each of the photographing range B200 and the photographing range B300 is included in the overlap range DUP. Unlike when the opening angle θ = 360 degrees (FIG. 8A), the overlapping range DUP is one place.
In FIG. 8 (c), as shown in FIGS. 2 (b) and 3 (c), the optical axes X200 and X300 of the first and second imaging units 200 and 300 are coaxial with each other at an opening angle θ = 180 degrees. It is a figure which shows the overlap range DUP in the 3rd open state, and the whole area of each of the imaging range B200 and the imaging range B300 is included in the overlap range DUP.
In FIG. 8 (d), as shown in FIGS. 2 (c) and 3 (d), the optical axes X200 and X300 of the first and second imaging units 200 and 300 intersect at an opening angle θ = 90 degrees. It is a figure which shows the overlap range DUP in the 4th open state, and about half of each of the photographing range B200 and the photographing range B300 is included in the overlap range DUP.
The overlap range of the first to fourth open states DUP is the second of the first open state (θ = 360 degrees) <the second open state (θ = 270 degrees). The amount of overlap is the third amount of overlap in the third open state (θ = 180 degrees). The second overlapping amount and the fourth overlapping amount in the fourth open state (θ = 90 degrees) are equivalent.
It should be noted that the horizontally long rectangular shooting range (effective shooting area of the shooting elements 220 and 320) of FIGS. 7 and 8 exceeds 180 degrees taken by the first image pickup unit 200 and the second image pickup unit 300. An image acquired through the fisheye lens 210 having an angle of view and the fisheye lens 310 appears.

撮像装置100による撮影範囲のうち重複範囲DUPでは、第1の撮像部200によって撮像された第1の画像のデータと、第2の撮像部300によって撮像された第2の画像のデータとが得られる。重複範囲DUPにおいて第1の画像のデータと第2の画像のデータとは視差情報を有するので、重複範囲DUPはDepth情報を有する領域である。使用者は、重複範囲DUPの第1の画像と第2の画像とを立体視可能な外部装置で観察することにより、立体視する(換言すると、視差に基づく奥行き感を得る)ことができる。 In the overlapping range DUP of the imaging range taken by the imaging device 100, the data of the first image captured by the first imaging unit 200 and the data of the second image captured by the second imaging unit 300 are obtained. Be done. Since the data of the first image and the data of the second image have parallax information in the overlap range DUP, the overlap range DUP is a region having the depth information. The user can stereoscopically view (in other words, obtain a sense of depth based on parallax) by observing the first image and the second image of the overlapping range DUP with an external device capable of stereoscopic viewing.

制御部500は、たとえば、立体像観察装置としての不図示のヘッドマウントディスプレイ(HMD)が無線通信または有線通信により撮像装置100と接続されると、記憶媒体900に関連付けて記録されている第1の画像のデータと第2の画像のデータとを読み出す。そして、制御部500は、第1の画像のデータと第2の画像のデータとのうち、重複範囲DUPに対応する画像データをヘッドマウントディスプレイへ送信する。重複範囲DUPに対応する画像データは、上述したように、上記画像のデータと関連付けて記憶媒体900に記録されている開き角度θと、第1の撮像部200および第2の撮像部300の光学系の設計情報とに基づいて演算した画像表示用データである。 When, for example, a head-mounted display (HMD) (not shown) as a stereoscopic image observation device is connected to the image pickup device 100 by wireless communication or wired communication, the control unit 500 is recorded in association with the storage medium 900. The data of the image of 1 and the data of the second image are read out. Then, the control unit 500 transmits the image data corresponding to the overlapping range DUP among the data of the first image and the data of the second image to the head-mounted display. As described above, the image data corresponding to the overlap range DUP includes the opening angle θ recorded in the storage medium 900 in association with the image data, and the optics of the first imaging unit 200 and the second imaging unit 300. This is image display data calculated based on the system design information.

このように構成したので、第1の撮像部200によって撮像された第1の画像のうち、第2の撮像部300によって撮像された第2の画像のデータと重複する領域の画像が、ヘッドマウントディスプレイの左目用の表示部に表示されて使用者の左目で観察され、第2の撮像部300によって撮像された第2の画像のうち、第1の撮像部200によって撮像された第1の画像のデータと重複する領域の画像が上記ヘッドマウントディスプレイの右目用表示部に表示されて使用者の右目で観察される。使用者は、ヘッドマウントディスプレイの右目用の表示部と左目用に表示部に表示された画像を観察することにより立体視することができる。
なお、Depth情報を有する領域(重複範囲DUP)に写る対象物は、上述したように、三角測量の原理により撮像装置100から対象物までの距離を求めることができる。
With this configuration, of the first image captured by the first imaging unit 200, the image in the region overlapping with the data of the second image captured by the second imaging unit 300 is head-mounted. Of the second images displayed on the display unit for the left eye of the display, observed by the left eye of the user, and captured by the second imaging unit 300, the first image captured by the first imaging unit 200. The image of the area overlapping with the data of the above is displayed on the display unit for the right eye of the head mount display and observed by the right eye of the user. The user can perform stereoscopic viewing by observing the images displayed on the display unit for the right eye and the display unit for the left eye of the head-mounted display.
As described above, the distance from the image pickup apparatus 100 to the object can be obtained for the object reflected in the region having the depth information (overlapping range DUP) by the principle of triangulation.

これに対して、第1の撮像部200によって撮像された第1の画像のデータのうちの重複範囲DUP以外の領域の画像のデータと、第2の撮像部300によって撮像された第2の画像のデータのうちの重複範囲DUP以外の領域の画像のデータとは、いずれも視差情報を有していない。つまり、撮像装置100による撮影範囲のうち重複範囲DUPを除く領域は、Depth情報を有していない領域である。 On the other hand, among the data of the first image captured by the first imaging unit 200, the data of the image in the region other than the overlapping range DUP and the second image captured by the second imaging unit 300. It does not have parallax information with the image data of the area other than the overlapping range DUP among the data of. That is, the region of the imaging range taken by the image pickup apparatus 100 excluding the overlapping range DUP is a region that does not have Depth information.

制御部500は、上記ヘッドマウントディスプレイのような立体像観察装置が無線通信または有線通信により撮像装置100と接続されていない状態では、第1の撮像部200によって撮像された撮影範囲B200の第1の画像のみ、または、第2の撮像部300によって撮像された撮影範囲B300の第2の画像のみを表示部700に表示させて、外部装置を用いることなく平面画像(2D画像)を使用者に観察させる。このように、使用者は、撮像装置100で撮影された画像のデータに基づいて、立体像ではない平面画像を観察することもできる。
なお、表示部700で表示する画像データを外部装置に出力し、その表示部で表示するように構成することもできる。表示部700として立体像が観察可能(立体視可能)な表示装置を使用しても構わない。
When the stereoscopic image observation device such as the head mount display is not connected to the image pickup device 100 by wireless communication or wired communication, the control unit 500 is the first of the shooting range B200 imaged by the first image pickup unit 200. Only the image of the above or only the second image of the shooting range B300 captured by the second imaging unit 300 is displayed on the display unit 700, and the flat image (2D image) is displayed to the user without using an external device. Let them observe. In this way, the user can also observe a flat image that is not a stereoscopic image based on the data of the image taken by the image pickup apparatus 100.
It is also possible to output the image data to be displayed on the display unit 700 to an external device and display the image data on the display unit. A display device capable of observing a stereoscopic image (stereoscopic viewing) may be used as the display unit 700.

<任意の方向から見た画像を生成、表示する画像表示装置>
実施の形態の画像表示装置100は、記憶媒体900に関連付けて記録されている、複数の方向から取得された視差を有する画像(視差画像)に基づいて、後述する設定部620で設定された方向から見た画像を表示部700に表示する機能を備える。このような視差画像に基づく任意の方向から見た画像の生成、表示について以下に説明する。
<Image display device that generates and displays images viewed from any direction>
The image display device 100 of the embodiment is based on an image having parallax acquired from a plurality of directions (parallax image) recorded in association with the storage medium 900, and the direction set by the setting unit 620 described later. It has a function of displaying the image viewed from the front on the display unit 700. The generation and display of an image viewed from an arbitrary direction based on such a parallax image will be described below.

任意の方向から見た画像生成には、上述した第1の撮像部200による撮影範囲B200と第2の撮像部300による撮影範囲B300とが重複する重複範囲DUPを有する画像を用いる。以下の説明では、上述した撮像装置としての画像表示装置100によって、第1の撮像部200と第2の撮像部300との開き角度θが、たとえば270度から90度の範囲のいずれかに設定された状態で対象物を複数の方向から見た画像が撮影され、記憶媒体900にそれら複数の画像が関連付けて記録されているものとする。開き角度θが270度から90度の範囲とは、第1の撮像部200および第2の撮像部300の開き状態が図2(a)から図2(c)に示す状態であり、これら開き状態における第1の撮像部200の撮影範囲B200と第2の撮像部300の撮影範囲B300とが重複する重複範囲DUPは、それぞれ図8(b)から図8(d)に示される。 For image generation viewed from an arbitrary direction, an image having an overlapping range DUP in which the shooting range B200 by the first imaging unit 200 and the shooting range B300 by the second imaging unit 300 overlap is used. In the following description, the image display device 100 as the image pickup device described above sets the opening angle θ between the first image pickup unit 200 and the second image pickup unit 300 to, for example, one of the ranges of 270 degrees to 90 degrees. It is assumed that images of the object viewed from a plurality of directions are taken in this state, and the plurality of images are associated and recorded on the storage medium 900. The opening angle θ in the range of 270 degrees to 90 degrees means that the opening states of the first imaging unit 200 and the second imaging unit 300 are the states shown in FIGS. 2 (a) to 2 (c). The overlapping range DUPs in which the imaging range B200 of the first imaging unit 200 and the imaging range B300 of the second imaging unit 300 overlap in the state are shown in FIGS. 8 (b) to 8 (d), respectively.

図4を参照して、表示制御部600の構成を説明する。表示制御部600は、対象決定部610と、設定部620と、生成部630と、生成された対象物の画像を合成する合成部640と、距離算出部650とを含む。 The configuration of the display control unit 600 will be described with reference to FIG. The display control unit 600 includes an object determination unit 610, a setting unit 620, a generation unit 630, a composition unit 640 that synthesizes an image of the generated object, and a distance calculation unit 650.

対象決定部610は、表示部700に表示される画像(第1の画像または第2の画像における上記重複範囲DUPの画像)のうち、第1の撮像部200の第1方向および第2の撮像部300の第2方向とは異なる第3方向から見た対象物の画像に変換する領域を決定する。対象決定部610は、たとえば対象物の領域、または、対象物を含む所定形状の領域を、変換対象の領域として決定する。具体的には、表示部700に表示される画像に対して対象決定部610が被写体認識処理を行うことによって所望の対象物の領域を検出し、検出した領域を変換対象の領域として決定する。
被写体認識処理とは、たとえば、人物の顔であれば公知の顔認識処理で人物の顔を抽出する処理である。実施の形態の撮像装置では、被写体の外観などを複数の方向から見た画像を表示するモードを選択すると、認識したい対象物を特定するメニュー画面が表示され、そのメニュー画面から、たとえば人物の顔を選択する。
The target determination unit 610 captures the first direction and the second image of the first image pickup unit 200 among the images displayed on the display unit 700 (the image of the overlap range DUP in the first image or the second image). A region to be converted into an image of an object viewed from a third direction different from the second direction of the unit 300 is determined. The target determination unit 610 determines, for example, a region of an object or a region having a predetermined shape including the object as a region to be converted. Specifically, the target determination unit 610 detects an area of a desired object by performing subject recognition processing on the image displayed on the display unit 700, and determines the detected area as the conversion target area.
The subject recognition process is, for example, a process of extracting a person's face by a known face recognition process if it is a person's face. In the imaging device of the embodiment, when a mode for displaying an image of the appearance of a subject viewed from a plurality of directions is selected, a menu screen for specifying an object to be recognized is displayed, and from the menu screen, for example, a person's face. Select.

また、対象決定部610は、表示部700の表示面に設けられているタッチパネルスイッチのような操作検出部710からの操作信号に基づき、変換対象の領域を決定してもよい。具体的には、表示部700に表示されている画像のうち表示面上で使用者が指で囲んだ領域を、対象決定部610が変換対象の領域として決定する。
すなわち、任意の方向から見た画像を得たい対象物の選択を自動で行ってもよいし、手動で行ってもよい。
なお、この実施の形態では、選択された対象物を主要被写体と云ってもよい。
Further, the target determination unit 610 may determine the conversion target area based on the operation signal from the operation detection unit 710 such as the touch panel switch provided on the display surface of the display unit 700. Specifically, among the images displayed on the display unit 700, the area surrounded by the user's finger on the display surface is determined by the target determination unit 610 as the area to be converted.
That is, the object for which an image viewed from an arbitrary direction is desired may be automatically selected, or may be manually selected.
In this embodiment, the selected object may be referred to as a main subject.

設定部620は、表示部700の表示面に設けられている操作検出部710からの操作信号に基づき、すなわちユーザの操作に基づいて対象物を見る方向を設定する。設定部620が設定する方向は、第1の撮像部200の第1方向および第2の撮像部300の第2方向とは異なる第3方向から見た対象物の画像を生成する生成部630によって用いられる。設定部620は、たとえば、表示部700の表示面上で使用者が指をスワイプ操作した方向に対象物が回転するように、対象物を見る方向を変化(移動)させる。設定部620はさらに、スワイプ操作量が大きいほど対象物を見る方向の変化量(移動量)を大きく設定する。設定部620は、表示部700の表示面上で使用者が直接指定した方向を、対象物を見る方向として設定しても構わない。 The setting unit 620 sets the direction in which the object is viewed based on the operation signal from the operation detection unit 710 provided on the display surface of the display unit 700, that is, based on the user's operation. The direction set by the setting unit 620 is set by the generation unit 630 that generates an image of the object viewed from a third direction different from the first direction of the first imaging unit 200 and the second direction of the second imaging unit 300. Used. The setting unit 620 changes (moves) the direction in which the object is viewed so that the object rotates in the direction in which the user swipes the finger on the display surface of the display unit 700, for example. The setting unit 620 further sets the amount of change (movement amount) in the direction in which the object is viewed to be larger as the swipe operation amount is larger. The setting unit 620 may set the direction directly specified by the user on the display surface of the display unit 700 as the direction for viewing the object.

生成部630は、表示部700に表示される画像のうちの対象決定部610で決定された変換対象の領域について、設定部620で設定した方向から見た対象物の画像を生成する。生成部630は、設定部620で設定した方向の変化の向きが画面右方向であるほど、設定した方向から見た画像が、第2の撮像部300によって撮像されて取得された第2の画像に近づき、設定部620による設定した方向の変化の向きが画面左方向であるほど、設定した方向から見た画像が、第1の撮像部200によって撮像されて取得された第1の画像に近づくように、設定した方向から見た対象物の画像を生成する。生成する画像の例については、図9−図12を参照して後述する。 The generation unit 630 generates an image of an object viewed from the direction set by the setting unit 620 for the area of the conversion target determined by the target determination unit 610 among the images displayed on the display unit 700. In the generation unit 630, the more the direction of change in the direction set by the setting unit 620 is toward the right side of the screen, the more the image viewed from the set direction is captured by the second imaging unit 300 and the second image is acquired. As the direction of change in the direction set by the setting unit 620 is toward the left side of the screen, the image viewed from the set direction approaches the first image captured and acquired by the first imaging unit 200. As described above, an image of an object viewed from a set direction is generated. An example of the generated image will be described later with reference to FIGS. 9-12.

合成部640は、第1の撮像部200によって撮像されて取得された第1の画像のデータ、または、第2の撮像部300によって取得された第2の画像のデータのうち、対象決定部610で決定された変換対象の領域のデータを、生成部630で生成された画像(設定部620で設定した方向から見た画像)のデータに変換し、対象領域以外の背景領域の画像のデータと合成する処理を行う。 The synthesis unit 640 is the target determination unit 610 of the data of the first image captured and acquired by the first imaging unit 200 or the data of the second image acquired by the second imaging unit 300. The data of the area to be converted determined in is converted into the data of the image generated by the generation unit 630 (the image seen from the direction set by the setting unit 620), and the data of the image of the background area other than the target area is combined with the data of the image. Perform the process of synthesizing.

距離算出部650は、三角測量の原理を用いて画像表示装置100から対象物までの距離を算出する。具体的に説明すると以下の通りである。第1および第2の画像中の対象物は対象物を構成する複数の特徴点(対象物の特徴を表す部分)で形成されている。第1の画像と第2の画像において、いわゆるステレオマッチング法により、同じ特徴点を特定し、それら特徴点までの距離を三角測量の原理で算出する。したがって、対象物までの距離とは、複数の特徴点までの距離である。このように複数の特徴点までの距離を演算して記憶するのは、後述する任意の複数の方向から見た画像を生成するために、複数の特徴点までの距離を任意の方向ごとに変化させるためである。 The distance calculation unit 650 calculates the distance from the image display device 100 to the object using the principle of triangulation. The specific description is as follows. The object in the first and second images is formed of a plurality of feature points (parts representing the features of the object) that constitute the object. In the first image and the second image, the same feature points are specified by the so-called stereo matching method, and the distances to those feature points are calculated by the principle of triangulation. Therefore, the distance to the object is the distance to a plurality of feature points. The calculation and storage of the distances to the plurality of feature points in this way is to change the distances to the plurality of feature points in each arbitrary direction in order to generate an image viewed from any plurality of directions, which will be described later. This is to make you.

<設定部620で設定した方向から見た対象物の画像の生成>
生成部630は、上述したように、複数の方向から見た画像(本例では2つの画像)から任意の方向から見た画像を生成する。複数の方向から見た画像とは、実施の形態では第1の撮像部200の第1方向と第3の撮像部300の第2方向と、から見た2つの画像である。任意の方向から見た画像とは、第1および第2方向とは異なる第3方向(本例では設定部620で設定した方向)から見た画像である。生成部630は、具体的には次の(1)と(2)の処理を行う。
(1)第1の撮像部200によって第1方向から撮像された対象物の第1の画像と、第2の撮像部300によって第2方向から撮像された上記対象物の第2の画像とに基づいて、両画像に現れる特徴点を利用して両画像間の対応関係を求める。対応関係とは、第1および第2の画像における対象物の各特徴点と、距離算出部650で算出した特徴点までの距離との対応関係である。
(2)上記第1および第2の画像、距離算出部650で算出された対象物までの距離、および設定部620で設定した方向に基づいて、第1方向と第2方向の間の第3方向から見た画像を生成する。
なお、この実施の形態では、第3方向を仮想視点とも任意視点とも中間視点とも云ってよい。
このような、対象物を見る(撮影する)方向が異なる複数の画像を用いて任意の方向から見た画像を生成する技術は公知(たとえば、特開2005−215724号公報)であるため、第1方向および第2方向から見た画像に基づいて第1方向と第2方向との中間に位置する第3方向から見た画像を生成する詳細な説明については省略し、対象物を見る方向を変更した後の画像を表示することを中心に以下の説明を行う。
<Generation of an image of an object viewed from the direction set by the setting unit 620>
As described above, the generation unit 630 generates an image viewed from an arbitrary direction from images viewed from a plurality of directions (two images in this example). The images viewed from a plurality of directions are two images viewed from the first direction of the first imaging unit 200 and the second direction of the third imaging unit 300 in the embodiment. The image viewed from an arbitrary direction is an image viewed from a third direction (direction set by the setting unit 620 in this example) different from the first and second directions. Specifically, the generation unit 630 performs the following processes (1) and (2).
(1) The first image of the object captured from the first direction by the first imaging unit 200 and the second image of the object captured from the second direction by the second imaging unit 300. Based on this, the correspondence between the two images is obtained by using the feature points appearing in both images. The correspondence relationship is a correspondence relationship between each feature point of the object in the first and second images and the distance to the feature point calculated by the distance calculation unit 650.
(2) A third direction between the first direction and the second direction based on the first and second images, the distance to the object calculated by the distance calculation unit 650, and the direction set by the setting unit 620. Generate an image viewed from the direction.
In this embodiment, the third direction may be referred to as a virtual viewpoint, an arbitrary viewpoint, or an intermediate viewpoint.
A technique for generating an image viewed from an arbitrary direction using a plurality of images in which the object is viewed (photographed) in different directions is known (for example, Japanese Patent Application Laid-Open No. 2005-215724). Generating an image viewed from a third direction located between the first and second directions based on images viewed from the first and second directions I will omit the detailed explanation and refer to the direction in which the object is viewed. The following explanation will be given focusing on displaying the changed image.

図9(a)、図9(b)は、対象物を見る方向を変更する前後の画像の表示例を説明する図であり、図9(a)は変更前を示す図、図9(b)は変更後を示す図である。図9(a)の例では、表示部700に表示されている画像のうちの対象物Paの領域が、対象決定部610によって変換対象の領域として決定されているものとする。 9 (a) and 9 (b) are diagrams for explaining display examples of images before and after changing the viewing direction of the object, and FIG. 9 (a) is a diagram showing before the change, FIG. 9 (b). ) Is a diagram showing after the change. In the example of FIG. 9A, it is assumed that the region of the object Pa in the image displayed on the display unit 700 is determined as the region to be converted by the target determination unit 610.

制御部500は、複数の方向から見た画像から、任意の方向から見た画像を生成し、表示するモードが選択されると、表示制御部600によって表示部700に初期表示を行わせる。初期表示とは、第1の撮像部200による第1画像のうち重複範囲DUPの画像、または、第2の撮像部300による第2画像のうち重複範囲DUPの画像を表示部700に表示させる処理である。 The control unit 500 generates an image viewed from an arbitrary direction from images viewed from a plurality of directions, and when a display mode is selected, the display control unit 600 causes the display unit 700 to perform initial display. The initial display is a process of displaying an image of the overlapping range DUP in the first image by the first imaging unit 200 or an image of the overlapping range DUP in the second image by the second imaging unit 300 on the display unit 700. Is.

本実施の形態では、生成部630は、見る方向を変更する前の初期表示として、たとえば第2の撮像部300による第2の画像のデータに基づき生成した表示画像(図9(a))を表示部700に表示させる。図9(a)に示す表示画像は、第2方向(第2の撮像部300の撮像素子の中心から対象物Pへの方向)から見た対象物Pの画像である。 In the present embodiment, the generation unit 630 displays a display image (FIG. 9A) generated based on, for example, the data of the second image by the second imaging unit 300 as the initial display before changing the viewing direction. It is displayed on the display unit 700. The display image shown in FIG. 9A is an image of the object P viewed from the second direction (direction from the center of the image sensor of the second image pickup unit 300 to the object P).

なお、設定部620で方向を変更する前の初期表示として、第1の撮像部200による第1の画像のデータに基づき生成した表示画像(図9(b))、すなわち、第1方向(第1の撮像部200の撮像素子の中心から対象物Pへの方向)から見た対象物Pの画像を表示部700に表示させてもよい。 As an initial display before the direction is changed by the setting unit 620, a display image (FIG. 9B) generated based on the data of the first image by the first image sensor 200, that is, the first direction (first direction). The image of the object P viewed from the center of the image sensor of the image pickup unit 200 of 1 toward the object P) may be displayed on the display unit 700.

また、上記第1および第2の画像のデータのどちらのデータに基づき生成した表示画像を初期表示として表示部700に表示するかについて、使用者が選択可能に構成してもよい。使用者による選択操作は、たとえば設定メニュー画面により行うことができる。上述した、複数の方向から見た画像から任意の方向から見た画像を生成し、表示するモードも設定メニュー画面で選択される。 Further, the user may be able to select which of the data of the first and second images the display image generated based on the data is displayed on the display unit 700 as the initial display. The selection operation by the user can be performed, for example, on the setting menu screen. The mode for generating and displaying an image viewed from an arbitrary direction from the above-mentioned images viewed from a plurality of directions is also selected on the setting menu screen.

図9(a)の初期表示において、設定部620は、対象物Pを見る方向の設定(変更)を次のように行う。生成部630は、対象物Pを第2方向から見た初期表示(第2方向から見た対象物をPaとする)である第2の画像のデータに基づき生成した表示画像とともに、第1方向の向きを示すマーク81を、表示部700に表示させる。 In the initial display of FIG. 9A, the setting unit 620 sets (changes) the viewing direction of the object P as follows. The generation unit 630 includes a display image generated based on the data of the second image which is the initial display of the object P viewed from the second direction (the object viewed from the second direction is Pa), and the first direction. The mark 81 indicating the direction of is displayed on the display unit 700.

図9(a)のマーク81は、第2方向から見た対象物Paの左側に表示され対象物Pを見る方向がマーク81の方向に変更可能であることを示している。使用者は図9(a)に示す指の位置を、対象物Paを回転させる向きである右の方向(矢印方向)に移動するスワイプ操作を開始する。スワイプ操作量に基づいて設定部620が対象物Pを見る方向をマーク81の方向に変更すると、対象物Paは向かって右方向に回転する。設定部620は、表示部700の表示面に設けられている操作検出部710からの操作信号に基づき、指の移動量に基づく量だけ対象物Pを見る方向を左の方向へ移動させる。 The mark 81 in FIG. 9A is displayed on the left side of the object Pa when viewed from the second direction, and indicates that the direction in which the object P is viewed can be changed to the direction of the mark 81. The user starts a swipe operation to move the position of the finger shown in FIG. 9A in the right direction (arrow direction), which is the direction in which the object Pa is rotated. When the setting unit 620 changes the direction in which the object P is viewed to the direction of the mark 81 based on the swipe operation amount, the object Pa rotates to the right. Based on the operation signal from the operation detection unit 710 provided on the display surface of the display unit 700, the setting unit 620 moves the direction of viewing the object P to the left by an amount based on the movement amount of the finger.

設定部620は、スワイプ操作によって移動する指の移動量(スワイプ操作量)に基づいて対象物Pを見る方向を演算する。初期表示として第2方向から見た画像(図9(a))を表示している本例では、スワイプ操作量が、表示画面の左右方向の長さのたとえば約1/3に達すると、操作量が最大と判断して対象物Pを見る方向を第1の撮像部200の撮像方向(第1方向)へ移動させる。 The setting unit 620 calculates the direction in which the object P is viewed based on the movement amount (swipe operation amount) of the finger moved by the swipe operation. In this example in which the image viewed from the second direction (FIG. 9A) is displayed as the initial display, when the swipe operation amount reaches, for example, about 1/3 of the length of the display screen in the left-right direction, the operation is performed. It is determined that the amount is the maximum, and the direction in which the object P is viewed is moved to the imaging direction (first direction) of the first imaging unit 200.

図9(b)は、設定部620が対象物Pを見る方向を図9(a)の第2方向から第1方向へ変更したときの表示画像を示し、生成部630が第1の撮像部200の画像データを用いて作成したものである。生成部630は、対象物Pを見る方向が第1の撮像部200からの第1方向へ変更された場合、第1の撮像部200によって撮像された第1の画像のデータに基づき生成した表示画像(図9(b))を表示部700に表示する(第1方向から見た対象物をPbとする)。そして、使用者に対して対象物Pを見る方向の変更が可能な方向を知らせるため、第2方向の向きを示すマーク82を、第1の画像のデータに基づき生成した表示画像とともに表示部700に表示させる。マーク82は、第1方向から見た対象物Pbの右側に表示され対象物Pを見る方向がマーク82の方向に変更可能であることを示す。 FIG. 9B shows a display image when the setting unit 620 changes the viewing direction of the object P from the second direction to the first direction in FIG. 9A, and the generation unit 630 is the first imaging unit. It was created using 200 image data. When the direction in which the object P is viewed is changed from the first image pickup unit 200 to the first direction, the generation unit 630 generates a display based on the data of the first image captured by the first image pickup unit 200. An image (FIG. 9 (b)) is displayed on the display unit 700 (the object viewed from the first direction is Pb). Then, in order to inform the user of the direction in which the direction in which the object P can be viewed can be changed, the mark 82 indicating the direction in the second direction is placed on the display unit 700 together with the display image generated based on the data of the first image. To display. The mark 82 is displayed on the right side of the object Pb when viewed from the first direction, and indicates that the direction in which the object P is viewed can be changed to the direction of the mark 82.

また、設定部620は、スワイプ操作量が表示画面の左右方向の長さの1/3に満たない状態では、スワイプ操作量に応じて、第2の撮像部300からの第2方向と第1の撮像部200からの第1の方向との間の方向に、対象物Pを見る方向を設定する。 Further, in the state where the swipe operation amount is less than 1/3 of the length in the left-right direction of the display screen, the setting unit 620 has the second direction and the first from the second image pickup unit 300 according to the swipe operation amount. The direction in which the object P is viewed is set in the direction between the image pickup unit 200 and the first direction.

生成部630は、スワイプ操作による指の位置が図9(a)に示す指の位置と図9(b)に示す指の位置との間にある中間位置に移動したときは、設定部620がその中間位置に対応して設定した方向から見た対象物Pの画像を、第1の撮像部200によって撮像された第1の画像のデータと、第2の撮像部300によって撮像された第2の画像のデータとに基づいて生成する。すなわち、上述した対応関係に基づいて、対象物の特徴点の距離を、見る方向に応じた距離に変換させて任意の方向から見た画像を生成する。 When the position of the finger by the swipe operation is moved to the intermediate position between the position of the finger shown in FIG. 9A and the position of the finger shown in FIG. 9B, the generation unit 630 moves the setting unit 620 to the intermediate position. The image of the object P viewed from the direction set corresponding to the intermediate position is captured by the data of the first image captured by the first imaging unit 200 and the second image captured by the second imaging unit 300. Generated based on the image data of. That is, based on the above-mentioned correspondence, the distance of the feature points of the object is converted into a distance according to the viewing direction to generate an image viewed from an arbitrary direction.

一般に、画像表示装置100から近い距離に位置する対象物は、第1方向から見た画像と第2方向から見た画像間の差異が大きい。反対に、画像表示装置100から遠い距離に位置する対象物は、画像間の差異が小さい。そのため、生成部630は、画像表示装置100に近い対象物であるほど、表示画面上で指を移動させる単位移動量当たりの対象物Pの向きの変化を大きくし、画像表示装置100から遠い対象物であるほど、単位移動量当たりの対象物Pの向きの変化を小さくする。このように構成することにより、対象物Pの向きを適切に変化させることができる。
なお、対象物Pの向きの変化とは、図9(a)、(b)の回転軸Qを中心とした回転角度の変化である。
In general, an object located at a short distance from the image display device 100 has a large difference between an image viewed from the first direction and an image viewed from the second direction. On the contrary, the object located at a distance from the image display device 100 has a small difference between the images. Therefore, the generation unit 630 increases the change in the direction of the object P per unit movement amount of moving the finger on the display screen as the object is closer to the image display device 100, and the object is farther from the image display device 100. The larger the object, the smaller the change in the direction of the object P per unit movement amount. With this configuration, the orientation of the object P can be changed appropriately.
The change in the orientation of the object P is a change in the rotation angle centered on the rotation axis Q in FIGS. 9A and 9B.

合成部640は、第2の撮像部200によって撮像された第2の画像のデータのうちの上記変換対象の領域のデータを、生成部630で生成された画像のデータに置換する。すなわち、対象物Pの領域の周囲の背景領域画像と、任意の方向から見た対象物Pの画像とを合成する。
ここで、上記設定部620による対象物Pを見る方向の設定と、生成部630による対象物Pの画像の生成と、合成部640による合成処理とは、使用者のスワイプ操作に追従して行われる。すなわち、スワイプ操作の指の移動に伴って対象物Paの表示から対象物Pbの表示へと、表示される対象物Pの向きが徐々に変化する。また、スワイプ操作によって指の位置が左方向へ戻る場合は、スワイプ操作の指の移動に伴って対象物Pbの表示から対象物Paの表示へと、表示される対象物Pの向きが徐々に変化する。
The synthesis unit 640 replaces the data of the region to be converted in the data of the second image captured by the second image pickup unit 200 with the data of the image generated by the generation unit 630. That is, the background area image around the area of the object P and the image of the object P viewed from an arbitrary direction are combined.
Here, the setting of the viewing direction of the object P by the setting unit 620, the generation of the image of the object P by the generation unit 630, and the composition processing by the composition unit 640 follow the swipe operation of the user. It is said. That is, the orientation of the displayed object P gradually changes from the display of the object Pa to the display of the object Pb as the finger moves in the swipe operation. When the position of the finger is returned to the left by the swipe operation, the direction of the displayed object P gradually changes from the display of the object Pb to the display of the object Pa as the finger moves in the swipe operation. Change.

図10(a)、図10(b)は、たとえばメニュー画面で選択された対象物に関する属性(カテゴリ)が箱型形状であり、画像表示装置100で撮像された画像中に3つの箱型形状の対象物P1〜P3が存在し、そのうちの一つの対象物P2の領域が変換対象の領域として決定された例を示している。
図10(a)は初期表示の表示画像を示す。初期画像は、図9(a)、(b)で説明したと同様、たとえば第2の撮像部300によって第2方向から見た対象物P1〜P3の画像、すなわち、第2の画像のデータに基づき生成されたものである。第2方向から見た対象物P1〜P3を、それぞれP1a、P2a、P3aとする。
In FIGS. 10A and 10B, for example, the attributes (categories) related to the object selected on the menu screen are box-shaped, and three box-shaped shapes are included in the image captured by the image display device 100. An example is shown in which the objects P1 to P3 of the above exist, and the region of one of the objects P2 is determined as the region to be converted.
FIG. 10A shows a display image of the initial display. The initial image is the same as that described with reference to FIGS. 9A and 9B, for example, the image of the objects P1 to P3 viewed from the second direction by the second imaging unit 300, that is, the data of the second image. It was generated based on. The objects P1 to P3 viewed from the second direction are P1a, P2a, and P3a, respectively.

図10(a)の例では、対象決定部610が対象物P2aの領域を変換対象の領域にしているので、マーク81は第2方向から見た対象物P2aの左側に表示される。図10(a)では、マーク81は、対象物P2を見る方向がマーク81の方向に変更可能であること、すなわち対象物P2aを向かって右方向に回転可能であることを使用者に伝える。マーク81を見た使用者は、たとえば図10(a)に示す指の位置を、対象物P2aを回転させる向きである右の方向(矢印方向)に移動するスワイプ操作を開始することができる。 In the example of FIG. 10A, since the target determination unit 610 sets the region of the target P2a as the region to be converted, the mark 81 is displayed on the left side of the target P2a when viewed from the second direction. In FIG. 10A, the mark 81 informs the user that the direction in which the object P2 is viewed can be changed in the direction of the mark 81, that is, the object P2a can be rotated to the right. The user who sees the mark 81 can start a swipe operation for moving the position of the finger shown in FIG. 10A, for example, in the right direction (arrow direction), which is the direction in which the object P2a is rotated.

図10(a)、(b)に示す例において、設定部620、生成部630、合成部640で行う演算処理は図9(a)、(b)で説明したものと同様であり、説明を省略する。また設定部620による対象物P2を見る方向の設定と、生成部630による対象物P2の画像の生成と、合成部640による合成処理とが、使用者のスワイプ操作に追従して行われるのも同様である。したがって、図10(a)、(b)の例でも、スワイプ操作の指の移動に伴って対象物P2aの表示が対象物P2bの表示へと、表示される対象物P2の向きが徐々に変化する。また、スワイプ操作によって指の位置が左方向へ戻る場合は、スワイプ操作の指の移動に伴って対象物P2bの表示が対象物P2aの表示へと、表示される対象物P2の向きが徐々に変化する。 In the examples shown in FIGS. 10A and 10B, the arithmetic processing performed by the setting unit 620, the generating unit 630, and the synthesizing unit 640 is the same as that described in FIGS. 9A and 9B. Omit. Further, the setting unit 620 sets the viewing direction of the object P2, the generation unit 630 generates an image of the object P2, and the composition unit 640 performs the composition process following the swipe operation of the user. The same is true. Therefore, even in the examples of FIGS. 10A and 10B, the orientation of the displayed object P2 gradually changes from the display of the object P2a to the display of the object P2b as the finger moves in the swipe operation. To do. When the position of the finger is returned to the left by the swipe operation, the display of the object P2b is gradually changed to the display of the object P2a as the finger is moved by the swipe operation, and the direction of the displayed object P2 is gradually changed. Change.

図11(a)、図11(b)は、図10(a)、(b)と同様に、たとえばメニュー画面で選択された対象物に関する属性(カテゴリ)が箱型形状であり、画像表示装置100で撮像された画像中に3つの箱型形状の対象物P1〜P3が存在し、表示部700に表示されている画像のうちの対象物P1、P2、P3の領域がそれぞれ、対象決定部610によって変換対象の領域として決定された例を示している。
図11(a)は初期表示の表示画像を示す。初期画像は、図9(a)、(b)で説明したと同様、たとえば第2の撮像部300によって第2方向から見た対象物P1〜P3の画像、すなわち、第2の画像のデータに基づき生成されたものである。第2方向から見た対象物P1〜P3を、それぞれP1a、P2a、P3aとする。
In FIGS. 11 (a) and 11 (b), similarly to FIGS. 10 (a) and 10 (b), for example, the attribute (category) related to the object selected on the menu screen is box-shaped, and the image display device. Three box-shaped objects P1 to P3 are present in the image captured by 100, and the regions of the objects P1, P2, and P3 in the image displayed on the display unit 700 are the target determination units, respectively. An example is shown in which the region to be converted is determined by 610.
FIG. 11A shows a display image of the initial display. The initial image is the same as that described with reference to FIGS. 9A and 9B, for example, the image of the objects P1 to P3 viewed from the second direction by the second imaging unit 300, that is, the data of the second image. It was generated based on. The objects P1 to P3 viewed from the second direction are P1a, P2a, and P3a, respectively.

図11(a)の例では、対象決定部610が対象物P1a,P2a,P3aの領域をそれぞれ変換対象の領域にしているので、マーク81は第2方向から見た対象物P1aの左側に表示される。図11(a)では、マーク81は、対象物P1〜P3を見る方向がマーク81の方向に変更可能であること、すなわち対象物P1a,P2a,P3aを向かって右方向にそれぞれ回転可能であることを使用者に伝える。マーク81を見た使用者は、たとえば図11(a)に示す指の位置を、対象物P1a、P2a、P3aを回転させる向きである右の方向(矢印方向)に移動するスワイプ操作を開始することができる。
ここで、上記設定部620による対象物P1〜P3を見る方向の設定と、生成部630による対象物P1、P2、P3の画像の生成と、合成部640による合成処理とは、使用者のスワイプ操作に追従して行われる。すなわち、スワイプ操作の指の移動に伴って対象物P1a、P2a、P3aの表示が対象物P1b、P2b、P3bの表示へと、表示される対象物P1、P2、P3の向きがそれぞれ徐々に変化する。また、スワイプ操作によって指の位置が左方向へ戻る場合は、スワイプ操作の指の移動に伴って対象物P1b、P2b、P3bの表示が対象物P1a、P2a、P3aの表示へと、表示される対象物P1、P2、P3の向きがそれぞれ徐々に変化する。
In the example of FIG. 11A, since the target determination unit 610 sets the regions of the objects P1a, P2a, and P3a as the conversion target regions, the mark 81 is displayed on the left side of the object P1a when viewed from the second direction. Will be done. In FIG. 11A, the mark 81 can change the direction in which the objects P1 to P3 are viewed in the direction of the mark 81, that is, the marks 81 can rotate to the right with respect to the objects P1a, P2a, and P3a, respectively. Tell the user that. The user who sees the mark 81 starts a swipe operation for moving the position of the finger shown in FIG. 11A in the right direction (arrow direction), which is the direction in which the objects P1a, P2a, and P3a are rotated. be able to.
Here, the setting of the direction of viewing the objects P1 to P3 by the setting unit 620, the generation of the images of the objects P1, P2, and P3 by the generation unit 630, and the composition processing by the composition unit 640 are swipes of the user. It is performed according to the operation. That is, the directions of the displayed objects P1, P2, and P3 gradually change from the display of the objects P1a, P2a, and P3a to the display of the objects P1b, P2b, and P3b as the finger moves in the swipe operation. To do. When the position of the finger is returned to the left by the swipe operation, the display of the objects P1b, P2b, P3b is displayed on the display of the objects P1a, P2a, P3a as the finger moves in the swipe operation. The directions of the objects P1, P2, and P3 gradually change.

図12(a)、図12(b)は、図11(a)、(b)と同様に、たとえばメニュー画面で選択された対象物に関する属性(カテゴリ)が箱型形状であり、画像表示装置100で撮像された画像中に3つの箱型形状の対象物P1〜P3が存在し、表示部700に表示されている画像のうちの対象物P1、P2、P3の領域が一つに纏められて、対象決定部610によって変換対象の領域として決定された例を示している。
図12(a)は初期表示の表示画像を示す。初期画像は、図9(a)、(b)で説明したと同様、たとえば第2の撮像部300によって第2方向から見た対象物P1〜P3の画像、すなわち、第2の画像のデータに基づき生成されたものである。第2方向から見た対象物P1〜P3を、それぞれP1a、P2a、P3aとする。
12 (a) and 12 (b) have a box-shaped attribute (category) related to the object selected on the menu screen, as in the case of FIGS. 11 (a) and 11 (b), and are image display devices. Three box-shaped objects P1 to P3 exist in the image captured by 100, and the regions of the objects P1, P2, and P3 in the image displayed on the display unit 700 are combined into one. An example is shown in which the area to be converted is determined by the target determination unit 610.
FIG. 12A shows a display image of the initial display. The initial image is the same as that described with reference to FIGS. 9A and 9B, for example, the image of the objects P1 to P3 viewed from the second direction by the second imaging unit 300, that is, the data of the second image. It was generated based on. The objects P1 to P3 viewed from the second direction are P1a, P2a, and P3a, respectively.

図12(a)の例では、対象決定部610が対象物P1a,P2a,P3aの領域を一纏めで変換対象の領域にしているので、マーク81は第2方向から見た対象物P1a,P2a,P3aを含む領域の左側に表示される。図12(a)では、マーク81は、対象物P1〜P3を見る方向がマーク81の方向に変更可能であること、すなわち対象物P1a,P2a,P3aを向かって右方向に回転可能であることを使用者に伝える。マーク81を見た使用者は、たとえば図12(a)に示す指の位置を、対象物P1a、P2a、P3aを回転させる向きである右の方向(矢印方向)に移動するスワイプ操作を開始することができる。 In the example of FIG. 12A, since the target determination unit 610 collectively sets the regions of the objects P1a, P2a, and P3a as the regions to be converted, the mark 81 is the objects P1a, P2a, viewed from the second direction. It is displayed on the left side of the area containing P3a. In FIG. 12A, the mark 81 can change the viewing direction of the objects P1 to P3 in the direction of the mark 81, that is, can rotate the objects P1a, P2a, and P3a to the right. To the user. The user who sees the mark 81 starts a swipe operation for moving the position of the finger shown in FIG. 12A, for example, in the right direction (arrow direction), which is the direction in which the objects P1a, P2a, and P3a are rotated. be able to.

ここで、上記設定部620による対象物P1〜P3を見る方向の設定と、生成部630による対象物P1、P2、P3の画像の生成と、合成部640による合成処理とは、使用者のスワイプ操作に追従して行われる。すなわち、スワイプ操作の指の移動に伴って対象物P1a、P2a、P3aの表示が対象物P1c、P2c、P3cの表示へと、表示される対象物P1〜P3の向きが纏めて徐々に変化する。また、スワイプ操作によって指の位置が左方向へ戻る場合は、スワイプ操作の指の移動に伴って対象物P1c、P2c、P3cの表示が対象物P1a、P2a、P3aの表示へと、表示される対象物P1〜P3の向きが纏めて徐々に変化する。 Here, the setting of the viewing direction of the objects P1 to P3 by the setting unit 620, the generation of the images of the objects P1, P2, and P3 by the generation unit 630, and the composition processing by the composition unit 640 are swipes of the user. It is performed according to the operation. That is, as the finger moves in the swipe operation, the display of the objects P1a, P2a, and P3a gradually changes to the display of the objects P1c, P2c, and P3c. .. When the position of the finger is returned to the left by the swipe operation, the display of the objects P1c, P2c, and P3c is displayed on the display of the objects P1a, P2a, and P3a as the finger moves in the swipe operation. The directions of the objects P1 to P3 collectively change gradually.

対象物P1a、P2a、P3aの領域が纏めて変換対象の領域に決定されている場合、生成部630は、対象物P1c、P2c、P3cの表示画像のサイズを異ならせる。図12(a)の例では、見る方向を変更する前の対象物P1a、P2a、P3aの表示画像のサイズが同等である。しかし、図12(b)の例では、見る方向を変更した後の対象物P1c、P2c、P3cの表示画像のサイズは、対象物P1c>P2c>P3cの関係が成立するように設定されている。このように表示画像のサイズを画面の手前は大きく、奥に行くほど小さくする(対象物P1cよりもP2cを小さくし、対象物P2cよりもP3cを小さくする)ことによって、表示部700を観察する使用者に奥行き感を感じさせることができる。
なお、図12(a)、(b)に示すように複数の対象物P1c、P2c、P3cの領域を纏めて変換対象の領域として決定されているときは、纏められた領域の中心軸Qを中心にして回転する。したがって、スワイプ操作量に対する回転角度が予め設定されている。そして、回転角度に応じて各対象物のサイズを奥の対象物ほど小さく表示する。
When the regions of the objects P1a, P2a, and P3a are collectively determined as the region to be converted, the generation unit 630 makes the display images of the objects P1c, P2c, and P3c different in size. In the example of FIG. 12A, the sizes of the displayed images of the objects P1a, P2a, and P3a before the viewing direction is changed are the same. However, in the example of FIG. 12B, the size of the display image of the objects P1c, P2c, and P3c after changing the viewing direction is set so that the relationship of the objects P1c>P2c> P3c is established. .. In this way, the display unit 700 is observed by making the size of the display image larger in the foreground of the screen and smaller toward the back (P2c is smaller than the object P1c and P3c is smaller than the object P2c). You can give the user a sense of depth.
As shown in FIGS. 12A and 12B, when the regions of a plurality of objects P1c, P2c, and P3c are collectively determined as the region to be converted, the central axis Q of the combined region is used. Rotate around the center. Therefore, the rotation angle with respect to the swipe operation amount is set in advance. Then, the size of each object is displayed smaller as the object in the back corresponds to the rotation angle.

生成部630によって生成される対象物の種々の表示画像を、図9から図12を参照して説明した。生成部630は、対象物の形状により、見る方向を変更後に生成した対象物の画像のサイズが方向変更前の対象物の画像のサイズよりも小さくなる場合には、サイズが小さくなることによって現れる対象物の背景部分に対し、対象物の周囲の背景の情報を用いて創生処理や補間処理を施す。
また、生成部630は、創生処理や補間処理を施す代わりに、見る方向を変更後に生成した対象物の画像のサイズが方向変更前の対象物の画像のサイズよりも小さくならないように、方向変更後に生成した対象物の画像のサイズを方向変更前の対象物の画像のサイズよりも大きく変更してもよい。
Various display images of the object generated by the generation unit 630 have been described with reference to FIGS. 9 to 12. When the size of the image of the object generated after changing the viewing direction is smaller than the size of the image of the object before changing the direction due to the shape of the object, the generation unit 630 appears by reducing the size. The background part of the object is subjected to creation processing or interpolation processing using the background information around the object.
Further, instead of performing the creation process and the interpolation process, the generation unit 630 performs a direction so that the size of the image of the object generated after the viewing direction is changed is not smaller than the size of the image of the object before the direction change. The size of the image of the object generated after the change may be changed to be larger than the size of the image of the object before the direction change.

さらにまた、生成部630は、対象物の形状により、生成した画像(見る方向を変更後の対象物の画像)に不自然な奥行き感を使用者に感じさせる場合には、自然な奥行き感を感じさせるための台形補正処理を、方向変更後の対象物の画像に対して施してもよい。 Furthermore, when the generation unit 630 makes the user feel an unnatural sense of depth in the generated image (the image of the object after changing the viewing direction) due to the shape of the object, the generation unit 630 gives a natural sense of depth. The keystone correction process for making the person feel may be applied to the image of the object after the direction is changed.

<フローチャートの説明>
見る方向を変更した画像の生成と表示を行う画像表示処理の流れについて、図13のフローチャートを参照して説明する。制御部500は、見る方向を変更した画像の表示を行う操作、たとえば、複数の方向から見た画像から、任意の方向から見た画像を生成するモードが選択された場合、図13の処理を行うプログラムを実行する。任意の方向から見た画像の生成は、上記生成部630が、画像表示装置100によって撮影された画像のデータに基づいて行う。
<Explanation of flowchart>
The flow of the image display process for generating and displaying an image in which the viewing direction is changed will be described with reference to the flowchart of FIG. The control unit 500 performs an operation of displaying an image whose viewing direction is changed, for example, when a mode of generating an image viewed from an arbitrary direction from images viewed from a plurality of directions is selected, the process of FIG. 13 is performed. Run the program you want to do. The generation of the image viewed from an arbitrary direction is performed by the generation unit 630 based on the data of the image captured by the image display device 100.

図13のステップS10において、制御部500は、表示部700に初期表示を行わせる。具体的には、制御部500から表示制御部600へ指示を送り、第2の撮像部300によって撮像された第2の画像における重複範囲DUPの画像のデータに基づいて、初期表示に用いる表示画像を生成させ、表示部700に表示させる。本例において表示部700に初期表示する画像は、第2方向から見た画像である。 In step S10 of FIG. 13, the control unit 500 causes the display unit 700 to perform the initial display. Specifically, the control unit 500 sends an instruction to the display control unit 600, and the display image used for the initial display is based on the image data of the overlap range DUP in the second image captured by the second image pickup unit 300. Is generated and displayed on the display unit 700. In this example, the image initially displayed on the display unit 700 is an image viewed from the second direction.

ステップS20において、制御部500は、使用者の操作に基づき対象決定部610によって変換対象の領域を決定させてステップS30へ進む。ステップS30において、制御部500は、見る方向を変更するか否かを判定する。制御部500は、使用者によって表示部700の表示面上がスワイプ操作された場合にステップS30を肯定判定してステップS40へ進み、スワイプ操作がされない場合には、スワイプ操作されるまで待機する。 In step S20, the control unit 500 causes the target determination unit 610 to determine the area to be converted based on the operation of the user, and proceeds to step S30. In step S30, the control unit 500 determines whether or not to change the viewing direction. When the user swipes the display surface of the display unit 700, the control unit 500 positively determines step S30 and proceeds to step S40. If the swipe operation is not performed, the control unit 500 waits until the swipe operation is performed.

ステップS40において、制御部500は、設定部620に対して、スワイプ操作量に基づき任意の方向を設定するように指示し、ステップS50へ進む。設定部620は、表示部700に表示している対象物がスワイプ操作された方向に回転するように、スワイプ操作量が大きいほど見る方向の変化量を大きく設定する。 In step S40, the control unit 500 instructs the setting unit 620 to set an arbitrary direction based on the swipe operation amount, and proceeds to step S50. The setting unit 620 sets the amount of change in the viewing direction as the swipe operation amount increases so that the object displayed on the display unit 700 rotates in the swipe operation direction.

ステップS50において、制御部500は、生成部630によって、表示部700に表示している画像のうちのステップS20で決定した変換領域について、見る方向が異なる対象物の画像を生成させてステップS60へ進む。 In step S50, the control unit 500 causes the generation unit 630 to generate an image of an object having a different viewing direction for the conversion region determined in step S20 of the images displayed on the display unit 700, and proceeds to step S60. move on.

ステップS60において、制御部500は、合成部640によって、初期表示の画像が表示される前に表示部700に表示している画像のうちのステップS20で決定した変換領域の画像について、ステップS50で生成した画像に置き換える合成処理(対象物の領域の画像データと背景の画像データを合成)してステップS70へ進む。合成処理後に表示部700に表示される画像は、見る方向を変更後の画像である。 In step S60, the control unit 500 determines in step S20 the image of the conversion region among the images displayed on the display unit 700 before the initial display image is displayed by the synthesis unit 640 in step S50. A compositing process for replacing the generated image (combining the image data of the area of the object and the image data of the background) is performed, and the process proceeds to step S70. The image displayed on the display unit 700 after the compositing process is an image after changing the viewing direction.

ステップS70において、制御部500は、図13の処理を終了するか否かを判定する。制御部500は、使用者によって終了操作が行われた場合にステップS70を肯定判定して処理を終了する。また、制御部500は、使用者によって表示部700の表示面上がスワイプ操作される、または、表示部700の表示面上がタッチ操作された場合に、ステップS70を否定判定してステップS80へ進む。 In step S70, the control unit 500 determines whether or not to end the process of FIG. When the end operation is performed by the user, the control unit 500 positively determines step S70 and ends the process. Further, when the user swipes the display surface of the display unit 700 or touches the display surface of the display unit 700, the control unit 500 negatively determines step S70 and proceeds to step S80. move on.

ステップS80において、制御部500は、見る方向を変更するか、あるいは変換対象の領域を変更するかを判断する。制御部500は、使用者によって表示部700の表示面上がスワイプ操作された場合には、見る方向の変更と判定してステップS40へ戻り、設定部620によって見る方向を設定させる。また、制御部500は、使用者によって表示部700の表示面上がタッチ操作された場合には、変換対象の変更と判定してステップS20へ戻り、対象決定部610によって変換対象の領域を決定させる。以降、上述した処理を繰り返す。
表示画面にタッチした指を所定時間以上静止させたときにタッチ操作と判断する。画面上の指が所定時間未満の間に移動したことを検出したときはスワイプ操作と判断する。
In step S80, the control unit 500 determines whether to change the viewing direction or the conversion target area. When the user swipes the display surface of the display unit 700, the control unit 500 determines that the viewing direction has been changed, returns to step S40, and causes the setting unit 620 to set the viewing direction. Further, when the user touches the display surface of the display unit 700, the control unit 500 determines that the conversion target has been changed, returns to step S20, and determines the conversion target area by the target determination unit 610. Let me. After that, the above-mentioned process is repeated.
When the finger touching the display screen is stopped for a predetermined time or longer, it is determined to be a touch operation. When it is detected that the finger on the screen has moved within a predetermined time, it is judged as a swipe operation.

以上説明した画像表示装置100によれば、次の作用効果が得られる。
(1)画像表示装置100は、異なる2つの方向(第1方向および第2方向)から対象物Pを撮像して得られた2つの画像(第1の画像および第2の画像)に基づいて、それら2つの画像が重なる重複範囲DUP内の対象物Pまでの距離を算出する距離算出部650と、2つの画像、対象物Pまでの距離に基づいて、第1および第2方向とは異なる方向から見た対象物Pの画像を生成する生成部630と、生成した画像を表示部700に表示させる表示制御部600とを備える。このように構成したので、第1および第2の方向と異なる任意の方向から見える対象物Pの画像を、表示部700に表示させることができる。
According to the image display device 100 described above, the following effects can be obtained.
(1) The image display device 100 is based on two images (first image and second image) obtained by imaging the object P from two different directions (first direction and second direction). , The distance calculation unit 650 that calculates the distance to the object P in the overlapping range DUP where these two images overlap, and the first and second directions are different based on the distances to the two images and the object P. It includes a generation unit 630 that generates an image of the object P viewed from the direction, and a display control unit 600 that displays the generated image on the display unit 700. With this configuration, the display unit 700 can display an image of the object P that can be seen from any direction different from the first and second directions.

(2)画像表示装置100は、異なる方向を設定する設定部620を備え、生成部630は、設定部620で設定された、異なる方向から見た対象物Pの画像を生成する。このように構成したので、設定部620によって設定された方向から見える対象物Pの画像を、表示部700に表示させることができる。 (2) The image display device 100 includes a setting unit 620 for setting different directions, and the generation unit 630 generates an image of the object P set by the setting unit 620 and viewed from different directions. With this configuration, the display unit 700 can display an image of the object P that can be seen from the direction set by the setting unit 620.

(3)画像表示装置100は、異なる方向を設定可能な方向(例えば左方向または右方向)を、2つの画像を撮像する際の2つの撮像部(第1の撮像部200、第2の撮像部300)が撮像する方向(第1方向、第2方向)に基づいて算出する算出部としての設定部620を備える。このように構成したので、左方向と右方向のどちらへ見る方向が変更可能かを算出することができる。 (3) The image display device 100 has two imaging units (first imaging unit 200, second imaging unit 200, second imaging unit) for capturing two images in a direction in which different directions can be set (for example, a left direction or a right direction). A setting unit 620 is provided as a calculation unit that calculates based on the direction (first direction, second direction) in which the unit 300) captures an image. With this configuration, it is possible to calculate whether the viewing direction can be changed to the left or right.

(4)画像表示装置100は、算出部としての設定部620で算出された方向を報知する報知部としての生成部630を有する。このように構成したので、使用者に対して見る方向の設定(変更)が可能な方向を、例えばマーク81、82を表示部700に表示して知らせることができる。 (4) The image display device 100 has a generation unit 630 as a notification unit that notifies the direction calculated by the setting unit 620 as the calculation unit. With this configuration, for example, the marks 81 and 82 can be displayed on the display unit 700 to inform the user of the direction in which the viewing direction can be set (changed).

(5)報知部としての生成部630は、算出された方向を示すマーク81、82を表示部700上に表示するので、使用者に対して見る方向の変更が可能な方向を、視覚的に知らせることができる。 (5) Since the generation unit 630 as the notification unit displays the marks 81 and 82 indicating the calculated directions on the display unit 700, the direction in which the viewing direction can be changed for the user can be visually displayed. I can tell you.

(6)距離算出部650は、2つの画像(第1の画像および第2の画像)の間でステレオマッチング処理を行うことにより距離を算出するので、測距のための光や電波を発することなしに対象物Pまでの距離を求めることができる。 (6) Since the distance calculation unit 650 calculates the distance by performing stereo matching processing between the two images (first image and second image), it emits light or radio waves for distance measurement. The distance to the object P can be obtained without.

(7)生成部630は、見る方向の変化に追従して画像における対象物Pの向きを変化させるので、表示される対象物Pの向きを滑らかに変化させることができる。 (7) Since the generation unit 630 changes the direction of the object P in the image according to the change in the viewing direction, the direction of the displayed object P can be smoothly changed.

(8)生成部630は、対象物Pが近距離にあるほど、表示部700に表示する画像における異なる方向の単位移動量当たりの軸Qの周りの回転角度(向き)を大きく変化させるので、対象物Pの向きを、適切な遠近感で変化させることができる。 (8) The generation unit 630 changes the rotation angle (direction) around the axis Q per unit movement amount in different directions in the image displayed on the display unit 700 as the object P becomes closer. The orientation of the object P can be changed with an appropriate perspective.

(9)画像表示装置100は、2つの画像(第1の画像および第2の画像)に基づいて、対象物Pの領域または対象物Pを含む所定形状の領域を認識する対象決定部610を備える。生成部630は、対象決定部610で認識された領域に対して見る方向が異なる画像を生成する。このように構成したので、画像の全体を対象に見る方向が異なる画像を生成する場合と比べて、処理の負担を軽減することができる。 (9) The image display device 100 recognizes a region of an object P or a region of a predetermined shape including an object P based on two images (a first image and a second image) of a target determination unit 610. Be prepared. The generation unit 630 generates an image having a different viewing direction with respect to the region recognized by the target determination unit 610. With this configuration, it is possible to reduce the processing load as compared with the case of generating an image in which the viewing direction is different for the entire image.

(10)撮像装置としての画像表示装置100は、接続部400により接続され、互いに異なる方向から対象物Pを撮像し、撮影範囲B200、B300の重複範囲DUPが変更される2つの撮像部(第1の撮像部200、第2の撮像部300)と、2つの撮像部により、第1の撮像部200が撮像する第1方向、第2の撮像部300が撮像する第2方向から対象物Pを撮像して得られた2つの撮像画像の重複範囲DUPの画像に基づいて、第1方向、第2方向とは異なる方向から見た対象物Pの画像を生成する生成部630と、異なる方向から見た対象物Pの画像を表示する表示部700と、を備える。このように構成したので、任意の方向から見える対象物Pの画像を、表示部700に表示させることができる。 (10) The image display device 100 as an imaging device is connected by a connecting unit 400, images an object P from different directions, and two imaging units (third) in which the overlapping range DUP of the shooting ranges B200 and B300 is changed. The object P from the first direction imaged by the first image pickup unit 200 and the second direction imaged by the second image pickup unit 300 by the first image pickup unit 200 and the second image pickup unit 300) and the two image pickup units. A generation unit 630 that generates an image of an object P viewed from a direction different from the first direction and the second direction based on the image of the overlapping range DUP of the two captured images obtained by imaging the image, and a direction different from that of the generation unit 630. It is provided with a display unit 700 for displaying an image of the object P viewed from above. With this configuration, the display unit 700 can display an image of the object P that can be seen from any direction.

(11)2つの撮像部(第1の撮像部200、第2の撮像部300)は、接続部400の周りを回転することにより互いの撮影範囲B200、B300の重複範囲DUPが変更される。このように構成したので、第1の撮像部200が撮像する第1方向、第2の撮像部300が撮像する第2方向を、継ぎ目なく連続的に変化させることができる。 (11) The two imaging units (first imaging unit 200, second imaging unit 300) rotate around the connection unit 400 to change the overlapping range DUP of the mutual imaging ranges B200 and B300. With this configuration, the first direction in which the first image pickup unit 200 takes an image and the second direction in which the second image pickup unit 300 takes an image can be continuously and seamlessly changed.

(12)撮像装置としての画像表示装置100は、異なる方向を設定する設定部620を備える。このように構成したので、表示部700に表示させたい対象物Pの方向を設定することができる。 (12) The image display device 100 as an image pickup device includes a setting unit 620 for setting different directions. With this configuration, the direction of the object P to be displayed on the display unit 700 can be set.

(13)生成部630は、異なる方向が変化すると表示部700に表示する対象物Pの画像の向きを変化させる。このように構成したので、異なる方向が変化するにつれて、表示される対象物Pの向きを徐々に変化させることができる。 (13) The generation unit 630 changes the direction of the image of the object P displayed on the display unit 700 when the different directions change. With this configuration, the orientation of the displayed object P can be gradually changed as the different directions change.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
見る方向を変えた対象物の像は、図9(a)、図9(b)のように、対象物Paの中心を通る垂直方向の軸Qの周りに回転させた例を示したが、回転の軸は、対象物Paに向かって左端にしたり、対象物Paに向かって右端にしたり、あるいは対象物Paの任意の位置にしてもよい。この変形例1では、回転軸Qの位置を、たとえばメニュー画面で設定することができる。
The following modifications are also within the scope of the present invention, and one or more of the modifications can be combined with the above-described embodiment.
(Modification example 1)
As shown in FIGS. 9 (a) and 9 (b), the image of the object whose viewing direction is changed is shown as an example of being rotated around the vertical axis Q passing through the center of the object Pa. The axis of rotation may be at the left end of the object Pa, at the right end of the object Pa, or at any position of the object Pa. In this modification 1, the position of the rotation axis Q can be set, for example, on the menu screen.

(変形例2)
対象物の周囲に影が写っている場合、表示部700に見る方向を変更した対象物の像を表示する際に、見る方向を変更する前後に表示部700に表示される対象物の影に対して使用者が違和感を持たないように、見る方向の変更後の影の形を変化させる画像補正処理を行う構成にしてもよい。
(Modification 2)
When a shadow appears around the object, when the image of the object whose viewing direction is changed is displayed on the display unit 700, the shadow of the object displayed on the display unit 700 before and after the viewing direction is changed. On the other hand, the image correction process for changing the shape of the shadow after changing the viewing direction may be performed so that the user does not feel uncomfortable.

(変形例3)
上述した説明では、見る方向を変更するために使用者が表示部700の表示面上をスワイプ操作する例を説明したが、スワイプ操作に代えて他の操作を採用してもよい。たとえば、制御部500がトラックボールやジョイスティックなどのポインティングデバイスの操作を検出したり、表示部700を観察する使用者の眼の視線の動きを検出したり、表示部700の表示面の傾き(たとえば左右方向の)傾きを検出したりして、検出した方向へ見る方向を移動させる構成にしてもよい。
(Modification example 3)
In the above description, an example in which the user swipes on the display surface of the display unit 700 to change the viewing direction has been described, but another operation may be adopted instead of the swipe operation. For example, the control unit 500 detects the operation of a pointing device such as a trackball or a joystick, detects the movement of the line of sight of the user observing the display unit 700, or tilts the display surface of the display unit 700 (for example). It may be configured to detect the tilt (in the left-right direction) and move the viewing direction in the detected direction.

(変形例4)
見る方向を変更した対象物の画像の表示は、画像表示装置100の表示部700に限らず、外部の画像表示装置や、コンピュータの表示部に行わせてもよい。コンピュータの表示部に行わせる場合、図13のフローチャートに示す処理を実行するプログラムをコンピュータに実行させることにより、画像表示装置100の表示部700へ表示する場合と同様の処理を行わせることができる。
なお、外部の画像表示装置やコンピュータに対するプログラムの提供は、予めプログラムを記録した記憶媒体900などを介して提供することができる。また、プログラムを、ネットワーク回線等を介して提供し、外部の画像表示装置やコンピュータのメモリ等に格納してもよい。さらに、プログラムは、データ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給することもできる。
(Modification example 4)
The display of the image of the object whose viewing direction has been changed is not limited to the display unit 700 of the image display device 100, and may be performed by an external image display device or a display unit of a computer. When the display unit of the computer is made to perform the processing, by causing the computer to execute the program that executes the processing shown in the flowchart of FIG. 13, the same processing as that of displaying on the display unit 700 of the image display device 100 can be performed. ..
The program can be provided to an external image display device or a computer via a storage medium 900 or the like in which the program is recorded in advance. Further, the program may be provided via a network line or the like and stored in an external image display device, a memory of a computer, or the like. Further, the program can also be supplied as a computer-readable computer program product in various forms such as a data signal (carrier wave).

また、図13のフローチャートの一部の処理は撮像装置で行い、残りの処理を外部のコンピュータで行うようにしてもよい。たとえば、撮像装置は、対象物を含む被写体を撮像し、複数の方向から見た画像を生成してコンピュータに送信する。コンピュータは、受信した画像に基づき初期表示用の画像を生成してコンピュータの表示画面に表示する。この際、見る方向を変更可能な方向を示すアイコン(図9(a)、(b)などのマーク81,82)も併せて表示する。使用者は、アイコンに基づきコンピュータに接続されたモニタ画面に表示された初期表示画面上で例えばスワイプ操作を行う。コンピュータは、スワイプ操作量を検出して任意の方向を決定し、任意の方向から見た画像を生成する。この例では、コンピュータは複数の方向から見た画像に基づき任意の方向から見た画像を生成する画像生成装置として機能する。また、この画像生成装置とモニタとが任意の方向から見た画像表示装置である。 Further, a part of the processing of the flowchart of FIG. 13 may be performed by the imaging device, and the remaining processing may be performed by an external computer. For example, an imaging device captures a subject including an object, generates images viewed from a plurality of directions, and transmits the images to a computer. The computer generates an image for initial display based on the received image and displays it on the display screen of the computer. At this time, icons (marks 81 and 82 such as FIGS. 9A and 9B) indicating directions in which the viewing direction can be changed are also displayed. The user performs, for example, a swipe operation on the initial display screen displayed on the monitor screen connected to the computer based on the icon. The computer detects the swipe operation amount, determines an arbitrary direction, and generates an image viewed from an arbitrary direction. In this example, the computer functions as an image generator that generates an image viewed from an arbitrary direction based on an image viewed from a plurality of directions. Further, the image generation device and the monitor are image display devices viewed from an arbitrary direction.

すなわち、図4で説明した実施の形態の画像表示装置の構成要素から表示部700と操作部材800を除いた構成要素からなる撮像装置をコンピュータと接続することにより複数の方向から見た画像を任意の方向から見た画像に変換する画像表示装置とする場合、両者が実行する処理を適宜分担することが可能である。 That is, by connecting an image pickup device including the components of the image display device of the embodiment described with reference to FIG. 4 excluding the display unit 700 and the operation member 800 to a computer, an image viewed from a plurality of directions can be arbitrarily displayed. In the case of an image display device that converts an image viewed from the direction of the above, it is possible to appropriately share the processing executed by both parties.

コンピュータは、複数の方向から撮像した撮像画像に基づき、仮想的に設定された任意の方向から見た画像を生成するための画像生成プログラムを実装している。画像生成プログラムは、複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出することと、複数の撮像画像、距離、および任意の方向に基づき、任意の方向から見た対象物の画像を生成することとをコンピュータに実行させるための画像生成プログラムである。 The computer implements an image generation program for generating an image viewed from a virtually set arbitrary direction based on captured images captured from a plurality of directions. The image generation program calculates the distance to the subject in the overlapping areas based on the images of the overlapping areas of each of the plurality of captured images, and the plurality of captured images, the distances, and any of them. It is an image generation program for causing a computer to generate an image of an object viewed from an arbitrary direction based on a direction.

表示部を外部接続したコンピュータのモニタとする場合、図4の画像表示装置は、2以上の方向から見た複数の撮像画像に基づき、任意の方向から見た画像を生成する画像生成装置である。この画像生成装置は、複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出する距離算出部と、複数の撮像画像、距離、および任意の方向に基づき、任意の方向から見た対象物の画像を生成する生成部とを備える。 When the display unit is used as a monitor of a computer connected externally, the image display device of FIG. 4 is an image generation device that generates an image viewed from an arbitrary direction based on a plurality of captured images viewed from two or more directions. .. This image generator includes a distance calculation unit that calculates the distance to the subject in the overlapping areas based on the images of the overlapping areas of each of the plurality of captured images, and the plurality of captured images, distances, and the like. And a generation unit that generates an image of an object viewed from an arbitrary direction based on an arbitrary direction.

(変形例5)
上述した実施の形態では、設定部620により見る方向が設定される前の初期表示として、第2の撮像部300によって撮像された第2の画像のデータに基づき生成した表示画像(図10(a))、または、第1の撮像部200によって撮像された第1の画像のデータに基づき生成した表示画像(図10(b))を表示部700に表示するようにした。この代わりに、図14(a)に例示するように、第1方向から見た画像、または、第2方向から見た画像を表示部700に表示した上で、見る方向を変更した対象物の画像を生成可能な領域の画像を、動画のように動かして表示させてもよい。
すなわち、撮像装置で撮影された被写体の中に、たとえばメニュー画面で選択した箱型対象物が3つ存在するものの、使用者はそのうちの一つの対象物P2だけについて任意の方向から見た画像を得たい場合がある。変形例5はその際に使用者に提示する画像の変形例である。
(Modification 5)
In the above-described embodiment, as an initial display before the viewing direction is set by the setting unit 620, a display image generated based on the data of the second image captured by the second imaging unit 300 (FIG. 10 (a). )), Or a display image (FIG. 10 (b)) generated based on the data of the first image captured by the first imaging unit 200 is displayed on the display unit 700. Instead, as illustrated in FIG. 14A, an object viewed from the first direction or an image viewed from the second direction is displayed on the display unit 700, and the viewing direction is changed. The image in the area where the image can be generated may be moved and displayed like a moving image.
That is, although there are three box-shaped objects selected on the menu screen among the subjects photographed by the imaging device, the user can view an image of only one of the objects P2 from an arbitrary direction. You may want to get it. Modification 5 is a modification of the image presented to the user at that time.

変形例5の初期表示では、図14(a)において、表示部700に表示されている画像のうちの、第1の画像および第2の画像が重なる重複範囲DUP内の対象物P2aの領域のみが、スワイプ操作されることなしに、第1方向から見た画像→第1方向と第2方向との中間に位置する方向から見た画像→第2方向から見た画像→第1方向と第2方向との中間に位置する方向から見た画像→第1方向から見た画像→第1方向と第2方向との中間に位置する方向から見た画像…(以降繰り返し)へと自動的に変化する。
変形例5によれば、設定部620により見る方向が設定(変更)される前の初期表示として、表示部700に表示されている対象物P2aの領域において見る方向を変更した画像を生成可能であることを、使用者に対して視覚的に知らせることができる。
In the initial display of the modified example 5, in FIG. 14A, only the region of the object P2a in the overlapping range DUP where the first image and the second image overlap among the images displayed on the display unit 700. However, without swiping, the image seen from the first direction → the image seen from the direction located between the first direction and the second direction → the image seen from the second direction → the first direction and the first An image viewed from a direction located between the two directions → an image viewed from the first direction → an image viewed from a direction located between the first direction and the second direction ... (repeated thereafter) automatically Change.
According to the modification 5, it is possible to generate an image in which the viewing direction is changed in the area of the object P2a displayed on the display unit 700 as the initial display before the viewing direction is set (changed) by the setting unit 620. It is possible to visually inform the user of the fact.

(変形例6)
また、変形例5の代わりに、図14(b)に例示するように、第2方向から見た画像のうちの、任意の方向から見た画像を得たい対象物が含まれる領域の画像のみを、静止画として表示部700に表示するように構成してもよい。
すなわち、撮像装置100で撮影された被写体の中に、たとえばメニュー画面で選択した箱型対象物が3つ存在するものの、使用者はそのうちの一つの対象物P2だけについて任意の方向から見た画像を得たい場合がある。変形例6はその際に使用者に提示する画像の変形例である。
(Modification 6)
Further, instead of the modified example 5, as illustrated in FIG. 14B, only the image of the region including the object for which the image viewed from an arbitrary direction is to be obtained among the images viewed from the second direction. May be configured to be displayed on the display unit 700 as a still image.
That is, although there are three box-shaped objects selected on the menu screen among the subjects photographed by the image pickup apparatus 100, the user sees only one of the objects P2 from an arbitrary direction. You may want to get. Modification 6 is a modification of the image presented to the user at that time.

変形例6の初期表示では、図14(b)において、第2方向から見た画像のうちの、第1の画像および第2の画像が重なる重複範囲DUP内の対象物P2aの領域のみが表示部700に表示されている。表示部700に初期表示として表示された対象物P2aの領域は、見る方向を変更した画像を表示することが可能な領域である。任意の方向から見た画像を必要としない対象物P1a,P3aの画像は表示されない。
変形例6によれば、設定部620により見る方向が設定(変更)される前の初期表示として表示部700に表示されている対象物P2aの領域において見る方向を変更した画像を生成可能であることを、使用者に対して視覚的に知らせることができる。
なお、設定部620により見る方向が設定(変更)される前の初期表示として、第1方向から見た画像のうちの対象物P2bの領域を表示部700に表示させてもよい。
In the initial display of the modified example 6, in FIG. 14B, only the region of the object P2a in the overlapping range DUP where the first image and the second image overlap among the images viewed from the second direction is displayed. It is displayed in part 700. The area of the object P2a displayed as the initial display on the display unit 700 is an area in which an image in which the viewing direction is changed can be displayed. Images of objects P1a and P3a that do not require images viewed from any direction are not displayed.
According to the modification 6, it is possible to generate an image in which the viewing direction is changed in the area of the object P2a displayed on the display unit 700 as the initial display before the viewing direction is set (changed) by the setting unit 620. This can be visually informed to the user.
As an initial display before the viewing direction is set (changed) by the setting unit 620, the display unit 700 may display the area of the object P2b in the image viewed from the first direction.

(変形例7)
上述した説明では、地面(床面)に対して垂直方向の軸AXの周りに回動可能に構成した2つの撮像部(第1の撮像部200と第2の撮像部300)を備える画像表示装置100を例示した。撮像部の数は、2つに限らず4つでも6つでもよい。
たとえば、2つの撮像部(第1の撮像部200と第2の撮像部300)に加えて、さらに2つの撮像部(第3の撮像部と第4の撮像部)を軸AXの周りにそれぞれ回動可能に構成することができる。
また、2つの撮像部(第1の撮像部200と第2の撮像部300)、または、4つの撮像部(第1の撮像部200、第2の撮像部300、第3の撮像部、第4の撮像部)に加えて、さらに2つの撮像部(第5の撮像部と第6の撮像部)を、軸AXと直交する軸の周りにそれぞれ回動可能に構成してもよい。
撮像部の数を増やすと、第1方向と第2方向の間の中間の方向から見た画像を生成する際の精度が高まるというメリットがある。
(Modification 7)
In the above description, an image display including two imaging units (first imaging unit 200 and second imaging unit 300) configured to be rotatable around an axis AX in the direction perpendicular to the ground (floor surface). The device 100 has been illustrated. The number of imaging units is not limited to two, and may be four or six.
For example, in addition to two imaging units (first imaging unit 200 and second imaging unit 300), two additional imaging units (third imaging unit and fourth imaging unit) are placed around the axis AX, respectively. It can be configured to be rotatable.
Further, two imaging units (first imaging unit 200 and second imaging unit 300) or four imaging units (first imaging unit 200, second imaging unit 300, third imaging unit, third imaging unit, first In addition to the imaging unit (4), two additional imaging units (fifth imaging unit and sixth imaging unit) may be configured to be rotatable around an axis orthogonal to the axis AX.
Increasing the number of imaging units has the advantage of increasing the accuracy of generating an image viewed from an intermediate direction between the first direction and the second direction.

上記では、種々の実施形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。実施形態および変形例で示された各構成を組み合わせて用いる態様も本発明の範囲内に含まれる。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Aspects in which the configurations shown in the embodiments and modifications are used in combination are also included in the scope of the present invention. Other aspects conceivable within the scope of the technical idea of the present invention are also included within the scope of the present invention.

100…撮像装置、200…第1の撮像部、210、310…魚眼レンズ、220、320…撮像素子、400…接続部、500…制御部、600…表示制御部、610…対象決定部、620…設定部、630…生成部、640…合成部、650…距離算出部、700…表示部、800…操作部材、AX、GX、Q…軸、P、P1、P2、P3…対象物 100 ... Imaging device, 200 ... First imaging unit, 210, 310 ... Fisheye lens, 220, 320 ... Image sensor, 400 ... Connection unit, 500 ... Control unit, 600 ... Display control unit, 610 ... Target determination unit, 620 ... Setting unit, 630 ... Generation unit, 640 ... Synthesis unit, 650 ... Distance calculation unit, 700 ... Display unit, 800 ... Operation member, AX, GX, Q ... Axis, P, P1, P2, P3 ... Object

Claims (17)

接続部により接続され、互いに異なる方向から被写体を撮像し、撮影範囲の重複範囲が変更される2つの撮像部と、
前記撮像部により、複数の方向から前記被写体を撮像して得られた複数の撮像画像の前記重複範囲の画像に基づいて前記複数の方向とは異なる方向から見た前記被写体の画像を生成する画像生成部と、
前記異なる方向から見た前記被写体の画像を表示する表示部とを備える撮像装置。
Two imaging units that are connected by a connecting unit, image subjects from different directions, and change the overlapping range of the shooting range.
An image that generates an image of the subject viewed from a direction different from the plurality of directions based on an image of the overlapping range of a plurality of captured images obtained by imaging the subject from a plurality of directions by the imaging unit. Generator and
An imaging device including a display unit that displays an image of the subject as viewed from different directions.
請求項1に記載の撮像装置において、
前記2つの撮像部は、前記接続部の周りを回転することにより互いの撮影範囲の重複範囲が変更される撮像装置。
In the imaging device according to claim 1,
The two imaging units are imaging devices in which the overlapping range of the imaging ranges of each other is changed by rotating around the connection portion.
請求項1または2に記載の撮像装置において、
前記異なる方向を設定する設定部を備える撮像装置。
In the imaging apparatus according to claim 1 or 2,
An imaging device including a setting unit for setting different directions.
請求項3に記載の撮像装置において、
前記異なる方向を設定可能な方向を、前記複数の方向に基づいて算出する算出部を備える撮像装置。
In the imaging device according to claim 3,
An imaging device including a calculation unit that calculates a direction in which different directions can be set based on the plurality of directions.
請求項4に記載の撮像装置において、
前記算出部で算出された、前記異なる方向を設定可能な方向を報知する報知部を有する撮像装置。
In the imaging device according to claim 4,
An imaging device having a notification unit that notifies a direction in which the different directions can be set, which is calculated by the calculation unit.
請求項5に記載の撮像装置において、
前記報知部は、前記表示部上に前記算出された方向を表示する撮像装置。
In the imaging device according to claim 5,
The notification unit is an imaging device that displays the calculated direction on the display unit.
請求項1から6のいずれか一項に記載の撮像装置において、
前記画像生成部は、前記異なる方向が変化すると前記表示部に表示する前記被写体の画像の向きを変化させる撮像装置。
In the imaging apparatus according to any one of claims 1 to 6,
The image generation unit is an imaging device that changes the direction of an image of the subject displayed on the display unit when the different directions change.
異なる複数の方向から被写体を撮像して得られた複数の撮像画像に基づいて、前記被写体までの距離を算出する距離算出部と、
前記複数の撮像画像、前記距離に基づいて、前記複数の方向とは異なる方向から見た前記被写体の画像を生成する画像生成部と、
前記画像を表示部に表示させる表示制御部とを備える画像表示装置。
A distance calculation unit that calculates the distance to the subject based on a plurality of captured images obtained by imaging the subject from a plurality of different directions.
An image generation unit that generates an image of the subject viewed from a direction different from the plurality of directions based on the plurality of captured images and the distance.
An image display device including a display control unit for displaying the image on the display unit.
請求項8に記載の画像表示装置において、
前記異なる方向を設定する設定部を備え、
前記画像生成部は、前記設定部で設定された、前記異なる方向から見た前記被写体の表示画像を生成する画像表示装置。
In the image display device according to claim 8,
A setting unit for setting the different directions is provided.
The image generation unit is an image display device set by the setting unit that generates a display image of the subject viewed from the different direction.
請求項8または9に記載の画像表示装置において、
前記異なる方向を設定可能な方向を、前記複数の方向に基づいて算出する算出部を備える画像表示装置。
In the image display device according to claim 8 or 9.
An image display device including a calculation unit that calculates a direction in which different directions can be set based on the plurality of directions.
請求項10に記載の画像表示装置において、
前記算出部で算出された、前記異なる方向を設定可能な方向を報知する報知部を有する画像表示装置。
In the image display device according to claim 10,
An image display device having a notification unit that notifies a direction in which the different directions can be set, which is calculated by the calculation unit.
請求項11に記載の画像表示装置において、
前記報知部は、前記表示部上に前記算出された方向を表示する画像表示装置。
In the image display device according to claim 11,
The notification unit is an image display device that displays the calculated direction on the display unit.
請求項8から12のいずれか一項に記載の画像表示装置において、
前記距離算出部は、前記複数の撮像画像としての前記複数の方向から撮像した画像の間でステレオマッチング処理を行うことにより前記距離を算出する画像表示装置。
In the image display device according to any one of claims 8 to 12,
The distance calculation unit is an image display device that calculates the distance by performing stereo matching processing between images captured from the plurality of directions as the plurality of captured images.
請求項13に記載の画像表示装置において、
前記画像生成部は、前記被写体が近距離にあるほど、前記表示部に表示する画像における前記異なる方向の単位移動量当たりの変化を大きくする画像表示装置。
In the image display device according to claim 13,
The image generation unit is an image display device that increases the change per unit movement amount in the different directions in the image displayed on the display unit as the subject is closer.
請求項8から14のいずれか一項に記載の画像表示装置において、
前記複数の撮像画像に基づいて、主要被写体の領域または前記主要被写体を含む所定形状の領域を認識する領域認識部を備え、
前記画像生成部は、前記領域認識部で認識された領域に対し、前記異なる方向から見た画像を生成する画像表示装置。
In the image display device according to any one of claims 8 to 14.
A region recognition unit that recognizes a region of a main subject or a region of a predetermined shape including the main subject based on the plurality of captured images is provided.
The image generation unit is an image display device that generates an image viewed from a different direction with respect to a region recognized by the region recognition unit.
2以上の方向から見た複数の撮像画像に基づき、設定した方向から見た画像を生成する画像生成装置であって、
前記複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出する距離算出部と、
前記複数の撮像画像、前記距離、および前記設定した方向に基づき、前記設定した方向から見た対象物の画像を生成する画像生成部とを備える画像生成装置。
An image generator that generates an image viewed from a set direction based on a plurality of captured images viewed from two or more directions.
A distance calculation unit that calculates the distance to the subject in the overlapping areas based on the images of the overlapping areas of each of the plurality of captured images.
An image generation device including an image generation unit that generates an image of an object viewed from the set direction based on the plurality of captured images, the distance, and the set direction.
2以上の方向から見た複数の撮像画像に基づき、設定した方向から見た画像を生成するための画像生成プログラムであって、
前記複数の撮像画像のそれぞれのうち、互いに重複する領域の画像に基づいて、それら重複する領域内の被写体までの距離を算出する処理と、
前記複数の撮像画像、前記距離、および前記設定した方向に基づき、前記設定した方向から見た対象物の画像を生成する処理とを、コンピュータに実行させるための画像生成プログラム。
An image generation program for generating an image viewed from a set direction based on a plurality of captured images viewed from two or more directions.
A process of calculating the distance to the subject in the overlapping areas based on the images of the overlapping areas of each of the plurality of captured images, and
An image generation program for causing a computer to perform a process of generating an image of an object viewed from the set direction based on the plurality of captured images, the distance, and the set direction.
JP2019183914A 2019-10-04 2019-10-04 Imaging apparatus, image display apparatus, image generation apparatus, and image generation program Pending JP2021061504A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183914A JP2021061504A (en) 2019-10-04 2019-10-04 Imaging apparatus, image display apparatus, image generation apparatus, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183914A JP2021061504A (en) 2019-10-04 2019-10-04 Imaging apparatus, image display apparatus, image generation apparatus, and image generation program

Publications (1)

Publication Number Publication Date
JP2021061504A true JP2021061504A (en) 2021-04-15

Family

ID=75380491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183914A Pending JP2021061504A (en) 2019-10-04 2019-10-04 Imaging apparatus, image display apparatus, image generation apparatus, and image generation program

Country Status (1)

Country Link
JP (1) JP2021061504A (en)

Similar Documents

Publication Publication Date Title
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
CN104104862B (en) Image processing apparatus and image processing method
US20220387128A1 (en) Surgical virtual reality user interface
JP6057396B2 (en) 3D user interface device and 3D operation processing method
CN114730094A (en) Artificial reality system with zoom display of artificial reality content
JP2018106496A (en) Image processing apparatus, image processing method, and program
JP2017204674A (en) Imaging device, head-mounted display, information processing system, and information processing method
JP2013258614A (en) Image generation device and image generation method
JP7182920B2 (en) Image processing device, image processing method and program
KR20160094190A (en) Apparatus and method for tracking an eye-gaze
JP2012208719A (en) Imaging device, imaging method, and program
KR101444858B1 (en) Telepresence apparatus
JP2018050179A (en) Information processing apparatus, image generation method and head mount display
JP2007034628A (en) Method and system for image processing
JP4270347B2 (en) Distance calculator
JP6411244B2 (en) Video presentation method and video presentation device
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP6446465B2 (en) I / O device, I / O program, and I / O method
US6130672A (en) Image processing apparatus
JP2011113206A (en) System and method for video image communication
EP3679453A1 (en) A method of modifying an image on a computational device
KR20210150881A (en) Electronic apparatus and operaintg method thereof
KR20210133674A (en) Augmented reality device and method for controlling the same
JP2018063567A (en) Image processing device, image processing method and program
CN107884930B (en) Head-mounted device and control method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210812