JP2014128022A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2014128022A
JP2014128022A JP2012286197A JP2012286197A JP2014128022A JP 2014128022 A JP2014128022 A JP 2014128022A JP 2012286197 A JP2012286197 A JP 2012286197A JP 2012286197 A JP2012286197 A JP 2012286197A JP 2014128022 A JP2014128022 A JP 2014128022A
Authority
JP
Japan
Prior art keywords
image
viewpoint
marker
dimensional image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012286197A
Other languages
Japanese (ja)
Inventor
Hiroshi Tanioka
宏 谷岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012286197A priority Critical patent/JP2014128022A/en
Publication of JP2014128022A publication Critical patent/JP2014128022A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display a marker in front of a desired three-dimensional image, without requiring means for detecting overlap of a three-dimensional image and the marker.SOLUTION: An image processing apparatus includes acquisition means for acquiring three-dimensional image information, display means for displaying a three-dimensional image based on the three-dimensional image information, acquired by the acquisition means, specification means for specifying a marker position pointing to a part of the three-dimensional image displayed by the display means, based on a user's instruction accepted via an operating section, and drawing means for drawing a marker, being displayed three-dimensionally in a predetermined range for the marker position specified by the specification means, in front of the three-dimensional image.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

3次元画像を表示可能な3次元表示器で、3次元画像と、カーソル等のマーカーとを重ねて表示する技術が開示されている。   A technique for displaying a 3D image and a marker such as a cursor in a 3D display capable of displaying a 3D image is disclosed.

特開2004−354540号公報JP 2004-354540 A

特許文献1に開示されている技術は、3次元画像と、カーソルとの互いの奥方向の位置関係を考慮しないで表示している。そのため、特許文献1に開示されている技術は、両者の重なりを検出する検出手段によって重なりを検出した場合、3次元画像と、カーソルとの相対位置関係に応じて、何れか一方を他方より手前に表示するように描画を制御する。したがって、特許文献1に開示されている技術は、カーソル等のマーカーを所望の3次元画像の手前に表示するために、マーカーを描画する手段に加え、両者の重なりを検出する手段を必要としていた。   The technique disclosed in Patent Document 1 displays the three-dimensional image and the cursor without considering the positional relationship in the back direction. For this reason, in the technique disclosed in Patent Document 1, when an overlap is detected by a detection unit that detects the overlap between the two, one of them is in front of the other according to the relative positional relationship between the three-dimensional image and the cursor. Control drawing to display on Therefore, in order to display a marker such as a cursor in front of a desired three-dimensional image, the technique disclosed in Patent Document 1 requires a means for detecting the overlap between the two in addition to a means for drawing the marker. .

そこで、本発明の画像処理装置は、3次元画像情報を取得する取得手段と、前記取得手段により取得された3次元画像情報に基づいて3次元画像を表示する表示手段と、操作部を介して受け付けたユーザーの指示に基づいて、前記表示手段により表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定手段と、前記指定手段により指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画手段と、を有する。   Accordingly, an image processing apparatus according to the present invention includes an acquisition unit that acquires 3D image information, a display unit that displays a 3D image based on the 3D image information acquired by the acquisition unit, and an operation unit. Based on the received user instruction, designation means for designating a marker position indicating a part of the three-dimensional image displayed by the display means, and a predetermined range for the marker position designated by the designation means And a drawing means for drawing a marker displayed three-dimensionally in front of the three-dimensional image.

本発明によれば、前記両者の重なりを検出する手段を要さずに、所望の3次元画像の手前にマーカーを表示することができる。   According to the present invention, a marker can be displayed in front of a desired three-dimensional image without requiring a means for detecting the overlap between the two.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. レンチキュラー多視点表示器の一例を示す図である。It is a figure which shows an example of a lenticular multi-viewpoint display. レンチキュラーレンズと、各表示画素との一例を示す図である。It is a figure which shows an example of a lenticular lens and each display pixel. 視点1から3次元表示器を見た場合に見える画素の一例を示す図である。It is a figure which shows an example of the pixel seen when seeing a three-dimensional display from the viewpoint 1. FIG. 視点4から3次元表示器を見た場合に見える画素の一例を示す図である。It is a figure which shows an example of the pixel seen when seeing a three-dimensional display from the viewpoint 4. FIG. 視点と、その視点に対応する撮影画像との関係の一例を示す図である。It is a figure which shows an example of the relationship between a viewpoint and the picked-up image corresponding to the viewpoint. 画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an image processing apparatus. 実施形態1における処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing in the first embodiment. タッチパネルの表示の一例を示す図である。It is a figure which shows an example of the display of a touch panel. 各視点と、3次元画像表示との関係の一例を示す図である。It is a figure which shows an example of the relationship between each viewpoint and a three-dimensional image display. 視点4で3次元画像として表示した左目用の画像の一例を示す図である。It is a figure which shows an example of the image for left eyes displayed as a three-dimensional image with the viewpoint 4. FIG. 視点4で3次元画像として表示した右目用の画像の一例を示す図である。It is a figure which shows an example of the image for right eyes displayed as a three-dimensional image with the viewpoint 4. FIG. 仮想平面上における視線の交点の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the intersection of the eyes | visual_axis on a virtual plane. マーカーが表示される位置の一例を示す図である。It is a figure which shows an example of the position where a marker is displayed. 各視点の画像中のマーカー位置にマーカーが描画された画像の一例を示す図である。It is a figure which shows an example of the image by which the marker was drawn in the marker position in the image of each viewpoint. マーカー描画部で生成された左目に与えられる画像の一例を示す図である。It is a figure which shows an example of the image provided in the left eye produced | generated by the marker drawing part. マーカー描画部で生成された右目に与えられる画像の一例を示す図である。It is a figure which shows an example of the image provided in the right eye produced | generated by the marker drawing part. 仮想平面図の表示の一例を示す図である。It is a figure which shows an example of the display of a virtual top view. 図10Aに対応する視点画像の一例を示す図である。It is a figure which shows an example of the viewpoint image corresponding to FIG. 10A. 図10Aと異なる視点の仮想平面図の表示の一例を示す図である。It is a figure which shows an example of the display of the virtual top view of a viewpoint different from FIG. 10A. 図10Cに対応する視点画像の一例を示す図である。It is a figure which shows an example of the viewpoint image corresponding to FIG. 10C. 仮想平面図の表示の一例を示す図である。It is a figure which shows an example of the display of a virtual top view. 図10Aに対応する視点画像の一例を示す図である。It is a figure which shows an example of the viewpoint image corresponding to FIG. 10A. 図10Aと異なる視点の仮想平面図の表示の一例を示す図である。It is a figure which shows an example of the display of the virtual top view of a viewpoint different from FIG. 10A. 図10Dに示されるマーカーの隠れている部分を識別可能に表示した視点画像の一例を示す図である。It is a figure which shows an example of the viewpoint image which displayed the hidden part of the marker shown by FIG. 10D so that identification was possible. 実施形態3における処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing in the third embodiment. 視点認識の原理の一例を示す図である。It is a figure which shows an example of the principle of viewpoint recognition. 視点認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of a viewpoint recognition process. 実施形態4における処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing in the fourth embodiment. パララックスバリア方式の3次元表示器の表示原理の一例を示す図である。It is a figure which shows an example of the display principle of the three-dimensional display of a parallax barrier system. 実施形態5におけるパララックスバリア方式を用いた場合の表示の一例を示す図である。FIG. 10 is a diagram illustrating an example of display when a parallax barrier method according to a fifth embodiment is used.

以下、本発明の実施形態を説明するに先立って、以降の説明で用いる用語について説明する。
2次元画像とは、表示器で表示される、例えば人や風景等を表す2次元の画像そのものを意味する。
3次元画像とは、3次元表示器で表示される、例えば人や風景等を表す3次元の画像そのものを意味する。即ち、3次元画像は、視差を有する複数の2次元画像で構成され、例えば左目用及び右目用の2つの2次元画像が交互に配置される画像である。
2次元画像情報又は3次元画像情報とは、上記の2次元画像又は3次元画像を表示するための信号源の情報を意味する。特に3次元画像情報は、少なくとも左目用及び右目用の2次元画像情報を有する。
次に、簡単に3次元表示器について説明する。3次元表示器は、3次元画像情報として、その表示器の1つの画面中に複数の2次元画像を表す複数の2次元画像情報を同時に表示する。つまり、3次元表示器に表示される3次元画像は、少なくともユーザーの左目及び右目の各視点から見た2枚以上の複数の2次元画像情報に基づいて表示される画像である。したがって、その3次元表示器の同じ位置近傍に立体表示された3次元画像は、ユーザーの視点によって大きく異なることになる。なお、ここでいう「近傍」とは、前記3次元表示器の同じ位置から予め定められた範囲のことを意味する。以下、説明で用いる「近傍」についても同様の意味であるとする。
Prior to describing embodiments of the present invention, terms used in the following description will be described below.
The two-dimensional image means a two-dimensional image itself that is displayed on a display device and represents, for example, a person or a landscape.
The three-dimensional image means a three-dimensional image itself that is displayed on a three-dimensional display and represents, for example, a person or a landscape. That is, the three-dimensional image is composed of a plurality of two-dimensional images having parallax, and is an image in which two two-dimensional images for left eye and right eye, for example, are alternately arranged.
The two-dimensional image information or the three-dimensional image information means information on a signal source for displaying the above two-dimensional image or three-dimensional image. In particular, the three-dimensional image information includes at least left-eye and right-eye two-dimensional image information.
Next, the three-dimensional display will be briefly described. The three-dimensional display device simultaneously displays a plurality of pieces of two-dimensional image information representing a plurality of two-dimensional images on one screen of the display device as three-dimensional image information. That is, the three-dimensional image displayed on the three-dimensional display is an image displayed based on at least two or more pieces of two-dimensional image information viewed from each viewpoint of the user's left eye and right eye. Therefore, the three-dimensional image displayed stereoscopically in the vicinity of the same position of the three-dimensional display greatly varies depending on the viewpoint of the user. The term “near” here means a predetermined range from the same position of the three-dimensional display. Hereinafter, “neighboring” used in the description has the same meaning.

以下、本発明の実施形態について図面に基づき説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<実施形態1>
図1は、本実施形態の画像処理装置のハードウェア構成の一例を示す図である。
本実施形態の画像処理装置は、一般的なパーソナルコンピュータ1(以後、PC1という)を有し、ネットワーク制御部90、ネットワーク回線110を介して外部から3次元画像情報等を取得する。なお、画像処理装置は、後述の記憶装置80等から3次元画像情報を取得するようにしてもよい。また、画像処理装置は、取得した3次元画像情報に基づいた3次元画像を立体表示するための表示器2を有する。
PC1は、CPU(Central Processing Unit)10で制御される。なお、CPU10は、ROM60等に格納されているプログラムを実行することにより後述の画像処理装置の機能(ソフトウェア構成)及びフローチャートに係る処理を実現する。また、PC1は、3次元画像情報や本実施形態に用いられるプログラム等を保持する記憶装置80を有する。更に、PC1は、各種設定やプログラムを格納するROM(Read Only Memory)60、一時的な記憶装置として機能するRAM(Random Access Memory)70を有する。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus according to the present embodiment.
The image processing apparatus according to the present embodiment includes a general personal computer 1 (hereinafter referred to as a PC 1), and acquires three-dimensional image information and the like from the outside via a network control unit 90 and a network line 110. Note that the image processing apparatus may acquire three-dimensional image information from a storage device 80 or the like which will be described later. Further, the image processing apparatus includes a display 2 for stereoscopically displaying a three-dimensional image based on the acquired three-dimensional image information.
The PC 1 is controlled by a CPU (Central Processing Unit) 10. The CPU 10 executes a program stored in the ROM 60 or the like, thereby realizing a function (software configuration) of an image processing apparatus described later and a process related to a flowchart. The PC 1 also includes a storage device 80 that holds 3D image information, programs used in the present embodiment, and the like. Further, the PC 1 includes a ROM (Read Only Memory) 60 that stores various settings and programs, and a RAM (Random Access Memory) 70 that functions as a temporary storage device.

表示器2は、3次元画像を表示する3次元表示器30を有する。また、表示器2は、3次元表示器30の表示面にタッチパネル40を有する。ユーザーは、表示面に表示された3次元画像を、タッチパネル40を介して直接タッチして操作することができる。また、ユーザーは、キーボード50を介してPC1に対する各種の入力操作をすることができる。更に、表示器2は、撮像装置20を有する。撮像装置20は、ユーザーの位置や動作を認識するために3次元表示器30の近傍に設けられている。
CPU10は、タッチパネル40、マウスやタッチパッド55、キーボード50等を介して受け付けたユーザーの操作に基づいて、表示するマーカーの位置を指定する。なお、タッチパネル40、マウスやタッチパッド55、キーボード50等は、操作部の一例である。また、本実施形態における「マーカー」とは、表示された画像の一部(以後、画像オブジェクトという)を指し示すために表示する矢印、文字、数字等を入力する際に、その入力位置を指し示すために表示するポインターやカーソル等の総称である。
The display 2 has a 3D display 30 for displaying a 3D image. The display 2 has a touch panel 40 on the display surface of the three-dimensional display 30. The user can operate by directly touching the three-dimensional image displayed on the display surface via the touch panel 40. Further, the user can perform various input operations on the PC 1 via the keyboard 50. Further, the display 2 has an imaging device 20. The imaging device 20 is provided in the vicinity of the three-dimensional display 30 in order to recognize the position and operation of the user.
The CPU 10 designates the position of the marker to be displayed based on the user operation received via the touch panel 40, the mouse, the touch pad 55, the keyboard 50, or the like. Note that the touch panel 40, the mouse, the touch pad 55, the keyboard 50, and the like are examples of the operation unit. In addition, the “marker” in the present embodiment indicates an input position when an arrow, a character, a number, or the like displayed to indicate a part of the displayed image (hereinafter referred to as an image object) is input. It is a general term for pointers and cursors to be displayed on the screen.

次に、表示器2について、図2Aから図2Dまでを用いて詳細に説明する。
図2Aは、3次元表示器30として用いられるレンチキュラー多視点表示器の一例を示す図である。
図2Aに示す3次元表示器30は、液晶表示器300と、液晶表示器300の前面に備えられたレンチキュラーレンズ301とを有する。更に、図2Aに示す3次元表示器30は、レンチキュラーレンズ301の前面に備えられたタッチパネル40と、画面中央部に備えられた撮像装置20とを有する。
Next, the display device 2 will be described in detail with reference to FIGS. 2A to 2D.
FIG. 2A is a diagram illustrating an example of a lenticular multi-viewpoint display used as the three-dimensional display 30.
A three-dimensional display 30 shown in FIG. 2A includes a liquid crystal display 300 and a lenticular lens 301 provided on the front surface of the liquid crystal display 300. Further, the three-dimensional display 30 illustrated in FIG. 2A includes a touch panel 40 provided on the front surface of the lenticular lens 301 and the imaging device 20 provided in the center of the screen.

図2Bは、多視点の画像を表示するための各レンチキュラーレンズ301と、相対位置が保証された各表示画素との一例を示す図である。
図2Bの3次元表示器30は、ユーザーが6方向からこの3次元表示器30を見た場合の多視点3次元画像の表示を可能にするため、各1つのレンチキュラーレンズ内に画素302から画素303までの一続きの7つの表示画素を有する。なお、多視点3次元画像とは、後述する図3で示すように、例えば同一被写体を複数の視点から撮影して得られた複数の視点の3次元画像やコンピュータグラフィックス等で制作された3次元画像のことである。また、本実施形態の3次元表示器30は、公知の技術で一般的に実現される表示器であり、カラー表示が可能であるが、説明を簡略化するため、単色表示が可能な表示器であるものとする。また、以後の図において、本実施形態の3次元表示器30における表示画素の並びを1次元的に表現するものとする。なお、以降の説明で単に「視点」と述べる場合、「視点」は、3次元表示器30の位置から見たユーザーの両目の位置のことを意味し、1つの「視点」にはユーザーの右目用の画像と、左目用の画像とが届けられる。
FIG. 2B is a diagram illustrating an example of each lenticular lens 301 for displaying a multi-viewpoint image and each display pixel with a guaranteed relative position.
The three-dimensional display 30 in FIG. 2B has a pixel 302 to a pixel in each lenticular lens to enable display of a multi-viewpoint three-dimensional image when the user views the three-dimensional display 30 from six directions. It has a series of seven display pixels up to 303. Note that the multi-viewpoint three-dimensional image is a 3D image produced by photographing a single subject from a plurality of viewpoints or a computer graphics or the like as shown in FIG. It is a dimensional image. In addition, the three-dimensional display 30 of the present embodiment is a display that is generally realized by a known technology and can perform color display. However, in order to simplify the description, a display that can perform single-color display. Suppose that In the subsequent drawings, the arrangement of display pixels in the three-dimensional display 30 of this embodiment is one-dimensionally expressed. In the following description, when simply referred to as “viewpoint”, “viewpoint” means the position of both eyes of the user viewed from the position of the three-dimensional display 30, and one “viewpoint” includes the right eye of the user. And an image for the left eye are delivered.

次に、ユーザーが異なる視点から3次元表示器30を見た場合に見える画素について、図2C、図2Dを用いて説明する。
図2Cは、ユーザーが視点1から3次元表示器30を見た場合に見える画素の一例を示す図である。
図2Dは、ユーザーが視点4から3次元表示器30を見た場合に見える画素の一例を示す図である。
レンチキュラーレンズ301の光学特性により、視点1のユーザーの右目では画素2のみが、視点1のユーザーの左目では画素1のみが見える。また、視点4のユーザーの右目では画素5のみが、視点4のユーザーの左目では画素4のみが見える。このようなレンチキュラーレンズによる3次元画像の表示は公知の原理であるため、詳細な説明を省略する。
Next, pixels that can be seen when the user views the three-dimensional display 30 from different viewpoints will be described with reference to FIGS. 2C and 2D.
FIG. 2C is a diagram illustrating an example of pixels that are visible when the user views the three-dimensional display 30 from the viewpoint 1.
FIG. 2D is a diagram illustrating an example of pixels that are visible when the user views the three-dimensional display 30 from the viewpoint 4.
Due to the optical characteristics of the lenticular lens 301, only the pixel 2 is visible to the right eye of the user at the viewpoint 1 and only the pixel 1 is visible to the left eye of the user at the viewpoint 1. Further, only the pixel 5 is visible to the right eye of the user at the viewpoint 4, and only the pixel 4 is visible to the left eye of the user at the viewpoint 4. Since the display of a three-dimensional image by such a lenticular lens is a known principle, detailed description thereof is omitted.

図3は、上記の6つの視点と、その視点に対応する画像を表示するために撮影する撮影画像との関係の一例を示す図である。
それぞれの視点では、ユーザーの左右の目それぞれで見た画像に相当する2つの2次元画像が撮影される。3次元表示器30は、同一被写体を視点1から視点6まで連続的に3次元表示するため、視点N(Nは1から6までの何れかの整数)においてユーザーの左目に届ける画像Nと、視点N−1においてユーザーの右目に届ける画像とが同じとなる。3次元表示器30は、これらの画像を示す2次元画像情報を分割して先のレンチキュラーレンズ301と相対位置を保った液晶表示画素で表示すれば、図3で示す視点から被写体を見た際と同じ立体像をユーザーに見せることができる。即ち、図2C、図2Dで示す画素1は、視点1の左側で撮影した2次元画像(画像1)を示す2次元画像情報の一部であり、画素2は、視点1の右側で撮影した2次元画像(画像2)を示す2次元画像情報の一部である。また、図2C、図2Dで示す画素4は、視点4の左側で撮影した2次元画像(画像4)を示す2次元画像情報の一部であり、画素5は、視点4の右側で撮影した2次元画像(画像5)を示す2次元画像情報の一部である。
FIG. 3 is a diagram illustrating an example of a relationship between the above-described six viewpoints and a captured image that is captured to display an image corresponding to the viewpoint.
At each viewpoint, two two-dimensional images corresponding to images viewed by the user's left and right eyes are taken. Since the three-dimensional display 30 continuously displays the same subject from the viewpoint 1 to the viewpoint 6 in a three-dimensional manner, the image N delivered to the user's left eye at the viewpoint N (N is any integer from 1 to 6); The image delivered to the user's right eye at the viewpoint N-1 is the same. When the three-dimensional display 30 divides the two-dimensional image information indicating these images and displays them on the liquid crystal display pixels maintained in the relative position with the previous lenticular lens 301, the three-dimensional display 30 looks at the subject from the viewpoint shown in FIG. The same stereoscopic image can be shown to the user. That is, the pixel 1 shown in FIGS. 2C and 2D is a part of the two-dimensional image information indicating the two-dimensional image (image 1) taken on the left side of the viewpoint 1, and the pixel 2 is taken on the right side of the viewpoint 1. It is a part of two-dimensional image information indicating a two-dimensional image (image 2). 2C and 2D are a part of two-dimensional image information indicating a two-dimensional image (image 4) photographed on the left side of the viewpoint 4, and the pixel 5 is photographed on the right side of the viewpoint 4. It is a part of two-dimensional image information indicating a two-dimensional image (image 5).

図4は、本実施形態の画像処理装置の機能構成の一例を示す図である。
画像処理装置は、多視点3次元画像情報取得部401と、3次元画像表示部402と、画像指定部403と、マーカー描画部404とを有する。
多視点3次元画像情報取得部401は、CPU10によって制御される。多視点3次元画像情報取得部401は、3次元画像情報を記憶装置80から取得したり、ネットワーク制御部90及びネットワーク回線110を介して外部から取得したりする。なお、多視点3次元画像情報取得部401による処理は、取得処理の一例である。
3次元画像表示部402は、表示器2の機能に対応し、CPU10によって制御される。3次元画像表示部402は、多視点3次元画像情報取得部401で取得された3次元画像情報に基づいて、3次元画像を表示する。なお、3次元画像表示部402による処理は、表示処理の一例である。
FIG. 4 is a diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment.
The image processing apparatus includes a multi-viewpoint three-dimensional image information acquisition unit 401, a three-dimensional image display unit 402, an image designation unit 403, and a marker drawing unit 404.
The multi-view 3D image information acquisition unit 401 is controlled by the CPU 10. The multi-viewpoint three-dimensional image information acquisition unit 401 acquires the three-dimensional image information from the storage device 80 or acquires it from the outside via the network control unit 90 and the network line 110. Note that the processing by the multi-viewpoint three-dimensional image information acquisition unit 401 is an example of acquisition processing.
The three-dimensional image display unit 402 corresponds to the function of the display device 2 and is controlled by the CPU 10. The 3D image display unit 402 displays a 3D image based on the 3D image information acquired by the multi-viewpoint 3D image information acquisition unit 401. Note that the processing by the three-dimensional image display unit 402 is an example of display processing.

画像指定部403は、CPU10によって制御される。画像指定部403は、タッチパネル40、キーボード50、マウスやタッチパッド55及び撮像装置20を介したユーザーの指示に基づいて、表示器2に表示された画像オブジェクトの画像情報を画像指定する。つまり、画像指定部403は、ユーザーによる上記の画像指定操作に基づいて、画像オブジェクトの画像情報を画像指定することになる。詳細については、図5等を用いて後述する。なお、画像指定部403による処理は、指定処理の一例である。
マーカー描画部404は、CPU10によって制御される。マーカー描画部404は、画像指定部により画像指定された3次元画像オブジェクトをより明確に表示するために、前記3次元画像オブジェクトの近傍、かつ、その手前の3次元位置にマーカーを描画する。なお、マーカー描画部404による処理は、描画処理の一例である。
The image designation unit 403 is controlled by the CPU 10. The image designation unit 403 designates the image information of the image object displayed on the display device 2 based on a user instruction via the touch panel 40, the keyboard 50, the mouse or touch pad 55, and the imaging device 20. That is, the image designation unit 403 designates the image information of the image object based on the above-described image designation operation by the user. Details will be described later with reference to FIG. The process by the image designation unit 403 is an example of a designation process.
The marker drawing unit 404 is controlled by the CPU 10. The marker drawing unit 404 draws a marker in the vicinity of and in front of the three-dimensional image object in order to more clearly display the three-dimensional image object designated by the image designation unit. The process by the marker drawing unit 404 is an example of a drawing process.

図5は、3次元画像表示部402が多視点3次元画像を表示している状態で、ユーザーが所望する画像オブジェクトを画像指定部403が指定し、マーカー描画部404が画像オブジェクトを指し示すマーカーを描画する処理の一例を示すフローチャートである。
S500で、3次元画像表示部402は、例えば撮影した3次元画像を閲覧できるアプリケーションプログラム等の実行に応じて、3次元画像を3次元表示器30で3次元表示し、処理をS501に進める。
S501で、CPU10は、指定の視点方向から見た3次元画像を表示する指示を検知したか否かを判定し、検知したと判定した場合、処理をS502に進める。一方、CPU10は、検知しなかったと判定した場合、処理をS503に進める。例えば、CPU10は、アプリケーションプログラム中の視点指定ボタン等でユーザーが所望する視点Nを指定した場合、指定された視点Nから見た3次元画像を正面に表示する視点指定の要求があると判定して処理をS502に進める。
In FIG. 5, in a state where the three-dimensional image display unit 402 displays a multi-viewpoint three-dimensional image, the image designation unit 403 designates an image object desired by the user, and the marker drawing unit 404 designates a marker indicating the image object. It is a flowchart which shows an example of the process to draw.
In step S500, the three-dimensional image display unit 402 displays the three-dimensional image on the three-dimensional display 30 in accordance with execution of an application program or the like that can view the captured three-dimensional image, and advances the process to step S501.
In S501, the CPU 10 determines whether or not an instruction to display a three-dimensional image viewed from the designated viewpoint direction is detected. If it is determined that the instruction is detected, the process proceeds to S502. On the other hand, if the CPU 10 determines that it has not been detected, the process proceeds to step S503. For example, when the user designates a desired viewpoint N with a viewpoint designation button or the like in the application program, the CPU 10 determines that there is a viewpoint designation request for displaying a three-dimensional image viewed from the designated viewpoint N in front. Then, the process proceeds to S502.

本実施形態では、画像オブジェクトをユーザーが指し示す前に、複数の視点の画像のうちでどの視点から見た画像に対してユーザーが画像オブジェクトを指し示すべきか、その視点Nを指定する処理が行われる。即ち、ユーザーは、多視点3次元画像のうち、指し示すべき画像オブジェクトを指し示しやすい視点Nの3次元画像上で指し示す。なお、画像指定部403は、複数の視点の画像のうち、ユーザーにより指定された視点の3次元画像を指定する。
S502で、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーにより指定された視点の3次元画像を指定して表示し、処理をS503に進める。S502の処理について、図6A、図6Bを用いてより具体的に説明する。
In the present embodiment, before the user points to the image object, a process for designating the viewpoint N as to which image the user should point to the image object from among the viewpoints among the images of the plurality of viewpoints is performed. . That is, the user points on the three-dimensional image at the viewpoint N that easily points to the image object to be pointed out of the multi-viewpoint three-dimensional images. Note that the image designation unit 403 designates a three-dimensional image at a viewpoint designated by the user among a plurality of viewpoint images.
In step S502, the image designation unit 403 designates and displays a three-dimensional image of the viewpoint designated by the user from the multi-viewpoint three-dimensional image displayed by the three-dimensional image display unit 402, and the process proceeds to step S503. The process of S502 will be described more specifically with reference to FIGS. 6A and 6B.

図6Aは、タッチパネル40の表示の一例を示す図である。
図6Bは、各視点と、3次元画像表示との関係の一例を示す図である。
3次元画像表示部402は、タッチパネル40に表示される視点選択ボタン601のスクロールによる視点の選択に応じて、前述の6視点から成る多視点3次元画像の各視点から見た3次元画像を順次、3次元表示器30の正面に表示させる。なお、3次元表示するための3次元画像情報は、既定の規格に合致しているものとする。3次元画像表示部402は、多視点3次元画像情報取得部401で取得され、記憶装置80やRAM70に格納された3次元画像情報の中から、必要に応じて3次元表示器30が有する表示用記憶素子に各視点の3次元画像情報を選択的に供給して表示を行う。
そして、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーにより指定された視点の3次元画像を指定する。
FIG. 6A is a diagram illustrating an example of display on the touch panel 40.
FIG. 6B is a diagram illustrating an example of the relationship between each viewpoint and three-dimensional image display.
The three-dimensional image display unit 402 sequentially displays the three-dimensional images viewed from the respective viewpoints of the multi-viewpoint three-dimensional image including the six viewpoints according to the selection of the viewpoint by scrolling the viewpoint selection button 601 displayed on the touch panel 40. It is displayed on the front of the three-dimensional display 30. It is assumed that the 3D image information for 3D display conforms to a predetermined standard. The three-dimensional image display unit 402 is a display that the three-dimensional display 30 has as necessary from the three-dimensional image information acquired by the multi-viewpoint three-dimensional image information acquisition unit 401 and stored in the storage device 80 or the RAM 70. 3D image information of each viewpoint is selectively supplied to the storage element for display.
Then, the image designation unit 403 designates the three-dimensional image of the viewpoint designated by the user from the multi-viewpoint three-dimensional image displayed by the three-dimensional image display unit 402.

以下、ユーザーが多視点3次元画像から所望する視点を選択する手順について説明する。
3次元表示器30のタッチパネル40の中央部の表示領域600に表示される情報は、ユーザーの操作により、図2で説明した多視点3次元画像を表示するための3次元画像情報から指定の視点の3次元画像のみを表示する3次元画像情報に切り替えられる。即ち、3次元画像表示部402は、3次元表示器30を正面から見た場合のみユーザーが任意の視点の3次元画像を見ることができるように、各視点から見た3次元画像を表示領域600に順次、表示するように表示制御する。より具体的には、ユーザーは、画面下部に表示された視点選択ボタン601をタッチパネル40の操作によりスクロールすることで表示領域600に表示される表示画像を切り替えることができる。例えばユーザーは、視点選択ボタン601をタッチパネル40の操作で矢印方向にスクロールすれば、視点選択ボタン601の位置に応じて表示画像を視点6、視点5、視点4、視点3、視点2、視点1の順に各視点から見た3次元画像に切り替えることができる。
なお、ユーザーが視点選択ボタン601を操作しなければ、S501で視点指定が無いと判定され、3次元画像表示部402は、表示領域600に多視点3次元画像を表示したまま、処理をS503に進める。
A procedure for the user to select a desired viewpoint from the multi-viewpoint three-dimensional image will be described below.
The information displayed in the display area 600 in the center of the touch panel 40 of the three-dimensional display 30 is a specified viewpoint from the three-dimensional image information for displaying the multi-view three-dimensional image described in FIG. The three-dimensional image information for displaying only the three-dimensional image is switched. That is, the three-dimensional image display unit 402 displays the three-dimensional image viewed from each viewpoint so that the user can view the three-dimensional image of an arbitrary viewpoint only when the three-dimensional display 30 is viewed from the front. Display control is performed so that the images are sequentially displayed on the screen 600. More specifically, the user can switch the display image displayed in the display area 600 by scrolling the viewpoint selection button 601 displayed at the bottom of the screen by operating the touch panel 40. For example, if the user scrolls the viewpoint selection button 601 in the direction of the arrow by operating the touch panel 40, the display image is changed to the viewpoint 6, viewpoint 5, viewpoint 4, viewpoint 3, viewpoint 2, viewpoint 1 according to the position of the viewpoint selection button 601. It is possible to switch to a three-dimensional image viewed from each viewpoint in this order.
If the user does not operate the viewpoint selection button 601, it is determined in S 501 that there is no viewpoint designation, and the 3D image display unit 402 proceeds to S 503 while displaying the multi-viewpoint 3D image in the display area 600. Proceed.

多視点3次元画像は、1つのレンチキュラーレンズ内にある各視点から見た3次元画像である。3次元画像表示部402は、多視点3次元画像を表示するために、多視点3次元画像を構成する全ての2次元画像情報を含む3次元画像情報603を表示する。しかし、3次元画像表示部402は、処理がS502に移行すると、視点選択ボタン601の位置に応じて、例えば視点4用の3次元画像情報604が示す3次元画像を表示領域600に表示する。ここで、視点4用の3次元画像情報604は、ユーザーが3次元表示器30の正面から見た場合に視点4の3次元画像が表示されるための情報に変更されている。即ち、3次元画像表示部402は、レンチキュラーレンズの中央部の画素位置に視点4の左目用2次元画像情報4及び右目用2次元画像情報5を表示し、他の画素位置を黒データに固定する。これにより、ユーザーは、3次元表示器30を正面から見れば視点4の3次元画像が見え、それ以外の角度からは何も見えなくなる。つまり、S502で、画像指定部403は、多視点3次元画像を示す3次元画像情報の一部を書き換えて、指定の視点の3次元画像のみを示す3次元画像情報に変更(又は生成)する処理を行っている。   The multi-viewpoint three-dimensional image is a three-dimensional image viewed from each viewpoint in one lenticular lens. The 3D image display unit 402 displays 3D image information 603 including all 2D image information constituting the multiview 3D image in order to display the multiview 3D image. However, when the process proceeds to S <b> 502, the 3D image display unit 402 displays, for example, the 3D image indicated by the 3D image information 604 for the viewpoint 4 in the display area 600 according to the position of the viewpoint selection button 601. Here, the three-dimensional image information 604 for the viewpoint 4 is changed to information for displaying the three-dimensional image of the viewpoint 4 when the user views from the front of the three-dimensional display 30. That is, the three-dimensional image display unit 402 displays the left-eye two-dimensional image information 4 and the right-eye two-dimensional image information 5 of the viewpoint 4 at the center pixel position of the lenticular lens, and fixes the other pixel positions to black data. To do. As a result, the user can see the three-dimensional image at the viewpoint 4 when viewing the three-dimensional display 30 from the front, and cannot see anything from other angles. That is, in S502, the image designation unit 403 rewrites a part of the 3D image information indicating the multi-viewpoint 3D image, and changes (or generates) the 3D image information indicating only the 3D image of the specified viewpoint. Processing is in progress.

図5のフローチャートは一般化されているため、本実施形態では視点を4に指定した場合について説明する。つまり、図中のNを4と読み替えて以降の説明をする。
画像指定部403は、視点選択ボタン601をユーザーが矢印方向に移動させた場合、その位置に応じて、表示する3次元画像情報を、視点4の3次元画像を表示する3次元画像情報604から他の視点における3次元画像情報に変更する。これにより、3次元画像表示部402は、視点選択ボタン601で指示された視点から見た3次元画像を順次表示することができる。また、指定された視点の3次元画像以外の3次元画像については表示されない処理(無効化処理)が施されているので、ユーザーが3次元表示器30を異なる角度で見ることによって所望する画像と異なる画像が選択されることを防止することができる。ユーザーは、この視点選択ボタン601をスクロールして、所望の視点からの3次元画像が表示された状態にした上で、表示された3次元画像の中で、更に画像指定するべき画像オブジェクトをタッチパネル40で指し示す。即ち、ユーザーは、タッチパネル40を介して画像オブジェクトを指定するための入力操作(以後、画像指定入力という)を行う。
Since the flowchart of FIG. 5 is generalized, a case where the viewpoint is designated as 4 will be described in the present embodiment. That is, the following explanation will be made by replacing N in the drawing with 4.
When the user moves the viewpoint selection button 601 in the direction of the arrow, the image designating unit 403 changes the 3D image information to be displayed from the 3D image information 604 to display the 3D image of the viewpoint 4 according to the position. Change to 3D image information in another viewpoint. Thereby, the three-dimensional image display unit 402 can sequentially display the three-dimensional images viewed from the viewpoint designated by the viewpoint selection button 601. In addition, since processing (invalidation processing) that is not displayed for a 3D image other than the 3D image of the designated viewpoint is performed, the user can view the desired image by viewing the 3D display 30 from different angles. It is possible to prevent different images from being selected. The user scrolls the viewpoint selection button 601 so that a three-dimensional image from a desired viewpoint is displayed, and then, in the displayed three-dimensional image, an image object to be further designated is displayed on the touch panel. 40. That is, the user performs an input operation (hereinafter referred to as image designation input) for designating an image object via the touch panel 40.

S503で、画像指定部403は、ユーザーによる画像指定入力を検知した場合、処理をS504に進める。一方、画像指定部403は、ユーザーによる画像指定入力を検知しなかった場合、処理をS500に戻す。
S504、S505の処理は、ユーザーによって指示された画像オブジェクトを画像指定部403が認識する処理である。
視点4で表示される3次元画像中でユーザーが指し示した画像オブジェクトを画像指定部403が認識する処理を、図7A、図7Bを用いて説明する。
図7Aは、視点4で3次元画像として表示した左目用の画像4の一例を示す図である。
図7Bは、視点4で3次元画像として表示した右目用の画像5の一例を示す図である。
なお、両画像中には視差に応じて異なる矩形の被写体が表示されている。
図7Aの左目用画像4中の矩形の被写体の中央部Q4の位置(X4、Y4)は、S503でユーザーがタッチパネル40で指定した画像オブジェクトを指し示した位置である。
本実施形態では、ユーザーが指し示した位置はどの視点においても、その左目用の2次元画像上で確定させる。例えば視点Nであれば画像N上の位置である。
In step S503, when the image designation unit 403 detects an image designation input by the user, the process proceeds to step S504. On the other hand, if the image designation unit 403 does not detect an image designation input by the user, the process returns to S500.
The processes in S504 and S505 are processes in which the image designation unit 403 recognizes an image object designated by the user.
Processing for the image designation unit 403 to recognize the image object pointed to by the user in the three-dimensional image displayed at the viewpoint 4 will be described with reference to FIGS. 7A and 7B.
FIG. 7A is a diagram illustrating an example of the image 4 for the left eye displayed as a three-dimensional image at the viewpoint 4.
FIG. 7B is a diagram illustrating an example of the right-eye image 5 displayed as a three-dimensional image at the viewpoint 4.
In both images, different rectangular subjects are displayed according to the parallax.
The position (X4, Y4) of the central portion Q4 of the rectangular subject in the left-eye image 4 in FIG. 7A is the position that points to the image object designated by the user on the touch panel 40 in S503.
In this embodiment, the position pointed to by the user is determined on the two-dimensional image for the left eye at any viewpoint. For example, if it is the viewpoint N, it is a position on the image N.

図3で説明したように、各画像1から7までは、画像4を正面にし、それぞれ被写体に既定の角度を有して撮影されている。したがって、仮想平面図700中の被写体の座標位置は、図7Aの左目画像4における被写体の点P1、P2、P3を、左目の視線L41、L42、L43の方向に沿って仮想平面図700に射影すれば得ることができる。この被写体の点P1からP3までをオブジェクトの変化点と呼ぶ。同様に、図7Bの右目用画像5における被写体の点P1、P2、P3を、既定の角度を有した右目の視線L51、L52、L53の方向に沿って仮想平面図700に射影する。そして、これら点P1からP3までを通る視線L41からL43までのそれぞれがL51からL53までと仮想平面図700上で交差する位置が、仮想平面図700中の被写体の点P1からP3までの奥行きに対応する座標位置である。
なお、画像指定部403が仮想平面図700における被写体の点P1、P2、P3の奥行きに対応する座標位置を求める処理が画像オブジェクトを認識する処理であり、図5に示すS504の処理である。
As described with reference to FIG. 3, each of the images 1 to 7 is taken with the image 4 in front and each subject having a predetermined angle. Therefore, the coordinate position of the subject in the virtual plan view 700 is projected onto the virtual plan view 700 along the directions of the left eyes line of sight L41, L42, and L43 on the subject points P1, P2, and P3 in the left eye image 4 of FIG. 7A. You can get it. The subject points P1 to P3 are called object change points. Similarly, the points P1, P2, and P3 of the subject in the right-eye image 5 of FIG. 7B are projected onto the virtual plan view 700 along the directions of the lines of sight L51, L52, and L53 having a predetermined angle. Then, the positions at which the lines of sight L41 to L43 passing through the points P1 to P3 intersect with L51 to L53 on the virtual plan view 700 are the depths from the points P1 to P3 of the subject in the virtual plan view 700. Corresponding coordinate position.
Note that the process in which the image designation unit 403 obtains the coordinate positions corresponding to the depths of the subject points P1, P2, and P3 in the virtual plan view 700 is a process of recognizing an image object, and is the process of S504 shown in FIG.

S504で、画像指定部403は、画像4からの視線L41と、画像5からの視線L51との交点P1と、画像4からの視線L42と、画像5からの視線L52との交点P2と、画像4からの視線L43と、画像5からの視線L53との交点P3とを求めた。この交点P1からP3までの位置関係を図8A、図8Bの仮想平面図700に示す。
図8Aは、各画像からの視線の交点の仮想平面上における位置関係の一例を示す図である。
この各交点P1、P2、P3を仮想平面図700上で結べば、ユーザーが指し示した画像オブジェクト全体の奥行きに対応する座標位置を含む3次元の座標位置(3次元位置)を得ることができる。この様子を図8Bに示す。
図8Bは、マーカーが表示される位置の一例を示す図である。
画像指定部403が、このオブジェクト全体の奥行きに対応する座標位置を含む3次元位置を求める処理が、図5におけるS505の処理である。
なお、本実施形態では、両画像中の被写体の形状の変化点P1からP3までから得られる視線の交点から画像オブジェクトの3次元位置を求めたが、これに限る必要はない。例えば変化点は3次元的なものでなく、両画像中の被写体で対として認識できる画像の濃淡の変化等の模様であってもよい。
In step S504, the image designating unit 403 determines the intersection point P1 of the line of sight L41 from the image 4, the line of sight L51 from the image 5, the line of sight L42 from the image 4, and the line of sight L52 from the image 5, and the image The line of sight L43 from 4 and the intersection P3 of the line of sight L53 from the image 5 were obtained. The positional relationship from the intersection points P1 to P3 is shown in a virtual plan view 700 of FIGS. 8A and 8B.
FIG. 8A is a diagram illustrating an example of the positional relationship on the virtual plane of the intersection of the lines of sight from each image.
By connecting the intersections P1, P2, and P3 on the virtual plan view 700, a three-dimensional coordinate position (three-dimensional position) including a coordinate position corresponding to the entire depth of the image object pointed to by the user can be obtained. This is shown in FIG. 8B.
FIG. 8B is a diagram illustrating an example of a position where a marker is displayed.
The process in which the image specifying unit 403 obtains a three-dimensional position including the coordinate position corresponding to the depth of the entire object is the process of S505 in FIG.
In the present embodiment, the three-dimensional position of the image object is obtained from the intersection of the lines of sight obtained from the change points P1 to P3 of the shape of the subject in both images. However, the present invention is not limited to this. For example, the change point is not three-dimensional, and may be a pattern such as a change in shade of an image that can be recognized as a pair by a subject in both images.

ここで、図8Bにおいて、ユーザーが指し示した箇所は、画像4の指定ポイントQ4からの視線L40が仮想平面上のP1と、P2とを結ぶ被写体の面と交わる位置Qである。この位置Qを画像オブジェクトの奥行きを考慮して3次元的に指し示すマーカーを、本実施形態では画像4上で上向きに正立する、矢印形状のマーカー800とする。
マーカー描画部404は、仮想平面図700上でマーカー800を指定された画像オブジェクト中の指し示した箇所である位置Qから奥行き方向で所定の距離内の位置(近傍位置M)にマーカーを表示できるように設定する。マーカー描画部404が、このマーカー800の表示位置を近傍位置Mに設定する処理が、図5に示すS506の処理である。
次に、S507で、マーカー描画部404は、マーカー800を3次元表示するために画像5中に描画する位置を決定する。マーカー描画部404は、指定された視点が視点Nである場合、画像N+1上のマーカーの描画位置を決定する。S507の処理について、図8Bを用いて説明する。
マーカー描画部404は、S506で設定した仮想平面図700のマーカー800の表示位置となる位置Mから、画像5に向けた視線L50と、画像5中の直線Y=Y4との交点(X5、Y4)に、画像5上のマーカー800の描画位置Q5を決定する。なお、画像5に向けた視線L50が他のオブジェクトで遮られた場合、視線L50と、直線Y=Y4との交点は無いため、描画位置Q5は存在しないことになる。
Here, in FIG. 8B, the point indicated by the user is the position Q where the line of sight L40 from the designated point Q4 of the image 4 intersects the surface of the subject connecting P1 and P2 on the virtual plane. In this embodiment, a marker that points this position Q in a three-dimensional manner in consideration of the depth of the image object is an arrow-shaped marker 800 that stands upright on the image 4.
The marker drawing unit 404 can display the marker at a position within a predetermined distance in the depth direction (neighboring position M) from the position Q, which is the location indicated in the image object designated by the marker 800 on the virtual plan view 700. Set to. The process in which the marker drawing unit 404 sets the display position of the marker 800 to the vicinity position M is the process in S506 shown in FIG.
In step S <b> 507, the marker drawing unit 404 determines a drawing position in the image 5 for displaying the marker 800 in a three-dimensional manner. When the designated viewpoint is the viewpoint N, the marker drawing unit 404 determines the marker drawing position on the image N + 1. The process of S507 will be described with reference to FIG. 8B.
The marker drawing unit 404 uses the intersection (X5, Y4) of the line of sight L50 toward the image 5 and the straight line Y = Y4 in the image 5 from the position M, which is the display position of the marker 800 in the virtual plan view 700 set in S506. ), The drawing position Q5 of the marker 800 on the image 5 is determined. When the line of sight L50 toward the image 5 is blocked by another object, there is no intersection between the line of sight L50 and the straight line Y = Y4, and therefore the drawing position Q5 does not exist.

次に、マーカーの描画処理、即ち、S508の処理について、図9A、図9B、図9Cを用いて説明する。
図9Aは、各視点の画像中のマーカー位置にマーカーが描画された一例を示す図である。
図9Bは、マーカー描画部404により生成された左目に与えられる画像の一例を示す図である。
図9Cは、マーカー描画部404により生成された右目に与えられる画像の一例を示す図である。
マーカー描画部404は、図9Aに示すように、先に説明した視点4の左目用2次元画像中のマーカー位置Q4(X4、Y4)及び視点4の右目用2次元画像中のマーカー位置Q5(X5、Y4)に、矢印形状のマーカーを被写体に重ねて描画する。つまり、マーカー描画部404は、左目に与えられる画像4及び右目に与えられる画像5を、図9B、図9Cのように生成する。なお、マーカー描画部404は、ROM60等に予め格納されている矢印形状のマーカー800を含むマーカー描画パーツから任意のパーツを選択してマーカーの描画をすることができる。
Next, the marker drawing process, that is, the process of S508 will be described with reference to FIGS. 9A, 9B, and 9C.
FIG. 9A is a diagram illustrating an example in which a marker is drawn at a marker position in each viewpoint image.
FIG. 9B is a diagram illustrating an example of an image given by the left eye generated by the marker drawing unit 404.
FIG. 9C is a diagram illustrating an example of an image given by the right eye generated by the marker drawing unit 404.
As shown in FIG. 9A, the marker drawing unit 404 performs the marker position Q4 (X4, Y4) in the left-eye two-dimensional image of the viewpoint 4 and the marker position Q5 in the right-eye two-dimensional image of the viewpoint 4 as described above. In X5, Y4), an arrow-shaped marker is drawn over the subject. That is, the marker drawing unit 404 generates the image 4 given to the left eye and the image 5 given to the right eye as shown in FIGS. 9B and 9C. The marker drawing unit 404 can draw a marker by selecting an arbitrary part from marker drawing parts including the arrow-shaped marker 800 stored in advance in the ROM 60 or the like.

画像4中に描画したマーカー901と、画像5中に描画したマーカー902とは、被写体に対する視点の角度の違いからその幅が異なるが、これらの違いは各視点に応じて予めマーカー描画データとしてROM60に記憶保持されている。したがって、マーカー描画部404は、各視点画像用のマーカー描画データをROM60等から読み出して描画すれば、高速に描画することができる。
ユーザーは、画像4及び画像5の被写体に重ねて描画したマーカー901及び902を、それぞれ左右の目で見れば、仮想平面図700に示すように、3次元表示における奥行き方向で、被写体の手前の近傍位置にマーカー800が立体的に見える。
The marker 901 drawn in the image 4 and the marker 902 drawn in the image 5 have different widths due to the difference in the angle of the viewpoint with respect to the subject, but these differences are stored in advance in the ROM 60 as marker drawing data according to each viewpoint. Is stored in memory. Therefore, the marker drawing unit 404 can draw at high speed if the marker drawing data for each viewpoint image is read from the ROM 60 or the like and drawn.
If the user sees the markers 901 and 902 drawn on the subject of the image 4 and the image 5 with the left and right eyes, respectively, as shown in the virtual plan view 700, the user can see the markers in front of the subject in the depth direction in the three-dimensional display. The marker 800 appears three-dimensionally in the vicinity.

以上、S508では視点4の3次元画像中の画像指定された画像オブジェクトを指し示すマーカー800を3次元描画して3次元表示したが、先に説明したように、画像5は視点5の左目用2次元画像である。したがって、図7A、図7Bを用いて説明した一連の処理と同様に、画像指定部403は、画像5の2次元画像と、画像6の2次元画像とを用いて仮想平面図700上に被写体及びマーカー800を認識すれば、画像6上にマーカー位置Q6を得ることができる。即ち、図5におけるS505からS508までの処理を全ての視点に対して順次繰り返せば、マーカー描画部404は、多視点3次元画像として画像オブジェクトを指し示すマーカー800を描画することができる。
処理をS508からS500に戻せば、今描画したマーカー800は、視点Nから3次元画像として見ることができる。なお、この状態でユーザーが更に画像指定位置を移動させれば、その移動に応じて先の処理が繰り返し実行される。そのため、マーカー800は、ユーザーが指し示す画像オブジェクトの3次元位置に応じてその近傍を3次元的に変えながら移動して表示されることになる。
As described above, in S508, the marker 800 indicating the image object designated in the three-dimensional image of the viewpoint 4 is three-dimensionally drawn and three-dimensionally displayed. However, as described above, the image 5 is for the left eye 2 of the viewpoint 5. It is a dimensional image. Therefore, similarly to the series of processing described with reference to FIGS. 7A and 7B, the image designation unit 403 uses the two-dimensional image of the image 5 and the two-dimensional image of the image 6 to display the subject on the virtual plan view 700. If the marker 800 is recognized, the marker position Q6 can be obtained on the image 6. That is, if the processing from S505 to S508 in FIG. 5 is sequentially repeated for all viewpoints, the marker drawing unit 404 can draw the marker 800 indicating the image object as a multi-viewpoint three-dimensional image.
If the processing is returned from S508 to S500, the marker 800 just drawn can be viewed from the viewpoint N as a three-dimensional image. If the user further moves the image designation position in this state, the previous processing is repeatedly executed according to the movement. Therefore, the marker 800 is moved and displayed while changing its neighborhood three-dimensionally according to the three-dimensional position of the image object pointed to by the user.

図10Aは、仮想平面図の表示の一例を示す図である。
図10Bは、図10Aに対応する視点画像の一例を示す図である。なお、図10Bの1001は、3個の被写体それぞれを正面から見て指し示した例で、それぞれマーカーは1006、1007、1008として3次元表示されている。
図10Cは、図10Aと異なる視点の仮想平面図の表示の一例を示す図である。
図10Dは、図10Cに対応する視点画像の一例を示す図である。
図10Aの1002の視点からはマーカー1006として指し示した画像オブジェクトは、被写体1005の影に隠れてほとんど見ることができない。したがって、その近傍に表示されたマーカー1006は、この視点からは図示するように、ほとんど見ることができない。これは本実施形態によるマーカーの描画が指し示された画像オブジェクトをより正確に指し示していることを意味する。
FIG. 10A is a diagram illustrating an example of a virtual plan view display.
FIG. 10B is a diagram illustrating an example of a viewpoint image corresponding to FIG. 10A. Note that reference numeral 1001 in FIG. 10B is an example in which each of the three subjects is pointed from the front, and the markers are three-dimensionally displayed as 1006, 1007, and 1008, respectively.
FIG. 10C is a diagram illustrating an example of a display of a virtual plan view at a different viewpoint from FIG. 10A.
FIG. 10D is a diagram illustrating an example of a viewpoint image corresponding to FIG. 10C.
From the viewpoint of 1002 in FIG. 10A, the image object pointed as the marker 1006 is almost hidden behind the shadow of the subject 1005. Therefore, the marker 1006 displayed in the vicinity of the marker 1006 can hardly be seen from this viewpoint as shown in the figure. This means that the drawing of the marker according to the present embodiment points more accurately to the pointed image object.

なお、本実施形態は、画像指定された画像オブジェクトを指し示すマーカーの描画方法を特徴とする。そのため、本実施形態は、指し示した画像オブジェクトをその後、特定の目的のために確定させる操作、指し示した機能表示タブを有効にする操作、その操作に従う後続の処理等に関して、公知の技術の適用を妨げるものではない。つまり、2次元表示器を用いた従来のコンピュータシステムでプレゼンテーションのために広く使われている図面を作成するためのアプリケーションソフト等と同様の操作をすることができる。例えば、3次元表示された特定の画像オブジェクトのみを削除したり、より手前に配置したり、拡大処理したり、新たな既定形状の画像オブジェクトを所望する位置に挿入したりする操作等があげられる。   The present embodiment is characterized by a method of drawing a marker that points to an image object for which an image has been designated. Therefore, in the present embodiment, application of a known technique is applied to an operation for confirming the indicated image object for a specific purpose, an operation for enabling the indicated function display tab, a subsequent process according to the operation, and the like. It does not prevent it. That is, it is possible to perform the same operation as application software for creating a drawing widely used for presentation in a conventional computer system using a two-dimensional display. For example, operations such as deleting a specific image object displayed three-dimensionally, placing it closer, enlarging, or inserting a new default shape image object at a desired position, etc. .

以上、本実施形態によれば、3次元画像表示部402は、多視点3次元画像情報取得部401が取得した多視点3次元画像情報に基づいて多視点3次元画像を表示する。そして、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーの指示に基づいて画像オブジェクトを指定する。更に、マーカー描画部404は、画像指定部403により指定された画像オブジェクトの近傍に、常に前記画像オブジェクトの手前に表示されるようにマーカーを描画する。これにより、本実施形態の画像処理装置は、前記画像オブジェクトと、マーカーとの重なりを検出する手段を要さずに、所望の3次元画像の手前にマーカーを表示することができる。   As described above, according to the present embodiment, the 3D image display unit 402 displays a multiview 3D image based on the multiview 3D image information acquired by the multiview 3D image information acquisition unit 401. The image designation unit 403 designates an image object from the multi-viewpoint three-dimensional image displayed by the three-dimensional image display unit 402 based on a user instruction. Further, the marker drawing unit 404 draws a marker so that it is always displayed in front of the image object in the vicinity of the image object specified by the image specifying unit 403. Thereby, the image processing apparatus of this embodiment can display a marker in front of a desired three-dimensional image without requiring a means for detecting an overlap between the image object and the marker.

<実施形態2>
次に、マーカーが他の被写体で隠れている場合において、マーカーを別形態で描画する場合の実施形態について説明する。
図11Aから図11Dまでは、図10Aから図10Dまでで説明したように、ユーザーが指し示した視点と異なる視点で画像オブジェクト及びマーカーを見た際に、マーカーが他の被写体の後ろに隠れる場合におけるマーカーの別描画形態の一例を示す図である。
図11Aは、図10Aと同図である。
図11Bは、図10Bと同図である。
図11Cは、図10Cと同図である。
図11Dは、図10Dに示されるマーカー1006の隠れている部分を識別可能に表示した視点画像の一例を示す図である。より具体的には、ほとんど被写体1005に隠れているマーカー1101において、隠れた部分のみが色を変えて描画されている。
<Embodiment 2>
Next, an embodiment in which the marker is drawn in another form when the marker is hidden by another subject will be described.
11A to 11D, in the case where the marker is hidden behind another subject when the image object and the marker are viewed from a viewpoint different from the viewpoint pointed to by the user, as described in FIGS. 10A to 10D. It is a figure which shows an example of another drawing form of a marker.
FIG. 11A is the same as FIG. 10A.
FIG. 11B is the same as FIG. 10B.
FIG. 11C is the same as FIG. 10C.
FIG. 11D is a diagram illustrating an example of a viewpoint image in which a hidden portion of the marker 1006 illustrated in FIG. 10D is displayed in an identifiable manner. More specifically, in the marker 1101 that is almost hidden by the subject 1005, only the hidden portion is drawn with a different color.

本来、図11Cの仮想平面図1004のマーカー1006から図11Dの視点画像1003への視線L110は、オブジェクト1005で遮られるため、視点画像1003上までは届かない。そのため、マーカー描画部404は、マーカー1101を視点画像1003上に描くことはできないが、本実施形態ではマーカーから各視点画像上への視線が他のオブジェクトで遮られていても、遮られる部分を識別可能なマーカー1101として描画する。即ち、マーカー描画部404は、視線L110及び視線L111を用いて、その一部が他のオブジェクトで遮られる部分を識別できるように、マーカー1101を描画する。なお、マーカー描画部404によるマーカー描画方法は、マーカー1101のように隠れた部分の色を変更して描画する方法に限る必要はない。例えば、マーカー描画部404は、隠れたマーカー部分の輪郭のみを実線表示し、その中は被写体1005を透過して表示するようにしてもよい。
実施形態1では、マーカーが他の被写体に全て隠れた場合、ユーザーは、その視点から画像指定した画像オブジェクトを判別することができない。しかし、本実施形態によれば、マーカー描画部404が隠れた部分のマーカーを識別可能に描画することで、ユーザーは、隠れた画像オブジェクトの位置を推定することができるようになる。
Originally, the line of sight L110 from the marker 1006 in the virtual plan view 1004 in FIG. 11C to the viewpoint image 1003 in FIG. 11D is blocked by the object 1005, and thus does not reach the viewpoint image 1003. Therefore, the marker drawing unit 404 cannot draw the marker 1101 on the viewpoint image 1003, but in this embodiment, even if the line of sight from the marker to each viewpoint image is blocked by another object, Drawing as an identifiable marker 1101. That is, the marker drawing unit 404 draws the marker 1101 using the line of sight L110 and the line of sight L111 so that a part of the line can be identified by another object. Note that the marker drawing method by the marker drawing unit 404 is not limited to the method of drawing by changing the color of the hidden part like the marker 1101. For example, the marker drawing unit 404 may display only the outline of the hidden marker part as a solid line, and display the object 1005 through the outline.
In the first embodiment, when the markers are all hidden behind other subjects, the user cannot discriminate the image object designated as an image from the viewpoint. However, according to the present embodiment, the marker drawing unit 404 draws the hidden part of the marker so as to be identifiable, so that the user can estimate the position of the hidden image object.

<実施形態3>
実施形態1では、画像指定部403の実施形態として、ユーザーがタッチパネル40で画像オブジェクトをタッチして画像指定する前に、画像指定しやすい視点の3次元画像を選択させる実施形態について説明した。本実施形態では、画像指定部403が上記のような操作によらずユーザーの所望する画像オブジェクトを直接指し示せる実施形態について説明する。
本実施形態では、画像指定部403は、表示器30を操作観測しているユーザーを、撮像装置20を制御して撮影する。その後、画像指定部403は、撮影した画像からユーザーの表示器30に対する位置を認識して、ユーザーの表示器30に対する視点を認識する。そして、画像指定部403は、この認識したユーザーの視点と、タッチパネル40のタッチ位置とによって画像指定された画像オブジェクトを確定する。なお、ユーザーの表示器30に対する位置情報は、ユーザー位置情報の一例である。また、表示器30の位置情報は、表示器位置情報の一例である。
<Embodiment 3>
In the first embodiment, as an embodiment of the image designation unit 403, the embodiment has been described in which a user selects a viewpoint three-dimensional image that is easy to designate before touching the image object on the touch panel 40 to designate the image. In the present embodiment, an embodiment will be described in which the image designation unit 403 can directly point to an image object desired by the user regardless of the above operation.
In the present embodiment, the image designating unit 403 photographs a user who is operating and observing the display device 30 by controlling the imaging device 20. Thereafter, the image designation unit 403 recognizes the position of the user with respect to the display device 30 from the captured image, and recognizes the viewpoint of the user with respect to the display device 30. Then, the image designation unit 403 determines the image object that has been designated by the recognized user viewpoint and the touch position of the touch panel 40. In addition, the positional information with respect to the display 30 of a user is an example of user positional information. The position information of the display device 30 is an example of display device position information.

図12は、本実施形態における処理の一例を示すフローチャートである。
なお、図5で前述した処理と同じ処理については、同じ番号で記述している。また、図5で前述した処理と同じ処理については、説明を省略する。
S510で、画像指定部403は、ユーザーの視点を認識する。S510の処理の詳細について、図13、図14を用いて詳述する。
図13は、視点認識の原理の一例を示す図である。
図14は、S510の視点認識処理の一例を示すフローチャートである。
S1311で、画像指定部403は、撮像装置20を制御して表示器30の中央に設置された撮像装置20で正面を撮影し、図13の撮影画像1200に示す画像データを得る。そして、画像指定部403は、この撮影画像1200を示す画像データをRAM70に一時記憶させ、処理をS1312に進める。
S1312で、画像指定部403は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を指定する。画像指定部403は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を指定する。画像指定部403は、一般的に、人の顔認識は横に並ぶ1対の目の存在に着目して容易にその重心位置を認識することができる。
FIG. 12 is a flowchart illustrating an example of processing in the present embodiment.
The same processes as those described above with reference to FIG. 5 are described with the same numbers. The description of the same processing as that described above with reference to FIG.
In step S510, the image designation unit 403 recognizes the user's viewpoint. Details of the processing of S510 will be described in detail with reference to FIGS.
FIG. 13 is a diagram illustrating an example of the principle of viewpoint recognition.
FIG. 14 is a flowchart illustrating an example of the viewpoint recognition process in S510.
In step S <b> 1311, the image designation unit 403 controls the imaging device 20 to photograph the front surface with the imaging device 20 installed in the center of the display 30 and obtains image data illustrated in a captured image 1200 in FIG. 13. Then, the image specifying unit 403 temporarily stores the image data indicating the captured image 1200 in the RAM 70, and the process proceeds to S1312.
In step S1312, the image designation unit 403 designates the position of the user's face using a known pattern matching face recognition technique. The image designation unit 403 designates the position of the user's face using a known pattern matching face recognition technique. In general, the image specifying unit 403 can easily recognize the position of the center of gravity of a human face by paying attention to the presence of a pair of eyes arranged side by side.

認識したユーザーの顔の位置からユーザーの視点を指定する原理について、図13を用いて説明する。
一般的に、両目の視差を利用した3次元表示器では、観察者が表示器から所定の距離Lm離れた位置で最も立体画像を良好に見ることができる。即ち、撮影されたユーザーは、表示器30から、距離Lm離れた位置で撮影されたと推定することができる。したがって、画像指定部403は、得られた撮影画像のユーザーの両目の間隔Liが標準的に8cmだと想定して、ユーザーの位置の表示器中央からのズレLoを求めることができる。また、図13において、表示器30の前Lmの位置に示す仮想のライン1201上のユーザーの位置、即ち点Pから表示器30の中央を目指す方向がユーザーの視点といえる。
画像指定部403は、ユーザーが多視点3次元表示器30を点Pの位置から見た場合、予め撮影され、表示されたどの視点の3次元画像が最も良好に見えるかを判定することでユーザーが見ている視点の画像を特定することができる。即ち、表示器中央からのズレLoが正の値なら、視点1か、視点2か、視点3の何れかであり、表示器中央からのズレLoが負の値なら、視点6か、視点5か、視点4の何れかかである。
The principle of designating the user's viewpoint from the recognized user's face position will be described with reference to FIG.
In general, in a three-dimensional display using the parallax of both eyes, the observer can most satisfactorily view a stereoscopic image at a position away from the display by a predetermined distance Lm. In other words, it can be estimated that the photographed user is photographed at a position away from the display 30 by the distance Lm. Accordingly, the image designating unit 403 can obtain the deviation Lo of the user position from the center of the display unit assuming that the distance Li between the eyes of the user of the obtained captured image is typically 8 cm. In FIG. 13, the user's viewpoint is the position of the user on the virtual line 1201 shown at the position Lm before the display 30, that is, the direction from the point P toward the center of the display 30.
When the user views the multi-viewpoint three-dimensional display 30 from the position of the point P, the image specifying unit 403 determines which viewpoint three-dimensional image captured and displayed in advance is best viewed by the user. Can identify the image of the viewpoint that is looking at. That is, if the deviation Lo from the center of the display is a positive value, it is either the viewpoint 1, the viewpoint 2 or the viewpoint 3. If the deviation Lo from the center of the display is a negative value, the viewpoint 6 or the viewpoint 5 Or any one of viewpoints 4.

画像指定部403は、図13に示されるような推定されたユーザーの位置Pと、それぞれ表示されている3次元画像の視線が仮想のライン1201と交わる位置とを比較して、ユーザーの位置Pに近い視線を求める。これにより、画像指定部403は、その視点に対応する画像がユーザーの所望する3次元画像であると判定することができる。なお、距離L1は、視点3と、視点2とを識別する閾値であり、L2は、視点2と、視点1とを識別する閾値である。また、距離−L1は、視点4と、視点5とを識別する閾値であり、−L2は、視点5と、視点6とを識別する閾値である。これらは、それぞれ仮想のライン1201と、両視線とが交わる中間点の表示器30の中央からの距離とすることができる。   The image designating unit 403 compares the estimated user position P as shown in FIG. 13 with the position at which the line of sight of each displayed three-dimensional image intersects the virtual line 1201, and the user position P Find a line of sight close to. Thereby, the image designation unit 403 can determine that the image corresponding to the viewpoint is a three-dimensional image desired by the user. The distance L1 is a threshold for identifying the viewpoint 3 and the viewpoint 2, and L2 is a threshold for identifying the viewpoint 2 and the viewpoint 1. The distance −L1 is a threshold for identifying the viewpoint 4 and the viewpoint 5, and −L2 is a threshold for identifying the viewpoint 5 and the viewpoint 6. These can be the distances from the center of the display 30 at the midpoint where the virtual line 1201 and the line of sight intersect each other.

図14に戻って説明を続ける。
S1313で、画像指定部403は、上述した通りにユーザーの位置の表示器中央からのズレLoを求めて、処理をS1314に進める。
S1314で、画像指定部403は、Loの符号を判定する。画像指定部403は、符号が正であると判定した場合、処理をS1315に進め、符号が負であると判定した場合、処理をS1320に進める。
S1315で、画像指定部403は、Lo>L2であると判定した場合、処理をS1319に進め、ユーザーの視点を視点1に指定する。一方、S1315で、画像指定部403は、Lo>L2でなないと判定した場合、処理をS1316に進める。
S1316で、画像指定部403は、Lo>L1であると判定した場合、処理をS1318に進め、ユーザーの視点を視点2に指定する。一方、S1316で、画像指定部403は、Lo>L1でないと判定した場合、処理をS1317に進め、ユーザーの視点を3に指定する。
Returning to FIG. 14, the description will be continued.
In step S1313, the image designation unit 403 obtains the displacement Lo from the center of the display of the user position as described above, and advances the processing to step S1314.
In step S1314, the image designation unit 403 determines the sign of Lo. If the image designation unit 403 determines that the sign is positive, the process proceeds to S1315. If the image designation unit 403 determines that the sign is negative, the process proceeds to S1320.
If the image designating unit 403 determines in step S1315 that Lo> L2, the process advances to step S1319 to designate the user's viewpoint as the viewpoint 1. On the other hand, if the image designating unit 403 determines in step S1315 that Lo> L2 is not satisfied, the process advances to step S1316.
If the image designation unit 403 determines in step S1316 that Lo> L1, the process advances to step S1318 to designate the viewpoint of the user as the viewpoint 2. On the other hand, if the image designation unit 403 determines in step S1316 that Lo> L1, the process advances to step S1317 to designate the user's viewpoint as 3.

S1320で、画像指定部403は、Lo<−L2であると判定した場合、処理をS1324に進め、ユーザーの視点を視点6に指定する。一方、S1320で、画像指定部403は、Lo<−L2でないと判定した場合、処理をS1321に進める。
S1321で、画像指定部403は、Lo<−L1であると判定した場合、処理をS1323に進め、ユーザーの視点を視点4に指定する。一方、S1321で、画像指定部403は、Lo<−L1でないと判定した場合、処理をS1322に進め、ユーザーの視点を視点5に指定する。なお、図13で示す撮影画像1200の例では、画像指定部403は、ユーザーの視点を視点2として指定する。
以上の処理により、図12のS510の視点認識処理で、画像指定部403は、ユーザーが見ている3次元画像を視点2の3次元画像であると認識する。その後、画像指定部403は、S505で設定が左目用の2次元画像であれば、視点2の左目用画像を使って実施形態1で説明した場合と同様に、Nを2として以降の処理を行う。
If the image designation unit 403 determines in step S1320 that Lo <−L2, the process advances to step S1324 to designate the viewpoint of the user as the viewpoint 6. On the other hand, if the image designating unit 403 determines in step S1320 that Lo <−L2 is not satisfied, the process advances to step S1321.
If the image designation unit 403 determines in step S1321 that Lo <−L1, the process advances to step S1323 to designate the user's viewpoint as the viewpoint 4. On the other hand, if the image designating unit 403 determines in step S1321 that Lo <−L1 is not satisfied, the process advances to step S1322 to designate the viewpoint of the user as the viewpoint 5. In the example of the captured image 1200 illustrated in FIG. 13, the image designation unit 403 designates the user's viewpoint as the viewpoint 2.
With the above processing, in the viewpoint recognition processing in S510 of FIG. 12, the image designation unit 403 recognizes the three-dimensional image that the user is viewing as the viewpoint 2 three-dimensional image. After that, if the setting is a two-dimensional image for the left eye in S505, the image designating unit 403 sets N to 2 and performs the subsequent processing as in the case described in the first embodiment using the left-eye image of the viewpoint 2. Do.

以上、本実施形態によれば、実施形態1で説明した多視点3次元画像から視点を指定するためのユーザーの操作が不要となるため、操作性及び制御性においてより有利となる。
なお、図12のS500からS508までの一連の処理が多視点3次元画像に対しても繰り返し実行されれば、ユーザーは、より的確に画像オブジェクトを指し示すことができる。より具体的には、ユーザーは、表示される3次元画像をどの視点からでも3次元表示されるマーカーを見ながらタッチパネル40等を操作してより的確に画像オブジェクトを指し示すことができる。
なお、本実施形態では、ユーザーの視点を識別するために、表示器2が有する撮像装置20を用いたが、例えば表示器2が2組の撮像装置20を有する場合、画像指定部403は、ユーザーまでの距離をより正確に識別することができる。そのため、画像指定部403は、より精度良くユーザーの視点を指定することができるようになる。また、ユーザーの視点を認識するための方法は、撮像装置を用いた上述の方法に限る必要はない。例えば、表示器2が2組の赤外線送受信装置を有し、表示器2からそれぞれユーザー方向に無指向性で赤外線を放射し、その反射光の強度からユーザーの位置を検出して視点を認識する方法を用いてもよい。また、ユーザーの視点を直接認識する方法や、表示器の位置と、ユーザーが発信するGPS等の位置情報(GPS情報)との関係からユーザーの位置を検出して、視点を認識する方法等を用いるようにしてもよい。なお、上記の方法等により、ユーザーの位置情報を取得する処理は、位置情報取得処理の一例である。
As described above, according to the present embodiment, the user's operation for designating the viewpoint from the multi-viewpoint three-dimensional image described in the first embodiment is unnecessary, which is more advantageous in terms of operability and controllability.
If the series of processing from S500 to S508 in FIG. 12 is repeatedly performed on a multi-viewpoint three-dimensional image, the user can more accurately point to the image object. More specifically, the user can point the image object more accurately by operating the touch panel 40 or the like while viewing the marker displayed three-dimensionally from any viewpoint of the displayed three-dimensional image.
In this embodiment, the imaging device 20 included in the display device 2 is used to identify the viewpoint of the user. However, for example, when the display device 2 includes two sets of the imaging device 20, the image designation unit 403 includes: The distance to the user can be identified more accurately. Therefore, the image designation unit 403 can designate the user's viewpoint with higher accuracy. Further, the method for recognizing the user's viewpoint need not be limited to the above-described method using the imaging device. For example, the display 2 has two sets of infrared transmission / reception devices, each of which irradiates infrared rays in the direction of the user from the display 2 and detects the position of the user from the intensity of the reflected light to recognize the viewpoint. A method may be used. In addition, a method for directly recognizing the user's viewpoint, a method for recognizing the viewpoint by detecting the user's position from the relationship between the position of the display and position information (GPS information) such as GPS transmitted by the user, etc. You may make it use. Note that the process of acquiring user position information by the above method is an example of a position information acquisition process.

<実施形態4>
実施形態1では、画像指定部403の実施形態として、多視点3次元画像の中から画像オブジェクトを画像指定しやすい視点を図6Aの視点選択ボタン601で指定する実施形態について説明した。本実施形態では、画像オブジェクトの3次元位置近傍にマーカーを表示して指し示すため、初期的に適当な既定の画像オブジェクトを差し示せば、以降はそのマーカーを移動させればユーザーが望む画像オブジェクトを指し示すことができる。これにより、実施形態1で説明したユーザーの視点選択操作が不要になる。以下、本実施形態について詳述する。
<Embodiment 4>
In the first embodiment, as an embodiment of the image designating unit 403, an embodiment has been described in which a viewpoint for easily designating an image object from among multi-viewpoint three-dimensional images is designated by the viewpoint selection button 601 in FIG. 6A. In this embodiment, since a marker is displayed and pointed near the three-dimensional position of the image object, if an appropriate default image object is initially indicated, the image object desired by the user is moved by moving the marker thereafter. Can point. This eliminates the need for the user's viewpoint selection operation described in the first embodiment. Hereinafter, this embodiment will be described in detail.

図15は、本実施形態における3次元画像上の指定オブジェクト近傍に3次元マーカーを描画する処理の一例を示すフローチャートである。
なお、図5で前述した処理と同じ処理については、同じ番号で記述している。また、図5で前述した処理と同じ処理については、説明を省略する。
S511で、画像指定部403は、画像オブジェクトを指定するための視点を予め決められた視点に初期設定する。ここでは、画像指定部403は、視点を、ユーザーの正面からの視点4に初期設定するものとする。更に、画像指定部403は、マーカーの位置を予め決められた位置(初期位置)に初期設定する。ここでは、画像指定部403は、マーカーの位置を画像4の画面の中央の位置に初期設定するものとする。なお、ユーザーは、既定の視点及びマーカー位置を予めROM60等に登録しておくことができる。
FIG. 15 is a flowchart illustrating an example of processing for drawing a three-dimensional marker in the vicinity of a specified object on a three-dimensional image in the present embodiment.
The same processes as those described above with reference to FIG. 5 are described with the same numbers. The description of the same processing as that described above with reference to FIG.
In step S511, the image designation unit 403 initially sets a viewpoint for designating an image object to a predetermined viewpoint. Here, it is assumed that the image specifying unit 403 initially sets the viewpoint to the viewpoint 4 from the front of the user. Further, the image designating unit 403 initializes the marker position to a predetermined position (initial position). Here, it is assumed that the image specifying unit 403 initially sets the marker position to the center position of the screen of the image 4. The user can register a predetermined viewpoint and marker position in the ROM 60 or the like in advance.

S512で、画像指定部403は、S500で多視点3次元表示した画像に対して、マウスやキーボード等の矢印キー或いはマウスパッド等の操作で、S511で初期設定したマーカー位置からの移動を含めてマーカー位置を検知する。なお、マウス等の操作部を介して受け付けたユーザーによる初期設定したマーカー位置からの移動操作は、ユーザーによる移動指示の一例である。
ここで、ユーザーの操作がなければ、視点4の画像4の中央の画像オブジェクトが、ユーザーが画像指定する画像オブジェクトになる。なお、前述したS504からS508までの一連のマーカー描画部404の処理により、再びS500で3次元表示される画像中のマーカーは、視点4の中央部に見える画像オブジェクトを指し示している。したがって、もしこのマーカーが指し示す画像オブジェクトが所望するオブジェクトでなければ、ユーザーは、マウス等の操作でマーカーを移動させれば、画像指定部403がその移動を検知して、所望する画像オブジェクトを画像指定することができる。
In step S512, the image designation unit 403 includes the movement from the marker position initially set in step S511 by the operation of an arrow key such as a mouse or a keyboard or a mouse pad on the image displayed in multiple viewpoints in step S500. Detect the marker position. Note that the movement operation from the initially set marker position received by the user via the operation unit such as a mouse is an example of a movement instruction by the user.
Here, if there is no user operation, the center image object of the image 4 of the viewpoint 4 becomes an image object designated by the user. Note that the marker in the image three-dimensionally displayed again in S500 points to the image object that can be seen in the center of the viewpoint 4 by the series of processing of the marker drawing unit 404 from S504 to S508 described above. Therefore, if the image object pointed to by this marker is not the desired object, the user can move the marker by operating the mouse or the like, and the image designating unit 403 will detect the movement and display the desired image object. Can be specified.

以上、本実施形態によれば、ユーザーが視点を指定する操作や視点を認識する手段を用いることなく、所望する画像オブジェクトをマーカーで指し示すことが可能となるため、操作性及び制御性においてより有利となる。   As described above, according to the present embodiment, it is possible to point a desired image object with a marker without using an operation for specifying a viewpoint or a means for recognizing the viewpoint, which is more advantageous in terms of operability and controllability. It becomes.

<実施形態5>
実施形態1から実施形態4までは、視差分割方式としてレンチキュラーレンズ方式を用いた多視点3次元表示器を用いた場合の実施形態について説明した。しかしながら、3次元表示器30は、レンチキュラーレンズを用いるものに限定されることなく他の3次元表示器を用いることも可能である。本実施形態では、パララックスバリア方式の3次元表示器を用いた場合の実施形態について説明する。
図16は、本実施形態で用いるパララックスバリア方式の3次元表示器の表示原理の一例を示す図である。
例えば図16に示すパララックスバリア方式の表示器30は、表示画面の手前に左右の目から見た視線上に互いに他方の目用の表示画素からの光を遮るための光学的なバリア160を有する。これにより、図16に示すように、右目に対しては左目用画素がパララックスバリア160で光路遮光され、逆に左目に対しては右目用画素がパララックスバリア160で光路遮光される。その結果、右目と、左目とには、両目の視点で撮影された異なる視点の画像が見えるため、立体表示がなされる。
<Embodiment 5>
In the first to fourth embodiments, the embodiment in which a multi-viewpoint three-dimensional display using a lenticular lens method as a parallax division method is used has been described. However, the three-dimensional display 30 is not limited to one using a lenticular lens, and other three-dimensional displays can be used. In the present embodiment, an embodiment in which a parallax barrier type three-dimensional display is used will be described.
FIG. 16 is a diagram showing an example of the display principle of the parallax barrier type three-dimensional display used in the present embodiment.
For example, the parallax barrier type display 30 shown in FIG. 16 has an optical barrier 160 for blocking light from display pixels for the other eye on the line of sight viewed from the left and right eyes in front of the display screen. Have. As a result, as shown in FIG. 16, the left-eye pixel is optically shielded by the parallax barrier 160 for the right eye, and conversely the right-eye pixel is optically shielded by the parallax barrier 160 for the left eye. As a result, since the right eye and the left eye can see images of different viewpoints taken from the viewpoints of both eyes, stereoscopic display is performed.

図17を用いて、パララックスバリア方式の3次元表示器を使った実施形態について詳述する。
図17は、パララックスバリア方式を用いた場合の表示の一例を示す図である。
図17の液晶表示器300は、それぞれ右目用表示画素170と、左目用表示画素171とを隣接対として有している。3次元表示器30は、視点1から見た3次元画像を表示する場合、3次元画像情報172として、右目用画素位置に図3に示す画像2の2次元画像情報を、左目用画素位置に画像1の2次元画像情報を、それぞれ短冊状に分解して表示する。
ここで、多視点画像として図17に示すように各視点の3次元画像情報を有する場合、画像指定部403は、先のレンチキュラーレンズ方式の場合と同様に、順次表示する3次元画像情報を切り替えて表示する。これにより、ユーザーは、所望する視点の画像を指定することができる。また、タッチ画像を指定する際に用いる2次元画像情報も、先の実施形態と同様に予め設定されたどちらかの目用の2次元画像情報を用いればよい。画像指定部403は、用いる3次元表示器の原理に応じて表示する2次元画像情報又は3次元画像情報を選択して3次元表示器で表示することができる。即ち、図5、図6A、図6Bで説明した、視点を選択する際の各視点の3次元画像情報については、各視点用の3次元画像情報を直接用いればよい。
An embodiment using a parallax barrier type three-dimensional display will be described in detail with reference to FIG.
FIG. 17 is a diagram illustrating an example of display when the parallax barrier method is used.
The liquid crystal display 300 in FIG. 17 includes a right-eye display pixel 170 and a left-eye display pixel 171 as adjacent pairs. When displaying the three-dimensional image viewed from the viewpoint 1, the three-dimensional display 30 displays the two-dimensional image information of the image 2 shown in FIG. 3 as the three-dimensional image information 172 at the left-eye pixel position. The two-dimensional image information of image 1 is disassembled into strips and displayed.
Here, as shown in FIG. 17, as the multi-viewpoint image, the image designation unit 403 switches the three-dimensional image information to be sequentially displayed as in the case of the lenticular lens method. To display. Thereby, the user can designate an image of a desired viewpoint. Also, as the two-dimensional image information used when designating the touch image, the preset two-dimensional image information for one eye may be used as in the previous embodiment. The image designation unit 403 can select two-dimensional image information or three-dimensional image information to be displayed according to the principle of the three-dimensional display to be used and display the selected information on the three-dimensional display. That is, as for the three-dimensional image information of each viewpoint when selecting the viewpoint described with reference to FIGS. 5, 6A, and 6B, the three-dimensional image information for each viewpoint may be directly used.

以上、本実施形態におけるパララックスバリア方式の3次元表示器を用いた3次元表示器を用いれば、レンチキュラーレンズ方式を用いた場合よりも、より画素密度の高い表示が可能となり、より正確に画像を指定することができる。   As described above, if a three-dimensional display using the parallax barrier type three-dimensional display in the present embodiment is used, display with a higher pixel density is possible than when the lenticular lens method is used, and the image is more accurately displayed. Can be specified.

<その他の実施形態>
先の実施形態では、多視点3次元表示している画像オブジェクトに対する画像指定を、タッチパネル40を用いて指定する場合の実施形態について説明した。だが、タッチパネル40を用いて指定する形態に限る必要はなく、ユーザーは、マウスやタッチパッド55或いはキーボード50の複数のキーを用いても画面に表示した画像オブジェクトを指し示し、マーカー表示するようにしてもよい。なお、その場合、画像指定部403は、従来の公知の技術として開示されている通り、表示されているマーカーの位置に対する変化量が入力されたとして、その変化量に応じてマーカー位置を移動させることができる。また、画像指定した画像オブジェクトに対する一般的な制御や指示も同様に可能である。したがって、これらの入力手段を用いても同様に本実施形態の効果を得ることができる。
<Other embodiments>
In the previous embodiment, the embodiment in the case where the image designation for the image object displayed in the multi-viewpoint three-dimensional manner is designated using the touch panel 40 has been described. However, it is not necessary to be limited to the form specified using the touch panel 40, and the user can point to the image object displayed on the screen and display the marker using the mouse, the touch pad 55, or a plurality of keys of the keyboard 50. Also good. In this case, the image designating unit 403 moves the marker position according to the change amount, assuming that the change amount with respect to the displayed marker position is input, as disclosed in the conventional well-known technique. be able to. In addition, general control and instructions for an image object designated as an image are possible as well. Therefore, even if these input means are used, the effect of this embodiment can be obtained similarly.

また、先の実施形態では、画像指定部403は、視点4の左右の目用の画像4と、画像5とから仮想平面図を作成した。しかし、画像指定部403は、画像が多視点3次元画像の場合、隣り合う2種の画像に限定されず、より離れた角度の他の画像、例えば画像4と、画像7とから仮想平面図を作成してもよい。これにより、画像指定部403は、指し示す画像オブジェクトに限らず、周辺の他の画像オブジェクトを含む、より広い範囲の画像に対して仮想平面図を作成することができる。
なお、先の実施形態では、多視点3次元画像として7方向からカメラで撮影した被写体の一部を画像オブジェクトとして説明したが、コンピュータグラフィックス等で作成された多視点3次元画像であっても同様に実施することができる。また、画像オブジェクトが3次元空間に表示された機能タブやアイコンを含むようにしてもよい。
In the previous embodiment, the image designating unit 403 created a virtual plan view from the image 4 for the left and right eyes of the viewpoint 4 and the image 5. However, when the image is a multi-viewpoint three-dimensional image, the image designating unit 403 is not limited to two adjacent images, and is a virtual plan view from other images, for example, the image 4 and the image 7, which are more distant from each other. May be created. Thereby, the image designation unit 403 can create a virtual plan view for a wider range of images including not only the image object to be pointed but also other peripheral image objects.
In the previous embodiment, a part of a subject photographed by a camera from seven directions as a multi-viewpoint three-dimensional image has been described as an image object. However, a multi-viewpoint three-dimensional image created by computer graphics or the like may be used. It can be implemented similarly. The image object may include function tabs and icons displayed in the three-dimensional space.

また、本実施形態は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。   Moreover, this embodiment is implement | achieved also by performing the following processes. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

以上、上述した各実施形態によれば、3次元画像と、マーカーとの重なりを検出する手段を要さずに、所望の3次元画像の手前に常にマーカーを表示することができる。   As described above, according to each embodiment described above, a marker can always be displayed in front of a desired three-dimensional image without requiring a means for detecting an overlap between the three-dimensional image and the marker.

以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiment of the present invention has been described in detail above, but the present embodiment is not limited to the specific embodiment, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

Claims (11)

3次元画像情報を取得する取得手段と、
前記取得手段により取得された3次元画像情報に基づいて3次元画像を表示する表示手段と、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示手段により表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定手段と、
前記指定手段により指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画手段と、
を有する画像処理装置。
Acquisition means for acquiring three-dimensional image information;
Display means for displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition means;
Designation means for designating a marker position indicating a part of the three-dimensional image displayed by the display means based on a user instruction received via the operation unit;
Drawing means for drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position designated by the designation means;
An image processing apparatus.
前記指定手段は、前記ユーザーの指示に基づいて指定された視点の3次元画像において前記マーカー位置を指定する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specifying unit specifies the marker position in a three-dimensional image of a viewpoint specified based on an instruction from the user. ユーザーの位置を示すユーザー位置情報を取得する位置情報取得手段を更に有し、
前記指定手段は、前記位置情報取得手段により取得された前記ユーザー位置情報と、3次元表示器の表示器位置情報とに基づいて指定した視点の3次元画像の一部を指し示すマーカー位置を指定する請求項1に記載の画像処理装置
It further has position information acquisition means for acquiring user position information indicating the position of the user,
The designation unit designates a marker position that indicates a part of a three-dimensional image of the designated viewpoint based on the user position information acquired by the position information acquisition unit and the display unit position information of the three-dimensional display. The image processing apparatus according to claim 1.
前記位置情報取得手段は、撮像装置により撮像されたユーザーの画像情報に基づいて前記ユーザー位置情報を取得する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the position information acquisition unit acquires the user position information based on image information of a user imaged by the imaging apparatus. 前記位置情報取得手段は、赤外線送受信装置によりユーザーの方向に放射された赤外線の反射の強度に基づいて前記ユーザー位置情報を取得する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the position information acquisition unit acquires the user position information based on an intensity of reflection of infrared rays emitted in the direction of the user by the infrared transmission / reception device. 前記位置情報取得手段は、GPS装置が受信したユーザーのGPS情報に基づいて前記ユーザー位置情報を取得する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the position information acquisition unit acquires the user position information based on the GPS information of the user received by the GPS apparatus. 前記指定手段は、予め定められた視点の3次元画像における予め定められた位置をマーカーの初期位置に指定し、操作部を介して受け付けたユーザーの操作による前記初期位置からの移動指示に基づいて前記マーカー位置を指定する請求項1に記載の画像処理装置。   The designation means designates a predetermined position in a three-dimensional image of a predetermined viewpoint as an initial position of the marker, and based on a movement instruction from the initial position by a user operation received via the operation unit. The image processing apparatus according to claim 1, wherein the marker position is designated. 前記描画手段は、前記マーカーが前記指定手段により指定された指し示すべき画像以外の画像で隠れる場合、前記マーカーの隠れる部分を識別可能に描画する請求項1乃至7何れか1項に記載の画像処理装置。   8. The image processing according to claim 1, wherein, when the marker is hidden by an image other than the image to be pointed specified by the specifying unit, the drawing unit draws the hidden portion of the marker in an identifiable manner. apparatus. 前記表示手段は、パララックスバリア方式、又は、レンチキュラーレンズ方式により前記3次元画像を表示する請求項1乃至8何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit displays the three-dimensional image by a parallax barrier method or a lenticular lens method. 画像処理装置が実行する画像処理方法であって、
3次元画像情報を取得する取得ステップと、
前記取得ステップにより取得された3次元画像情報に基づいて3次元画像を表示する表示ステップと、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示ステップにより表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定ステップと、
前記指定ステップにより指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画ステップと、
を含む画像処理方法。
An image processing method executed by an image processing apparatus,
An acquisition step of acquiring three-dimensional image information;
A display step of displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition step;
A designation step for designating a marker position indicating a part of the three-dimensional image displayed by the display step based on a user instruction received via the operation unit;
A drawing step of drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position specified by the specifying step;
An image processing method including:
コンピュータに、
3次元画像情報を取得する取得ステップと、
前記取得ステップにより取得された3次元画像情報に基づいて3次元画像を表示する表示ステップと、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示ステップにより表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定ステップと、
前記指定ステップにより指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画ステップと、
を実行させるためのプログラム。
On the computer,
An acquisition step of acquiring three-dimensional image information;
A display step of displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition step;
A designation step for designating a marker position indicating a part of the three-dimensional image displayed by the display step based on a user instruction received via the operation unit;
A drawing step of drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position specified by the specifying step;
A program for running
JP2012286197A 2012-12-27 2012-12-27 Image processing apparatus, image processing method and program Pending JP2014128022A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012286197A JP2014128022A (en) 2012-12-27 2012-12-27 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012286197A JP2014128022A (en) 2012-12-27 2012-12-27 Image processing apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2014128022A true JP2014128022A (en) 2014-07-07

Family

ID=51407159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012286197A Pending JP2014128022A (en) 2012-12-27 2012-12-27 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2014128022A (en)

Similar Documents

Publication Publication Date Title
JP5830987B2 (en) Display control apparatus, display control method, and computer program
JP6508280B2 (en) Control device, detection device, display system, electronic device, and program
Livingston et al. Pursuit of “X-ray vision” for augmented reality
JP5167439B1 (en) Stereoscopic image display apparatus and stereoscopic image display method
US9979946B2 (en) I/O device, I/O program, and I/O method
JP2011035592A (en) Display control program and information processing system
JP2012256110A (en) Information processing apparatus, information processing method, and program
JP2015143976A (en) Information processing device, method for controlling the same, and program
JP2013017146A (en) Display controller, display control method and program
CN102508548A (en) Operation method and system for electronic information equipment
CN104134235A (en) Real space and virtual space fusion method and real space and virtual space fusion system
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
US20150381970A1 (en) Input/output device, input/output program, and input/output method
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2013168120A (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP2015037282A (en) Image processing device, image processing method, and program
CN104850383A (en) Information processing method and electronic equipment
JP2014128022A (en) Image processing apparatus, image processing method and program
EP3121792B1 (en) Processing device for label information for multi-viewpoint images and processing method for label information
US9218104B2 (en) Image processing device, image processing method, and computer program product
JP2008098861A (en) Image processing apparatus, program, and recording medium
JP2013250757A (en) Image processing device, image processing method, and program
JP2014142568A (en) Image processing apparatus, image processing method, and program
JP7040660B1 (en) Information processing equipment and information processing method
JP5520772B2 (en) Stereoscopic image display system and display method