JP2014128022A - Image processing apparatus, image processing method and program - Google Patents
Image processing apparatus, image processing method and program Download PDFInfo
- Publication number
- JP2014128022A JP2014128022A JP2012286197A JP2012286197A JP2014128022A JP 2014128022 A JP2014128022 A JP 2014128022A JP 2012286197 A JP2012286197 A JP 2012286197A JP 2012286197 A JP2012286197 A JP 2012286197A JP 2014128022 A JP2014128022 A JP 2014128022A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- marker
- dimensional image
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
3次元画像を表示可能な3次元表示器で、3次元画像と、カーソル等のマーカーとを重ねて表示する技術が開示されている。 A technique for displaying a 3D image and a marker such as a cursor in a 3D display capable of displaying a 3D image is disclosed.
特許文献1に開示されている技術は、3次元画像と、カーソルとの互いの奥方向の位置関係を考慮しないで表示している。そのため、特許文献1に開示されている技術は、両者の重なりを検出する検出手段によって重なりを検出した場合、3次元画像と、カーソルとの相対位置関係に応じて、何れか一方を他方より手前に表示するように描画を制御する。したがって、特許文献1に開示されている技術は、カーソル等のマーカーを所望の3次元画像の手前に表示するために、マーカーを描画する手段に加え、両者の重なりを検出する手段を必要としていた。
The technique disclosed in
そこで、本発明の画像処理装置は、3次元画像情報を取得する取得手段と、前記取得手段により取得された3次元画像情報に基づいて3次元画像を表示する表示手段と、操作部を介して受け付けたユーザーの指示に基づいて、前記表示手段により表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定手段と、前記指定手段により指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画手段と、を有する。 Accordingly, an image processing apparatus according to the present invention includes an acquisition unit that acquires 3D image information, a display unit that displays a 3D image based on the 3D image information acquired by the acquisition unit, and an operation unit. Based on the received user instruction, designation means for designating a marker position indicating a part of the three-dimensional image displayed by the display means, and a predetermined range for the marker position designated by the designation means And a drawing means for drawing a marker displayed three-dimensionally in front of the three-dimensional image.
本発明によれば、前記両者の重なりを検出する手段を要さずに、所望の3次元画像の手前にマーカーを表示することができる。 According to the present invention, a marker can be displayed in front of a desired three-dimensional image without requiring a means for detecting the overlap between the two.
以下、本発明の実施形態を説明するに先立って、以降の説明で用いる用語について説明する。
2次元画像とは、表示器で表示される、例えば人や風景等を表す2次元の画像そのものを意味する。
3次元画像とは、3次元表示器で表示される、例えば人や風景等を表す3次元の画像そのものを意味する。即ち、3次元画像は、視差を有する複数の2次元画像で構成され、例えば左目用及び右目用の2つの2次元画像が交互に配置される画像である。
2次元画像情報又は3次元画像情報とは、上記の2次元画像又は3次元画像を表示するための信号源の情報を意味する。特に3次元画像情報は、少なくとも左目用及び右目用の2次元画像情報を有する。
次に、簡単に3次元表示器について説明する。3次元表示器は、3次元画像情報として、その表示器の1つの画面中に複数の2次元画像を表す複数の2次元画像情報を同時に表示する。つまり、3次元表示器に表示される3次元画像は、少なくともユーザーの左目及び右目の各視点から見た2枚以上の複数の2次元画像情報に基づいて表示される画像である。したがって、その3次元表示器の同じ位置近傍に立体表示された3次元画像は、ユーザーの視点によって大きく異なることになる。なお、ここでいう「近傍」とは、前記3次元表示器の同じ位置から予め定められた範囲のことを意味する。以下、説明で用いる「近傍」についても同様の意味であるとする。
Prior to describing embodiments of the present invention, terms used in the following description will be described below.
The two-dimensional image means a two-dimensional image itself that is displayed on a display device and represents, for example, a person or a landscape.
The three-dimensional image means a three-dimensional image itself that is displayed on a three-dimensional display and represents, for example, a person or a landscape. That is, the three-dimensional image is composed of a plurality of two-dimensional images having parallax, and is an image in which two two-dimensional images for left eye and right eye, for example, are alternately arranged.
The two-dimensional image information or the three-dimensional image information means information on a signal source for displaying the above two-dimensional image or three-dimensional image. In particular, the three-dimensional image information includes at least left-eye and right-eye two-dimensional image information.
Next, the three-dimensional display will be briefly described. The three-dimensional display device simultaneously displays a plurality of pieces of two-dimensional image information representing a plurality of two-dimensional images on one screen of the display device as three-dimensional image information. That is, the three-dimensional image displayed on the three-dimensional display is an image displayed based on at least two or more pieces of two-dimensional image information viewed from each viewpoint of the user's left eye and right eye. Therefore, the three-dimensional image displayed stereoscopically in the vicinity of the same position of the three-dimensional display greatly varies depending on the viewpoint of the user. The term “near” here means a predetermined range from the same position of the three-dimensional display. Hereinafter, “neighboring” used in the description has the same meaning.
以下、本発明の実施形態について図面に基づき説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<実施形態1>
図1は、本実施形態の画像処理装置のハードウェア構成の一例を示す図である。
本実施形態の画像処理装置は、一般的なパーソナルコンピュータ1(以後、PC1という)を有し、ネットワーク制御部90、ネットワーク回線110を介して外部から3次元画像情報等を取得する。なお、画像処理装置は、後述の記憶装置80等から3次元画像情報を取得するようにしてもよい。また、画像処理装置は、取得した3次元画像情報に基づいた3次元画像を立体表示するための表示器2を有する。
PC1は、CPU(Central Processing Unit)10で制御される。なお、CPU10は、ROM60等に格納されているプログラムを実行することにより後述の画像処理装置の機能(ソフトウェア構成)及びフローチャートに係る処理を実現する。また、PC1は、3次元画像情報や本実施形態に用いられるプログラム等を保持する記憶装置80を有する。更に、PC1は、各種設定やプログラムを格納するROM(Read Only Memory)60、一時的な記憶装置として機能するRAM(Random Access Memory)70を有する。
<
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus according to the present embodiment.
The image processing apparatus according to the present embodiment includes a general personal computer 1 (hereinafter referred to as a PC 1), and acquires three-dimensional image information and the like from the outside via a
The
表示器2は、3次元画像を表示する3次元表示器30を有する。また、表示器2は、3次元表示器30の表示面にタッチパネル40を有する。ユーザーは、表示面に表示された3次元画像を、タッチパネル40を介して直接タッチして操作することができる。また、ユーザーは、キーボード50を介してPC1に対する各種の入力操作をすることができる。更に、表示器2は、撮像装置20を有する。撮像装置20は、ユーザーの位置や動作を認識するために3次元表示器30の近傍に設けられている。
CPU10は、タッチパネル40、マウスやタッチパッド55、キーボード50等を介して受け付けたユーザーの操作に基づいて、表示するマーカーの位置を指定する。なお、タッチパネル40、マウスやタッチパッド55、キーボード50等は、操作部の一例である。また、本実施形態における「マーカー」とは、表示された画像の一部(以後、画像オブジェクトという)を指し示すために表示する矢印、文字、数字等を入力する際に、その入力位置を指し示すために表示するポインターやカーソル等の総称である。
The
The
次に、表示器2について、図2Aから図2Dまでを用いて詳細に説明する。
図2Aは、3次元表示器30として用いられるレンチキュラー多視点表示器の一例を示す図である。
図2Aに示す3次元表示器30は、液晶表示器300と、液晶表示器300の前面に備えられたレンチキュラーレンズ301とを有する。更に、図2Aに示す3次元表示器30は、レンチキュラーレンズ301の前面に備えられたタッチパネル40と、画面中央部に備えられた撮像装置20とを有する。
Next, the
FIG. 2A is a diagram illustrating an example of a lenticular multi-viewpoint display used as the three-
A three-
図2Bは、多視点の画像を表示するための各レンチキュラーレンズ301と、相対位置が保証された各表示画素との一例を示す図である。
図2Bの3次元表示器30は、ユーザーが6方向からこの3次元表示器30を見た場合の多視点3次元画像の表示を可能にするため、各1つのレンチキュラーレンズ内に画素302から画素303までの一続きの7つの表示画素を有する。なお、多視点3次元画像とは、後述する図3で示すように、例えば同一被写体を複数の視点から撮影して得られた複数の視点の3次元画像やコンピュータグラフィックス等で制作された3次元画像のことである。また、本実施形態の3次元表示器30は、公知の技術で一般的に実現される表示器であり、カラー表示が可能であるが、説明を簡略化するため、単色表示が可能な表示器であるものとする。また、以後の図において、本実施形態の3次元表示器30における表示画素の並びを1次元的に表現するものとする。なお、以降の説明で単に「視点」と述べる場合、「視点」は、3次元表示器30の位置から見たユーザーの両目の位置のことを意味し、1つの「視点」にはユーザーの右目用の画像と、左目用の画像とが届けられる。
FIG. 2B is a diagram illustrating an example of each
The three-
次に、ユーザーが異なる視点から3次元表示器30を見た場合に見える画素について、図2C、図2Dを用いて説明する。
図2Cは、ユーザーが視点1から3次元表示器30を見た場合に見える画素の一例を示す図である。
図2Dは、ユーザーが視点4から3次元表示器30を見た場合に見える画素の一例を示す図である。
レンチキュラーレンズ301の光学特性により、視点1のユーザーの右目では画素2のみが、視点1のユーザーの左目では画素1のみが見える。また、視点4のユーザーの右目では画素5のみが、視点4のユーザーの左目では画素4のみが見える。このようなレンチキュラーレンズによる3次元画像の表示は公知の原理であるため、詳細な説明を省略する。
Next, pixels that can be seen when the user views the three-
FIG. 2C is a diagram illustrating an example of pixels that are visible when the user views the three-
FIG. 2D is a diagram illustrating an example of pixels that are visible when the user views the three-
Due to the optical characteristics of the
図3は、上記の6つの視点と、その視点に対応する画像を表示するために撮影する撮影画像との関係の一例を示す図である。
それぞれの視点では、ユーザーの左右の目それぞれで見た画像に相当する2つの2次元画像が撮影される。3次元表示器30は、同一被写体を視点1から視点6まで連続的に3次元表示するため、視点N(Nは1から6までの何れかの整数)においてユーザーの左目に届ける画像Nと、視点N−1においてユーザーの右目に届ける画像とが同じとなる。3次元表示器30は、これらの画像を示す2次元画像情報を分割して先のレンチキュラーレンズ301と相対位置を保った液晶表示画素で表示すれば、図3で示す視点から被写体を見た際と同じ立体像をユーザーに見せることができる。即ち、図2C、図2Dで示す画素1は、視点1の左側で撮影した2次元画像(画像1)を示す2次元画像情報の一部であり、画素2は、視点1の右側で撮影した2次元画像(画像2)を示す2次元画像情報の一部である。また、図2C、図2Dで示す画素4は、視点4の左側で撮影した2次元画像(画像4)を示す2次元画像情報の一部であり、画素5は、視点4の右側で撮影した2次元画像(画像5)を示す2次元画像情報の一部である。
FIG. 3 is a diagram illustrating an example of a relationship between the above-described six viewpoints and a captured image that is captured to display an image corresponding to the viewpoint.
At each viewpoint, two two-dimensional images corresponding to images viewed by the user's left and right eyes are taken. Since the three-
図4は、本実施形態の画像処理装置の機能構成の一例を示す図である。
画像処理装置は、多視点3次元画像情報取得部401と、3次元画像表示部402と、画像指定部403と、マーカー描画部404とを有する。
多視点3次元画像情報取得部401は、CPU10によって制御される。多視点3次元画像情報取得部401は、3次元画像情報を記憶装置80から取得したり、ネットワーク制御部90及びネットワーク回線110を介して外部から取得したりする。なお、多視点3次元画像情報取得部401による処理は、取得処理の一例である。
3次元画像表示部402は、表示器2の機能に対応し、CPU10によって制御される。3次元画像表示部402は、多視点3次元画像情報取得部401で取得された3次元画像情報に基づいて、3次元画像を表示する。なお、3次元画像表示部402による処理は、表示処理の一例である。
FIG. 4 is a diagram illustrating an example of a functional configuration of the image processing apparatus according to the present embodiment.
The image processing apparatus includes a multi-viewpoint three-dimensional image
The multi-view 3D image
The three-dimensional
画像指定部403は、CPU10によって制御される。画像指定部403は、タッチパネル40、キーボード50、マウスやタッチパッド55及び撮像装置20を介したユーザーの指示に基づいて、表示器2に表示された画像オブジェクトの画像情報を画像指定する。つまり、画像指定部403は、ユーザーによる上記の画像指定操作に基づいて、画像オブジェクトの画像情報を画像指定することになる。詳細については、図5等を用いて後述する。なお、画像指定部403による処理は、指定処理の一例である。
マーカー描画部404は、CPU10によって制御される。マーカー描画部404は、画像指定部により画像指定された3次元画像オブジェクトをより明確に表示するために、前記3次元画像オブジェクトの近傍、かつ、その手前の3次元位置にマーカーを描画する。なお、マーカー描画部404による処理は、描画処理の一例である。
The
The
図5は、3次元画像表示部402が多視点3次元画像を表示している状態で、ユーザーが所望する画像オブジェクトを画像指定部403が指定し、マーカー描画部404が画像オブジェクトを指し示すマーカーを描画する処理の一例を示すフローチャートである。
S500で、3次元画像表示部402は、例えば撮影した3次元画像を閲覧できるアプリケーションプログラム等の実行に応じて、3次元画像を3次元表示器30で3次元表示し、処理をS501に進める。
S501で、CPU10は、指定の視点方向から見た3次元画像を表示する指示を検知したか否かを判定し、検知したと判定した場合、処理をS502に進める。一方、CPU10は、検知しなかったと判定した場合、処理をS503に進める。例えば、CPU10は、アプリケーションプログラム中の視点指定ボタン等でユーザーが所望する視点Nを指定した場合、指定された視点Nから見た3次元画像を正面に表示する視点指定の要求があると判定して処理をS502に進める。
In FIG. 5, in a state where the three-dimensional
In step S500, the three-dimensional
In S501, the
本実施形態では、画像オブジェクトをユーザーが指し示す前に、複数の視点の画像のうちでどの視点から見た画像に対してユーザーが画像オブジェクトを指し示すべきか、その視点Nを指定する処理が行われる。即ち、ユーザーは、多視点3次元画像のうち、指し示すべき画像オブジェクトを指し示しやすい視点Nの3次元画像上で指し示す。なお、画像指定部403は、複数の視点の画像のうち、ユーザーにより指定された視点の3次元画像を指定する。
S502で、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーにより指定された視点の3次元画像を指定して表示し、処理をS503に進める。S502の処理について、図6A、図6Bを用いてより具体的に説明する。
In the present embodiment, before the user points to the image object, a process for designating the viewpoint N as to which image the user should point to the image object from among the viewpoints among the images of the plurality of viewpoints is performed. . That is, the user points on the three-dimensional image at the viewpoint N that easily points to the image object to be pointed out of the multi-viewpoint three-dimensional images. Note that the
In step S502, the
図6Aは、タッチパネル40の表示の一例を示す図である。
図6Bは、各視点と、3次元画像表示との関係の一例を示す図である。
3次元画像表示部402は、タッチパネル40に表示される視点選択ボタン601のスクロールによる視点の選択に応じて、前述の6視点から成る多視点3次元画像の各視点から見た3次元画像を順次、3次元表示器30の正面に表示させる。なお、3次元表示するための3次元画像情報は、既定の規格に合致しているものとする。3次元画像表示部402は、多視点3次元画像情報取得部401で取得され、記憶装置80やRAM70に格納された3次元画像情報の中から、必要に応じて3次元表示器30が有する表示用記憶素子に各視点の3次元画像情報を選択的に供給して表示を行う。
そして、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーにより指定された視点の3次元画像を指定する。
FIG. 6A is a diagram illustrating an example of display on the
FIG. 6B is a diagram illustrating an example of the relationship between each viewpoint and three-dimensional image display.
The three-dimensional
Then, the
以下、ユーザーが多視点3次元画像から所望する視点を選択する手順について説明する。
3次元表示器30のタッチパネル40の中央部の表示領域600に表示される情報は、ユーザーの操作により、図2で説明した多視点3次元画像を表示するための3次元画像情報から指定の視点の3次元画像のみを表示する3次元画像情報に切り替えられる。即ち、3次元画像表示部402は、3次元表示器30を正面から見た場合のみユーザーが任意の視点の3次元画像を見ることができるように、各視点から見た3次元画像を表示領域600に順次、表示するように表示制御する。より具体的には、ユーザーは、画面下部に表示された視点選択ボタン601をタッチパネル40の操作によりスクロールすることで表示領域600に表示される表示画像を切り替えることができる。例えばユーザーは、視点選択ボタン601をタッチパネル40の操作で矢印方向にスクロールすれば、視点選択ボタン601の位置に応じて表示画像を視点6、視点5、視点4、視点3、視点2、視点1の順に各視点から見た3次元画像に切り替えることができる。
なお、ユーザーが視点選択ボタン601を操作しなければ、S501で視点指定が無いと判定され、3次元画像表示部402は、表示領域600に多視点3次元画像を表示したまま、処理をS503に進める。
A procedure for the user to select a desired viewpoint from the multi-viewpoint three-dimensional image will be described below.
The information displayed in the
If the user does not operate the
多視点3次元画像は、1つのレンチキュラーレンズ内にある各視点から見た3次元画像である。3次元画像表示部402は、多視点3次元画像を表示するために、多視点3次元画像を構成する全ての2次元画像情報を含む3次元画像情報603を表示する。しかし、3次元画像表示部402は、処理がS502に移行すると、視点選択ボタン601の位置に応じて、例えば視点4用の3次元画像情報604が示す3次元画像を表示領域600に表示する。ここで、視点4用の3次元画像情報604は、ユーザーが3次元表示器30の正面から見た場合に視点4の3次元画像が表示されるための情報に変更されている。即ち、3次元画像表示部402は、レンチキュラーレンズの中央部の画素位置に視点4の左目用2次元画像情報4及び右目用2次元画像情報5を表示し、他の画素位置を黒データに固定する。これにより、ユーザーは、3次元表示器30を正面から見れば視点4の3次元画像が見え、それ以外の角度からは何も見えなくなる。つまり、S502で、画像指定部403は、多視点3次元画像を示す3次元画像情報の一部を書き換えて、指定の視点の3次元画像のみを示す3次元画像情報に変更(又は生成)する処理を行っている。
The multi-viewpoint three-dimensional image is a three-dimensional image viewed from each viewpoint in one lenticular lens. The 3D
図5のフローチャートは一般化されているため、本実施形態では視点を4に指定した場合について説明する。つまり、図中のNを4と読み替えて以降の説明をする。
画像指定部403は、視点選択ボタン601をユーザーが矢印方向に移動させた場合、その位置に応じて、表示する3次元画像情報を、視点4の3次元画像を表示する3次元画像情報604から他の視点における3次元画像情報に変更する。これにより、3次元画像表示部402は、視点選択ボタン601で指示された視点から見た3次元画像を順次表示することができる。また、指定された視点の3次元画像以外の3次元画像については表示されない処理(無効化処理)が施されているので、ユーザーが3次元表示器30を異なる角度で見ることによって所望する画像と異なる画像が選択されることを防止することができる。ユーザーは、この視点選択ボタン601をスクロールして、所望の視点からの3次元画像が表示された状態にした上で、表示された3次元画像の中で、更に画像指定するべき画像オブジェクトをタッチパネル40で指し示す。即ち、ユーザーは、タッチパネル40を介して画像オブジェクトを指定するための入力操作(以後、画像指定入力という)を行う。
Since the flowchart of FIG. 5 is generalized, a case where the viewpoint is designated as 4 will be described in the present embodiment. That is, the following explanation will be made by replacing N in the drawing with 4.
When the user moves the
S503で、画像指定部403は、ユーザーによる画像指定入力を検知した場合、処理をS504に進める。一方、画像指定部403は、ユーザーによる画像指定入力を検知しなかった場合、処理をS500に戻す。
S504、S505の処理は、ユーザーによって指示された画像オブジェクトを画像指定部403が認識する処理である。
視点4で表示される3次元画像中でユーザーが指し示した画像オブジェクトを画像指定部403が認識する処理を、図7A、図7Bを用いて説明する。
図7Aは、視点4で3次元画像として表示した左目用の画像4の一例を示す図である。
図7Bは、視点4で3次元画像として表示した右目用の画像5の一例を示す図である。
なお、両画像中には視差に応じて異なる矩形の被写体が表示されている。
図7Aの左目用画像4中の矩形の被写体の中央部Q4の位置(X4、Y4)は、S503でユーザーがタッチパネル40で指定した画像オブジェクトを指し示した位置である。
本実施形態では、ユーザーが指し示した位置はどの視点においても、その左目用の2次元画像上で確定させる。例えば視点Nであれば画像N上の位置である。
In step S503, when the
The processes in S504 and S505 are processes in which the
Processing for the
FIG. 7A is a diagram illustrating an example of the image 4 for the left eye displayed as a three-dimensional image at the viewpoint 4.
FIG. 7B is a diagram illustrating an example of the right-eye image 5 displayed as a three-dimensional image at the viewpoint 4.
In both images, different rectangular subjects are displayed according to the parallax.
The position (X4, Y4) of the central portion Q4 of the rectangular subject in the left-eye image 4 in FIG. 7A is the position that points to the image object designated by the user on the
In this embodiment, the position pointed to by the user is determined on the two-dimensional image for the left eye at any viewpoint. For example, if it is the viewpoint N, it is a position on the image N.
図3で説明したように、各画像1から7までは、画像4を正面にし、それぞれ被写体に既定の角度を有して撮影されている。したがって、仮想平面図700中の被写体の座標位置は、図7Aの左目画像4における被写体の点P1、P2、P3を、左目の視線L41、L42、L43の方向に沿って仮想平面図700に射影すれば得ることができる。この被写体の点P1からP3までをオブジェクトの変化点と呼ぶ。同様に、図7Bの右目用画像5における被写体の点P1、P2、P3を、既定の角度を有した右目の視線L51、L52、L53の方向に沿って仮想平面図700に射影する。そして、これら点P1からP3までを通る視線L41からL43までのそれぞれがL51からL53までと仮想平面図700上で交差する位置が、仮想平面図700中の被写体の点P1からP3までの奥行きに対応する座標位置である。
なお、画像指定部403が仮想平面図700における被写体の点P1、P2、P3の奥行きに対応する座標位置を求める処理が画像オブジェクトを認識する処理であり、図5に示すS504の処理である。
As described with reference to FIG. 3, each of the
Note that the process in which the
S504で、画像指定部403は、画像4からの視線L41と、画像5からの視線L51との交点P1と、画像4からの視線L42と、画像5からの視線L52との交点P2と、画像4からの視線L43と、画像5からの視線L53との交点P3とを求めた。この交点P1からP3までの位置関係を図8A、図8Bの仮想平面図700に示す。
図8Aは、各画像からの視線の交点の仮想平面上における位置関係の一例を示す図である。
この各交点P1、P2、P3を仮想平面図700上で結べば、ユーザーが指し示した画像オブジェクト全体の奥行きに対応する座標位置を含む3次元の座標位置(3次元位置)を得ることができる。この様子を図8Bに示す。
図8Bは、マーカーが表示される位置の一例を示す図である。
画像指定部403が、このオブジェクト全体の奥行きに対応する座標位置を含む3次元位置を求める処理が、図5におけるS505の処理である。
なお、本実施形態では、両画像中の被写体の形状の変化点P1からP3までから得られる視線の交点から画像オブジェクトの3次元位置を求めたが、これに限る必要はない。例えば変化点は3次元的なものでなく、両画像中の被写体で対として認識できる画像の濃淡の変化等の模様であってもよい。
In step S504, the
FIG. 8A is a diagram illustrating an example of the positional relationship on the virtual plane of the intersection of the lines of sight from each image.
By connecting the intersections P1, P2, and P3 on the
FIG. 8B is a diagram illustrating an example of a position where a marker is displayed.
The process in which the
In the present embodiment, the three-dimensional position of the image object is obtained from the intersection of the lines of sight obtained from the change points P1 to P3 of the shape of the subject in both images. However, the present invention is not limited to this. For example, the change point is not three-dimensional, and may be a pattern such as a change in shade of an image that can be recognized as a pair by a subject in both images.
ここで、図8Bにおいて、ユーザーが指し示した箇所は、画像4の指定ポイントQ4からの視線L40が仮想平面上のP1と、P2とを結ぶ被写体の面と交わる位置Qである。この位置Qを画像オブジェクトの奥行きを考慮して3次元的に指し示すマーカーを、本実施形態では画像4上で上向きに正立する、矢印形状のマーカー800とする。
マーカー描画部404は、仮想平面図700上でマーカー800を指定された画像オブジェクト中の指し示した箇所である位置Qから奥行き方向で所定の距離内の位置(近傍位置M)にマーカーを表示できるように設定する。マーカー描画部404が、このマーカー800の表示位置を近傍位置Mに設定する処理が、図5に示すS506の処理である。
次に、S507で、マーカー描画部404は、マーカー800を3次元表示するために画像5中に描画する位置を決定する。マーカー描画部404は、指定された視点が視点Nである場合、画像N+1上のマーカーの描画位置を決定する。S507の処理について、図8Bを用いて説明する。
マーカー描画部404は、S506で設定した仮想平面図700のマーカー800の表示位置となる位置Mから、画像5に向けた視線L50と、画像5中の直線Y=Y4との交点(X5、Y4)に、画像5上のマーカー800の描画位置Q5を決定する。なお、画像5に向けた視線L50が他のオブジェクトで遮られた場合、視線L50と、直線Y=Y4との交点は無いため、描画位置Q5は存在しないことになる。
Here, in FIG. 8B, the point indicated by the user is the position Q where the line of sight L40 from the designated point Q4 of the image 4 intersects the surface of the subject connecting P1 and P2 on the virtual plane. In this embodiment, a marker that points this position Q in a three-dimensional manner in consideration of the depth of the image object is an arrow-shaped marker 800 that stands upright on the image 4.
The
In step S <b> 507, the
The
次に、マーカーの描画処理、即ち、S508の処理について、図9A、図9B、図9Cを用いて説明する。
図9Aは、各視点の画像中のマーカー位置にマーカーが描画された一例を示す図である。
図9Bは、マーカー描画部404により生成された左目に与えられる画像の一例を示す図である。
図9Cは、マーカー描画部404により生成された右目に与えられる画像の一例を示す図である。
マーカー描画部404は、図9Aに示すように、先に説明した視点4の左目用2次元画像中のマーカー位置Q4(X4、Y4)及び視点4の右目用2次元画像中のマーカー位置Q5(X5、Y4)に、矢印形状のマーカーを被写体に重ねて描画する。つまり、マーカー描画部404は、左目に与えられる画像4及び右目に与えられる画像5を、図9B、図9Cのように生成する。なお、マーカー描画部404は、ROM60等に予め格納されている矢印形状のマーカー800を含むマーカー描画パーツから任意のパーツを選択してマーカーの描画をすることができる。
Next, the marker drawing process, that is, the process of S508 will be described with reference to FIGS. 9A, 9B, and 9C.
FIG. 9A is a diagram illustrating an example in which a marker is drawn at a marker position in each viewpoint image.
FIG. 9B is a diagram illustrating an example of an image given by the left eye generated by the
FIG. 9C is a diagram illustrating an example of an image given by the right eye generated by the
As shown in FIG. 9A, the
画像4中に描画したマーカー901と、画像5中に描画したマーカー902とは、被写体に対する視点の角度の違いからその幅が異なるが、これらの違いは各視点に応じて予めマーカー描画データとしてROM60に記憶保持されている。したがって、マーカー描画部404は、各視点画像用のマーカー描画データをROM60等から読み出して描画すれば、高速に描画することができる。
ユーザーは、画像4及び画像5の被写体に重ねて描画したマーカー901及び902を、それぞれ左右の目で見れば、仮想平面図700に示すように、3次元表示における奥行き方向で、被写体の手前の近傍位置にマーカー800が立体的に見える。
The
If the user sees the
以上、S508では視点4の3次元画像中の画像指定された画像オブジェクトを指し示すマーカー800を3次元描画して3次元表示したが、先に説明したように、画像5は視点5の左目用2次元画像である。したがって、図7A、図7Bを用いて説明した一連の処理と同様に、画像指定部403は、画像5の2次元画像と、画像6の2次元画像とを用いて仮想平面図700上に被写体及びマーカー800を認識すれば、画像6上にマーカー位置Q6を得ることができる。即ち、図5におけるS505からS508までの処理を全ての視点に対して順次繰り返せば、マーカー描画部404は、多視点3次元画像として画像オブジェクトを指し示すマーカー800を描画することができる。
処理をS508からS500に戻せば、今描画したマーカー800は、視点Nから3次元画像として見ることができる。なお、この状態でユーザーが更に画像指定位置を移動させれば、その移動に応じて先の処理が繰り返し実行される。そのため、マーカー800は、ユーザーが指し示す画像オブジェクトの3次元位置に応じてその近傍を3次元的に変えながら移動して表示されることになる。
As described above, in S508, the marker 800 indicating the image object designated in the three-dimensional image of the viewpoint 4 is three-dimensionally drawn and three-dimensionally displayed. However, as described above, the image 5 is for the
If the processing is returned from S508 to S500, the marker 800 just drawn can be viewed from the viewpoint N as a three-dimensional image. If the user further moves the image designation position in this state, the previous processing is repeatedly executed according to the movement. Therefore, the marker 800 is moved and displayed while changing its neighborhood three-dimensionally according to the three-dimensional position of the image object pointed to by the user.
図10Aは、仮想平面図の表示の一例を示す図である。
図10Bは、図10Aに対応する視点画像の一例を示す図である。なお、図10Bの1001は、3個の被写体それぞれを正面から見て指し示した例で、それぞれマーカーは1006、1007、1008として3次元表示されている。
図10Cは、図10Aと異なる視点の仮想平面図の表示の一例を示す図である。
図10Dは、図10Cに対応する視点画像の一例を示す図である。
図10Aの1002の視点からはマーカー1006として指し示した画像オブジェクトは、被写体1005の影に隠れてほとんど見ることができない。したがって、その近傍に表示されたマーカー1006は、この視点からは図示するように、ほとんど見ることができない。これは本実施形態によるマーカーの描画が指し示された画像オブジェクトをより正確に指し示していることを意味する。
FIG. 10A is a diagram illustrating an example of a virtual plan view display.
FIG. 10B is a diagram illustrating an example of a viewpoint image corresponding to FIG. 10A. Note that
FIG. 10C is a diagram illustrating an example of a display of a virtual plan view at a different viewpoint from FIG. 10A.
FIG. 10D is a diagram illustrating an example of a viewpoint image corresponding to FIG. 10C.
From the viewpoint of 1002 in FIG. 10A, the image object pointed as the
なお、本実施形態は、画像指定された画像オブジェクトを指し示すマーカーの描画方法を特徴とする。そのため、本実施形態は、指し示した画像オブジェクトをその後、特定の目的のために確定させる操作、指し示した機能表示タブを有効にする操作、その操作に従う後続の処理等に関して、公知の技術の適用を妨げるものではない。つまり、2次元表示器を用いた従来のコンピュータシステムでプレゼンテーションのために広く使われている図面を作成するためのアプリケーションソフト等と同様の操作をすることができる。例えば、3次元表示された特定の画像オブジェクトのみを削除したり、より手前に配置したり、拡大処理したり、新たな既定形状の画像オブジェクトを所望する位置に挿入したりする操作等があげられる。 The present embodiment is characterized by a method of drawing a marker that points to an image object for which an image has been designated. Therefore, in the present embodiment, application of a known technique is applied to an operation for confirming the indicated image object for a specific purpose, an operation for enabling the indicated function display tab, a subsequent process according to the operation, and the like. It does not prevent it. That is, it is possible to perform the same operation as application software for creating a drawing widely used for presentation in a conventional computer system using a two-dimensional display. For example, operations such as deleting a specific image object displayed three-dimensionally, placing it closer, enlarging, or inserting a new default shape image object at a desired position, etc. .
以上、本実施形態によれば、3次元画像表示部402は、多視点3次元画像情報取得部401が取得した多視点3次元画像情報に基づいて多視点3次元画像を表示する。そして、画像指定部403は、3次元画像表示部402により表示された多視点3次元画像から、ユーザーの指示に基づいて画像オブジェクトを指定する。更に、マーカー描画部404は、画像指定部403により指定された画像オブジェクトの近傍に、常に前記画像オブジェクトの手前に表示されるようにマーカーを描画する。これにより、本実施形態の画像処理装置は、前記画像オブジェクトと、マーカーとの重なりを検出する手段を要さずに、所望の3次元画像の手前にマーカーを表示することができる。
As described above, according to the present embodiment, the 3D
<実施形態2>
次に、マーカーが他の被写体で隠れている場合において、マーカーを別形態で描画する場合の実施形態について説明する。
図11Aから図11Dまでは、図10Aから図10Dまでで説明したように、ユーザーが指し示した視点と異なる視点で画像オブジェクト及びマーカーを見た際に、マーカーが他の被写体の後ろに隠れる場合におけるマーカーの別描画形態の一例を示す図である。
図11Aは、図10Aと同図である。
図11Bは、図10Bと同図である。
図11Cは、図10Cと同図である。
図11Dは、図10Dに示されるマーカー1006の隠れている部分を識別可能に表示した視点画像の一例を示す図である。より具体的には、ほとんど被写体1005に隠れているマーカー1101において、隠れた部分のみが色を変えて描画されている。
<
Next, an embodiment in which the marker is drawn in another form when the marker is hidden by another subject will be described.
11A to 11D, in the case where the marker is hidden behind another subject when the image object and the marker are viewed from a viewpoint different from the viewpoint pointed to by the user, as described in FIGS. 10A to 10D. It is a figure which shows an example of another drawing form of a marker.
FIG. 11A is the same as FIG. 10A.
FIG. 11B is the same as FIG. 10B.
FIG. 11C is the same as FIG. 10C.
FIG. 11D is a diagram illustrating an example of a viewpoint image in which a hidden portion of the
本来、図11Cの仮想平面図1004のマーカー1006から図11Dの視点画像1003への視線L110は、オブジェクト1005で遮られるため、視点画像1003上までは届かない。そのため、マーカー描画部404は、マーカー1101を視点画像1003上に描くことはできないが、本実施形態ではマーカーから各視点画像上への視線が他のオブジェクトで遮られていても、遮られる部分を識別可能なマーカー1101として描画する。即ち、マーカー描画部404は、視線L110及び視線L111を用いて、その一部が他のオブジェクトで遮られる部分を識別できるように、マーカー1101を描画する。なお、マーカー描画部404によるマーカー描画方法は、マーカー1101のように隠れた部分の色を変更して描画する方法に限る必要はない。例えば、マーカー描画部404は、隠れたマーカー部分の輪郭のみを実線表示し、その中は被写体1005を透過して表示するようにしてもよい。
実施形態1では、マーカーが他の被写体に全て隠れた場合、ユーザーは、その視点から画像指定した画像オブジェクトを判別することができない。しかし、本実施形態によれば、マーカー描画部404が隠れた部分のマーカーを識別可能に描画することで、ユーザーは、隠れた画像オブジェクトの位置を推定することができるようになる。
Originally, the line of sight L110 from the
In the first embodiment, when the markers are all hidden behind other subjects, the user cannot discriminate the image object designated as an image from the viewpoint. However, according to the present embodiment, the
<実施形態3>
実施形態1では、画像指定部403の実施形態として、ユーザーがタッチパネル40で画像オブジェクトをタッチして画像指定する前に、画像指定しやすい視点の3次元画像を選択させる実施形態について説明した。本実施形態では、画像指定部403が上記のような操作によらずユーザーの所望する画像オブジェクトを直接指し示せる実施形態について説明する。
本実施形態では、画像指定部403は、表示器30を操作観測しているユーザーを、撮像装置20を制御して撮影する。その後、画像指定部403は、撮影した画像からユーザーの表示器30に対する位置を認識して、ユーザーの表示器30に対する視点を認識する。そして、画像指定部403は、この認識したユーザーの視点と、タッチパネル40のタッチ位置とによって画像指定された画像オブジェクトを確定する。なお、ユーザーの表示器30に対する位置情報は、ユーザー位置情報の一例である。また、表示器30の位置情報は、表示器位置情報の一例である。
<Embodiment 3>
In the first embodiment, as an embodiment of the
In the present embodiment, the
図12は、本実施形態における処理の一例を示すフローチャートである。
なお、図5で前述した処理と同じ処理については、同じ番号で記述している。また、図5で前述した処理と同じ処理については、説明を省略する。
S510で、画像指定部403は、ユーザーの視点を認識する。S510の処理の詳細について、図13、図14を用いて詳述する。
図13は、視点認識の原理の一例を示す図である。
図14は、S510の視点認識処理の一例を示すフローチャートである。
S1311で、画像指定部403は、撮像装置20を制御して表示器30の中央に設置された撮像装置20で正面を撮影し、図13の撮影画像1200に示す画像データを得る。そして、画像指定部403は、この撮影画像1200を示す画像データをRAM70に一時記憶させ、処理をS1312に進める。
S1312で、画像指定部403は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を指定する。画像指定部403は、公知のパターンマッチング顔認識技術でユーザーの顔の位置を指定する。画像指定部403は、一般的に、人の顔認識は横に並ぶ1対の目の存在に着目して容易にその重心位置を認識することができる。
FIG. 12 is a flowchart illustrating an example of processing in the present embodiment.
The same processes as those described above with reference to FIG. 5 are described with the same numbers. The description of the same processing as that described above with reference to FIG.
In step S510, the
FIG. 13 is a diagram illustrating an example of the principle of viewpoint recognition.
FIG. 14 is a flowchart illustrating an example of the viewpoint recognition process in S510.
In step S <b> 1311, the
In step S1312, the
認識したユーザーの顔の位置からユーザーの視点を指定する原理について、図13を用いて説明する。
一般的に、両目の視差を利用した3次元表示器では、観察者が表示器から所定の距離Lm離れた位置で最も立体画像を良好に見ることができる。即ち、撮影されたユーザーは、表示器30から、距離Lm離れた位置で撮影されたと推定することができる。したがって、画像指定部403は、得られた撮影画像のユーザーの両目の間隔Liが標準的に8cmだと想定して、ユーザーの位置の表示器中央からのズレLoを求めることができる。また、図13において、表示器30の前Lmの位置に示す仮想のライン1201上のユーザーの位置、即ち点Pから表示器30の中央を目指す方向がユーザーの視点といえる。
画像指定部403は、ユーザーが多視点3次元表示器30を点Pの位置から見た場合、予め撮影され、表示されたどの視点の3次元画像が最も良好に見えるかを判定することでユーザーが見ている視点の画像を特定することができる。即ち、表示器中央からのズレLoが正の値なら、視点1か、視点2か、視点3の何れかであり、表示器中央からのズレLoが負の値なら、視点6か、視点5か、視点4の何れかかである。
The principle of designating the user's viewpoint from the recognized user's face position will be described with reference to FIG.
In general, in a three-dimensional display using the parallax of both eyes, the observer can most satisfactorily view a stereoscopic image at a position away from the display by a predetermined distance Lm. In other words, it can be estimated that the photographed user is photographed at a position away from the
When the user views the multi-viewpoint three-
画像指定部403は、図13に示されるような推定されたユーザーの位置Pと、それぞれ表示されている3次元画像の視線が仮想のライン1201と交わる位置とを比較して、ユーザーの位置Pに近い視線を求める。これにより、画像指定部403は、その視点に対応する画像がユーザーの所望する3次元画像であると判定することができる。なお、距離L1は、視点3と、視点2とを識別する閾値であり、L2は、視点2と、視点1とを識別する閾値である。また、距離−L1は、視点4と、視点5とを識別する閾値であり、−L2は、視点5と、視点6とを識別する閾値である。これらは、それぞれ仮想のライン1201と、両視線とが交わる中間点の表示器30の中央からの距離とすることができる。
The
図14に戻って説明を続ける。
S1313で、画像指定部403は、上述した通りにユーザーの位置の表示器中央からのズレLoを求めて、処理をS1314に進める。
S1314で、画像指定部403は、Loの符号を判定する。画像指定部403は、符号が正であると判定した場合、処理をS1315に進め、符号が負であると判定した場合、処理をS1320に進める。
S1315で、画像指定部403は、Lo>L2であると判定した場合、処理をS1319に進め、ユーザーの視点を視点1に指定する。一方、S1315で、画像指定部403は、Lo>L2でなないと判定した場合、処理をS1316に進める。
S1316で、画像指定部403は、Lo>L1であると判定した場合、処理をS1318に進め、ユーザーの視点を視点2に指定する。一方、S1316で、画像指定部403は、Lo>L1でないと判定した場合、処理をS1317に進め、ユーザーの視点を3に指定する。
Returning to FIG. 14, the description will be continued.
In step S1313, the
In step S1314, the
If the
If the
S1320で、画像指定部403は、Lo<−L2であると判定した場合、処理をS1324に進め、ユーザーの視点を視点6に指定する。一方、S1320で、画像指定部403は、Lo<−L2でないと判定した場合、処理をS1321に進める。
S1321で、画像指定部403は、Lo<−L1であると判定した場合、処理をS1323に進め、ユーザーの視点を視点4に指定する。一方、S1321で、画像指定部403は、Lo<−L1でないと判定した場合、処理をS1322に進め、ユーザーの視点を視点5に指定する。なお、図13で示す撮影画像1200の例では、画像指定部403は、ユーザーの視点を視点2として指定する。
以上の処理により、図12のS510の視点認識処理で、画像指定部403は、ユーザーが見ている3次元画像を視点2の3次元画像であると認識する。その後、画像指定部403は、S505で設定が左目用の2次元画像であれば、視点2の左目用画像を使って実施形態1で説明した場合と同様に、Nを2として以降の処理を行う。
If the
If the
With the above processing, in the viewpoint recognition processing in S510 of FIG. 12, the
以上、本実施形態によれば、実施形態1で説明した多視点3次元画像から視点を指定するためのユーザーの操作が不要となるため、操作性及び制御性においてより有利となる。
なお、図12のS500からS508までの一連の処理が多視点3次元画像に対しても繰り返し実行されれば、ユーザーは、より的確に画像オブジェクトを指し示すことができる。より具体的には、ユーザーは、表示される3次元画像をどの視点からでも3次元表示されるマーカーを見ながらタッチパネル40等を操作してより的確に画像オブジェクトを指し示すことができる。
なお、本実施形態では、ユーザーの視点を識別するために、表示器2が有する撮像装置20を用いたが、例えば表示器2が2組の撮像装置20を有する場合、画像指定部403は、ユーザーまでの距離をより正確に識別することができる。そのため、画像指定部403は、より精度良くユーザーの視点を指定することができるようになる。また、ユーザーの視点を認識するための方法は、撮像装置を用いた上述の方法に限る必要はない。例えば、表示器2が2組の赤外線送受信装置を有し、表示器2からそれぞれユーザー方向に無指向性で赤外線を放射し、その反射光の強度からユーザーの位置を検出して視点を認識する方法を用いてもよい。また、ユーザーの視点を直接認識する方法や、表示器の位置と、ユーザーが発信するGPS等の位置情報(GPS情報)との関係からユーザーの位置を検出して、視点を認識する方法等を用いるようにしてもよい。なお、上記の方法等により、ユーザーの位置情報を取得する処理は、位置情報取得処理の一例である。
As described above, according to the present embodiment, the user's operation for designating the viewpoint from the multi-viewpoint three-dimensional image described in the first embodiment is unnecessary, which is more advantageous in terms of operability and controllability.
If the series of processing from S500 to S508 in FIG. 12 is repeatedly performed on a multi-viewpoint three-dimensional image, the user can more accurately point to the image object. More specifically, the user can point the image object more accurately by operating the
In this embodiment, the
<実施形態4>
実施形態1では、画像指定部403の実施形態として、多視点3次元画像の中から画像オブジェクトを画像指定しやすい視点を図6Aの視点選択ボタン601で指定する実施形態について説明した。本実施形態では、画像オブジェクトの3次元位置近傍にマーカーを表示して指し示すため、初期的に適当な既定の画像オブジェクトを差し示せば、以降はそのマーカーを移動させればユーザーが望む画像オブジェクトを指し示すことができる。これにより、実施形態1で説明したユーザーの視点選択操作が不要になる。以下、本実施形態について詳述する。
<Embodiment 4>
In the first embodiment, as an embodiment of the
図15は、本実施形態における3次元画像上の指定オブジェクト近傍に3次元マーカーを描画する処理の一例を示すフローチャートである。
なお、図5で前述した処理と同じ処理については、同じ番号で記述している。また、図5で前述した処理と同じ処理については、説明を省略する。
S511で、画像指定部403は、画像オブジェクトを指定するための視点を予め決められた視点に初期設定する。ここでは、画像指定部403は、視点を、ユーザーの正面からの視点4に初期設定するものとする。更に、画像指定部403は、マーカーの位置を予め決められた位置(初期位置)に初期設定する。ここでは、画像指定部403は、マーカーの位置を画像4の画面の中央の位置に初期設定するものとする。なお、ユーザーは、既定の視点及びマーカー位置を予めROM60等に登録しておくことができる。
FIG. 15 is a flowchart illustrating an example of processing for drawing a three-dimensional marker in the vicinity of a specified object on a three-dimensional image in the present embodiment.
The same processes as those described above with reference to FIG. 5 are described with the same numbers. The description of the same processing as that described above with reference to FIG.
In step S511, the
S512で、画像指定部403は、S500で多視点3次元表示した画像に対して、マウスやキーボード等の矢印キー或いはマウスパッド等の操作で、S511で初期設定したマーカー位置からの移動を含めてマーカー位置を検知する。なお、マウス等の操作部を介して受け付けたユーザーによる初期設定したマーカー位置からの移動操作は、ユーザーによる移動指示の一例である。
ここで、ユーザーの操作がなければ、視点4の画像4の中央の画像オブジェクトが、ユーザーが画像指定する画像オブジェクトになる。なお、前述したS504からS508までの一連のマーカー描画部404の処理により、再びS500で3次元表示される画像中のマーカーは、視点4の中央部に見える画像オブジェクトを指し示している。したがって、もしこのマーカーが指し示す画像オブジェクトが所望するオブジェクトでなければ、ユーザーは、マウス等の操作でマーカーを移動させれば、画像指定部403がその移動を検知して、所望する画像オブジェクトを画像指定することができる。
In step S512, the
Here, if there is no user operation, the center image object of the image 4 of the viewpoint 4 becomes an image object designated by the user. Note that the marker in the image three-dimensionally displayed again in S500 points to the image object that can be seen in the center of the viewpoint 4 by the series of processing of the
以上、本実施形態によれば、ユーザーが視点を指定する操作や視点を認識する手段を用いることなく、所望する画像オブジェクトをマーカーで指し示すことが可能となるため、操作性及び制御性においてより有利となる。 As described above, according to the present embodiment, it is possible to point a desired image object with a marker without using an operation for specifying a viewpoint or a means for recognizing the viewpoint, which is more advantageous in terms of operability and controllability. It becomes.
<実施形態5>
実施形態1から実施形態4までは、視差分割方式としてレンチキュラーレンズ方式を用いた多視点3次元表示器を用いた場合の実施形態について説明した。しかしながら、3次元表示器30は、レンチキュラーレンズを用いるものに限定されることなく他の3次元表示器を用いることも可能である。本実施形態では、パララックスバリア方式の3次元表示器を用いた場合の実施形態について説明する。
図16は、本実施形態で用いるパララックスバリア方式の3次元表示器の表示原理の一例を示す図である。
例えば図16に示すパララックスバリア方式の表示器30は、表示画面の手前に左右の目から見た視線上に互いに他方の目用の表示画素からの光を遮るための光学的なバリア160を有する。これにより、図16に示すように、右目に対しては左目用画素がパララックスバリア160で光路遮光され、逆に左目に対しては右目用画素がパララックスバリア160で光路遮光される。その結果、右目と、左目とには、両目の視点で撮影された異なる視点の画像が見えるため、立体表示がなされる。
<Embodiment 5>
In the first to fourth embodiments, the embodiment in which a multi-viewpoint three-dimensional display using a lenticular lens method as a parallax division method is used has been described. However, the three-
FIG. 16 is a diagram showing an example of the display principle of the parallax barrier type three-dimensional display used in the present embodiment.
For example, the parallax
図17を用いて、パララックスバリア方式の3次元表示器を使った実施形態について詳述する。
図17は、パララックスバリア方式を用いた場合の表示の一例を示す図である。
図17の液晶表示器300は、それぞれ右目用表示画素170と、左目用表示画素171とを隣接対として有している。3次元表示器30は、視点1から見た3次元画像を表示する場合、3次元画像情報172として、右目用画素位置に図3に示す画像2の2次元画像情報を、左目用画素位置に画像1の2次元画像情報を、それぞれ短冊状に分解して表示する。
ここで、多視点画像として図17に示すように各視点の3次元画像情報を有する場合、画像指定部403は、先のレンチキュラーレンズ方式の場合と同様に、順次表示する3次元画像情報を切り替えて表示する。これにより、ユーザーは、所望する視点の画像を指定することができる。また、タッチ画像を指定する際に用いる2次元画像情報も、先の実施形態と同様に予め設定されたどちらかの目用の2次元画像情報を用いればよい。画像指定部403は、用いる3次元表示器の原理に応じて表示する2次元画像情報又は3次元画像情報を選択して3次元表示器で表示することができる。即ち、図5、図6A、図6Bで説明した、視点を選択する際の各視点の3次元画像情報については、各視点用の3次元画像情報を直接用いればよい。
An embodiment using a parallax barrier type three-dimensional display will be described in detail with reference to FIG.
FIG. 17 is a diagram illustrating an example of display when the parallax barrier method is used.
The
Here, as shown in FIG. 17, as the multi-viewpoint image, the
以上、本実施形態におけるパララックスバリア方式の3次元表示器を用いた3次元表示器を用いれば、レンチキュラーレンズ方式を用いた場合よりも、より画素密度の高い表示が可能となり、より正確に画像を指定することができる。 As described above, if a three-dimensional display using the parallax barrier type three-dimensional display in the present embodiment is used, display with a higher pixel density is possible than when the lenticular lens method is used, and the image is more accurately displayed. Can be specified.
<その他の実施形態>
先の実施形態では、多視点3次元表示している画像オブジェクトに対する画像指定を、タッチパネル40を用いて指定する場合の実施形態について説明した。だが、タッチパネル40を用いて指定する形態に限る必要はなく、ユーザーは、マウスやタッチパッド55或いはキーボード50の複数のキーを用いても画面に表示した画像オブジェクトを指し示し、マーカー表示するようにしてもよい。なお、その場合、画像指定部403は、従来の公知の技術として開示されている通り、表示されているマーカーの位置に対する変化量が入力されたとして、その変化量に応じてマーカー位置を移動させることができる。また、画像指定した画像オブジェクトに対する一般的な制御や指示も同様に可能である。したがって、これらの入力手段を用いても同様に本実施形態の効果を得ることができる。
<Other embodiments>
In the previous embodiment, the embodiment in the case where the image designation for the image object displayed in the multi-viewpoint three-dimensional manner is designated using the
また、先の実施形態では、画像指定部403は、視点4の左右の目用の画像4と、画像5とから仮想平面図を作成した。しかし、画像指定部403は、画像が多視点3次元画像の場合、隣り合う2種の画像に限定されず、より離れた角度の他の画像、例えば画像4と、画像7とから仮想平面図を作成してもよい。これにより、画像指定部403は、指し示す画像オブジェクトに限らず、周辺の他の画像オブジェクトを含む、より広い範囲の画像に対して仮想平面図を作成することができる。
なお、先の実施形態では、多視点3次元画像として7方向からカメラで撮影した被写体の一部を画像オブジェクトとして説明したが、コンピュータグラフィックス等で作成された多視点3次元画像であっても同様に実施することができる。また、画像オブジェクトが3次元空間に表示された機能タブやアイコンを含むようにしてもよい。
In the previous embodiment, the
In the previous embodiment, a part of a subject photographed by a camera from seven directions as a multi-viewpoint three-dimensional image has been described as an image object. However, a multi-viewpoint three-dimensional image created by computer graphics or the like may be used. It can be implemented similarly. The image object may include function tabs and icons displayed in the three-dimensional space.
また、本実施形態は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。 Moreover, this embodiment is implement | achieved also by performing the following processes. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
以上、上述した各実施形態によれば、3次元画像と、マーカーとの重なりを検出する手段を要さずに、所望の3次元画像の手前に常にマーカーを表示することができる。 As described above, according to each embodiment described above, a marker can always be displayed in front of a desired three-dimensional image without requiring a means for detecting an overlap between the three-dimensional image and the marker.
以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiment of the present invention has been described in detail above, but the present embodiment is not limited to the specific embodiment, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
Claims (11)
前記取得手段により取得された3次元画像情報に基づいて3次元画像を表示する表示手段と、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示手段により表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定手段と、
前記指定手段により指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画手段と、
を有する画像処理装置。 Acquisition means for acquiring three-dimensional image information;
Display means for displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition means;
Designation means for designating a marker position indicating a part of the three-dimensional image displayed by the display means based on a user instruction received via the operation unit;
Drawing means for drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position designated by the designation means;
An image processing apparatus.
前記指定手段は、前記位置情報取得手段により取得された前記ユーザー位置情報と、3次元表示器の表示器位置情報とに基づいて指定した視点の3次元画像の一部を指し示すマーカー位置を指定する請求項1に記載の画像処理装置 It further has position information acquisition means for acquiring user position information indicating the position of the user,
The designation unit designates a marker position that indicates a part of a three-dimensional image of the designated viewpoint based on the user position information acquired by the position information acquisition unit and the display unit position information of the three-dimensional display. The image processing apparatus according to claim 1.
3次元画像情報を取得する取得ステップと、
前記取得ステップにより取得された3次元画像情報に基づいて3次元画像を表示する表示ステップと、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示ステップにより表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定ステップと、
前記指定ステップにより指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画ステップと、
を含む画像処理方法。 An image processing method executed by an image processing apparatus,
An acquisition step of acquiring three-dimensional image information;
A display step of displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition step;
A designation step for designating a marker position indicating a part of the three-dimensional image displayed by the display step based on a user instruction received via the operation unit;
A drawing step of drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position specified by the specifying step;
An image processing method including:
3次元画像情報を取得する取得ステップと、
前記取得ステップにより取得された3次元画像情報に基づいて3次元画像を表示する表示ステップと、
操作部を介して受け付けたユーザーの指示に基づいて、前記表示ステップにより表示された前記3次元画像の一部を指し示すマーカー位置を指定する指定ステップと、
前記指定ステップにより指定された前記マーカー位置に対する予め定められた範囲に、3次元的に表示されるマーカーを前記3次元画像の手前に描画する描画ステップと、
を実行させるためのプログラム。 On the computer,
An acquisition step of acquiring three-dimensional image information;
A display step of displaying a three-dimensional image based on the three-dimensional image information acquired by the acquisition step;
A designation step for designating a marker position indicating a part of the three-dimensional image displayed by the display step based on a user instruction received via the operation unit;
A drawing step of drawing a marker displayed three-dimensionally in front of the three-dimensional image in a predetermined range with respect to the marker position specified by the specifying step;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012286197A JP2014128022A (en) | 2012-12-27 | 2012-12-27 | Image processing apparatus, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012286197A JP2014128022A (en) | 2012-12-27 | 2012-12-27 | Image processing apparatus, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014128022A true JP2014128022A (en) | 2014-07-07 |
Family
ID=51407159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012286197A Pending JP2014128022A (en) | 2012-12-27 | 2012-12-27 | Image processing apparatus, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014128022A (en) |
-
2012
- 2012-12-27 JP JP2012286197A patent/JP2014128022A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5830987B2 (en) | Display control apparatus, display control method, and computer program | |
JP6508280B2 (en) | Control device, detection device, display system, electronic device, and program | |
Livingston et al. | Pursuit of “X-ray vision” for augmented reality | |
JP5167439B1 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
US9979946B2 (en) | I/O device, I/O program, and I/O method | |
JP2011035592A (en) | Display control program and information processing system | |
JP2012256110A (en) | Information processing apparatus, information processing method, and program | |
JP2015143976A (en) | Information processing device, method for controlling the same, and program | |
JP2013017146A (en) | Display controller, display control method and program | |
CN102508548A (en) | Operation method and system for electronic information equipment | |
CN104134235A (en) | Real space and virtual space fusion method and real space and virtual space fusion system | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
US20150381970A1 (en) | Input/output device, input/output program, and input/output method | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2013168120A (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
JP2015037282A (en) | Image processing device, image processing method, and program | |
CN104850383A (en) | Information processing method and electronic equipment | |
JP2014128022A (en) | Image processing apparatus, image processing method and program | |
EP3121792B1 (en) | Processing device for label information for multi-viewpoint images and processing method for label information | |
US9218104B2 (en) | Image processing device, image processing method, and computer program product | |
JP2008098861A (en) | Image processing apparatus, program, and recording medium | |
JP2013250757A (en) | Image processing device, image processing method, and program | |
JP2014142568A (en) | Image processing apparatus, image processing method, and program | |
JP7040660B1 (en) | Information processing equipment and information processing method | |
JP5520772B2 (en) | Stereoscopic image display system and display method |