JP2011166754A - Display control program, display control apparatus, display control system, and display control method - Google Patents
Display control program, display control apparatus, display control system, and display control method Download PDFInfo
- Publication number
- JP2011166754A JP2011166754A JP2011003949A JP2011003949A JP2011166754A JP 2011166754 A JP2011166754 A JP 2011166754A JP 2011003949 A JP2011003949 A JP 2011003949A JP 2011003949 A JP2011003949 A JP 2011003949A JP 2011166754 A JP2011166754 A JP 2011166754A
- Authority
- JP
- Japan
- Prior art keywords
- eye image
- image
- display
- display control
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/30—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5252—Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/63—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04897—Special input arrangements or commands for improving display capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明は、立体表示可能な表示装置に立体画像を表示した場合に、立体の見え方を調整することが可能な表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法に関する。 The present invention relates to a display control program, a display control device, a display control system, and a display control method capable of adjusting the appearance of a stereoscopic image when a stereoscopic image is displayed on a display device capable of stereoscopic display.
従来、互いに視差を有する右目用画像と左目用画像とを用いて、立体画像を表示させる立体画像表示装置が存在する。具体的には、立体画像表示装置では、ユーザの右目に右目用画像を、ユーザの左目に左目用画像を視認させることにより、立体感のある画像を画面に表示させる。このような立体画像表示装置において、表示される画像の立体感を調整する装置が存在する。例えば、特許文献1に記載の装置では、撮像された右目用画像と左目用画像との表示画面上における位置、大きさ、及び、回転を調整することにより、表示される画像の立体感を調整している。具体的には、特許文献1に記載の装置では、右目用画像と左目用画像とが重ね合わされて1つの画面に表示され、ユーザは、当該画面上に表示された2つの画像の位置や回転等を調整する。そして、ユーザは、2つの画像を調整した後、立体画像として表示させ、当該画像の立体感を確認する。
Conventionally, there is a stereoscopic image display device that displays a stereoscopic image using a right-eye image and a left-eye image that have parallax. Specifically, in a stereoscopic image display device, a right-eye image is visually recognized on the user's right eye and a left-eye image is visually recognized on the user's left eye, thereby displaying a stereoscopic image on the screen. In such a stereoscopic image display device, there is a device that adjusts the stereoscopic effect of the displayed image. For example, in the apparatus described in
しかしながら、特許文献1に記載の装置では、ユーザは、画面に立体表示させながら同時に右目用画像と左目用画像との位置や回転等を調整することはできない。すなわち、特許文献1に記載の装置では、ユーザは、画面に表示された平面的に重ね合わされた2つの画像の位置等を調整した後、当該2つの画像を立体表示させて画像の立体感を確認する。重ね合わされた2つの画像を調整する際には、立体表示した場合の画像の立体感を確認することができなかった。一方、画面に立体表示をさせた状態では、ユーザは、立体表示が見難い状態で調整しなければならず、また、2つの画像を個別に視認し難い。従って、画面に立体表示をさせたままでは、調整が困難であった。
However, in the apparatus described in
それ故、本発明の目的は、ユーザが容易に画像の立体感を調整することが可能な表示制御装置、表示制御プログラム、及び、表示制御システムを提供することである。 Therefore, an object of the present invention is to provide a display control device, a display control program, and a display control system that allow a user to easily adjust the stereoscopic effect of an image.
本発明は、上記の課題を解決するために、以下の構成を採用した。 The present invention employs the following configuration in order to solve the above problems.
本発明は、互いに視差を有する右目用画像と左目用画像とを用いて、立体表示可能な第1の表示手段に立体画像を表示させる表示制御装置のコンピュータにおいて実行される表示制御プログラムである。表示制御プログラムは、上記コンピュータを調整手段、第1の表示制御手段、第2の表示制御手段として機能させる。調整手段は、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する。第1の表示制御手段は、上記調整手段で調整された右目用画像をユーザの右目に、上記調整手段で調整された左目用画像を該ユーザの左目に視認させるように上記第1の表示手段に表示させることにより、上記第1の表示手段に立体画像を表示させる。第2の表示制
御手段は、上記調整手段で調整された右目用画像と上記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる。
The present invention is a display control program that is executed in a computer of a display control apparatus that displays a stereoscopic image on a first display capable of stereoscopic display using a right-eye image and a left-eye image that have parallax with each other. The display control program causes the computer to function as adjusting means, first display control means, and second display control means. The adjusting means adjusts at least one of the relative position, size, and rotation of the right-eye image and the left-eye image. The first display control means is configured to cause the right eye image adjusted by the adjustment means to be visually recognized by the user's right eye and the left eye image adjusted by the adjustment means to be visually recognized by the user's left eye. To display a stereoscopic image on the first display means. The second display control means superimposes the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means, and displays the superimposed planar image on the second display means capable of flat display. Display.
上記によれば、右目用画像と左目用画像とを用いて第1の表示手段に立体画像を表示させ、右目用画像と左目用画像とを重ね合わせた平面画像を第2の表示手段にすることができる。また、右目用画像と左目用画像との位置、大きさ、及び、回転を調整することができる。これにより、ユーザは、第1の表示手段に表示された立体画像を確認しながら、第2の表示手段に表示された右目用画像と左目用画像との位置、大きさ、及び、回転を調整することができる。 According to the above, a stereoscopic image is displayed on the first display means using the right-eye image and the left-eye image, and a planar image obtained by superimposing the right-eye image and the left-eye image is used as the second display means. be able to. Further, the position, size, and rotation of the right-eye image and the left-eye image can be adjusted. Accordingly, the user adjusts the position, size, and rotation of the right-eye image and the left-eye image displayed on the second display unit while confirming the stereoscopic image displayed on the first display unit. can do.
また、本発明では、上記第1の表示制御手段は、上記調整手段で調整された右目用画像と上記調整手段で調整された左目用画像とを重ね合わせた場合に、重なり合う部分である重複領域のみの上記立体画像を上記第1の表示手段に表示させてもよい。この場合において、上記第2の表示制御手段は、上記調整手段で調整された右目用画像と左目用画像との重複領域とともに、該右目用画像と左目用画像とが重なり合わない部分である非重複領域を上記第2の表示手段に表示させる。 Further, in the present invention, the first display control unit includes an overlapping region that is an overlapping portion when the right-eye image adjusted by the adjusting unit and the left-eye image adjusted by the adjusting unit are overlapped. Only the three-dimensional image may be displayed on the first display means. In this case, the second display control means is a non-overlapping part of the right-eye image and the left-eye image together with the overlapping area of the right-eye image and the left-eye image adjusted by the adjusting means. The overlapping area is displayed on the second display means.
上記によれば、ユーザは、第2の表示手段に表示された右目用画像及び左目用画像が重なり合う部分と重なり合わない部分とを確認しながら、第1の表示手段に表示される立体画像を調整することができる。第1の表示手段には、右目用画像及び左目用画像が重なり合う部分のみが表示されるため、第1の表示手段に表示される立体画像は違和感のない画像となる。一方、第2の表示手段には重なり合う部分と重なり合わない部分とが表示されるため、ユーザは、2つの画像に表示された撮像対象の位置関係を容易に把握することができる。また、例えば、重なり合わない部分にユーザが視認を所望する撮像対象が存在する場合でも、ユーザは、第2の表示手段に表示された画像を見ながら容易に右目用画像及び左目用画像を調整することができる。 According to the above, the user checks the stereoscopic image displayed on the first display unit while confirming the overlapping portion and the non-overlapping portion of the right-eye image and the left-eye image displayed on the second display unit. Can be adjusted. Since only the portion where the right-eye image and the left-eye image overlap is displayed on the first display means, the stereoscopic image displayed on the first display means is an image with no sense of incongruity. On the other hand, since the overlapping portion and the non-overlapping portion are displayed on the second display means, the user can easily grasp the positional relationship between the imaging targets displayed in the two images. Further, for example, even when there is an imaging target that the user desires to view in a portion that does not overlap, the user can easily adjust the right-eye image and the left-eye image while viewing the image displayed on the second display unit. can do.
また、本発明では、上記第1の表示制御手段は、上記右目用画像及び上記左目用画像の双方の大きさを変更することにより、上記立体画像をズームしてもよい。 In the present invention, the first display control means may zoom the stereoscopic image by changing the size of both the right-eye image and the left-eye image.
上記によれば、第1の表示手段に表示される立体画像をズームすることができる。 Based on the above, it is possible to zoom the stereoscopic image displayed on the first display means.
また、本発明では、上記第1の表示制御手段は、上記右目用画像及び上記左目用画像の双方の位置を変更することにより、上記立体画像をスクロールしてもよい。 In the present invention, the first display control means may scroll the stereoscopic image by changing the positions of both the right-eye image and the left-eye image.
上記によれば、第1の表示手段に表示される立体画像をスクロールすることができる。 Based on the above, the stereoscopic image displayed on the first display means can be scrolled.
また、本発明では、上記第1の表示制御手段が上記立体画像をズーム及び/又はスクロールする場合において、上記第2の表示制御手段は、上記右目用画像及び上記左目用画像の双方の全体を上記第2の表示手段に表示させてもよい。 Further, in the present invention, when the first display control unit zooms and / or scrolls the stereoscopic image, the second display control unit performs both of the right-eye image and the left-eye image as a whole. You may display on the said 2nd display means.
上記によれば、第1の表示手段に表示される立体画像をズームしたり、スクロールしたりする場合でも、第2の表示手段に右目用画像及び左目用画像の全体を表示させることができる。これにより、立体画像がズームされたり、スクロールされたりすることで立体画像の一部のみが第1の表示手段に表示される場合でも、ユーザは、第2の表示手段で右目用画像及び左目用画像の全体を確認することができる。 According to the above, even when the stereoscopic image displayed on the first display unit is zoomed or scrolled, the entire right-eye image and left-eye image can be displayed on the second display unit. Accordingly, even when only a part of the stereoscopic image is displayed on the first display unit by zooming or scrolling the stereoscopic image, the user can use the second display unit to display the right-eye image and the left-eye image. The entire image can be confirmed.
また、本発明では、上記第2の表示制御手段は、上記第1の表示制御手段によって上記立体画像がズーム又はスクロールされることによって、上記第1の表示手段に上記立体画像の一部が表示される場合、立体画像表示枠を上記第2の表示手段に表示させてもよい。
ここで、立体画像表示枠は、当該立体画像の一部に対応する上記右目用画像及び上記左目用画像の領域を示す。
In the present invention, the second display control unit displays a part of the stereoscopic image on the first display unit by zooming or scrolling the stereoscopic image by the first display control unit. In such a case, the stereoscopic image display frame may be displayed on the second display means.
Here, the stereoscopic image display frame indicates a region of the right-eye image and the left-eye image corresponding to a part of the stereoscopic image.
上記によれば、ユーザは、第2の表示手段に表示された右目用画像及び左目用画像のどの領域が立体画像として第1の表示手段に表示されているかを容易に認識することができる。すなわち、第1の表示手段に表示される立体画像がズームされたり、スクロールされたりすることで、立体画像の一部のみが第1の表示手段に表示される場合、ユーザは、どの領域が立体表示されているかを認識し難い場合がある。しかしながら、第2の表示手段に立体画像表示枠を表示することで、ユーザは、右目用画像及び左目用画像の全体のうち、どの領域が立体表示されているかを容易に認識することができる。 Based on the above, the user can easily recognize which region of the right-eye image and the left-eye image displayed on the second display means is displayed on the first display means as a stereoscopic image. That is, when only a part of the stereoscopic image is displayed on the first display unit by zooming or scrolling the stereoscopic image displayed on the first display unit, the user can determine which region is stereoscopic. It may be difficult to recognize whether it is displayed. However, by displaying the stereoscopic image display frame on the second display unit, the user can easily recognize which region is stereoscopically displayed among the entire right-eye image and left-eye image.
また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。この場合において、表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段に第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する。そして、上記調整手段は、上記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する。 In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. In this case, the display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means displays the first adjustment bar on the second display means, and adjusts the slider of the first adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. Then, the adjusting means has a relative position and size of the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means. And at least any one of rotation is adjusted.
上記によれば、ユーザは、指示座標検出手段を用いて画面に表示された第1の調整バーを調整することで、右目用画像と左目用画像との相対的な位置、大きさ、及び、回転を調整することができる。例えば、ユーザは、タッチパネルを用いて、右目用画像と左目用画像とを調整することができる。これにより、ユーザは、直感的な操作で立体画像の見え方を調整することができる。 According to the above, the user adjusts the first adjustment bar displayed on the screen using the designated coordinate detection unit, so that the relative position, size, and size of the right-eye image and the left-eye image, and The rotation can be adjusted. For example, the user can adjust the right-eye image and the left-eye image using the touch panel. Thereby, the user can adjust the appearance of the stereoscopic image by an intuitive operation.
また、本発明では、表示制御プログラムは、第2調整バー制御手段として上記コンピュータをさらに機能させてもよい。第2調整バー制御手段は、上記第2の表示手段に第2の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第2の調整バーのスライダを調整する。上記第1の表示制御手段は、上記第2調整バー制御手段によって調整された第2の調整バーのスライダの位置に応じて、上記立体画像をズームする。 In the present invention, the display control program may further cause the computer to function as second adjustment bar control means. The second adjustment bar control means displays the second adjustment bar on the second display means, and adjusts the slider of the second adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. The first display control means zooms the stereoscopic image in accordance with the position of the slider of the second adjustment bar adjusted by the second adjustment bar control means.
上記によれば、ユーザは、指示座標検出手段を用いて画面に表示された第2の調整バーを調整することで、第1の表示手段に表示される立体画像をズームすることができる。 According to the above, the user can zoom the stereoscopic image displayed on the first display unit by adjusting the second adjustment bar displayed on the screen using the designated coordinate detection unit.
また、本発明では、表示制御プログラムは、方向検出手段として上記コンピュータをさらに機能させてもよい。方向検出手段は、上記指示座標検出手段が検出する指示座標に基づいて、ユーザによって入力された方向を検出する。上記第1の表示制御手段は、上記方向検出手段によって検出された方向に基づいて、上記立体画像をスクロールさせる。 In the present invention, the display control program may further cause the computer to function as direction detection means. The direction detecting means detects the direction input by the user based on the designated coordinates detected by the designated coordinate detecting means. The first display control means scrolls the stereoscopic image based on the direction detected by the direction detection means.
上記によれば、指示座標検出手段を用いてユーザによって入力された方向を検出することができる。そして、検出された方向に基づいて、立体画像をスクロールさせることができる。これにより、ユーザは、指示座標検出手段を用いて容易に立体画像をスクロールさせることができる。 According to the above, it is possible to detect the direction input by the user using the designated coordinate detection means. Then, the stereoscopic image can be scrolled based on the detected direction. Accordingly, the user can easily scroll the stereoscopic image using the designated coordinate detection unit.
また、本発明では、上記第2の表示制御手段は、上記右目用画像及び上記左目用画像を表示する画像表示領域を上記第2の表示手段に設定してもよい。この場合において、上記画像表示領域のアスペクト比における横幅の割合は、上記右目用画像及び上記左目用画像のアスペクト比における横幅の割合よりも大きい。 In the present invention, the second display control means may set an image display area for displaying the right-eye image and the left-eye image in the second display means. In this case, the ratio of the width in the aspect ratio of the image display area is larger than the ratio of the width in the aspect ratio of the right-eye image and the left-eye image.
上記によれば、画像表示領域を右目用画像及び左目用画像よりも横長に設定することができる。これにより、例えば、右目用画像及び左目用画像の位置を画面の横方向に調整しても、右目用画像及び左目用画像の全体を画面に表示させることができ、ユーザにとって横方向の調整が容易になる。 According to the above, the image display area can be set to be horizontally longer than the right-eye image and the left-eye image. As a result, for example, even if the positions of the right-eye image and the left-eye image are adjusted in the horizontal direction of the screen, the entire right-eye image and the left-eye image can be displayed on the screen. It becomes easy.
また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段の画面における上記画像表示領域とは異なる領域に、上記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該スライダを調整する。上記調整手段は、上記第1調整バー制御手段によって調整されたスライダの位置に応じて、上記右目用画像及び/又は上記左目用画像を横方向にずらす。 In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. The display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means has a first adjustment bar having a slider that is movable in a horizontal direction of the screen of the second display means in a region different from the image display area on the screen of the second display means. Is displayed, and the slider is adjusted in accordance with the designated coordinates detected by the designated coordinate detecting means. The adjustment means shifts the right-eye image and / or the left-eye image in the horizontal direction according to the position of the slider adjusted by the first adjustment bar control means.
上記によれば、ユーザは、第1の調整バーを用いて、右目用画像及び/又は左目用画像の位置を横方向にずらすことができる。これにより、ユーザは、直感的な操作で右目用画像及び/又は左目用画像の位置を調整することができ、立体画像の見え方を容易に調整することができる。また、上記画像表示領域は、横長の画面であるため、ユーザは、右目用画像及び/又は左目用画像を画面の横方向にずらしても、右目用画像及び左目用画像の全体を認識することができる。 According to the above, the user can shift the position of the right-eye image and / or the left-eye image in the horizontal direction using the first adjustment bar. Accordingly, the user can adjust the position of the right-eye image and / or the left-eye image with an intuitive operation, and can easily adjust the appearance of the stereoscopic image. In addition, since the image display area is a horizontally long screen, the user can recognize the entire right-eye image and left-eye image even if the right-eye image and / or left-eye image is shifted in the horizontal direction of the screen. Can do.
また、本発明では、前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを上記第2の表示手段に表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダの位置を調整する。また、第1調整バー制御手段は、上記指示座標検出手段が検出する指示座標に応じて、上記第1の調整バー自体を上記スライダの可動範囲よりも小さい範囲で上記第2の表示手段の画面の縦方向に移動させる。上記調整手段は、上記第1調整バー制御手段によって上記スライダが横方向に移動された場合は、当該スライダの移動量に応じて、上記右目用画像及び/又は上記左目用画像を横方向にずらす。また、上記調整手段は、上記第1調整バー制御手段によって上記第1の調整バーが縦方向に移動された場合は、当該第1の調整バーの移動量に応じて、上記右目用画像及び/又は上記左目用画像を縦方向にずらす。 In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to a display position of the second display unit. The display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means displays on the second display means a first adjustment bar having a slider that can move in the horizontal direction of the screen of the second display means, and is detected by the indicated coordinate detection means. The position of the slider of the first adjustment bar is adjusted according to the designated coordinates. Further, the first adjustment bar control means moves the first adjustment bar itself on the screen of the second display means within a range smaller than the movable range of the slider in accordance with the designated coordinates detected by the designated coordinate detection means. Move vertically. When the slider is moved in the horizontal direction by the first adjustment bar control means, the adjustment means shifts the right-eye image and / or the left-eye image in the horizontal direction according to the movement amount of the slider. . Further, the adjusting means may be arranged such that, when the first adjusting bar is moved in the vertical direction by the first adjusting bar control means, the right eye image and / or the right eye image and / or the right eye according to the movement amount of the first adjusting bar. Alternatively, the left-eye image is shifted in the vertical direction.
上記によれば、ユーザは、第1の調整バーを用いて、右目用画像及び/又は左目用画像を横方向及び縦方向にずらすことができる。また、第1の調整バーの縦方向の可動範囲は、第1の調整バーのスライダの横方向の可動範囲よりも狭く設定される。第1の調整バーのスライダの横方向への移動量に応じて、右目用画像及び/又は左目用画像は横方向にずらされる。また、第1の調整バーの縦方向への移動量に応じて、右目用画像及び/又は左目用画像は縦方向にずらされる。従って、ユーザは、直感的な操作で、右目用画像及び/又は左目用画像の横方向の位置を調整し易い。また、ユーザは、右目用画像及び/又は左目用画像の縦方向の位置を微調整することが可能である。 According to the above, the user can shift the image for the right eye and / or the image for the left eye in the horizontal direction and the vertical direction using the first adjustment bar. Further, the movable range in the vertical direction of the first adjustment bar is set to be narrower than the movable range in the horizontal direction of the slider of the first adjustment bar. The right-eye image and / or the left-eye image are shifted in the horizontal direction according to the amount of horizontal movement of the slider of the first adjustment bar. Further, the right-eye image and / or the left-eye image are shifted in the vertical direction according to the amount of movement of the first adjustment bar in the vertical direction. Therefore, the user can easily adjust the horizontal position of the right-eye image and / or the left-eye image with an intuitive operation. The user can finely adjust the position in the vertical direction of the right-eye image and / or the left-eye image.
また、本発明では、上記調整手段は、上記右目用画像と上記左目用画像との相対的な位置を、横方向に第1の範囲で調整可能であり、縦方向に該第1の範囲よりも小さい第2の範囲で調整可能であってもよい。 In the present invention, the adjusting means can adjust the relative positions of the right-eye image and the left-eye image in the first range in the horizontal direction, and from the first range in the vertical direction. May be adjustable within a small second range.
上記によれば、ユーザは、右目用画像及び/又は左目用画像の位置を表示画面の横方向に調整することができ、横方向よりも狭い範囲で縦方向にも調整することができる。 According to the above, the user can adjust the position of the right-eye image and / or the left-eye image in the horizontal direction of the display screen, and can also adjust the vertical direction in a narrower range than the horizontal direction.
また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。この場合において、表示制御プログラムは、上記コンピュータを第1調整バー制御手段としてさらに機能させてもよい。第1調整バー制御手段は、上記第2の表示手段に第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する。上記調整手段は、上記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整し、該調整した量を上記立体画像毎に記憶手段に記憶する。 In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. In this case, the display control program may further cause the computer to function as first adjustment bar control means. The first adjustment bar control means displays the first adjustment bar on the second display means, and adjusts the slider of the first adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. The adjusting means has a relative position, size, and size of the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means; At least one of the rotations is adjusted, and the adjusted amount is stored in the storage unit for each stereoscopic image.
上記によれば、第1の調整バーで調整された、右目用画像と左目用画像との相対的な位置、大きさ、回転に関する調整量を記憶手段に記憶することができる。これにより、例えば、調整された画像を他の機器で読み取って表示させることにより、調整後の立体画像を当該他の機器で表示させることができる。 According to the above, it is possible to store the adjustment amount relating to the relative position, size, and rotation of the image for the right eye and the image for the left eye, adjusted with the first adjustment bar, in the storage unit. Thereby, for example, the adjusted stereoscopic image can be displayed on the other device by reading and displaying the adjusted image on the other device.
また、本発明では、前記表示制御装置は、ステレオカメラを備えてもよい。 In the present invention, the display control device may include a stereo camera.
上記によれば、表示制御装置に備えられたステレオカメラによって撮像された右目用画像及び左目用画像を用いて、立体画像を調整することができる。 Based on the above, it is possible to adjust the stereoscopic image using the right-eye image and the left-eye image captured by the stereo camera provided in the display control device.
また、本発明では、表示制御装置は、上記第1の表示手段及び上記第2の表示手段と一体として構成され、上記第1の表示手段と上記第2の表示手段とが折り畳み可能な携帯型表示装置であってもよい。 Further, in the present invention, the display control device is configured integrally with the first display unit and the second display unit, and the first display unit and the second display unit can be folded. It may be a display device.
上記によれば、立体表示と平面表示が可能な、折り畳み可能な携帯型の表示装置を提供することができる。 According to the above, it is possible to provide a foldable portable display device capable of stereoscopic display and flat display.
また、本発明では、表示制御装置は、上記右目用画像と上記左目用画像とを記憶する記憶手段と着脱自在に接続されてもよい。 In the present invention, the display control device may be detachably connected to storage means for storing the right-eye image and the left-eye image.
上記によれば、例えば、他の機器で撮像した右目用画像と左目用画像とを上記記憶手段に記憶し、上記表示制御装置に読み込むことができる。 According to the above, for example, the right-eye image and the left-eye image captured by another device can be stored in the storage unit and read into the display control device.
また、本発明では、表示制御装置は、上記右目用画像と上記左目用画像とを送受信可能な通信手段を備えてもよい。 In the present invention, the display control apparatus may include a communication unit capable of transmitting and receiving the right-eye image and the left-eye image.
上記によれば、例えば、他の機器で撮像した右目用画像と左目用画像とを上記通信手段を用いて、上記表示制御装置に取り込むことができる。 According to the above, for example, the right-eye image and the left-eye image captured by another device can be taken into the display control device using the communication unit.
また、本発明では、表示制御装置は、所定方向に位置を調整可能なスライダを備えてもよい。表示制御プログラムは、モード選択手段として上記コンピュータをさらに機能させる。モード選択手段は、既に撮像された右目用画像と左目用画像とを用いる第1のモードと、2台の仮想カメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択する。第1の表示制御手段は、上記モード選択手段で上記第1のモードが選択されている場合、上記既に撮像された右目用画像と左目用画像とを用いて上記立体画像を表示させる。また、第1の表示制御手段は、上記モード選択手段で上記第2のモードが選択されている場合、上記スライダの位置に応じて、上記仮想カメラ間の距離を調整し、該距離を調整された2台の仮想カメラで上記仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示させる。 In the present invention, the display control device may include a slider whose position can be adjusted in a predetermined direction. The display control program causes the computer to further function as mode selection means. The mode selection means uses a first mode that uses a right-eye image and a left-eye image that have already been captured, and a second mode that uses a right-eye image and a left-eye image obtained by capturing a virtual space with two virtual cameras. And select. When the first mode is selected by the mode selection unit, the first display control unit displays the stereoscopic image using the already-captured right-eye image and left-eye image. The first display control means adjusts the distance between the virtual cameras according to the position of the slider and adjusts the distance when the second mode is selected by the mode selection means. The stereoscopic image is displayed using the right-eye image and the left-eye image obtained by imaging the virtual space with the two virtual cameras.
上記によれば、ユーザは、上記表示制御装置を第1のモードと第2のモードとで動作させることができ、これらのモードを選択することができる。第1のモードでは、既に撮像された画像を用いて立体画像を表示させることができる。第2のモードでは、仮想空間に存在する仮想ステレオカメラのカメラ間距離を、スライダを用いて調整することができる。これにより、ユーザは、仮想ステレオカメラの視差を調整することができ、立体画像の見え方を調整することができる。することができる。 Based on the above, the user can operate the display control device in the first mode and the second mode, and can select these modes. In the first mode, a stereoscopic image can be displayed using an already captured image. In the second mode, the inter-camera distance of the virtual stereo camera existing in the virtual space can be adjusted using the slider. Thereby, the user can adjust the parallax of the virtual stereo camera, and can adjust the appearance of the stereoscopic image. can do.
また、本発明では、上記第1の表示制御手段は、上記モード選択手段で上記第1のモードが選択されている場合において、上記スライダの位置が所定の位置である場合のみ、上記立体画像を表示させてもよい。 Further, in the present invention, the first display control means displays the stereoscopic image only when the position of the slider is a predetermined position when the first mode is selected by the mode selection means. It may be displayed.
上記によれば、第1モードが選択されている場合において、ユーザは、スライダの位置に応じて第1の表示手段に立体画像を表示させる/させないを制御することができる。 According to the above, when the first mode is selected, the user can control whether or not to display the stereoscopic image on the first display unit according to the position of the slider.
また、本発明は、所定方向に位置を調整可能なスライダを備える表示制御装置のコンピュータにおいて実行される表示制御プログラムである。表示制御プログラムは、上記コンピュータを仮想カメラ設定手段、表示制御手段として機能させる。仮想カメラ設定手段は、上記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する。表示制御手段は、上記仮想カメラ設定手段で設定されたカメラ間距離で上記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる。 The present invention is also a display control program that is executed in a computer of a display control device including a slider whose position can be adjusted in a predetermined direction. The display control program causes the computer to function as virtual camera setting means and display control means. The virtual camera setting means sets the distance between the two virtual cameras existing in the virtual space according to the position of the slider. The display control means displays a stereoscopic image on a display means capable of stereoscopic display, using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at the inter-camera distance set by the virtual camera setting means.
上記によれば、表示制御装置に備えられたスライダの位置が調整されることで、仮想空間に存在する2台の仮想カメラ間の距離が設定される。そして、設定された仮想カメラ間距離で仮想空間が撮像され、立体表示可能な表示手段に立体画像が表示される。これにより、ユーザは、例えば、3次元のゲーム空間を撮像した立体画像の見え方を調整することができる。 According to the above, the distance between the two virtual cameras existing in the virtual space is set by adjusting the position of the slider provided in the display control device. Then, the virtual space is imaged at the set distance between the virtual cameras, and the stereoscopic image is displayed on the display means capable of stereoscopic display. Thereby, the user can adjust the appearance of the stereoscopic image which imaged the three-dimensional game space, for example.
また、本発明では、上記表示制御プログラムを実行する表示制御装置の形態で実施されてもよい。また、上記各手段を実現する複数の装置が相互に動作することによって、1つの表示制御システムとして構成されてもよい。 In the present invention, the present invention may be implemented in the form of a display control device that executes the display control program. In addition, a plurality of devices that implement the above means may be configured to operate as one display control system.
本発明によれば、ユーザは、第1の表示手段に表示された立体画像を見ながら、第2の表示手段に表示された右目用画像と左目用画像とを調整することができる。これにより、ユーザは、容易に立体画像の立体感を調整することがことができる。 According to the present invention, the user can adjust the right-eye image and the left-eye image displayed on the second display unit while viewing the stereoscopic image displayed on the first display unit. Accordingly, the user can easily adjust the stereoscopic effect of the stereoscopic image.
(第1の実施形態)
図面を参照して、本発明の第1の実施形態に係る画像表示装置について説明する。図1は、本発明の一実施形態に係る携帯型の画像表示装置の外観図である。
(First embodiment)
An image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a portable image display apparatus according to an embodiment of the present invention.
(画像表示装置の説明)
図1において、画像表示装置10は、立体表示可能な立体画像表示装置11、および、2次元の平面画像を表示可能な平面画像表示装置12を含む。ハウジング13は上側ハウジング13aと下側ハウジング13bとによって構成されている。立体画像表示装置11は上側ハウジング13aに収納され、平面画像表示装置12は下側ハウジング13bに収納される。立体画像表示装置11および平面画像表示装置12は、いずれも所定の解像度(例えば、256dot×192dot)を有している。なお、本実施形態では表示装置として液晶表示装置を用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用することができる。また、任意の解像度のものを利用することができる。
(Description of image display device)
In FIG. 1, an
立体画像表示装置11は、裸眼で立体画像を表示可能な表示装置であり、レンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、立体画像表示装置11は、パララックスバリア方式のものとする。
The stereoscopic
平面画像表示装置12の画面上には、指示座標検出装置であるタッチパネル15が装着されている。タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式など、任意の方式のものを利用することができる。本実施形態では、タッチパネル15は、抵抗膜方式であるものとする。タッチパネル15は、ユーザがスティック16を用いて平面画像表示装置12の画面上を接触(タッチ)することにより、平面画像表示装置12の画面上の位置を検出する。タッチパネル15が検出する位置は、平面画像表示装置12の画面上の位置と対応している。なお、ユーザは、スティック16に限らず
指で画面上の位置を指示することも可能である。本実施形態では、タッチパネル15として、平面画像表示装置12の解像度と同じ解像度(検出精度)のものを利用する。ただし、タッチパネル15の解像度と平面画像表示装置12の解像度とは、必ずしも一致している必要はない。
On the screen of the flat
上側ハウジング13aには、後述するハードウェアスライダ14が配設されている。また、下側ハウジング13bの側面には、後述するステレオカメラ18で撮像対象を撮像するためのシャッターボタン17が設けられている。上側ハウジング13aと下側ハウジング13bとは、ヒンジ部19によって接続されている。上側ハウジング13aと下側ハウジング13bとは、当該ヒンジ部19によって開閉可能(折り畳み可能)に接続されている。
A
図2は、上側ハウジング13aと下側ハウジング13bとを折り畳んだ状態で下側ハウジング13bを背面から見た図である。図2に示すように、下側ハウジング13bの背面には、ステレオカメラ18が配設される。ステレオカメラ18は、左目画像撮像部18aと右目画像撮像部18bとを有する。左目画像撮像部18aと右目画像撮像部18bとの間隔は、例えば、平均的な人間の左右の目の間隔(例えば、65mm)に設定される。左目画像撮像部18a及び右目画像撮像部18bは、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、ズームレンズとを含む。左目画像撮像部18aは、左目用画像を撮像し、右目画像撮像部18bは、右目用画像を撮像する。左目画像撮像部18a及び右目画像撮像部18bは、ユーザによってシャッターボタン17が押されたことに応じて、それぞれ左目用画像及び右目用画像を撮像する。ユーザは、図1に示すように上側ハウジング13aと下側ハウジング13bとを開いた状態で立体画像表示装置11及び平面画像表示装置12の画面を見ながら、シャッターボタン17を押すことができる。すなわち、ステレオカメラ18で撮像対象を撮像した場合の左目用画像及び右目用画像が平面画像表示装置12の画面に表示され、そのときの立体画像が立体画像表示装置11に表示される。これにより、ユーザは画面に表示された画像を確認しながら、撮像対象を撮像することができる。
FIG. 2 is a view of the
図3は、画像表示装置10の内部構成を示すブロック図である。図3に示すように、画像表示装置10は、上述の他、CPU30と、メインメモリ31と、ROM32と、メモリ制御回路33と、保存用データメモリ34と、通信モジュール35とを備えている。これらは電子部品として電子回路基板上に実装されて、下側ハウジング13b(または上側ハウジング13aでもよい)内に収納される。
FIG. 3 is a block diagram showing the internal configuration of the
CPU30は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムが画像表示装置10のROM32に記憶されており、CPU30が、当該所定のプログラムを実行することによって、後述する表示制御処理を実行する。
The
CPU30には、メインメモリ31、ROM32、およびメモリ制御回路33が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ31は、読み書き可能な半導体メモリである。メインメモリ31には、上記所定のプログラムを一時的に格納する領域、左目用画像及び右目用画像を一時的に格納する領域、CPU30のワーク領域やバッファ領域が設けられる。すなわち、メインメモリ31は、後述する表示制御処理に用いられる各種データを記憶したり、ROM32に記憶された上記所定のプログラムを記憶したりする。ROM32は、不揮発性のメモリであり、上記所定のプログラムを格納する。保存用データメモリ34は、左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば、NAND型フラッシュメモリが用いられる。メモリ制御回路33は、CPU30の指示に従っ
て、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。
A
なお、CPU30によって実行されるプログラムは、ROM32に予め記憶されていてもよいし、保存用データメモリ34から取得されてもよいし、通信モジュール35を用いた通信によって他の機器から取得されてもよい。
The program executed by the
通信モジュール35は、有線又は無線によって他の機器と通信するための機能を有する。通信モジュール35は、例えば、赤外線通信により他の機器と通信するための機能を有する。なお、通信モジュール35は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有してもよし、Bluetooth(ブルートゥース)(登録商標)の技術を用いて、他の機器と通信する機能を有してもよい。また、通信モジュール35は、携帯電話等に用いられる通信方式により移動体通信網に接続する機能を有してもよい。
The
また、CPU30には、タッチパネル15が接続される。タッチパネル15は、図示しないインターフェイス回路に接続され、当該インターフェイス回路は、タッチパネル15からの信号に基づいて、所定の形式のタッチ位置データを生成し、CPU30に出力する。例えば、タッチ位置データは、タッチパネル15の入力面に対して入力が行われた位置の座標を示すデータである。なお、上記インターフェイス回路は、タッチパネル15からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU30は、上記インターフェイス回路を介して、タッチ位置データを取得することにより、タッチパネル15に対して入力が行われた位置を知ることができる。
Further, the
シャッターボタン17と、撮像装置(左目画像撮像部18a及び右目画像撮像部18b)とは、CPU30に接続される。CPU30は、シャッターボタン17が押されたことに応じて、左目画像撮像部18a及び右目画像撮像部18bに画像を撮像する命令を送信する。左目画像撮像部18a及び右目画像撮像部18bは、CPU30からの命令に応じて画像を撮像し、撮像した画像データをCPU30に出力する。
The
また、立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30に接続される。立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30の指示に従って画像を表示する。上述のように、立体画像表示装置11には立体画像が表示され、平面画像表示装置12には平面画像が表示される。
The stereoscopic
また、CPU30には、ハードウェアスライダ14が接続される。ハードウェアスライダ14は、スライドスイッチであり、横方向の任意の位置(又は所定の位置)に調整可能である。ハードウェアスライダ14は、その位置に応じた信号をCPU30に出力する。
A
次に、図4を用いて、画像表示装置10の機能構成について説明する。図4は、画像表示装置10の機能構成を示すブロック図である。図4に示すように、画像表示装置10は、メモリ31a及び31b、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43を含む。メモリ31a及び31bは、上述したメインメモリ31の記憶領域の一部である。また、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43は、CPU30が上記所定のプログラムを実行することにより実現される。
Next, the functional configuration of the
メモリ31a及び31bは、それぞれ左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像を一時的に格納する。メモリ31aには、左目画像撮像部18aによって撮像された左目用画像が格納され、メモリ31bには、右目画像撮像部18bに
よって撮像された左目用画像が格納される。
The
調整部40は、入力制御部41からの出力信号に応じて、左目用画像と右目用画像とを表示装置に表示するときの両画像の相対的な位置、相対的な大きさ、相対的な回転を調整する。左目用画像及び右目用画像の位置は、それぞれの画像中心の座標値(内部的に設定されたXY座標系の座標値)として表される。XY座標系のX軸方向は、画面(立体画像表示装置11及び平面画像表示装置12の画面)の横方向に対応し、Y軸方向は、画面の縦方向に対応する。左目用画像と右目用画像との相対的な位置は、各画像の画像中心の横方向(X方向)及び/又は縦方向(Y方向)の座標値を変化させることにより、調整される。例えば、調整部40は、左目用画像及び/又は右目用画像を横方向に移動させることにより、左目用画像と右目用画像との相対的な位置を調整する。また、調整部40は、左目用画像及び/又は右目用画像の大きさを変化させることにより、左目用画像と右目用画像との相対的な大きさを調整する。例えば、調整部40は、左目用画像を拡大させることにより、左目用画像を右目用画像よりも相対的に大きくさせる。さらに、調整部40は、左目用画像及び/又は右目用画像をそれぞれの画像中心の周りに回転させることにより、左目用画像と右目用画像との相対的な回転(回転角度)を調整する。例えば、調整部40は、左目用画像を所定の角度だけ回転させることにより、左目用画像と右目用画像との相対的な回転を調整する。
In accordance with the output signal from the
入力制御部41は、タッチパネル15が検出する位置に応じて、調整部40に制御信号を出力する。すなわち、入力制御部41は、タッチパネル15が検出する位置に応じて、ユーザによって行われた左目用画像及び右目用画像に対する操作(後述する位置調整バー54(図5参照)に対する操作、左目用画像又は右目用画像に対する回転操作、拡大又は縮小操作等)を検出し、制御信号として調整部40に送信する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、平面画像表示装置12に表示される位置調整バー54の位置、位置調整バー54のスライダ55の位置、及び、ズーム調整バー56のスライダ57の位置を調整する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、立体画像表示装置11に表示される立体画像をスクロールさせたり、ズームさせたりする(詳細は後述する)。
The
第1表示制御部42は、立体画像表示装置11の表示制御を行う。第1表示制御部42は、調整部40によって調整された左目用画像及び右目用画像を合成することにより、立体画像表示装置11に立体画像を表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第1表示制御部42は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第1表示制御部42は、ずらした2つの画像を合成して立体画像を生成する。例えば、第1表示制御部42は、ずらした2つの画像を画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。そして、合成した画像データを立体画像表示装置11に出力する。立体画像表示装置11は、表示した画像について、視差バリアを通して見ることによって、1ライン毎に交互に、右目にのみ見える表示と左目にのみ見える表示となるため、ユーザの右目に右目用画像、左目に左目用画像を視認させることができる。これにより、立体画像を立体画像表示装置11に表示させる。また、第1表示制御部42は、入力制御部41からの信号に基づいて、立体画像表示装置11に表示される立体画像をズームしたり、スクロールしたりする。
The first
第2表示制御部43は、平面画像表示装置12の表示制御を行う。第2表示制御部43は、調整部40によって調整された左目用画像及び右目用画像を重ね合わせ、重ね合わせた平面画像を平面画像表示装置12に表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第2表示制御部43は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第2表
示制御部43は、ずらした2つの画像を半透明にして重ね合わせ、平面画像表示装置12に平面的に表示させる。従って、ユーザは、左目用画像及び右目用画像の両方を視認することができ、左目用画像及び右目用画像がどの程度ずれているかを容易に認識することができる。また、第2表示制御部43は、入力制御部41からの信号に基づいて、位置調整バー54、及び、ズーム調整バー56の表示を制御する。
The second
(立体画像の調整操作)
次に、図5から図12を参照して、立体画像の調整について説明する。図5は、立体画像表示装置11及び平面画像表示装置12の画面に表示される画像の一例を示した図である。なお、図5から図12において、説明と関係しない部分については表示を省略しており、また、立体画像表示装置11及び平面画像表示装置12の画面を実際よりも相対的に大きく表示している。
(3D image adjustment operation)
Next, the adjustment of the stereoscopic image will be described with reference to FIGS. FIG. 5 is a diagram illustrating an example of images displayed on the screens of the stereoscopic
図5に示すように、平面画像表示装置12の画面には、画像表示領域50が設けられる。画像表示領域50には、左目用画像51a及び右目用画像51bが表示されている。図5に示すように、画像表示領域50のアスペクト比(横方向の長さ(横幅)と縦方向の長さ(高さ)との比)における横幅の比率は、左目用画像51a及び右目用画像51bのアスペクト比における横幅の比率よりも大きい。すなわち、画像表示領域50は、左目用画像51a及び右目用画像51bよりも横長の領域である。
As shown in FIG. 5, an
左目用画像51aは、左目画像撮像部18aによって撮像された画像であり、左目用画像51aには、撮像対象画像52a及び撮像対象画像53aが含まれている。撮像対象画像52a及び撮像対象画像53aは、実空間に存在する撮像対象52及び53を左目画像撮像部18aによって撮像した画像である。また、右目用画像51bは、右目画像撮像部18bによって撮像された画像であり、右目用画像51bには、撮像対象画像52b及び撮像対象画像53bが含まれている。撮像対象画像52b及び撮像対象画像53bは、実空間に存在する撮像対象52及び53を右目画像撮像部18bによって撮像した画像である。すなわち、撮像対象画像52a及び撮像対象画像52bは、同じ撮像対象52を撮像した画像である。しかし、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像52a及び撮像対象画像52bは完全に同一の画像ではない。同様に、撮像対象画像53a及び撮像対象画像53bは、同じ撮像対象53を撮像した画像であるが、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像53a及び撮像対象画像53bは完全に同一の画像ではない。
The left-
図5に示すように、平面画像表示装置12の画面に表示された左目用画像51a及び右目用画像51bは、半透明で重ね合わされて表示されている。また、平面画像表示装置12の画面には、位置調整バー54及びスライダ55が表示される。また、平面画像表示装置12の画面には、ズーム調整バー56及びスライダ57が表示される。
As shown in FIG. 5, the left-
一方、立体画像表示装置11の画面には、立体画像61が表示されている。立体画像61は、左目用画像51aと右目用画像51bとが合成された画像であり、ユーザが立体画像61を見たときに立体的に見える画像である。立体画像61には、撮像対象画像62及び撮像対象画像63が含まれている。撮像対象画像62は、実空間に存在する撮像対象52を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像62は、左目用画像51aの撮像対象画像52aと右目用画像51bの撮像対象画像52bとが合成された画像である。同様に、撮像対象画像63は、実空間に存在する撮像対象53を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像63は、左目用画像51aの撮像対象画像53aと右目用画像51bの撮像対象画像53bとが合成された画像である。
On the other hand, a
位置調整バー54は、ユーザが左目用画像51a及び右目用画像51bの位置を画面の横方向及び縦方向に調整するためのユーザインターフェイスである。ユーザは、位置調整バー54のスライダ55をスティック16でタッチしたまま横方向にスライドさせることにより、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。また、ユーザはスティック16を用いて位置調整バー54の所定の位置をタッチすることにより、スライダ55を当該タッチ位置に移動させ、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。詳細は後述するが、この調整によって立体画像表示装置11に表示される立体画像の立体感が変化する。
The
なお、図5においては、説明のため左目用画像51aと右目用画像51bとが若干上下左右方向にずれて表示されているが、実際には、左目用画像51aと右目用画像51bとの位置は一致している(左目用画像51aの画像中心と左目用画像51aの画像中心とは一致している)。しかしながら、左目用画像51aに含まれる撮像対象画像52aと右目用画像51bに含まれる撮像対象画像52bとは、位置が異なる。具体的には、2つの画像の位置を一致させて半透明で重ね合わせた場合に、左目用画像51aに含まれる撮像対象画像52aは、右目用画像51bに含まれる撮像対象画像52bよりも右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像52aは相対的に右側に、右目用画像51bに含まれる撮像対象画像52bは相対的に左側に位置している。従って、立体画像表示装置11に表示される撮像対象画像62は、ユーザにとって立体画像表示装置11の画面よりも手前に位置しているように見える(後述する図7参照)。また、左目用画像51aに含まれる撮像対象画像53aは、右目用画像51bに含まれる撮像対象画像53bよりもさらに右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像53aは右側に、右目用画像51bに含まれる撮像対象画像53bは左側にずれている。撮像対象画像53aと撮像対象画像53bとのずれは、撮像対象画像52aと撮像対象画像52bとのずれよりも大きい。従って、立体画像表示装置11に表示される撮像対象画像63は、ユーザにとって撮像対象画像62よりもさらに手前に位置しているように見える(後述する図7参照)。
In FIG. 5, the left-
次に、図6を用いて左目用画像51a及び右目用画像51bの横方向の位置の調整について、説明する。図6は、ユーザがスティック16を用いて位置調整バー54のスライダ55を調整する様子を示した図である。図6において、破線によって示されるスライダ55’は、ユーザによって調整される(画面の右方向に移動される)前のものであり、実線によって示されるスライダ55は、ユーザによって調整された後のものである。スライダ55が位置P1から位置P2に移動されることに応じて、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び右目用画像51bはそれぞれ、画面の横方向に移動する。具体的には、左目用画像51aは画面の左方向に移動し、右目用画像51bは画面の右方向に移動する。すなわち、位置調整バー54のスライダ55が横方向に移動すると、左目用画像51a及び右目用画像51bがスライダ55の移動量に応じた量だけ、横方向に、互いに反対方向に移動し(ずれ)、左目用画像51aと右目用画像51bとの間のずれ量が変化する。なお、左目用画像51a及び右目用画像51bの何れか一方のみが、スライダ55の移動量に応じて移動することで、左目用画像51aと右目用画像51bとの間のずれ量を変化させても良い。
Next, adjustment of the horizontal position of the left-
なお、位置調整バー54のスライダ55が所定の位置(例えば可動範囲の中心)に位置する場合、左目用画像51aと右目用画像51bとの間のずれ量はゼロとなる(左目用画像51aの画像中心の位置と右目用画像51bの画像中心の位置とが、一致する)。例えば、スライダ55が中心から右にスライドされるに従って左目用画像51aは左に、右目用画像51bは右に移動するように、画像同士のずれ量が大きくなる。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63
は画面の奥方向に移動するように見える。逆に、スライダ55が中心から左にスライドされるに従って左目用画像51aは右に、右目用画像51bは左に移動するように、画像同士のずれ量の絶対値が大きくなる(この場合のずれ量は負の値となる)。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63は画面の手前方向に移動するように見える。
When the
Seems to move deeper in the screen. Conversely, as the
一方、立体画像表示装置11の画面に表示される立体画像61も、スライダ55の移動に応じて変化する。スライダ55が移動すると、立体画像表示装置11の画面に表示される、ユーザの左目に視認される左目用画像51aと、ユーザの右目に視認される右目用画像51bとの横方向の位置も変化する。すなわち、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bと同様に、立体画像表示装置11に表示される左目用画像51a及び右目用画像51bもスライダ55の移動量に応じた量だけ横方向に移動する。その結果、スライダ55が移動した後(位置P2)の立体画像61をユーザが見ると、立体画像61に含まれる撮像対象画像62及び撮像対象画像63は、スライダ55が移動する前(位置P1)よりも、画面の奥方向に位置しているように見える。すなわち、スライダ55の移動によって、立体画像61に含まれる撮像対象画像62及び撮像対象画像63が、画面の奥方向に移動したように見える。
On the other hand, the
図7は、位置調整バー54のスライダ55の調整によってユーザが感じる撮像対象画像62(52)及び撮像対象画像63(53)の位置が変化する様子を示した図である。図7は、ユーザ、立体画像表示装置11、及び、2つの撮像対象52及び53(撮像対象画像62及び63)を上方から見た図であり、ユーザが感じるこれらの位置関係を示している。スライダ55が移動する前においては、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面より手前(画面よりユーザ側)に位置していると感じる(62’及び63’の位置に存在しているように見える)。より具体的には、ユーザは、実空間に存在する撮像対象52と撮像対象53との位置関係と同様に、撮像対象画像63’が撮像対象画像62’よりも画面の手前方向の位置(ユーザに近い位置)に存在しているように感じる。一方、スライダ55が移動することに応じて、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面の奥方向(画面に垂直な方向であってユーザの視線方向)に移動するように見える(言い換えると、立体画像表示装置11の画面がユーザに向かって移動するように見える)。より具体的には、スライダ55が移動した後においては、ユーザは、撮像対象画像62が画面の奥方向に位置しており、撮像対象画像63が画面近傍に位置していると感じる。このように、ユーザがスライダ55を平面画像表示装置12の画面の右方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも立体画像表示装置11の画面の奥方向に移動したように(画面の奥方向に遠ざかるように)見える。逆に、ユーザがスライダ55を左方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも画面の手前方向に移動したように(画面から飛び出したように)見える。つまり、ユーザが位置調整バー54のスライダ55を横方向に調整すると、ユーザにとっては立体画像61に含まれる撮像対象の位置が変化したように見える。従って、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61の見え方を変化させることができる。
FIG. 7 is a diagram illustrating a state in which the positions of the imaging target image 62 (52) and the imaging target image 63 (53) that the user feels by changing the
また、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象を自身にとって見やすく表示させることができる。例えば、図7の点線に示すように、スライダ55を移動させる前においては、ユーザが視認する撮像対象画像63の位置は、画面の手前であり、画面から所定距離だけ離れた位置(63’の位置)である。一方、ユーザによって視認される撮像対象画像62の位置は、画面の手前であり、画面近傍(62’の位置)である。この場合において、ユーザは、撮像対象画像62を立体的に視認することは容易であるが、撮像対象画像63を立体的
に視認することは困難である。これは、実際に画像が表示されているのは画面上であるため、画像を見ようとするときに、ユーザは、目の焦点を画面上に合わせるためである。画面近傍に視認される移動前の撮像対象画像62’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが近いため、立体的に視認され易い。一方、移動前の撮像対象画像63’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが異なるため、立体的に視認され難い(目の焦点が画面上に合っている場合に、移動前の撮像対象画像63’を見ると、画像がぼやけて見えたり、立体として認識できなかったりする)。この場合において、ユーザは、スライダ55を横方向に移動させることによって、撮像対象画像63を画面の奥方向に移動させることができ、撮像対象画像63を画面近傍に移動させることができる。従って、ユーザは、スライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象(撮像対象画像63)を自身にとって見やすく表示させることができる。
In addition, the user can display the desired imaging target included in the
なお、図6に示す横方向のずれ(位置)を調整した後の立体画像61は、図5に示す調整する前の立体画像61の両端部分が削られたような画像となっている(図6参照)。このため、図6に示す撮像対象画像62の一部は表示されていない。これは、左目用画像51a及び右目用画像51bを横方向にずらしたことによって、2つの画像が重なり合わない部分が生じたためである。左目用画像51a及び右目用画像51bが重なり合わない部分(非重複領域)も含めて立体画像表示装置11の画面に立体画像を表示すると、立体画像の一部は立体感のある画像となり、他の一部は立体感のない画像となる。このときの表示は、視聴者にとっては、「見えているはずのものが見えない」または「見えないはずのものが見えている」といった状態である。このため、全体としてユーザにとって違和感のある画像となってしまう。従って、立体画像表示装置11の画面には、左目用画像51a及び右目用画像51bが重なり合う部分(重複領域)のみを合成して、表示させる。
Note that the
ここで、2つの画像の「重なり合う部分」と「重なり合わない部分」について、図8を用いて説明する。図8は、左目用画像51a及び右目用画像51bを重ね合わせた場合において、重なり合う部分と重なり合わない部分とを説明するための図である。図8に示すように、左目用画像51aには、撮像対象画像52a、53a、及び、58aが含まれる。同様に、右目用画像51bには、撮像対象画像52b、53b、及び、58bが含まれる。これら2つの画像を横方向にずらして重ね合わせた場合、2つの画像が重なり合う部分(重複領域)と重なり合わない部分(非重複領域)とが生じる。上記重なり合う部分は、重ね合わせた画像の破線によって囲まれる領域Rである。重なり合わない部分は、重ね合わせた画像の領域R以外の領域である。立体画像表示装置11の画面には、領域Rのみが表示される。この場合において、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像58aを視認することができ、右目で撮像対象画像58bを視認することができる。その結果、ユーザは撮像対象画像58を立体的に認識することができる。また、右目用画像51bに含まれる撮像対象画像53bは、領域Rに含まれるため、立体画像表示装置11の画面に表示される。一方、左目用画像51aに含まれる撮像対象画像53aは、領域Rに含まれないため、立体画像表示装置11の画面には表示されない。従って、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像53aを視認することができず、右目で撮像対象画像53bを視認することができる。これは、ユーザにとっては自然な見え方である。すなわち、実空間をユーザが見た場合においても、右目と左目には視差があるため、ある物体を見た場合に片方の目にしか見えない場合がある。例えば、ユーザが窓から外の風景を見る場合においては、窓枠によって、例えば右目には見えない部分でも左目には見える部分が存在する。しかしながら、重なり合わない部分も含めて画面に表示すると、ユーザの目(図8の例では左目)に見えない部分(図8の53a)が見えてしまい、ユーザにとっては違和感のある画像となってしまう。従って、立体画像表示装置11には上記重なり合う部分のみを表示することにより、ユーザにとって違和感のない画像を表示することができる。
Here, the “overlapping part” and “non-overlapping part” of the two images will be described with reference to FIG. FIG. 8 is a diagram for explaining an overlapping portion and a non-overlapping portion when the left-
一方、平面画像表示装置12の画像表示領域50には、調整前後において、左目用画像51a及び右目用画像51bの全体が表示される。より具体的には、左目用画像51a及び右目用画像51bが重なり合う部分と重なり合わない部分とが、平面画像表示装置12の画像表示領域50に表示される。上述のように、立体画像表示装置11では、立体画像をユーザにとって違和感のないようにするために、2つの画像が重なり合う部分のみが表示される。一方、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、それぞれユーザの両目で視認されるため、ユーザは、2つの画像を別々の画像として認識することができる。このため、2つの画像が重なり合う部分のみならず、重なり合わない部分が表示されてもユーザにとって違和感はない。むしろ、重なり合わない部分も含めて表示されることにより、ユーザは、2つの画像をそれぞれ別の画像として認識することができ、2つの画像の位置関係を容易に認識することができる。従って、ユーザは、2つの画像に含まれる撮像対象画像の位置を容易に認識することができる。また、重なり合わない部分も含めて平面画像表示装置12に表示されるため、ユーザは、重なり合わない部分に存在する撮像対象(当該撮像対象は立体画像表示装置11には表示されないか、立体画像表示装置11に表示されてもユーザの片目にのみ視認される)を視認することができる。例えば、図8に示す左目用画像51aに含まれる撮像対象画像53aは、重なり合わない部分に存在し、ユーザの左目には視認されない。このような撮像対象画像53aをユーザの左目で視認できるように左目用画像51aを移動させる場合、ユーザは、立体画像表示装置11に表示される立体画像61を見ながら調整することは困難である。すなわち、立体画像表示装置11には撮像対象画像53aが表示されないため、その位置を認識することができないからである。しかしながら、平面画像表示装置12には、重なり合わない部分も表示されるため、ユーザは、当該重なり合わない部分に含まれる撮像対象画像53aを視認しながら撮像対象画像53aの位置を調整することができる。このため、ユーザは、重なり合わない部分に存在する撮像対象の位置を調整することができ、所望の撮像対象を容易に立体的に表示させることができる。
On the other hand, the entire left-
また、ユーザは、立体画像表示装置11に表示された立体画像61を見ながら左目用画像51a及び右目用画像51bの位置を調整することができるため、ユーザは立体画像を容易に調整することができる。上述のように、ユーザが立体画像表示装置11に表示された立体画像61を見る場合、ユーザは図7に示す撮像対象画像63’を立体的に視認することが困難な場合がある。ユーザが撮像対象画像63’を立体的に視認できない場合、立体画像表示装置11を見るだけでは、左目用画像51a及び右目用画像51bをどの方向に調整したらいいのか判断することが困難である(撮像対象画像63’を画面に垂直な方向のどの位置に移動させればよいか判断ができない)。一方、平面画像表示装置12には、左目用画像51a及び右目用画像51bが半透明で重ね合わされて表示されている。これにより、ユーザは、平面画像表示装置12を見ることにより、2つの画像に含まれる撮像対象画像53a及び53bがどの程度離れているかを容易に認識することができる。従って、ユーザは、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bを見ながら、撮像対象画像53aと53bとを近づけるように(撮像対象画像53a及び53bが重なり合うように)左目用画像51a及び右目用画像51bの位置を調整すればよい。
Further, since the user can adjust the positions of the left-
さらに、ユーザは、左目用画像51a及び右目用画像51bの双方の全体画像(上記重なり合う部分と重なり合わない部分とを含めた全体画像)を視認しながら、左目用画像51a及び右目用画像51bの位置(横方向のずれ)を調整することができる。従って、ユーザは2つの画像の位置関係を容易に認識することができるため、調整が容易である。例えば、ある撮像対象を立体的に視認するために2つの画像を調整した後、別の撮像対象を立体的に視認するために画像を調整する場合においても、ユーザは容易に画像を調整することができる。すなわち、左目用画像51a及び右目用画像51bの双方の全体画像が平
面画像表示装置12に表示されるため、2つの画像の位置を調整した後においても、2つの画像の位置関係を容易に認識することができる。従って、調整が容易である。
Further, the user visually recognizes the entire images of both the left-
以上のように、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像表示装置11及び平面画像表示装置12に表示される画像が変化する。具体的には、左目用画像51a及び右目用画像51bの横方向の位置を調整することにより、ユーザは、立体画像に含まれる撮像対象を画面に対して垂直な方向に移動させるように表示させることができる。ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bの位置を調整することができる。これにより、ユーザは立体画像の見え方を容易に調整することができる。
As described above, by moving the
次に、図9を参照して左目用画像51a及び右目用画像51bの縦方向の位置の調整について、説明する。図9は、位置調整バー54を用いて左目用画像51a及び右目用画像51bの縦方向の位置を調整する様子を示した図である。
Next, the adjustment of the vertical position of the left-
図9に示すように、ユーザがスティック16を用いて位置調整バー54をタッチした状態で、平面画像表示装置12の画面の上方向にスティック16を移動させると、タッチ位置の移動に伴って位置調整バー54も上方向に移動する。位置調整バー54は、画面の縦方向(上下方向)に移動可能であり、位置調整バー54の可動範囲(位置調整バー54が移動する範囲)は、予め定められている。位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。
As illustrated in FIG. 9, when the user touches the
位置調整バー54が縦方向に移動すると、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び/又は右目用画像51bも縦方向(上下方向)に移動する。例えば、位置調整バー54が画面の上方向に移動されると、位置調整バー54の上方向への移動量に応じて、左目用画像51a(又は右目用画像51b)も画面の上方向に移動する。なお、位置調整バー54の縦方向の移動に応じて、画像表示領域50に表示された左目用画像51a及び右目用画像51bが縦方向に互いに反対方向に移動されてもよいし、スティック16によって選択された画像のみが縦方向に移動されてもよい。
When the
一方、位置調整バー54の縦方向の移動に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、左目用画像51aと右目用画像51bとが画面の縦方向に大きくずれている場合、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。しかしながら、左目用画像51aと右目用画像51bとの縦方向の位置のずれをユーザが調整することにより、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示することができる。
On the other hand, as the
以上のように、位置調整バー54を平面画像表示装置12の画面の縦方向(上下方向)に移動させることによって、左目用画像51a及び右目用画像51bの縦方向の位置のずれを調整することができる。この縦方向の位置のずれは、左目画像撮像部18a及び右目画像撮像部18bの物理的な位置のずれによって生じる。例えば、製造時の誤差等により左目画像撮像部18aが右目画像撮像部18bよりも僅かに縦方向にずれている場合(図2の上方向にずれている場合)、互いに縦方向に僅かにずれた画像が撮像される。ユーザは、このような左目用画像51a及び右目用画像51bの縦方向のずれを位置調整バー54によって調整することができる。
As described above, by moving the
通常、左目用画像51a及び右目用画像51bの縦方向のずれは僅かであり、ユーザは、縦方向には微調整のみ行うことが多い。一方、ユーザは立体画像に含まれる撮像対象を
画面の奥方向又は手前方向に移動させるため、スライダ55を横方向にスライドさせることによって、左目用画像51a及び右目用画像51bの横方向のずれを調整する。すなわち、通常、縦方向の調整量は、横方向の調整量よりも小さい。従って、本実施形態では、位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。このため、ユーザは、左目用画像51a及び右目用画像51bの横方向のずれを調整しやすく、縦方向のずれを微調整しやすい。すなわち、スライダ55は横方向に可動範囲が大きく、位置調整バー54は縦方向には可動範囲が小さいため、ユーザは横方向には大きく調整可能であり、縦方向には微調整のみ可能となる。また、横方向の調整ではスライダ55を横方向にスライドさせ、縦方向の調整では、位置調整バー54を縦方向に移動させるため、上記のような操作は、ユーザにとって直感的でわかりやすい操作であるといえる。なお、左目用画像51a及び右目用画像51bの縦方向の調整は、上記位置調整バー54とは異なる調整バーのスライダによって行われてもよい。
Normally, the vertical shift between the left-
次に、図10を参照してズーム操作について説明する。図10は、ズーム調整バー56を用いて立体画像61を拡大する様子を示した図である。図10に示すように、ユーザがスティック16を用いてズーム調整バー56のスライダ57をタッチした状態で、平面画像表示装置12の画面の右方向にスティック16を移動させると、スライダ57は右方向に移動する。57’は移動前のスライダ57を示し、57は、移動後のスライダ57を示す。スライダ57が移動することに伴って、立体画像表示装置11に表示される立体画像61は、拡大される。図10において、立体画像61が拡大されたため、立体画像61に含まれる撮像対象画像62及び63も拡大されている。立体画像61は、立体画像表示装置11の画面よりも大きく拡大されたため、その一部のみが表示されている。
Next, the zoom operation will be described with reference to FIG. FIG. 10 is a diagram illustrating a state in which the
一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、スライダ57が移動することに伴って拡大されない。平面画像表示装置12の画像表示領域50には、破線によって示される立体画像表示枠59が表示される。立体画像表示枠59は、立体画像表示装置11に表示される立体画像の領域に対応する領域を示す。このように、立体画像表示装置11に表示される立体画像が拡大されても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは拡大されず、全体が表示される。このため、立体画像が拡大された場合でも、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。
On the other hand, the left-
次に、図11を参照してスクロール操作について説明する。図11は、タッチ操作によって立体画像61がスクロールする様子を示した図である。図11に示すように、ユーザが平面画像表示装置12に表示された左目用画像51a又は右目用画像51bを、スティック16を用いてタッチしたまま画面上を移動させた場合、立体画像表示装置11の立体画像61はスクロールされる。例えば、ユーザがスティック16を用いて左目用画像51a又は右目用画像51bをタッチしたまま左方向に移動させると、立体画像61は右方向にスクロールされる(立体画像61に含まれる撮像対象画像62は、左方向に移動する)。図11の立体画像表示装置11の画面には、立体画像61がスクロールした後の画像が表示されている。立体画像61は、右方向にスクロールしたため、立体画像61に含まれる撮像対象画像62は画面の中央より左側に移動し、撮像対象画像63の一部は表示されていない。なお、スクロール操作によって、ユーザは、立体画像61を画面の任意の方向にスクロールさせることができる。
Next, the scroll operation will be described with reference to FIG. FIG. 11 is a diagram illustrating how the
一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、上記ユーザによるスクロール操作(タッチしたまま画面の右方向に移動させる操作)によ
って、スクロールしない。平面画像表示装置12の画像表示領域50には、上記立体画像表示枠59が表示される。このように、立体画像表示装置11に表示される立体画像がスクロールされても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bはスクロールされない。このため、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。
On the other hand, the left-
次に、図12を参照して左目用画像51a又は右目用画像51bの回転及びサイズ変更について説明する。図12は、右目用画像51bを回転又は拡大させることによって立体画像を調整する様子を示した図である。ユーザが、平面画像表示装置12に表示された左目用画像51a又は右目用画像51bの所定の位置を、スティック16を用いてタッチしたまま移動させると、左目用画像51a又は右目用画像51bは回転する。例えば、図12に示すように、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bを回転させるように操作する(図12の矢印Aの方向に移動させる)と、右目用画像51bは回転する。また、例えば、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bの対角線方向にスティック16を移動させる(図12の矢印Bの方向に移動させる)と、右目用画像51bは拡大する。
Next, rotation and size change of the left-
一方、右目用画像51bの回転又は拡大に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、右目用画像51bが左目用画像51aに対して所定の角度だけ回転している場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aに対して所定の角度だけ回転している場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような回転が発生する原因は、製造時の誤差等が考えられる。例えば、製造時に左目画像撮像部18aが所定の角度だけ回転されて配設される場合がある。このため、ユーザは、左目用画像51a又は右目用画像51bを回転させることにより、左目用画像51aと右目用画像51bの相対的な回転角を調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。
On the other hand, with the rotation or enlargement of the right-
また、例えば、右目用画像51bが左目用画像51aと比較して小さい場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aより小さい場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような大きさの違いは、撮像時における状態(例えば、左目画像撮像部18a及び右目画像撮像部18bのズーム機構の動作の違い)によって生じる場合がある。ユーザは、上述した操作によって左目用画像51a又は右目用画像51bを拡大又は縮小することにより、左目用画像51aと右目用画像51bとの相対的な大きさを調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。
Further, for example, when the right-
(画像表示制御処理の詳細)
次に、図13から図18を参照して、本実施形態に係る画像表示制御処理の詳細について説明する。まず、画像表示制御処理の際にメインメモリ31に記憶される主なデータについて説明する。図13は、画像表示装置10のメインメモリ31のメモリマップを示す図である。図13に示されるように、メインメモリ31には、データ記憶領域70が設けられる。データ記憶領域70には、左目用画像位置データ71、右目用画像位置データ72、現在タッチ位置データ73、直前タッチ位置データ74、位置調整データ75、ズー
ム調整データ76、立体画像表示枠データ77等が記憶される。これらのデータの他、メインメモリ31には、上記画像表示制御処理を実行するプログラムや左目用画像データ、右目用画像データ、位置調整バーの画像データ、及び、ズーム調整バーの画像データ等が記憶される。
(Details of image display control processing)
Next, details of the image display control process according to the present embodiment will be described with reference to FIGS. 13 to 18. First, main data stored in the
左目用画像位置データ71は、左目用画像51aの表示位置を示すデータであり、左目用画像51aの画像中心の座標値を示すデータである。右目用画像位置データ72は、右目用画像51bの表示位置を示すデータであり、右目用画像51bの画像中心の座標値を示すデータである。
The left-eye
現在タッチ位置データ73は、現在のフレームにおいてタッチパネル15が検出しているタッチ位置の座標値を示すデータである。現在のフレームにおいてタッチ位置が検出されていない場合、現在タッチ位置データ73には、タッチ位置が検出されていないことを示す値が格納される。直前タッチ位置データ74は、直前のフレームにおいてタッチパネル15が検出した座標値を示すデータである。直前のフレームにおいてタッチ位置が検出されなかった場合、直前タッチ位置データ74には、タッチ位置が検出されなかったことを示す値が格納される。
The current
位置調整データ75は、位置調整バー54に関するデータである。具体的には、位置調整データ75は、位置調整バー54の表示位置の座標値を示すデータ、及び、位置調整バー54上のスライダ55の位置を示すデータを含む。
The
ズーム調整データ76は、ズーム調整バー56に関するデータであり、スライダ57のズーム調整バー56における位置を示すデータである。
The
立体画像表示枠データ77は、平面画像表示装置12に表示される上記立体画像表示枠59の位置及び大きさを示すデータである。
The stereoscopic image
次に、画像表示制御処理の詳細について図14を参照して説明する。図14は、第1の実施形態に係る画像表示制御処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶された画像表示制御プログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。また、保存用データメモリ34に記憶された左目用画像51a及び右目用画像51bが、メインメモリ31に読み込まれる。図14に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図14では、本発明に直接関連しない処理については記載を省略する。また、図14に示すステップS1〜ステップS8の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。
Next, details of the image display control process will be described with reference to FIG. FIG. 14 is a main flowchart showing details of the image display control process according to the first embodiment. When the power of the
まず、ステップS1において、CPU30は、タッチパネル15へのタッチを検出する。タッチパネル15へのタッチが行われている場合、CPU30は、検出したタッチ位置を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS2の処理を実行する。一方、タッチパネル15へのタッチが行われていない場合、CPU30は、タッチ位置が検出されていないことを示す値を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS6の処理を実行する。
First, in step S <b> 1, the
ステップS2において、CPU30は、位置調整処理を実行する。ステップS2においては、検出したタッチ位置に基づいて、左目用画像51a及び右目用画像51bの位置を調整する。ステップS2における位置調整処理の詳細を、図15を参照して説明する。図
15は、位置調整処理(ステップS2)の詳細を示すフローチャートである。
In step S2, the
ステップS11において、CPU30は、現在のタッチ位置が位置調整バー54の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置(今回の処理ループのステップS1で検出されたタッチ位置)を取得する。次に、CPU30は、位置調整データ75を参照して、取得した現在のタッチ位置が、位置調整バー54の表示領域(位置調整バー54が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS12の処理を実行する。一方、判定結果が否定の場合、CPU30は、次にステップS14の処理を実行する。
In step S <b> 11, the
ステップS12において、CPU30は、現在のタッチ位置に位置調整バー54のスライダ55を移動させる。ステップS12においては、位置調整バー54のスライダ55が位置調整バー54上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応する位置調整バー54上の位置を算出し、メインメモリ31の位置調整データ75に記憶する。次に、CPU30は、ステップS13の処理を実行する。
In step S12, the
ステップS13において、CPU30は、横方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS12で算出したスライダ55の位置調整バー54上の位置に基づいて、左目用画像51aと右目用画像51bとの横方向(画面の左右(X軸)方向)のずれ量を算出し、メインメモリ31に記憶する。CPU30は、スライダ55が位置調整バー54の左端から所定距離の位置に存在する場合、当該所定距離に応じて、上記横方向のずれ量を設定する。横方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのX軸に関する座標値のずれ(X座標値の差分)である。例えば、CPU30は、スライダ55が位置調整バー54の位置P0(例えば、位置調整バー54の中心位置)に存在する場合の横方向のずれ量を0として、当該位置P0よりも右側にスライダ55が存在する場合、横方向のずれ量を正とする。一方、例えば、当該位置P0よりも左側にスライダ55が存在する場合、CPU30は、横方向のずれ量を負とする。なお、横方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の左側に位置する。横方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の右側に位置する。次に、CPU30は、位置調整処理を終了する。
In step S <b> 13, the
一方、ステップS14において、CPU30は、直前のフレームにおけるタッチ位置が位置調整バー54の表示領域内か否かを判定する。直前のフレームにおけるタッチ位置とは、現在の処理ループの直前の処理ループにおいて、ステップS1で検出されたタッチ位置である。具体的には、CPU30は、メインメモリ31の直前タッチ位置データ74を参照して、直前のタッチ位置が位置調整バー54の表示領域内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS15の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。
On the other hand, in step S <b> 14, the
ステップS15において、CPU30は、現在のタッチ位置が位置調整バー54の可動範囲内か否かを判定する。位置調整バー54は、予め定められた範囲で画面の縦方向(上下方向)に移動可能である。従って、ステップS15においては、現在のタッチ位置がこの移動範囲内か否かが判定される。判定結果が肯定の場合、CPU30は、次にステップS16の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。
In step S <b> 15, the
ステップS16において、CPU30は、現在のタッチ位置に位置調整バー54を移動させる。ステップS16においては、位置調整バー54が画面の縦方向(上下方向)に移動される。具体的には、CPU30は、現在タッチ位置データ73が示す現在のタッチ位
置に基づいて、位置調整バー54の画面の縦(Y軸)方向への移動を示す移動ベクトルを算出する。例えば、CPU30は、現在のタッチ位置を通りY軸に平行な線分と位置調整バー54の表示領域との交点を算出し、算出した交点から現在のタッチ位置に向かうベクトルを上記移動ベクトルとして算出する。そして、CPU30は、位置調整データ75が示す位置調整バー54の表示位置を示す位置ベクトルに、算出した移動ベクトルを加えることによって、位置調整バー54の位置を算出する。CPU30は、算出した位置調整バー54の位置を位置調整データ75としてメインメモリ31に記憶する。次に、CPU30は、ステップS17の処理を実行する。
In step S16, the
ステップS17において、CPU30は、縦方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS16で算出した位置調整バー54の位置に基づいて、左目用画像51aと右目用画像51bとの縦方向(画面の上下(Y軸)方向)のずれ量を算出し、メインメモリ31に記憶する。より具体的には、CPU30は、位置調整バー54のY軸の座標値に応じて、縦方向の位置のずれ量を算出する。縦方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのY軸に関する座標値のずれ(Y座標値の差分)である。例えば、CPU30は、位置調整バー54が所定位置(例えば、位置調整バー54の縦方向の可動範囲における中心)に存在する場合の縦方向のずれ量を0として、当該所定位置よりも上側に位置調整バー54が存在する場合、縦方向のずれ量を正とする。一方、例えば、当該所定位置よりも下側に位置調整バー54が存在する場合、CPU30は、縦方向のずれ量を負とする。なお、縦方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の上側に位置する。縦方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の下側に位置する。次に、CPU30は、位置調整処理を終了する。
In step S <b> 17, the
図14に戻り、ステップS2の処理の後、CPU30は、次にステップS3の処理を実行する。
Returning to FIG. 14, after the process of step S <b> 2, the
ステップS3において、CPU30は、回転、サイズ変更処理を実行する。ステップS3では、ステップS1で検出したタッチ位置に基づいて、左目用画像51a又は右目用画像51bを回転させたり、左目用画像51a又は右目用画像51bのサイズを変更したりする。ステップS3における回転、サイズ変更処理の詳細を、図16を用いて説明する。図16は、回転、サイズ変更処理(ステップS3)の詳細を示すフローチャートである。
In step S3, the
ステップS21において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの頂点か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの頂点を含む所定の領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS22の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。
In step S21, the
ステップS22において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS23の処理を実行する。
In step S22, the
ステップS23において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS23の処理によって、直前のタッチ位置によって選択された画像(左目用画像51a又は右目用画像51b)の回転量又はサイズを変更する量が制限される。具体的には、CPU30は、ステップS22で
算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS24の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。
In step S23, the
ステップS24において、CPU30は、算出したベクトルに応じて、右目用画像又は左目用画像を回転又はサイズ変更させる。具体的には、CPU30は、ステップS22で算出されたベクトルの方向と大きさとに基づいて、直前のタッチ位置によって選択された画像を回転させたり、選択された画像のサイズを変更したりする。例えば、CPU30は、算出されたベクトルの方向が選択された画像の対角線方向である場合(所定の角度以下である場合)、当該ベクトルの大きさに応じて、選択された画像を拡大する。ここで、対角線方向とは、選択された画像の画像中心から直前のタッチ位置によって指示された頂点に向かう方向を示す。例えば、CPU30は、算出されたベクトルの方向が上記対角線方向と反対の方向である場合、選択された画像を縮小する。また、CPU30は、例えば、算出されたベクトルの方向が上記対角線方向と垂直である場合(所定の角度の範囲である場合)、当該ベクトルの大きさに応じて、選択された画像を画像中心周りに回転させる。次に、CPU30は、回転、サイズ変更処理を終了する。
In step S24, the
図14に戻り、ステップS3の処理の後、CPU30は、次にステップS4の処理を実行する。
Returning to FIG. 14, after the process of step S3, the
ステップS4において、CPU30は、ズーム処理を実行する。ステップS4においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をズーム(拡大又は縮小)する。ステップS4におけるズーム処理の詳細を、図17を用いて説明する。図17は、ズーム処理(ステップS4)の詳細を示すフローチャートである。
In step S4, the
ステップS31において、CPU30は、現在のタッチ位置がズーム調整バー56の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置が、ズーム調整バー56の表示領域(ズーム調整バー56が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS32の処理を実行する。一方、判定結果が否定の場合、CPU30は、ズーム処理を終了する。
In step S <b> 31, the
ステップS32において、CPU30は、現在のタッチ位置にズーム調整バー56のスライダ57を移動させる。ステップS32においては、ズーム調整バー56のスライダ57がズーム調整バー56上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応するズーム調整バー56上の位置を算出し、メインメモリ31のズーム調整データ76に記憶する。次に、CPU30は、ステップS33の処理を実行する。
In step S32, the
ステップS33において、CPU30は、立体画像61のズーム設定を行う。ステップS33の処理は、後述するステップS6において立体画像表示装置11に表示される立体画像61をズームするための設定処理である。具体的には、CPU30は、ズーム調整バー56のスライダ57の位置に応じて、左目用画像51a及び右目用画像51bの双方を拡大又は縮小する度合いを決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS34の処理を実行する。
In step S <b> 33, the
ステップS34において、CPU30は、立体画像表示枠59を設定する。具体的には、CPU30は、ステップS33での立体画像61のズーム設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置と大きさとを算出し、立体画像表示枠データ77としてメインメモ
リ31に記憶する。立体画像表示枠59は、平面画像表示装置12の画像表示領域50に表示される枠であり、立体画像表示装置11に表示される立体画像61の領域に対応する左目用画像51a及び右目用画像51bの領域を示す。立体画像61がズームにより拡大された場合、立体画像表示装置11には、左目用画像51a及び右目用画像51bの一部しか表示されないことがある。なお、立体画像61がズームにより拡大された場合でも、立体画像表示装置11に左目用画像51a及び右目用画像51bの全部が表示される場合は、立体画像表示枠59は表示されない。次に、CPU30は、ズーム処理を終了する。
In step S <b> 34, the
図14に戻り、ステップS4の処理の後、CPU30は、次にステップS5の処理を実行する。
Returning to FIG. 14, after the process of step S4, the
ステップS5において、CPU30は、スクロール処理を実行する。ステップS5においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をスクロールする。ステップS5におけるスクロール処理の詳細を、図18を用いて説明する。図18は、スクロール処理(ステップS5)の詳細を示すフローチャートである。
In step S5, the
ステップS41において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS42の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。
In step S41, the
ステップS42において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS43の処理を実行する。
In step S42, the
ステップS43において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS43の処理によって、立体画像61のスクロール量が制限される。具体的には、CPU30は、ステップS42で算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS44の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。
In step S43, the
ステップS44において、CPU30は、立体画像表示装置11に表示される立体画像61をスクロールさせる方向とスクロール量を設定する。具体的には、CPU30は、ステップS42で算出されたベクトルの方向と反対方向をスクロールさせる方向として決定し、メインメモリ31に記憶する。これにより、立体画像61に含まれる撮像対象画像は、ユーザがスティック16を移動させた方向に移動する。また、CPU30は、ステップS42で算出されたベクトルの大きさに応じて、スクロール量を決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS45の処理を実行する。
In step S <b> 44, the
ステップS45において、CPU30は、立体画像表示枠59を設定する。ステップS45の処理は、上述したステップS34の処理と同様である。具体的には、CPU30は、ステップS44での立体画像61のスクロール設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置を算出し、立体画像表示枠データ77としてメインメモリ31に記憶する。次
に、CPU30は、スクロール処理を終了する。
In step S45, the
図14に戻り、ステップS5の処理の後、CPU30は、次にステップS6の処理を実行する。
Returning to FIG. 14, after the process of step S5, the
ステップS6において、CPU30は、立体画像表示装置11に立体画像61を表示させる。ステップS6においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが立体画像表示装置11に表示されることにより、立体画像61が表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらして、合成する。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを合成する。より具体的には、CPU30は、ステップS2又はS3で調整された2つの画像を、画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。また、CPU30は、ステップS4のズーム処理で設定されたズーム設定、又は、ステップS5のスクロール処理で設定されたスクロール設定に基づいて、表示領域を設定する。例えば、CPU30は、ステップS4でズーム設定された場合、決定された拡大又は縮小の度合いに応じて、表示領域を設定し、当該表示領域に対応する左目用画像51a及び右目用画像51bの領域を拡大又は縮小(デジタルズーム)する。また、例えば、CPU30は、ステップS5でスクロール設定された場合、スクロール方向とスクロール量とに基づいて、表示領域を設定する。なお、ステップS2からS5で調整された左目用画像51aと右目用画像51bと重ね合わせた場合に、重なり合う領域のみが、表示領域として設定される。そして、CPU30は、合成された画像の上記表示領域を立体画像表示装置11に表示させることにより、立体画像を表示する。次に、CPU30は、ステップS7の処理を実行する。
In step S <b> 6, the
ステップS7において、CPU30は、平面画像表示装置12に左目用画像51a及び右目用画像51bを表示させる。ステップS7においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが平面画像表示装置12に表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらし、2つの画像を半透明にして重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12の画像表示領域50に表示させる。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを半透明で重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12に表示させる。ここで、平面画像表示装置12の画像表示領域50は、立体画像表示装置11の画面よりも小さい。従って、CPU30は、画像表示領域50と立体画像表示装置11の画面との大きさの比率に応じて、左目用画像51a及び右目用画像51bを縮小し、平面画像表示装置12に表示させる。また、CPU30は、ステップS4のズーム処理(S34)又はステップS5のスクロール処理(S45)で設定された立体画像表示枠59を平面画像表示装置12に表示させる。上述のように、立体画像表示装置11に表示される立体画像61がズーム又はスクロールされても、平面画像表示装置12に表示される画像はズーム又はスクロールされない。すなわち、ズーム又はスクロールによって立体画像61の全体が立体画像表示装置11に表示されない場合でも、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示される。これにより、ズーム又はスクロールされた場合でも、ユーザは左目用画像51a及び右目用画像51bの全体を確認しながら、画像を調整することができる。次に、CPU30は、ステップS8の処理を実行する。
In step S <b> 7, the
ステップS8において、CPU30は、調整終了か否かを判定する。CPU30は、例
えば、ユーザによって所定の操作がなされたか否か(例えば、図示しない下側ハウジング13bに配設されたボタン等が押されたか否か)を判定する。判定結果が否定の場合、CPU30は、次にステップS1の処理を実行する。判定結果が肯定の場合、CPU30は、図14に示す処理を終了する。以上で本実施形態に係る画像表示制御処理は終了する。
In step S8, the
なお、上述した処理の内容や処理の順番等は、単なる例示に過ぎない。すなわち、上記位置調整処理や回転、サイズ変更処理等は具体的な例示に過ぎず、左目用画像51a及び右目用画像51bの相対的な位置、大きさ、回転は、どのように調整されてもよい。また、上記処理の順番はどのような順番であってもよい。
Note that the above-described processing contents, processing order, and the like are merely examples. That is, the position adjustment process, rotation, size change process, and the like are merely specific examples, and the relative positions, sizes, and rotations of the left-
以上のように、左目用画像51a及び右目用画像51bの位置や大きさ、回転を調整することにより、ユーザは立体画像61の見え方を調整することができる。ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12の画面上で左目用画像51a及び右目用画像51bの位置、大きさ、回転を調整することができる。このため、ユーザは容易に立体画像61の見え方を調整することができる。
As described above, the user can adjust the appearance of the
なお、他の機器で撮像された左目用画像51a及び右目用画像51bが保存用データメモリ34を介して画像表示装置10に読み込まれてもよい。また、他の機器で撮像された左目用画像51a及び右目用画像51bが、通信モジュール35を介して画像表示装置10に提供されてもよい。
Note that the left-
また、上記ステップS2及びS3で調整された左目用画像51aと右目用画像51bとの位置、大きさ、回転の調整量を示す情報を、左目用画像51a及び右目用画像51bの画像データとともに保存用データメモリ34に記憶してもよい。当該情報は、左目用画像51a及び右目用画像51bの画像データの一部として記憶されてもよい。そして、上記画像表示装置10とは異なる他の装置に保存用データメモリ34が接続され、保存用データメモリ34に記憶された画像データと上記調整量を示す情報とを用いて、調整された立体画像が当該他の装置の画面に表示されてもよい。
Further, information indicating the adjustment amount of the position, size, and rotation of the left-
また、上記実施形態では、立体画像がズーム又はスクロールされた場合においても、平面画像表示装置12に表示される平面画像(左目用画像51a及び右目用画像51b)は、ズーム又はスクロールされないこととした。他の実施形態では、立体画像がズーム又はスクロールされた場合、平面画像表示装置12に表示される平面画像もズーム又はスクロールされてもよい。すなわち、他の実施形態では、立体画像がズーム又はスクロールによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bの一部が平面画像表示装置12に表示されてもよい(左目用画像51a及び右目用画像51bの全体画像が表示されなくてもよい)。
In the above embodiment, even when the stereoscopic image is zoomed or scrolled, the planar images (the left-
具体的には、図19に示すように、立体画像61がズーム及びスクロールされることによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bもズーム及びスクロールされてもよい。図19は、立体画像61がズーム及びスクロールされることに応じて、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bがズーム及びスクロールされる様子を示す図である。図19では、立体画像61がズーム及びスクロールされたことによって、左目用画像51a及び右目用画像51bの一部が半透明で重ね合わされて平面画像表示装置12に表示されている。具体的には、図19では、左目用画像51a及び右目用画像51bが重なり合う部分の一部と、重なり合わない部分の一部とが、平面画像表示装置12の画面に表示されている。また、左目用画像51a及び右目用画像51bが重なり合う部分の一部に対応する立体画像が、立体画像表示装置11の画面に表示されている。図19に示すように、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61の拡大比率と同じ比率で拡
大される。なお、立体画像表示装置11の画面は平面画像表示装置12の画像表示領域50より大きいため、撮像対象画像63は、撮像対象画像53a及び53bよりも大きく表示されている。また、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61がスクロールされることに応じて、スクロールされる。すなわち、平面画像表示装置12に表示される画像は、立体画像表示装置11に表示される画像と同じ画像である。このように、立体画像表示装置11に表示される立体画像と同様に、平面画像表示装置12に表示される平面画像もズーム及び/又はスクロールすることによって、ユーザにとって立体画像と平面画像との対応が分かりやすくなる。
Specifically, as shown in FIG. 19, the
また、上記実施形態では、平面画像表示装置12には、左目用画像51a及び右目用画像51bを半透明で重ね合わせた画像が表示されることとした。他の実施形態では、左目用画像51a及び右目用画像51bのずれ(位置、大きさ、及び、回転に関するずれ)がユーザによって認識できるような態様であれば、どのように表示されてもよい。例えば、2つの画像の輪郭をユーザが認識できるように強調表示して、2つの画像を半透明にせずに重畳表示させてもよい。すなわち、一方の画像によって他方の画像の一部が完全に隠れるように表示されてもよい。
In the above embodiment, the planar
また、左目用画像51a及び/又は右目用画像51bは、上記操作に限らずどのような操作によって位置、大きさ、又は、回転を調整されてもよい。例えば、下側ハウジング13bにボタン(十字ボタン等)が配設されてもよく、当該ボタン操作によって左目用画像51a及び/又は右目用画像51bの位置が調整されてもよい。具体的には、例えば、スティック16を用いて移動させる画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を右方向に移動させ、左方向ボタンが押された場合は選択された画像を左方向に移動させてもよい。また、例えば、スティック16を用いて回転する画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を時計回りに回転させ、左方向ボタンが押された場合は選択された画像を反時計回りに回転させてもよい。また、例えば、スティック16を用いて拡大又は縮小する画像が選択され、十字ボタンの上方向ボタンが押された場合は選択された画像を拡大させ、下方向ボタンが押された場合は選択された画像を縮小させてもよい。
Further, the position, size, or rotation of the left-
また、本実施形態では裸眼で立体表示可能なディスプレイを用いる場合について説明したが、時分割方式や偏向方式、アナグリフ方式(赤青眼鏡方式)などの眼鏡を用いて立体表示を行うような場合でも、本発明は適用可能である。 In this embodiment, the case where a display capable of stereoscopic display with the naked eye is used has been described. However, even when stereoscopic display is performed using glasses such as a time-division method, a deflection method, and an anaglyph method (red and blue glasses method). The present invention is applicable.
(第2の実施形態)
次に、第2の実施形態について、説明する。第2の実施形態では、上述した画像表示装置10がゲーム装置としても動作する。第2の実施形態に係る画像表示装置10の下側ハウジング13bには、ユーザによって操作される複数の操作ボタン(十字ボタンやその他のボタン)が設けられる。
(Second Embodiment)
Next, a second embodiment will be described. In the second embodiment, the
第2の実施形態に係る画像表示装置10は、第1のモードと、第2のモードとで動作する。第1のモードは、上記第1の実施形態のように左目画像撮像部18a及び右目画像撮像部18bで撮像した画像を用いて、立体画像表示装置11に立体画像を表示するモードである。第2のモードは、仮想ステレオカメラで撮像した画像を用いて、立体画像表示装置11にリアルタイムで立体画像を表示するモードである。第2のモードでは、仮想ステレオカメラ(左目用仮想カメラと右目用仮想カメラ)で仮想空間を撮像した画像が立体画像表示装置11に表示される。第2のモードでは、仮想ステレオカメラが3次元の仮想空間を撮像することにより、所定の視差を有する左目用画像と右目用画像とが生成される。画像表示装置10は、仮想空間をリアルタイムで撮像した左目用画像と右目用画像と合成することにより、立体画像表示装置11にリアルタイムで立体画像を表示する。
The
第2のモードにおいては、例えば、ユーザによって操作されるプレイヤキャラクタが3次元の仮想空間内を探検しながらストーリーが進行するロールプレイングゲームが想定される。当該ロールプレイングゲームでは、様々なゲームシーン(例えば、プレイヤキャラクタが洞窟内を探検するシーンや、プレイヤキャラクタが森を探検するシーン等)が予め用意されている。仮想ステレオカメラは、様々なゲームシーンに応じて、設定(ズーム設定、焦点位置の設定、左目用仮想カメラと右目用仮想カメラとの距離の設定等)が予めなされる。例えば、洞窟を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は予め第1の距離に設定され、森を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は第2の距離に予め設定される。 In the second mode, for example, a role-playing game in which a story progresses while a player character operated by a user explores a three-dimensional virtual space is assumed. In the role playing game, various game scenes (for example, a scene where the player character explores the cave, a scene where the player character explores the forest, etc.) are prepared in advance. The virtual stereo camera is set in advance according to various game scenes (zoom setting, focus position setting, distance setting between the left-eye virtual camera and the right-eye virtual camera, etc.). For example, in a scene for exploring a cave, the distance between the left-eye virtual camera and the right-eye virtual camera is set to a first distance in advance, and in a scene for exploring a forest, the distance between the left-eye virtual camera and the right-eye virtual camera. Is preset to the second distance.
2つの仮想カメラ(左目用仮想カメラ及び右目用仮想カメラ)間の距離は、3次元の仮想空間内に存在する様々な3次元オブジェクト(例えば、岩オブジェクトや木オブジェクト等)の奥行き方向の見え方に影響する。例えば、2つの仮想カメラ間の距離が比較的長い場合、3次元オブジェクトを撮像すると、当該3次元オブジェクトの奥行き方向がより長い立体画像が表示される。2つの仮想カメラ間の距離は、ゲームの各シーンに応じてゲームの設計者によって予め定められる。 The distance between two virtual cameras (the left-eye virtual camera and the right-eye virtual camera) is the depth direction of various three-dimensional objects (for example, rock objects and tree objects) existing in the three-dimensional virtual space. Affects. For example, when the distance between two virtual cameras is relatively long, when a three-dimensional object is imaged, a stereoscopic image in which the depth direction of the three-dimensional object is longer is displayed. The distance between the two virtual cameras is predetermined by the game designer according to each scene of the game.
ここで、第2の実施形態では、2つの仮想カメラ間の距離は、画像表示装置10のハードウェアスライダ14(図1参照)の位置に応じて調整される。すなわち、画像表示装置10のユーザは、自身にとってより見易い立体画像となるように、2つの仮想カメラ間の距離をハードウェアスライダ14を用いて調整することができる。具体的には、例えば、ハードウェアスライダ14の位置が可動範囲の中心に位置している場合、2つの仮想カメラ間の距離は、予め定められた値(デフォルト値)に設定される。また、例えば、ハードウェアスライダ14が右端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の125%に設定される。また、例えば、ハードウェアスライダ14が左端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の75%に設定される。
Here, in the second embodiment, the distance between the two virtual cameras is adjusted according to the position of the hardware slider 14 (see FIG. 1) of the
以上のように、第2の実施形態では、ユーザは、ハードウェアスライダ14を用いて、2つの仮想カメラ間の距離を調整することができる。これにより、立体画像の見え方を調整することができる。
As described above, in the second embodiment, the user can adjust the distance between two virtual cameras using the
なお、第1のモードでは、左目画像撮像部18aと右目画像撮像部18bとの距離は調整できないため、ハードウェアスライダ14は、立体画像表示装置11に立体画像を表示するか否かを切り替えるスイッチとして利用される。第1のモードでは、例えば、ハードウェアスライダ14の位置が右端の場合、立体画像表示装置11に立体画像を表示させ、ハードウェアスライダ14の位置が左端の場合、立体画像表示装置11に立体画像を表示させない。立体画像表示装置11に立体画像を表示させない場合、立体画像表示装置11には、画像は表示されなくてもよいし、平面画像が表示されてもよい。
In the first mode, since the distance between the left-eye
次に、第2の実施形態に係る画像表示装置10において行われる処理の詳細について説明する。まず、当該処理の際にメインメモリ31に記憶される主なデータについて説明する。図20は、第2の実施形態に係る画像表示装置10のメインメモリ31のメモリマップを示す図である。図20に示されるように、メインメモリ31には、データ記憶領域80が設けられる。データ記憶領域80には、仮想カメラデータ81、操作データ82、キャラクタデータ83等が記憶される。これらのデータの他、メインメモリ31には、上記処理を実行するプログラムやゲームに登場する各種オブジェクトの画像データ等が記憶される。
Next, details of processing performed in the
仮想カメラデータ81は、ゲーム空間に存在する仮想ステレオカメラの設定に関するデータである。仮想ステレオカメラの設定には、仮想ステレオカメラの左目用仮想カメラと右目用仮想カメラとの距離、仮想ステレオカメラのズーム設定、及び、仮想ステレオカメラの注視点の位置等が含まれる。
The
操作データ82は、上記複数の操作ボタン(図示せず)への入力を示すデータである。ユーザによって各操作ボタンが押された場合、各操作ボタンが押されたことを示すデータがメインメモリ31に記憶される。
The
キャラクタデータ83は、ユーザによって操作される、ゲーム空間に存在するプレイヤキャラクタに関するデータであり、当該プレイヤキャラクタのゲーム空間における位置や当該プレイヤキャラクタの特性情報を含む。
The
次に、第2の実施形態に係る処理の詳細について図21を用いて説明する。図21は、第2の実施形態に係る処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶されたプログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。なお、当該プログラムは、保存用データメモリ34に記憶されてもよいし、通信モジュール35を介して画像表示装置10に提供されてもよい。図21に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図21では、本発明に直接関連しない処理については記載を省略する。また、図21に示すステップS52〜ステップS56の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。
Next, details of the processing according to the second embodiment will be described with reference to FIG. FIG. 21 is a main flowchart showing details of the processing according to the second embodiment. When the power of the
まず、ステップS51において、CPU30は、第1のモードが選択されたか否かを判定する。具体的には、CPU30は、平面画像表示装置12にユーザに上記第1のモード又は上記第2のモードを選択させる画面を表示し、ユーザからの入力を検出する。ユーザによって第1のモードが選択された場合、CPU30は、次にステップS57の処理を実行する。一方、ユーザによって第2のモードが選択された場合、CPU30は、次にステップS52の処理を実行する。
First, in step S51, the
ステップS52において、CPU30は、ハードウェアスライダ14の位置に応じて左目用仮想カメラと右目用仮想カメラとの間の距離を設定する。具体的には、CPU30は、ハードウェアスライダ14の位置を検出して、2つの仮想カメラ間の距離を算出し、仮想カメラデータ81としてメインメモリ31に記憶する。CPU30は、次にステップS53の処理を実行する。
In step S <b> 52, the
ステップS53において、CPU30は、操作データを取得する。具体的には、CPU30は、メインメモリ31を参照して、複数の操作ボタンに関する操作データを取得する。CPU30は、次にステップS54の処理を実行する。
In step S53, the
ステップS54において、CPU30は、ゲーム処理を実行する。具体的には、CPU30は、ステップS53で取得した操作データに基づいて、プレイヤキャラクタのゲーム空間における位置を更新したり、プレイヤキャラクタに所定の動作を実行させたりする。また、CPU30は、ゲーム空間に存在するプレイヤキャラクタ以外のオブジェクトに所定の動作を実行させたりする。また、CPU30は、仮想ステレオカメラの注視点の位置を更新したり、ズーム設定を更新したりする。CPU30は、次にステップS55の処理を実行する。
In step S54, the
ステップS55において、CPU30は、立体画像表示装置11に立体画像を表示させる。具体的には、CPU30は、仮想ステレオカメラでゲーム空間を撮像し、左目用画像と右目用画像とを取得する。そして、CPU30は、左目用画像と右目用画像とを合成して立体画像データを生成し、立体画像表示装置11に立体画像を表示させる。CPU30は、次にステップS56の処理を実行する。
In step S <b> 55, the
ステップS56において、CPU30は、ゲーム終了か否かを判定する。例えば、CPU30は、ユーザによってゲーム終了を指示するボタン(複数の操作ボタンのうちの1つのボタン)が押されたか否かを判定する。判定結果が否定の場合、CPU30は、再びステップS52の処理を実行する。判定結果が肯定の場合、CPU30は、図21に示す処理を終了する。
In step S56, the
ステップS57において、CPU30は、第1のモードの処理を実行する。ステップS57の処理は、第1の実施形態における処理(図14のステップS1〜S8)と同様の処理であるが、図14におけるステップS5とステップS6との間において、図22に示すようにステップS58の判定処理が行われる。図22は、第1のモードの処理の詳細を示すフローチャートである。ステップS58において、CPU30は、ハードウェアスライダ14の位置が所定の位置(例えば、右端)か否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS6の処理を実行する。判定結果が否定の場合、CPU30は、次にステップS7の処理を実行する。
In step S57, the
以上のように、第2の実施形態では、画像表示装置10は、既に撮像された左目用画像と右目用画像とを用いて立体画像を表示する第1のモードと、仮想空間に存在する仮想ステレオカメラによって撮像された左目用画像と右目用画像とを用いて立体画像を表示する第2のモードとで、動作する。
As described above, in the second embodiment, the
第1のモードでは、左目用画像及び右目用画像は、ステレオカメラ18(左目画像撮像部18a及び右目画像撮像部18b)で撮像された画像であってもよいし、他のステレオカメラによって撮像された画像であってもよい。第1のモードでは、既に撮像された画像を用いるため、左目画像撮像部18aと右目画像撮像部18bとの距離によって生じる視差を変更することはできない。従って、第1のモードでは、ハードウェアスライダ14は、立体画像を表示させる/させないの切り替えを行うスイッチとして機能する。これにより、ユーザは、ハードウェアスライダ14を用いて立体表示のON/OFFを切り替えることができる。
In the first mode, the left-eye image and right-eye image may be images captured by the stereo camera 18 (the left-eye
一方、第2のモードでは、左目用画像及び右目用画像は、仮想ステレオカメラ(左目用仮想カメラ及び右目用仮想カメラ)によって撮像された画像であるため、左目用仮想カメラと右目用仮想カメラとの距離を任意に変更することができる。第2のモードでは、ハードウェアスライダ14を用いて、仮想カメラ間の距離(左目用仮想カメラと右目用仮想カメラとの距離)を変更する。従って、ユーザは、立体画像の見え方を調整することができる。また、ハードウェアスライダ14の位置に応じて仮想カメラ間の距離をデフォルト値から変更することができるため、ユーザはゲームのシーンに応じてハードウェアスライダ14を調整する必要がない。すなわち、各ゲームシーンで設定された仮想カメラ間の距離のデフォルト値は、設計者によって定められた値であり、そのような仮想カメラの設定で撮像された立体画像は、全てのユーザにとって違和感のない立体画像であるとは限らない。例えば、あるユーザにとっては、各ゲームシーンにおいて、デフォルト値の80%に仮想カメラ間の距離が設定された方が、より立体画像として見易い場合がある。従って、ハードウェアスライダ14の位置に応じて、仮想カメラ間の距離のデフォルト値に対する割合を設定することにより、各ゲームシーンにおいてハードウェアスライダ14の位置を調整する必要はない。
On the other hand, in the second mode, the left-eye image and the right-eye image are images captured by the virtual stereo camera (the left-eye virtual camera and the right-eye virtual camera). The distance can be arbitrarily changed. In the second mode, the
なお、第2のモードにおいて、ハードウェアスライダ14の位置に応じて、左目用画像及び右目用画像の横方向のずれが設定されてもよい。すなわち、仮想カメラ間の距離を調整する替わりに、ハードウェアスライダ14の位置に応じて左目用画像及び右目用画像の横方向のずれを調整してもよい。
In the second mode, the horizontal shift between the left-eye image and the right-eye image may be set according to the position of the
また、第2のモードにおいても、第1の実施形態のように位置調整バー54を用いて左目用画像と右目用画像とのずれ(横方向のずれ)が調整されてもよい。これによって、ユーザは、ゲーム空間に存在する所定のオブジェクトを立体画像表示装置11の画面に対して垂直な方向に移動させることができる。
Also in the second mode, the shift (lateral shift) between the left-eye image and the right-eye image may be adjusted using the
また、上記第1及び第2の実施形態では、立体画像表示装置11及び平面画像表示装置12の双方を備える携帯型の画像表示装置10を想定した。他の実施形態では、これらの装置は別々の装置として構成され、それらが接続されてもよい。例えば、立体表示可能な第1の表示装置と、平面表示のみを行う第2の表示装置と、上述した処理を行う制御装置とが、別々のハードウェアとして構成されてもよい。そして、これらの装置が、有線又は無線によって互いに接続されることによって、画像表示制御システムとして機能してもよい。
In the first and second embodiments, the portable
また、他の実施形態では、立体表示を行う立体表示領域と平面表示を行う平面表示領域とが同時に設定可能な表示装置が、上記立体画像表示装置11及び平面画像表示装置12として、用いられてもよい。すなわち、このような表示装置の立体表示領域が立体画像表示手段、平面表示領域が平面画像表示手段として、用いられてもよい。
In another embodiment, a display device capable of simultaneously setting a stereoscopic display region for performing stereoscopic display and a planar display region for performing planar display is used as the stereoscopic
また、他の実施形態では、表示装置とタッチパネルとを有する任意の情報処理装置(例えば、PDA(Personal Digital Assistant)、携帯電話等)や、マウス等のポインティングデバイスを備えたパーソナルコンピュータにも上記調整方法が適用されてもよい。 In other embodiments, the above adjustment is also applied to an arbitrary information processing apparatus (for example, a PDA (Personal Digital Assistant), a mobile phone, etc.) having a display device and a touch panel, or a personal computer having a pointing device such as a mouse. A method may be applied.
また、上記実施形態では、タッチパネルによる操作によって立体画像の調整(左目用画像と右目用画像の位置の調整)、立体画像のズームやスクロール等が行われた。他の実施形態では、マウス等のポインティングデバイスを操作することによって、立体画像の調整等が行われてもよい。例えば、画面に表示された位置調整バーのスライダが、マウス操作によって調整されてもよい。 In the above-described embodiment, the adjustment of the stereoscopic image (adjustment of the positions of the left-eye image and the right-eye image), the zooming and scrolling of the stereoscopic image, and the like are performed by the operation using the touch panel. In other embodiments, a stereoscopic image may be adjusted by operating a pointing device such as a mouse. For example, the slider of the position adjustment bar displayed on the screen may be adjusted by operating the mouse.
また、上記実施形態においては、画像表示装置10のCPU30が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われた。他の実施形態においては、上記処理の一部又は全部は、画像表示装置10が備える専用回路によって行われてもよい。例えば、立体画像表示装置11に表示する画像を生成する専用のGPU(Graphics Processing Unit)等が設けられてもよい。
Moreover, in the said embodiment, the process by the flowchart mentioned above was performed because CPU30 of the
10 画像表示装置
11 立体画像表示装置
12 平面画像表示装置
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 ハードウェアスライダ
15 タッチパネル
16 スティック
17 シャッターボタン
18 ステレオカメラ
18a 左目画像撮像部
18b 右目画像撮像部
30 CPU
31 メインメモリ
32 ROM
33 メモリ制御回路
34 保存用データメモリ
35 通信モジュール
40 調整部
41 入力制御部
42 第1表示制御部
43 第2表示制御部
50画像表示領域
51a 左目用画像
51b 右目用画像
54 位置調整バー
55 スライダ
56 ズーム調整バー
57 スライダ
59 立体画像表示枠
DESCRIPTION OF
31
33
Claims (25)
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段として機能させる、表示制御プログラム。 A display control program executed on a computer of a display control device for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other, the computer comprising: ,
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. Display control program to function as.
前記第2の表示制御手段は、前記調整手段で調整された右目用画像と左目用画像との重複領域とともに、該右目用画像と左目用画像とが重なり合わない部分である非重複領域を前記第2の表示手段に表示させる、請求項1に記載の表示制御プログラム。 When the first display control unit superimposes the right-eye image adjusted by the adjustment unit and the left-eye image adjusted by the adjustment unit, the first display control unit displays the stereoscopic image of only the overlapping region that is an overlapping portion. Displaying on the first display means;
The second display control unit includes a non-overlapping region that is a portion where the right-eye image and the left-eye image do not overlap with the overlapping region of the right-eye image and the left-eye image adjusted by the adjusting unit. The display control program according to claim 1, which is displayed on the second display means.
前記第2の表示手段に第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する、請求項1に記載の表示制御プログラム。 The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
The first adjustment bar is displayed on the second display means, and the first adjustment bar control means for adjusting the slider of the first adjustment bar according to the designated coordinates detected by the designated coordinate detection means, Make the computer work better,
The adjusting means has a relative position and size between the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means, and The display control program according to claim 1, wherein at least one of the rotations is adjusted.
前記第1の表示制御手段は、前記第2調整バー制御手段によって調整された第2の調整バーのスライダの位置に応じて、前記立体画像をズームする、請求項7に記載の表示制御
プログラム。 The second adjustment bar is displayed on the second display means, and the second adjustment bar control means adjusts the slider of the second adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. Make the computer work better,
The display control program according to claim 7, wherein the first display control unit zooms the stereoscopic image in accordance with a position of a slider of a second adjustment bar adjusted by the second adjustment bar control unit.
前記第1の表示制御手段は、前記方向検出手段によって検出された方向に基づいて、前記立体画像をスクロールさせる、請求項7又は8に記載の表示制御プログラム。 Based on the designated coordinates detected by the designated coordinate detecting means, the computer is further functioned as direction detecting means for detecting a direction input by a user,
The display control program according to claim 7 or 8, wherein the first display control means scrolls the stereoscopic image based on the direction detected by the direction detection means.
前記画像表示領域のアスペクト比における横幅の割合は、前記右目用画像及び前記左目用画像のアスペクト比における横幅の割合よりも大きい、請求項1に記載の表示制御プログラム。 The second display control means sets an image display area for displaying the right-eye image and the left-eye image in the second display means,
The display control program according to claim 1, wherein a ratio of a horizontal width in an aspect ratio of the image display area is larger than a ratio of a horizontal width in an aspect ratio of the right-eye image and the left-eye image.
前記第2の表示手段の画面における前記画像表示領域とは異なる領域に、前記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該スライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整されたスライダの位置に応じて、前記右目用画像及び/又は前記左目用画像を横方向にずらす、請求項10に記載の表示制御プログラム。 The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
A first adjustment bar having a slider that is movable in a horizontal direction of the screen of the second display means is displayed in an area different from the image display area on the screen of the second display means, and the indicated coordinate detection is performed. Further causing the computer to function as first adjustment bar control means for adjusting the slider in accordance with the indicated coordinates detected by the means,
11. The display control program according to claim 10, wherein the adjustment unit shifts the right-eye image and / or the left-eye image in the horizontal direction according to the position of the slider adjusted by the first adjustment bar control unit.
前記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを前記第2の表示手段に表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダの位置を調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記第1調整バー制御手段は、前記指示座標検出手段が検出する指示座標に応じて、前記第1の調整バー自体を前記スライダの可動範囲よりも小さい範囲で前記第2の表示手段の画面の縦方向に移動させ、
前記調整手段は、前記第1調整バー制御手段によって前記スライダが横方向に移動された場合は、当該スライダの移動量に応じて、前記右目用画像及び/又は前記左目用画像の位置を横方向にずらし、前記第1調整バー制御手段によって前記第1の調整バーが縦方向に移動された場合は、当該第1の調整バーの移動量に応じて、前記右目用画像及び/又は前記左目用画像の位置を縦方向にずらす、請求項1に記載の表示制御プログラム。 The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
A first adjustment bar having a slider movable in the horizontal direction of the screen of the second display means is displayed on the second display means, and the first adjustment bar is displayed in accordance with the indicated coordinates detected by the indicated coordinate detecting means. Further causing the computer to function as first adjustment bar control means for adjusting the position of the slider of one adjustment bar,
The first adjustment bar control means moves the first adjustment bar itself on the screen of the second display means within a range smaller than the movable range of the slider according to the designated coordinates detected by the designated coordinate detection means. Move it vertically,
When the slider is moved in the horizontal direction by the first adjustment bar control means, the adjusting means sets the position of the right-eye image and / or the left-eye image in the horizontal direction according to the movement amount of the slider. When the first adjustment bar is moved in the vertical direction by the first adjustment bar control means, the right eye image and / or the left eye image is moved according to the amount of movement of the first adjustment bar. The display control program according to claim 1, wherein the image position is shifted in a vertical direction.
前記第2の表示手段に第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整し、該調整した量を前記立体画像毎に記憶手段に記
憶する、請求項1に記載の表示制御プログラム。 The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
The first adjustment bar is displayed on the second display means, and the first adjustment bar control means for adjusting the slider of the first adjustment bar according to the designated coordinates detected by the designated coordinate detection means, Make the computer work better,
The adjusting means has a relative position and size between the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means, and The display control program according to claim 1, wherein at least one of the rotations is adjusted, and the adjusted amount is stored in a storage unit for each stereoscopic image.
既に撮像された右目用画像と左目用画像とを用いる第1のモードと、2台の仮想カメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択するモード選択手段として、前記コンピュータをさらに機能させ、
前記第1の表示制御手段は、
前記モード選択手段で前記第1のモードが選択されている場合、前記既に撮像された右目用画像と左目用画像とを用いて前記立体画像を表示させ、
前記モード選択手段で前記第2のモードが選択されている場合、前記スライダの位置に応じて、前記仮想カメラ間の距離を調整し、該距離を調整された2台の仮想カメラで前記仮想空間を撮像した右目用画像と左目用画像とを用いて前記立体画像を表示させる、請求項1に記載の表示制御プログラム。 The display control device includes a slider whose position can be adjusted in a predetermined direction,
A mode for selecting a first mode that uses a right-eye image and a left-eye image that have already been captured, and a second mode that uses a right-eye image and a left-eye image obtained by capturing a virtual space with two virtual cameras. As a selection means, further function the computer,
The first display control means includes
When the first mode is selected by the mode selection means, the stereoscopic image is displayed using the already-captured right-eye image and left-eye image,
When the second mode is selected by the mode selection means, the distance between the virtual cameras is adjusted according to the position of the slider, and the virtual space is adjusted by two virtual cameras whose distances are adjusted. The display control program according to claim 1, wherein the stereoscopic image is displayed using a right-eye image and a left-eye image obtained by capturing the image.
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段と、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段と、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段とを備える、表示制御装置。 A display control device for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other,
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. A display control device.
平面表示可能な第2の表示手段と、
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段と、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段と、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段とを備える、表示制御システム。 First display means capable of displaying a stereoscopic image using a right-eye image and a left-eye image having parallax with each other;
A second display means capable of planar display;
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. A display control system.
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整ステップと、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御ステップと、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御ステップとを含む、方法。 A display control method for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other,
An adjustment step of adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means A first display control step for displaying a stereoscopic image on one display means;
A second display control step of superimposing the right-eye image adjusted by the adjusting unit and the left-eye image adjusted by the adjusting unit, and displaying the superimposed planar image on a second display unit capable of planar display. Including a method.
前記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する仮想カメラ設定手段、
前記仮想カメラ設定手段で設定されたカメラ間距離で前記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる表示制御手段、として機能させる、表示制御プログラム。 A display control program executed in a computer of a display control device including a slider whose position can be adjusted in a predetermined direction, the computer comprising:
Virtual camera setting means for setting a distance between two virtual cameras existing in a virtual space according to the position of the slider;
Functions as display control means for displaying a stereoscopic image on a display means capable of stereoscopic display using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at a distance between cameras set by the virtual camera setting means A display control program.
前記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する仮想カメラ設定手段と、
前記仮想カメラ設定手段で設定されたカメラ間距離で前記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる表示制御手段とを備える、表示制御装置。 A display control device including a slider whose position can be adjusted in a predetermined direction,
Virtual camera setting means for setting a distance between two virtual cameras existing in a virtual space according to the position of the slider;
Display control means for displaying a stereoscopic image on a display means capable of stereoscopic display using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at a distance between cameras set by the virtual camera setting means; , Display control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011003949A JP2011166754A (en) | 2010-01-14 | 2011-01-12 | Display control program, display control apparatus, display control system, and display control method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010005955 | 2010-01-14 | ||
JP2010005955 | 2010-01-14 | ||
JP2011003949A JP2011166754A (en) | 2010-01-14 | 2011-01-12 | Display control program, display control apparatus, display control system, and display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011166754A true JP2011166754A (en) | 2011-08-25 |
Family
ID=44064930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011003949A Pending JP2011166754A (en) | 2010-01-14 | 2011-01-12 | Display control program, display control apparatus, display control system, and display control method |
Country Status (3)
Country | Link |
---|---|
US (2) | US9128293B2 (en) |
EP (1) | EP2355526A3 (en) |
JP (1) | JP2011166754A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013070286A (en) * | 2011-09-22 | 2013-04-18 | Nintendo Co Ltd | Display control program, display control system, display control apparatus, and display control method |
JP2013257621A (en) * | 2012-06-11 | 2013-12-26 | Nintendo Co Ltd | Image display system, puzzle game system, image display method, puzzle game method, image display device, puzzle game device, image display program and puzzle game program |
JP2016146656A (en) * | 2016-03-24 | 2016-08-12 | 任天堂株式会社 | Display control program, display control system, display control device, and display control method |
KR20180117433A (en) * | 2017-04-19 | 2018-10-29 | 주식회사 넥슨코리아 | Method and system for testing stereo-scopic image |
CN109572429A (en) * | 2011-09-03 | 2019-04-05 | 大众汽车有限公司 | For especially providing the method and apparatus of user interface in a motor vehicle |
WO2020105272A1 (en) * | 2018-11-21 | 2020-05-28 | 株式会社デンソー | Virtual image display device and fused image adjustment operation device |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP5800501B2 (en) | 2010-03-12 | 2015-10-28 | 任天堂株式会社 | Display control program, display control apparatus, display control system, and display control method |
US9693039B2 (en) | 2010-05-27 | 2017-06-27 | Nintendo Co., Ltd. | Hand-held electronic device |
KR101731343B1 (en) * | 2010-07-14 | 2017-04-28 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
FR2967324B1 (en) * | 2010-11-05 | 2016-11-04 | Transvideo | METHOD AND DEVICE FOR CONTROLLING THE PHASING BETWEEN STEREOSCOPIC CAMERAS |
WO2012065146A2 (en) | 2010-11-12 | 2012-05-18 | Wms Gaming, Inc. | Integrating three-dimensional elements into gaming environments |
US8721427B2 (en) | 2010-12-14 | 2014-05-13 | Bally Gaming, Inc. | Gaming system, method and device for generating images having a parallax effect using face tracking |
JP6089383B2 (en) * | 2011-04-08 | 2017-03-08 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5909889B2 (en) * | 2011-06-17 | 2016-04-27 | ソニー株式会社 | Imaging control apparatus and imaging control method |
JP5367034B2 (en) * | 2011-08-24 | 2013-12-11 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
KR101888082B1 (en) * | 2011-09-27 | 2018-09-10 | 엘지전자 주식회사 | Image display apparatus, and method for operating the same |
WO2013047415A1 (en) * | 2011-09-29 | 2013-04-04 | 富士フイルム株式会社 | Image processing apparatus, image capturing apparatus and visual disparity amount adjusting method |
US20130222334A1 (en) * | 2011-10-28 | 2013-08-29 | Sony Mobile Communications Japan, Inc. | Information processing apparatus |
US9646453B2 (en) * | 2011-12-23 | 2017-05-09 | Bally Gaming, Inc. | Integrating three-dimensional and two-dimensional gaming elements |
TWI533663B (en) * | 2012-01-17 | 2016-05-11 | 晨星半導體股份有限公司 | Apparatus and method for processing 3-d image |
JP5962092B2 (en) * | 2012-03-16 | 2016-08-03 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2014038560A (en) * | 2012-08-20 | 2014-02-27 | Canon Inc | Information processing device, information processing method, and program |
US20150022631A1 (en) * | 2013-07-17 | 2015-01-22 | Htc Corporation | Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images |
US9986225B2 (en) * | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
CN105092919B (en) * | 2014-05-04 | 2017-11-10 | 固纬电子实业股份有限公司 | The gear switch method of touch measuring instrument |
JP6323183B2 (en) * | 2014-06-04 | 2018-05-16 | ソニー株式会社 | Image processing apparatus and image processing method |
US11284003B2 (en) * | 2015-07-29 | 2022-03-22 | Samsung Electronics Co., Ltd. | User terminal apparatus and control method thereof |
CN105572888B (en) * | 2016-02-04 | 2018-01-30 | 无锡博一光电科技有限公司 | A kind of 3D display correction system and bearing calibration |
JP2017211694A (en) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | Information processing device, information processing method, and program |
US10366536B2 (en) * | 2016-06-28 | 2019-07-30 | Microsoft Technology Licensing, Llc | Infinite far-field depth perception for near-field objects in virtual environments |
CN108114468A (en) * | 2016-11-29 | 2018-06-05 | 三维视觉科技有限公司 | Autostereoscopic 3D video camera implementation method and device |
JP6949535B2 (en) * | 2017-04-13 | 2021-10-13 | キヤノン株式会社 | Information processing equipment, information processing system, information processing method and program |
JP7039179B2 (en) * | 2017-04-13 | 2022-03-22 | キヤノン株式会社 | Information processing equipment, information processing system, information processing method and program |
CN107959846B (en) * | 2017-12-06 | 2019-12-03 | 苏州佳世达电通有限公司 | Display device and image display method |
CN111767700B (en) * | 2019-04-01 | 2023-10-27 | 珠海金山办公软件有限公司 | Graph adjustment method and device |
CN112235561B (en) * | 2020-10-16 | 2022-07-22 | 深圳市时代华影科技股份有限公司 | LED display screen, display method and device and computer readable storage medium |
Family Cites Families (234)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0795621B2 (en) | 1989-08-02 | 1995-10-11 | 沖電気工業株式会社 | Chip component mounting structure |
EP0425985B1 (en) | 1989-10-25 | 1997-06-11 | Hitachi, Ltd. | Stereoscopic imaging system |
JPH089421Y2 (en) | 1990-07-31 | 1996-03-21 | 三菱自動車工業株式会社 | Fuel injector |
US5065236A (en) | 1990-11-02 | 1991-11-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects |
JPH04180180A (en) | 1990-11-15 | 1992-06-26 | Yokogawa Hewlett Packard Ltd | Three-dimensional position input method and device |
JPH04358181A (en) | 1991-06-04 | 1992-12-11 | Kanegafuchi Chem Ind Co Ltd | Magnetic roll consisting of crystalline thermoplastic resin composite material and production thereof |
EP0563737B1 (en) | 1992-03-23 | 1997-09-10 | Canon Kabushiki Kaisha | Multilens imaging apparatus with correction of misregistration |
US5309522A (en) | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
WO1994024631A1 (en) * | 1993-04-20 | 1994-10-27 | General Electric Company | Computer graphic and live video system for enhancing visualisation of body structures during surgery |
JPH06339155A (en) | 1993-05-28 | 1994-12-06 | Sharp Corp | Three-dimensional image pickup system |
JPH0759119A (en) | 1993-08-20 | 1995-03-03 | Seiko Epson Corp | Pseudo stereoscopic video image display device |
EP0888017A2 (en) | 1993-08-26 | 1998-12-30 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image display apparatus and related system |
JPH07143524A (en) | 1993-11-19 | 1995-06-02 | Honda Motor Co Ltd | On-vehicle stereo image display device |
US5510832A (en) | 1993-12-01 | 1996-04-23 | Medi-Vision Technologies, Inc. | Synthesized stereoscopic imaging system and method |
KR0180026B1 (en) | 1994-05-13 | 1999-05-01 | 마츠모도 세이야 | Stereoscopio display using movement direction detection |
US6118475A (en) | 1994-06-02 | 2000-09-12 | Canon Kabushiki Kaisha | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
US6236748B1 (en) | 1994-08-02 | 2001-05-22 | Canon Kabushiki Kaisha | Compound eye image pickup device utilizing plural image sensors and plural lenses |
TW269094B (en) | 1994-11-11 | 1996-01-21 | Nitendo Kk | Three dimensional visual image display device and electric game apparatus, memory device thereof |
JPH08137428A (en) | 1994-11-11 | 1996-05-31 | Nintendo Co Ltd | Image display device, image display system and program cartridge used for the same |
JPH08136855A (en) | 1994-11-11 | 1996-05-31 | Nintendo Co Ltd | Image display device, image display system and program cartridge used therefor |
JP2716388B2 (en) | 1994-12-26 | 1998-02-18 | 日本電気株式会社 | Display device for stereoscopic images |
JPH08205201A (en) | 1995-01-31 | 1996-08-09 | Sony Corp | Pseudo stereoscopic vision method |
JPH08331607A (en) | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | Three-dimensional display image generating method |
US6384859B1 (en) | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
JP2848291B2 (en) | 1995-08-24 | 1999-01-20 | 松下電器産業株式会社 | 3D TV device |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
JP3579162B2 (en) | 1995-06-29 | 2004-10-20 | 松下電器産業株式会社 | 3D CG image generation device |
US6369952B1 (en) | 1995-07-14 | 2002-04-09 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
US5964830A (en) | 1995-08-22 | 1999-10-12 | Durrett; Charles M. | User portal device for the world wide web to communicate with a website server |
KR100371456B1 (en) | 1995-10-09 | 2004-03-30 | 닌텐도가부시키가이샤 | Three-dimensional image processing system |
WO1997015150A1 (en) | 1995-10-19 | 1997-04-24 | Sony Corporation | Method and device for forming three-dimensional image |
US6034740A (en) | 1995-10-30 | 2000-03-07 | Kabushiki Kaisha Photron | Keying system and composite image producing method |
US6088006A (en) | 1995-12-20 | 2000-07-11 | Olympus Optical Co., Ltd. | Stereoscopic image generating system for substantially matching visual range with vergence distance |
JP3525970B2 (en) | 1996-01-19 | 2004-05-10 | 株式会社タイトー | A parallax adjustment device for a game machine that can experience stereoscopic viewing |
JP3575902B2 (en) | 1996-01-24 | 2004-10-13 | 株式会社タイトー | Adjusting device for binocular video incident position and convergence point of a game machine displaying a binocular stereoscopic video |
US6163337A (en) | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
US6389179B1 (en) | 1996-05-28 | 2002-05-14 | Canon Kabushiki Kaisha | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image |
JPH09322199A (en) | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | Stereoscopic video display device |
EP0817125B1 (en) | 1996-06-26 | 2004-09-08 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics moving image generating apparatus |
JP3934211B2 (en) | 1996-06-26 | 2007-06-20 | 松下電器産業株式会社 | Stereoscopic CG video generation device |
DE69706611T2 (en) | 1996-06-27 | 2002-07-04 | Kabushiki Kaisha Toshiba, Kawasaki | Stereoscopic display system and method |
JP3558104B2 (en) | 1996-08-05 | 2004-08-25 | ソニー株式会社 | Three-dimensional virtual object display apparatus and method |
US6310733B1 (en) | 1996-08-16 | 2001-10-30 | Eugene Dolgoff | Optical elements and methods for their manufacture |
JP3962115B2 (en) | 1996-11-08 | 2007-08-22 | オリンパス株式会社 | Video observation device |
US6342900B1 (en) | 1996-12-06 | 2002-01-29 | Nikon Corporation | Information processing apparatus |
JP3771989B2 (en) | 1997-03-24 | 2006-05-10 | オリンパス株式会社 | Image / audio communication system and videophone transmission / reception method |
US6057833A (en) | 1997-04-07 | 2000-05-02 | Shoreline Studios | Method and apparatus for providing real time enhancements and animations over a video image |
US6002534A (en) | 1997-04-09 | 1999-12-14 | Minolta Co., Ltd. | Optical apparatus with two optical systems and method for moving the two optical systems |
US6252624B1 (en) | 1997-07-18 | 2001-06-26 | Idemitsu Kosan Co., Ltd. | Three dimensional display |
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
WO1999014983A1 (en) | 1997-09-16 | 1999-03-25 | Lake Dsp Pty. Limited | Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener |
US6762794B1 (en) | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
US8202094B2 (en) | 1998-02-18 | 2012-06-19 | Radmila Solutions, L.L.C. | System and method for training users with audible answers to spoken questions |
JP4149037B2 (en) | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | Video system |
JP3420504B2 (en) | 1998-06-30 | 2003-06-23 | キヤノン株式会社 | Information processing method |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP2000069404A (en) | 1998-08-25 | 2000-03-03 | Konami Co Ltd | Image print creating device |
JP3786167B2 (en) | 1998-08-31 | 2006-06-14 | ソニー株式会社 | Two-dimensional code recognition processing method, two-dimensional code recognition processing apparatus, and two-dimensional code recognition processing program storage medium |
EP0984385B1 (en) | 1998-08-31 | 2013-02-20 | Sony Corporation | Two-dimensional code recognition processing |
JP2000078615A (en) | 1998-09-02 | 2000-03-14 | Sanyo Electric Co Ltd | Digital broadcast receiver |
US6504710B2 (en) | 1998-11-27 | 2003-01-07 | Xplore Technologies Corp. | Method of interconnecting of a hand-held auxiliary unit, a portable computer and a peripheral device |
JP3619063B2 (en) | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | Stereoscopic image processing apparatus, method thereof, stereoscopic parameter setting apparatus, method thereof and computer program storage medium |
JP2001142166A (en) | 1999-09-15 | 2001-05-25 | Sharp Corp | 3d camera |
GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
JP3728160B2 (en) | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | Depth image measuring apparatus and method, and mixed reality presentation system |
JP2001165144A (en) | 1999-12-07 | 2001-06-19 | Fujitsu Ltd | Folding cellphone |
JP3459606B2 (en) | 2000-03-03 | 2003-10-20 | 三洋電機株式会社 | Foldable mobile phone |
JP2001251399A (en) | 2000-03-03 | 2001-09-14 | Sanyo Electric Co Ltd | Foldable mobile phone |
JP3392801B2 (en) | 2000-03-03 | 2003-03-31 | 三洋電機株式会社 | Foldable mobile phone |
KR100419927B1 (en) | 2000-03-03 | 2004-02-25 | 산요덴키가부시키가이샤 | Folder type portable phone |
US6474819B2 (en) | 2000-03-21 | 2002-11-05 | Texas Instruments Incorporated | Combination overhead projector and electronic display device |
GB0010685D0 (en) | 2000-05-03 | 2000-06-28 | Koninkl Philips Electronics Nv | Autostereoscopic display driver |
JP2001326947A (en) * | 2000-05-12 | 2001-11-22 | Sony Corp | Stereoscopic image display device |
JP4590686B2 (en) | 2000-05-12 | 2010-12-01 | ソニー株式会社 | Stereoscopic image display device |
US6765568B2 (en) * | 2000-06-12 | 2004-07-20 | Vrex, Inc. | Electronic stereoscopic media delivery system |
JP2002095018A (en) | 2000-09-12 | 2002-03-29 | Canon Inc | Image display controller, image display system and method for displaying image data |
JP3625184B2 (en) | 2000-09-25 | 2005-03-02 | コナミ株式会社 | 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus |
US7391420B1 (en) | 2000-09-28 | 2008-06-24 | At&T Corp. | Graphical user interface graphics-based interpolated animation performance |
US6820056B1 (en) | 2000-11-21 | 2004-11-16 | International Business Machines Corporation | Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system |
JP2002223458A (en) | 2001-01-26 | 2002-08-09 | Nippon Hoso Kyokai <Nhk> | Stereoscopic video image generator |
JP3398796B2 (en) | 2001-01-31 | 2003-04-21 | 飛島建設株式会社 | Image system for 3D survey support using mixed reality |
GB0105801D0 (en) | 2001-03-09 | 2001-04-25 | Koninkl Philips Electronics Nv | Apparatus |
JP4624582B2 (en) | 2001-03-21 | 2011-02-02 | 株式会社バンダイナムコゲームス | Image generating apparatus, program, and information storage medium |
JP4610799B2 (en) | 2001-06-25 | 2011-01-12 | オリンパス株式会社 | Stereoscopic observation system and endoscope apparatus |
US20030112508A1 (en) | 2001-08-17 | 2003-06-19 | Byoungyi Yoon | Method and system for controlling space magnification for stereoscopic images |
TW584815B (en) | 2001-09-13 | 2004-04-21 | Silicon Integrated Sys Corp | Method for removing noise regions in a stereo 3D display system |
JP2003107603A (en) | 2001-09-28 | 2003-04-09 | Namco Ltd | Stereophonic image generating device, stereophonic image generation information and information storage medium |
US7193626B2 (en) * | 2002-03-08 | 2007-03-20 | Topcon Corporation | Device and method for displaying stereo image |
JP3691444B2 (en) * | 2002-03-11 | 2005-09-07 | 三洋電機株式会社 | Stereo imaging device |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP3749227B2 (en) | 2002-03-27 | 2006-02-22 | 三洋電機株式会社 | Stereoscopic image processing method and apparatus |
KR100977193B1 (en) | 2002-04-25 | 2010-08-20 | 샤프 가부시키가이샤 | Image data creation device, image data reproduction device, and image data recording medium |
JP4061473B2 (en) | 2002-04-26 | 2008-03-19 | 日本電気株式会社 | Folding mobile phone |
JP2003333624A (en) | 2002-05-10 | 2003-11-21 | Sharp Corp | Electronic apparatus |
JP2003348621A (en) | 2002-05-27 | 2003-12-05 | Canon Inc | Means for setting two-viewpoint camera |
JP2004007214A (en) | 2002-05-31 | 2004-01-08 | Canon Inc | Image pickup unit |
US20050239521A1 (en) | 2002-06-07 | 2005-10-27 | Hideo Harada | Collapsible mobile telephone |
JP2003067784A (en) | 2002-07-30 | 2003-03-07 | Canon Inc | Information processor |
EP1403759A3 (en) | 2002-09-17 | 2007-04-04 | Sharp Kabushiki Kaisha | Electronic equipment with two and three dimensional display functions |
JP3973525B2 (en) | 2002-09-24 | 2007-09-12 | シャープ株式会社 | Electronic device having 2D (2D) and 3D (3D) display functions |
JP2004109330A (en) | 2002-09-17 | 2004-04-08 | Sharp Corp | Electronic apparatus equipped with two dimensional and three dimensional display function |
CN100376924C (en) | 2002-09-19 | 2008-03-26 | 三菱电机株式会社 | Display unit and electronic apparatus equipped with display unit |
EP2315454B1 (en) | 2002-09-27 | 2012-07-25 | Sharp Kabushiki Kaisha | 3-D image display device |
JP4228646B2 (en) | 2002-10-02 | 2009-02-25 | 株式会社セガ | Stereoscopic image generation method and stereoscopic image generation apparatus |
US20040070667A1 (en) | 2002-10-10 | 2004-04-15 | Fuji Photo Optical Co., Ltd. | Electronic stereoscopic imaging system |
JP2004159014A (en) | 2002-11-05 | 2004-06-03 | Nec Corp | Digital camera attached mobile communication terminal |
US7321682B2 (en) * | 2002-11-12 | 2008-01-22 | Namco Bandai Games, Inc. | Image generation system, image generation method, program, and information storage medium |
JP4190263B2 (en) | 2002-11-25 | 2008-12-03 | 三洋電機株式会社 | Stereoscopic video providing method and stereoscopic video display device |
WO2004049734A1 (en) | 2002-11-28 | 2004-06-10 | Seijiro Tomita | Three-dimensional image signal producing circuit and three-dimensional image display apparatus |
JP4400172B2 (en) | 2003-02-28 | 2010-01-20 | 日本電気株式会社 | Image display device, portable terminal device, display panel, and image display method |
US20040214637A1 (en) | 2003-03-03 | 2004-10-28 | Nobuyuki Nonaka | Gaming machine |
WO2004084560A1 (en) | 2003-03-20 | 2004-09-30 | Seijiro Tomita | Stereoscopic video photographing/displaying system |
JP3962699B2 (en) | 2003-03-20 | 2007-08-22 | 株式会社ソフィア | Game machine |
JP2004287902A (en) | 2003-03-24 | 2004-10-14 | Olympus Corp | Composite reality image presentation device |
JP2004297540A (en) | 2003-03-27 | 2004-10-21 | Sharp Corp | Stereoscopic video recording and reproducing device |
JP2004294861A (en) | 2003-03-27 | 2004-10-21 | Sanyo Electric Co Ltd | Stereoscopic image display device |
EP1617684A4 (en) * | 2003-04-17 | 2009-06-03 | Sharp Kk | 3-dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program |
WO2004107764A1 (en) | 2003-05-27 | 2004-12-09 | Sanyo Electric Co., Ltd. | Image display device and program |
WO2004106856A1 (en) | 2003-05-29 | 2004-12-09 | Olympus Corporation | Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system |
JP4378118B2 (en) | 2003-06-27 | 2009-12-02 | 学校法人早稲田大学 | 3D image presentation device |
JP2005073038A (en) | 2003-08-26 | 2005-03-17 | Casio Comput Co Ltd | Electronic equipment with three-dimensional display function |
JPWO2005032228A1 (en) | 2003-09-26 | 2007-11-15 | 株式会社ソニー・コンピュータエンタテインメント | Portable electronic device |
JP4251952B2 (en) | 2003-10-01 | 2009-04-08 | シャープ株式会社 | Stereoscopic image display apparatus and stereoscopic image display method |
JP4338500B2 (en) | 2003-11-14 | 2009-10-07 | 富士フイルム株式会社 | Imaging device |
JP2005165614A (en) | 2003-12-02 | 2005-06-23 | Canon Inc | Device and method for synthesizing picture |
JP2005165776A (en) | 2003-12-03 | 2005-06-23 | Canon Inc | Image processing method and image processor |
GB0329312D0 (en) | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
JP2005204754A (en) | 2004-01-20 | 2005-08-04 | Nintendo Co Ltd | Game system employing touch panel input |
JP4376650B2 (en) | 2004-02-09 | 2009-12-02 | 任天堂株式会社 | GAME DEVICE AND GAME PROGRAM |
US7660472B2 (en) | 2004-02-10 | 2010-02-09 | Headplay (Barbados) Inc. | System and method for managing stereoscopic viewing |
US8094927B2 (en) | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
JP2005250950A (en) | 2004-03-05 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Marker presentation portable terminal, expanded sense of reality system, and its operation method |
JP2005286714A (en) | 2004-03-30 | 2005-10-13 | Nec Corp | Mobile phone |
JP4537104B2 (en) | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method |
JP3770497B2 (en) | 2004-03-31 | 2006-04-26 | 任天堂株式会社 | Portable game machine and game program |
JP2005353047A (en) | 2004-05-13 | 2005-12-22 | Sanyo Electric Co Ltd | Three-dimensional image processing method and three-dimensional image processor |
US7671916B2 (en) | 2004-06-04 | 2010-03-02 | Electronic Arts Inc. | Motion sensor using dual camera inputs |
JP2006024175A (en) | 2004-06-11 | 2006-01-26 | Doshisha | Mobile terminal and adapter |
JP4771671B2 (en) | 2004-07-16 | 2011-09-14 | シャープ株式会社 | Imaging device and imaging display device |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
JP2006060516A (en) | 2004-08-20 | 2006-03-02 | Sharp Corp | Foldable cellular phone |
JP3841806B2 (en) | 2004-09-01 | 2006-11-08 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
US7991220B2 (en) | 2004-09-01 | 2011-08-02 | Sony Computer Entertainment Inc. | Augmented reality game system using identification information to display a virtual object in association with a position of a real object |
JP4587166B2 (en) | 2004-09-14 | 2010-11-24 | キヤノン株式会社 | Moving body tracking system, photographing apparatus, and photographing method |
JP4302024B2 (en) | 2004-09-17 | 2009-07-22 | 株式会社ソニー・コンピュータエンタテインメント | Button structure, portable electronic device |
CN101308441B (en) * | 2004-10-12 | 2010-09-22 | 日本电信电话株式会社 | 3d display control method and 3d display control device |
JP4688473B2 (en) | 2004-11-02 | 2011-05-25 | 株式会社バンダイナムコゲームス | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
CN101080762A (en) | 2004-11-19 | 2007-11-28 | Daem交互有限公司 | Personal device and method with image-acquisition functions for the application of augmented reality resources |
JP2006165795A (en) * | 2004-12-03 | 2006-06-22 | Canon Inc | Image forming device and image forming method |
JP2006178900A (en) | 2004-12-24 | 2006-07-06 | Hitachi Displays Ltd | Stereoscopic image generating device |
WO2006081362A2 (en) | 2005-01-27 | 2006-08-03 | Aperio Technologies, Inc | Systems and methods for viewing three dimensional virtual slides |
JP2006271663A (en) | 2005-03-29 | 2006-10-12 | Namco Bandai Games Inc | Program, information storage medium, and image pickup and display device |
KR101086412B1 (en) | 2005-04-04 | 2011-11-25 | 삼성전자주식회사 | Stereo-scopic display apparatus capable of switching 2D/3D image |
BRPI0520196A2 (en) | 2005-04-25 | 2009-04-22 | Yappa Corp | 3d image generation and display system |
EP1720131B1 (en) | 2005-05-03 | 2009-04-08 | Seac02 S.r.l. | An augmented reality system with real marker object identification |
KR100662845B1 (en) | 2005-06-30 | 2007-01-02 | 삼성전자주식회사 | Memory card slot door and digital mobile apparatus having the same |
JP2007044244A (en) | 2005-08-10 | 2007-02-22 | Seiko Epson Corp | Display device, game machine and control method of display device |
CN101674415B (en) | 2005-09-09 | 2011-12-07 | 佳能株式会社 | Image pickup apparatus |
JP4508991B2 (en) | 2005-09-09 | 2010-07-21 | キヤノン株式会社 | Imaging device |
JP4358181B2 (en) * | 2005-11-11 | 2009-11-04 | 任天堂株式会社 | GAME PROGRAM AND GAME DEVICE |
US8189038B2 (en) | 2005-12-21 | 2012-05-29 | International Business Machines Corporation | Stereographic projection apparatus with passive eyewear utilizing a continuously variable polarizing element |
KR100754202B1 (en) | 2006-01-26 | 2007-09-03 | 삼성전자주식회사 | 3D image displaying apparatus and method using eye detection information |
JP2007206807A (en) | 2006-01-31 | 2007-08-16 | Nippon Hoso Kyokai <Nhk> | Image composing device and image composing program |
US20070210749A1 (en) | 2006-03-13 | 2007-09-13 | Jason Hsieh | Portable charger |
KR100893616B1 (en) | 2006-04-17 | 2009-04-20 | 삼성모바일디스플레이주식회사 | Electronic imaging device, 2d/3d image display device and the driving method thereof |
JP5011842B2 (en) | 2006-06-22 | 2012-08-29 | 株式会社ニコン | Image playback device |
KR100713220B1 (en) * | 2006-07-28 | 2007-05-02 | (주)블루비스 | 3d image editing apparatus and method thereof |
US8277316B2 (en) | 2006-09-14 | 2012-10-02 | Nintendo Co., Ltd. | Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting |
US20080071559A1 (en) | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
JP4796926B2 (en) | 2006-09-21 | 2011-10-19 | 株式会社ソニー・コンピュータエンタテインメント | Electronic device casing and electronic device |
WO2008038215A2 (en) | 2006-09-29 | 2008-04-03 | Koninklijke Philips Electronics N.V. | 3d connected shadow mouse pointer |
US8559705B2 (en) | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
JP2008146109A (en) | 2006-12-05 | 2008-06-26 | Canon Inc | Image processing method and image processor |
JP4692770B2 (en) | 2006-12-27 | 2011-06-01 | 富士フイルム株式会社 | Compound eye digital camera |
JP4757812B2 (en) * | 2007-02-20 | 2011-08-24 | 富士フイルム株式会社 | Stereoscopic imaging apparatus, method, and program |
KR101345303B1 (en) * | 2007-03-29 | 2013-12-27 | 삼성전자주식회사 | Dynamic depth control method or apparatus in stereo-view or multiview sequence images |
JP2007256960A (en) | 2007-04-12 | 2007-10-04 | Olympus Corp | Head wearing type video display apparatus |
US8305428B2 (en) | 2007-04-18 | 2012-11-06 | Inlife-Handnet Co., Ltd | Stereo video shooting and viewing device |
JP4892405B2 (en) | 2007-05-18 | 2012-03-07 | キヤノン株式会社 | Image processing apparatus and method |
EP2009868B1 (en) | 2007-06-29 | 2016-09-07 | Alcatel Lucent | Method and system for improving the appearance of a person on the RTP stream coming from a media terminal |
US20090027330A1 (en) | 2007-07-26 | 2009-01-29 | Konami Gaming, Incorporated | Device for using virtual mouse and gaming machine |
KR100927720B1 (en) | 2007-08-24 | 2009-11-18 | 삼성모바일디스플레이주식회사 | Electronic imaging equipment |
US8917985B2 (en) | 2007-08-29 | 2014-12-23 | Nintendo Co., Ltd. | Imaging apparatus |
US8177441B2 (en) | 2007-08-29 | 2012-05-15 | Nintendo Co., Ltd. | Imaging apparatus |
EP2039398B1 (en) | 2007-08-29 | 2016-05-04 | Nintendo Co., Ltd. | Imaging apparatus |
JP4260215B1 (en) * | 2007-08-29 | 2009-04-30 | 任天堂株式会社 | Imaging device |
JP4982862B2 (en) | 2007-09-07 | 2012-07-25 | 株式会社バンダイナムコゲームス | Program, information storage medium, and image generation system |
JP2009147863A (en) | 2007-12-18 | 2009-07-02 | Ricoh Co Ltd | Electronic device and method of displaying attitude angle |
US20090160936A1 (en) | 2007-12-21 | 2009-06-25 | Mccormack Kenneth | Methods and apparatus for operating a video camera assembly |
JP2009171064A (en) | 2008-01-11 | 2009-07-30 | Sharp Corp | Photographing device, cellular phone |
US20090181733A1 (en) | 2008-01-15 | 2009-07-16 | Sony Ericsson Mobile Communications Ab | Portable communication device having a multi-axis hinge assembly |
JP2009205556A (en) | 2008-02-28 | 2009-09-10 | Panasonic Corp | User interface device |
US20090275366A1 (en) * | 2008-05-05 | 2009-11-05 | Schilling Donald L | Personal portable communication devices with deployable display systems for three dimensional visual representations and/or privacy and methods of use |
JP2009278456A (en) | 2008-05-15 | 2009-11-26 | Hitachi Ltd | Video display device |
JP5045559B2 (en) * | 2008-06-02 | 2012-10-10 | 富士通モバイルコミュニケーションズ株式会社 | Mobile device |
JP5354975B2 (en) | 2008-06-27 | 2013-11-27 | キヤノン株式会社 | Recording apparatus and conveyance control method |
CN102099728A (en) | 2008-07-15 | 2011-06-15 | 株式会社Ip舍路信 | Naked eye three-dimensional video image display system, naked eye three-dimensional video image display device, amusement game machine and parallax barrier sheet |
US8237807B2 (en) | 2008-07-24 | 2012-08-07 | Apple Inc. | Image capturing device with touch screen for adjusting camera settings |
USD603363S1 (en) | 2008-08-18 | 2009-11-03 | Samsung Electronics, Ltd. | Mobile phone |
EP2157545A1 (en) | 2008-08-19 | 2010-02-24 | Sony Computer Entertainment Europe Limited | Entertainment device, system and method |
US20100048290A1 (en) | 2008-08-19 | 2010-02-25 | Sony Computer Entertainment Europe Ltd. | Image combining method, system and apparatus |
JP4895312B2 (en) | 2008-08-27 | 2012-03-14 | 富士フイルム株式会社 | Three-dimensional display device, method and program |
JP5358152B2 (en) | 2008-10-03 | 2013-12-04 | 任天堂株式会社 | Handheld information processing device |
US8345956B2 (en) | 2008-11-03 | 2013-01-01 | Microsoft Corporation | Converting 2D video into stereo video |
KR20100050103A (en) | 2008-11-05 | 2010-05-13 | 엘지전자 주식회사 | Method of controlling 3 dimension individual object on map and mobile terminal using the same |
KR20100053349A (en) | 2008-11-12 | 2010-05-20 | 엘지전자 주식회사 | Touch module, fabaricating method thereof, and portable terminal having the same |
WO2010061689A1 (en) | 2008-11-26 | 2010-06-03 | 日本電気株式会社 | Display device, terminal device, and display method |
JP4653212B2 (en) | 2008-12-25 | 2011-03-16 | 富士通株式会社 | Folding mobile phone |
JP4834116B2 (en) | 2009-01-22 | 2011-12-14 | 株式会社コナミデジタルエンタテインメント | Augmented reality display device, augmented reality display method, and program |
JP2010226362A (en) | 2009-03-23 | 2010-10-07 | Fujifilm Corp | Imaging apparatus and control method thereof |
JP5320133B2 (en) | 2009-03-31 | 2013-10-23 | 株式会社エヌ・ティ・ティ・ドコモ | Information presentation system, information presentation server, communication terminal, and information presentation method |
US8493384B1 (en) | 2009-04-01 | 2013-07-23 | Perceptive Pixel Inc. | 3D manipulation using applied pressure |
US20100257252A1 (en) | 2009-04-01 | 2010-10-07 | Microsoft Corporation | Augmented Reality Cloud Computing |
JP5409107B2 (en) | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | Display control program, information processing apparatus, display control method, and information processing system |
JP4864117B2 (en) | 2009-05-22 | 2012-02-01 | 株式会社スクウェア・エニックス | Image generating apparatus and method, program, and recording medium |
KR101719980B1 (en) | 2010-06-22 | 2017-03-27 | 엘지전자 주식회사 | Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method |
KR101615238B1 (en) | 2009-07-21 | 2016-05-12 | 삼성전자주식회사 | Image processing apparatus and method |
JP2011035592A (en) | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | Display control program and information processing system |
US8715031B2 (en) | 2009-08-06 | 2014-05-06 | Peter Sui Lun Fong | Interactive device with sound-based action synchronization |
JP5405264B2 (en) | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | Display control program, library program, information processing system, and display control method |
JP4754031B2 (en) | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | Display control program, information processing system, and program used for stereoscopic display control |
TWI459796B (en) | 2009-12-29 | 2014-11-01 | Ind Tech Res Inst | A method and a device for generating a multi-views three-dimensional (3d) stereoscopic image |
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP5898842B2 (en) | 2010-01-14 | 2016-04-06 | 任天堂株式会社 | Portable information processing device, portable game device |
JP2011145609A (en) | 2010-01-18 | 2011-07-28 | Clarion Co Ltd | Map display apparatus and map display method |
US20110185299A1 (en) | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Stamp Gestures |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8751970B2 (en) | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
JP5800501B2 (en) | 2010-03-12 | 2015-10-28 | 任天堂株式会社 | Display control program, display control apparatus, display control system, and display control method |
US9192286B2 (en) | 2010-03-12 | 2015-11-24 | Viking Systems, Inc. | Stereoscopic visualization system |
JP5872185B2 (en) | 2010-05-27 | 2016-03-01 | 任天堂株式会社 | Portable electronic devices |
US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
JP5647819B2 (en) | 2010-06-11 | 2015-01-07 | 任天堂株式会社 | Portable electronic devices |
JP6021296B2 (en) | 2010-12-16 | 2016-11-09 | 任天堂株式会社 | Display control program, display control device, display control system, and display control method |
-
2011
- 2011-01-11 EP EP20110150625 patent/EP2355526A3/en not_active Withdrawn
- 2011-01-12 JP JP2011003949A patent/JP2011166754A/en active Pending
- 2011-01-14 US US13/007,038 patent/US9128293B2/en active Active
-
2013
- 2013-12-26 US US14/140,923 patent/US9696555B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109572429A (en) * | 2011-09-03 | 2019-04-05 | 大众汽车有限公司 | For especially providing the method and apparatus of user interface in a motor vehicle |
JP2013070286A (en) * | 2011-09-22 | 2013-04-18 | Nintendo Co Ltd | Display control program, display control system, display control apparatus, and display control method |
JP2013257621A (en) * | 2012-06-11 | 2013-12-26 | Nintendo Co Ltd | Image display system, puzzle game system, image display method, puzzle game method, image display device, puzzle game device, image display program and puzzle game program |
JP2016146656A (en) * | 2016-03-24 | 2016-08-12 | 任天堂株式会社 | Display control program, display control system, display control device, and display control method |
KR20180117433A (en) * | 2017-04-19 | 2018-10-29 | 주식회사 넥슨코리아 | Method and system for testing stereo-scopic image |
KR102374424B1 (en) * | 2017-04-19 | 2022-03-14 | 주식회사 넥슨코리아 | Method and system for testing stereo-scopic image |
WO2020105272A1 (en) * | 2018-11-21 | 2020-05-28 | 株式会社デンソー | Virtual image display device and fused image adjustment operation device |
JP2020086069A (en) * | 2018-11-21 | 2020-06-04 | 株式会社デンソー | Virtual image display device and fusion adjustment operation device |
Also Published As
Publication number | Publication date |
---|---|
US9696555B2 (en) | 2017-07-04 |
US20140104684A1 (en) | 2014-04-17 |
US9128293B2 (en) | 2015-09-08 |
EP2355526A2 (en) | 2011-08-10 |
EP2355526A3 (en) | 2012-10-31 |
US20110221866A1 (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5898842B2 (en) | Portable information processing device, portable game device | |
JP2011166754A (en) | Display control program, display control apparatus, display control system, and display control method | |
JP5689707B2 (en) | Display control program, display control device, display control system, and display control method | |
JP5800501B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
JP5725902B2 (en) | Image processing program, image processing apparatus, image processing method, and image processing system | |
US20130057574A1 (en) | Storage medium recorded with program, information processing apparatus, information processing system, and information processing method | |
TW201336294A (en) | Stereoscopic imaging system and method thereof | |
JP2012065801A (en) | Display control program, display control apparatus, display control method, and display control system | |
JP2011172253A (en) | Display control program, display controller, display control system, and display control method | |
US20120133641A1 (en) | Hand-held electronic device | |
JP5876983B2 (en) | Display control program, display control device, display control method, and display control system | |
JP5723149B2 (en) | Image processing system, image processing program, image processing method, and image processing apparatus | |
JP5785732B2 (en) | Information processing program, imaging apparatus, imaging method, and imaging system | |
JP5770018B2 (en) | Display control program, display control apparatus, display control method, and display control system | |
JP5439460B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
JP2020108112A (en) | Electronic apparatus and method for controlling the same | |
JP2012175358A (en) | Display control program, display control device, display control method and display control system | |
JP7427739B2 (en) | display device | |
EP2650844B1 (en) | Information processing apparatus, information processing program, and information processing method and system | |
JP2020108111A (en) | Electronic device and control method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20111111 |