JP2011166754A - Display control program, display control apparatus, display control system, and display control method - Google Patents

Display control program, display control apparatus, display control system, and display control method Download PDF

Info

Publication number
JP2011166754A
JP2011166754A JP2011003949A JP2011003949A JP2011166754A JP 2011166754 A JP2011166754 A JP 2011166754A JP 2011003949 A JP2011003949 A JP 2011003949A JP 2011003949 A JP2011003949 A JP 2011003949A JP 2011166754 A JP2011166754 A JP 2011166754A
Authority
JP
Japan
Prior art keywords
eye image
image
display
display control
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011003949A
Other languages
Japanese (ja)
Inventor
Keizo Ota
敬三 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011003949A priority Critical patent/JP2011166754A/en
Publication of JP2011166754A publication Critical patent/JP2011166754A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display control apparatus, a display control program, and a display control system, which allow a user to easily adjust a three-dimensional effect of an image. <P>SOLUTION: An image display apparatus includes: a stereoscopic image display apparatus configured to display a stereoscopic image, and a planar image display apparatus configured to display a planar image. An adjustment section of the image display apparatus adjusts relative positions, relative sizes, and relative rotations of a left-eye image taken by a left-eye image imaging section and a right-eye image taken by a right-eye image imaging section. The adjusted left-eye image and the adjusted right-eye image are viewed by the left eye and the right eye of the user, respectively, thereby displaying the stereoscopic image on the stereoscopic image display apparatus. The adjusted left-eye image and the adjusted right-eye image are made semi-transparent and superimposed one on the other, and thus a resulting superimposed planar image is displayed on the planar image display apparatus. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、立体表示可能な表示装置に立体画像を表示した場合に、立体の見え方を調整することが可能な表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法に関する。   The present invention relates to a display control program, a display control device, a display control system, and a display control method capable of adjusting the appearance of a stereoscopic image when a stereoscopic image is displayed on a display device capable of stereoscopic display.

従来、互いに視差を有する右目用画像と左目用画像とを用いて、立体画像を表示させる立体画像表示装置が存在する。具体的には、立体画像表示装置では、ユーザの右目に右目用画像を、ユーザの左目に左目用画像を視認させることにより、立体感のある画像を画面に表示させる。このような立体画像表示装置において、表示される画像の立体感を調整する装置が存在する。例えば、特許文献1に記載の装置では、撮像された右目用画像と左目用画像との表示画面上における位置、大きさ、及び、回転を調整することにより、表示される画像の立体感を調整している。具体的には、特許文献1に記載の装置では、右目用画像と左目用画像とが重ね合わされて1つの画面に表示され、ユーザは、当該画面上に表示された2つの画像の位置や回転等を調整する。そして、ユーザは、2つの画像を調整した後、立体画像として表示させ、当該画像の立体感を確認する。   Conventionally, there is a stereoscopic image display device that displays a stereoscopic image using a right-eye image and a left-eye image that have parallax. Specifically, in a stereoscopic image display device, a right-eye image is visually recognized on the user's right eye and a left-eye image is visually recognized on the user's left eye, thereby displaying a stereoscopic image on the screen. In such a stereoscopic image display device, there is a device that adjusts the stereoscopic effect of the displayed image. For example, in the apparatus described in Patent Document 1, the stereoscopic effect of the displayed image is adjusted by adjusting the position, size, and rotation of the captured right-eye image and left-eye image on the display screen. is doing. Specifically, in the apparatus described in Patent Document 1, the right-eye image and the left-eye image are superimposed and displayed on one screen, and the user can position and rotate the two images displayed on the screen. Adjust etc. Then, after adjusting the two images, the user displays them as a stereoscopic image and confirms the stereoscopic effect of the images.

特開2003−264851号公報JP 2003-264851 A

しかしながら、特許文献1に記載の装置では、ユーザは、画面に立体表示させながら同時に右目用画像と左目用画像との位置や回転等を調整することはできない。すなわち、特許文献1に記載の装置では、ユーザは、画面に表示された平面的に重ね合わされた2つの画像の位置等を調整した後、当該2つの画像を立体表示させて画像の立体感を確認する。重ね合わされた2つの画像を調整する際には、立体表示した場合の画像の立体感を確認することができなかった。一方、画面に立体表示をさせた状態では、ユーザは、立体表示が見難い状態で調整しなければならず、また、2つの画像を個別に視認し難い。従って、画面に立体表示をさせたままでは、調整が困難であった。   However, in the apparatus described in Patent Document 1, the user cannot adjust the position, rotation, and the like of the right-eye image and the left-eye image at the same time while stereoscopically displaying on the screen. That is, in the apparatus described in Patent Document 1, after the user adjusts the position and the like of two images superimposed on a plane displayed on the screen, the two images are stereoscopically displayed to give a stereoscopic effect to the images. Check. When adjusting the two superimposed images, it was not possible to confirm the stereoscopic effect of the image in the case of stereoscopic display. On the other hand, in the state in which the stereoscopic display is displayed on the screen, the user has to make adjustments in a state in which the stereoscopic display is difficult to see, and it is difficult to visually recognize the two images individually. Therefore, it is difficult to make adjustments while the stereoscopic display is left on the screen.

それ故、本発明の目的は、ユーザが容易に画像の立体感を調整することが可能な表示制御装置、表示制御プログラム、及び、表示制御システムを提供することである。   Therefore, an object of the present invention is to provide a display control device, a display control program, and a display control system that allow a user to easily adjust the stereoscopic effect of an image.

本発明は、上記の課題を解決するために、以下の構成を採用した。   The present invention employs the following configuration in order to solve the above problems.

本発明は、互いに視差を有する右目用画像と左目用画像とを用いて、立体表示可能な第1の表示手段に立体画像を表示させる表示制御装置のコンピュータにおいて実行される表示制御プログラムである。表示制御プログラムは、上記コンピュータを調整手段、第1の表示制御手段、第2の表示制御手段として機能させる。調整手段は、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する。第1の表示制御手段は、上記調整手段で調整された右目用画像をユーザの右目に、上記調整手段で調整された左目用画像を該ユーザの左目に視認させるように上記第1の表示手段に表示させることにより、上記第1の表示手段に立体画像を表示させる。第2の表示制
御手段は、上記調整手段で調整された右目用画像と上記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる。
The present invention is a display control program that is executed in a computer of a display control apparatus that displays a stereoscopic image on a first display capable of stereoscopic display using a right-eye image and a left-eye image that have parallax with each other. The display control program causes the computer to function as adjusting means, first display control means, and second display control means. The adjusting means adjusts at least one of the relative position, size, and rotation of the right-eye image and the left-eye image. The first display control means is configured to cause the right eye image adjusted by the adjustment means to be visually recognized by the user's right eye and the left eye image adjusted by the adjustment means to be visually recognized by the user's left eye. To display a stereoscopic image on the first display means. The second display control means superimposes the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means, and displays the superimposed planar image on the second display means capable of flat display. Display.

上記によれば、右目用画像と左目用画像とを用いて第1の表示手段に立体画像を表示させ、右目用画像と左目用画像とを重ね合わせた平面画像を第2の表示手段にすることができる。また、右目用画像と左目用画像との位置、大きさ、及び、回転を調整することができる。これにより、ユーザは、第1の表示手段に表示された立体画像を確認しながら、第2の表示手段に表示された右目用画像と左目用画像との位置、大きさ、及び、回転を調整することができる。   According to the above, a stereoscopic image is displayed on the first display means using the right-eye image and the left-eye image, and a planar image obtained by superimposing the right-eye image and the left-eye image is used as the second display means. be able to. Further, the position, size, and rotation of the right-eye image and the left-eye image can be adjusted. Accordingly, the user adjusts the position, size, and rotation of the right-eye image and the left-eye image displayed on the second display unit while confirming the stereoscopic image displayed on the first display unit. can do.

また、本発明では、上記第1の表示制御手段は、上記調整手段で調整された右目用画像と上記調整手段で調整された左目用画像とを重ね合わせた場合に、重なり合う部分である重複領域のみの上記立体画像を上記第1の表示手段に表示させてもよい。この場合において、上記第2の表示制御手段は、上記調整手段で調整された右目用画像と左目用画像との重複領域とともに、該右目用画像と左目用画像とが重なり合わない部分である非重複領域を上記第2の表示手段に表示させる。   Further, in the present invention, the first display control unit includes an overlapping region that is an overlapping portion when the right-eye image adjusted by the adjusting unit and the left-eye image adjusted by the adjusting unit are overlapped. Only the three-dimensional image may be displayed on the first display means. In this case, the second display control means is a non-overlapping part of the right-eye image and the left-eye image together with the overlapping area of the right-eye image and the left-eye image adjusted by the adjusting means. The overlapping area is displayed on the second display means.

上記によれば、ユーザは、第2の表示手段に表示された右目用画像及び左目用画像が重なり合う部分と重なり合わない部分とを確認しながら、第1の表示手段に表示される立体画像を調整することができる。第1の表示手段には、右目用画像及び左目用画像が重なり合う部分のみが表示されるため、第1の表示手段に表示される立体画像は違和感のない画像となる。一方、第2の表示手段には重なり合う部分と重なり合わない部分とが表示されるため、ユーザは、2つの画像に表示された撮像対象の位置関係を容易に把握することができる。また、例えば、重なり合わない部分にユーザが視認を所望する撮像対象が存在する場合でも、ユーザは、第2の表示手段に表示された画像を見ながら容易に右目用画像及び左目用画像を調整することができる。   According to the above, the user checks the stereoscopic image displayed on the first display unit while confirming the overlapping portion and the non-overlapping portion of the right-eye image and the left-eye image displayed on the second display unit. Can be adjusted. Since only the portion where the right-eye image and the left-eye image overlap is displayed on the first display means, the stereoscopic image displayed on the first display means is an image with no sense of incongruity. On the other hand, since the overlapping portion and the non-overlapping portion are displayed on the second display means, the user can easily grasp the positional relationship between the imaging targets displayed in the two images. Further, for example, even when there is an imaging target that the user desires to view in a portion that does not overlap, the user can easily adjust the right-eye image and the left-eye image while viewing the image displayed on the second display unit. can do.

また、本発明では、上記第1の表示制御手段は、上記右目用画像及び上記左目用画像の双方の大きさを変更することにより、上記立体画像をズームしてもよい。   In the present invention, the first display control means may zoom the stereoscopic image by changing the size of both the right-eye image and the left-eye image.

上記によれば、第1の表示手段に表示される立体画像をズームすることができる。   Based on the above, it is possible to zoom the stereoscopic image displayed on the first display means.

また、本発明では、上記第1の表示制御手段は、上記右目用画像及び上記左目用画像の双方の位置を変更することにより、上記立体画像をスクロールしてもよい。   In the present invention, the first display control means may scroll the stereoscopic image by changing the positions of both the right-eye image and the left-eye image.

上記によれば、第1の表示手段に表示される立体画像をスクロールすることができる。   Based on the above, the stereoscopic image displayed on the first display means can be scrolled.

また、本発明では、上記第1の表示制御手段が上記立体画像をズーム及び/又はスクロールする場合において、上記第2の表示制御手段は、上記右目用画像及び上記左目用画像の双方の全体を上記第2の表示手段に表示させてもよい。   Further, in the present invention, when the first display control unit zooms and / or scrolls the stereoscopic image, the second display control unit performs both of the right-eye image and the left-eye image as a whole. You may display on the said 2nd display means.

上記によれば、第1の表示手段に表示される立体画像をズームしたり、スクロールしたりする場合でも、第2の表示手段に右目用画像及び左目用画像の全体を表示させることができる。これにより、立体画像がズームされたり、スクロールされたりすることで立体画像の一部のみが第1の表示手段に表示される場合でも、ユーザは、第2の表示手段で右目用画像及び左目用画像の全体を確認することができる。   According to the above, even when the stereoscopic image displayed on the first display unit is zoomed or scrolled, the entire right-eye image and left-eye image can be displayed on the second display unit. Accordingly, even when only a part of the stereoscopic image is displayed on the first display unit by zooming or scrolling the stereoscopic image, the user can use the second display unit to display the right-eye image and the left-eye image. The entire image can be confirmed.

また、本発明では、上記第2の表示制御手段は、上記第1の表示制御手段によって上記立体画像がズーム又はスクロールされることによって、上記第1の表示手段に上記立体画像の一部が表示される場合、立体画像表示枠を上記第2の表示手段に表示させてもよい。
ここで、立体画像表示枠は、当該立体画像の一部に対応する上記右目用画像及び上記左目用画像の領域を示す。
In the present invention, the second display control unit displays a part of the stereoscopic image on the first display unit by zooming or scrolling the stereoscopic image by the first display control unit. In such a case, the stereoscopic image display frame may be displayed on the second display means.
Here, the stereoscopic image display frame indicates a region of the right-eye image and the left-eye image corresponding to a part of the stereoscopic image.

上記によれば、ユーザは、第2の表示手段に表示された右目用画像及び左目用画像のどの領域が立体画像として第1の表示手段に表示されているかを容易に認識することができる。すなわち、第1の表示手段に表示される立体画像がズームされたり、スクロールされたりすることで、立体画像の一部のみが第1の表示手段に表示される場合、ユーザは、どの領域が立体表示されているかを認識し難い場合がある。しかしながら、第2の表示手段に立体画像表示枠を表示することで、ユーザは、右目用画像及び左目用画像の全体のうち、どの領域が立体表示されているかを容易に認識することができる。   Based on the above, the user can easily recognize which region of the right-eye image and the left-eye image displayed on the second display means is displayed on the first display means as a stereoscopic image. That is, when only a part of the stereoscopic image is displayed on the first display unit by zooming or scrolling the stereoscopic image displayed on the first display unit, the user can determine which region is stereoscopic. It may be difficult to recognize whether it is displayed. However, by displaying the stereoscopic image display frame on the second display unit, the user can easily recognize which region is stereoscopically displayed among the entire right-eye image and left-eye image.

また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。この場合において、表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段に第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する。そして、上記調整手段は、上記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する。   In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. In this case, the display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means displays the first adjustment bar on the second display means, and adjusts the slider of the first adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. Then, the adjusting means has a relative position and size of the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means. And at least any one of rotation is adjusted.

上記によれば、ユーザは、指示座標検出手段を用いて画面に表示された第1の調整バーを調整することで、右目用画像と左目用画像との相対的な位置、大きさ、及び、回転を調整することができる。例えば、ユーザは、タッチパネルを用いて、右目用画像と左目用画像とを調整することができる。これにより、ユーザは、直感的な操作で立体画像の見え方を調整することができる。   According to the above, the user adjusts the first adjustment bar displayed on the screen using the designated coordinate detection unit, so that the relative position, size, and size of the right-eye image and the left-eye image, and The rotation can be adjusted. For example, the user can adjust the right-eye image and the left-eye image using the touch panel. Thereby, the user can adjust the appearance of the stereoscopic image by an intuitive operation.

また、本発明では、表示制御プログラムは、第2調整バー制御手段として上記コンピュータをさらに機能させてもよい。第2調整バー制御手段は、上記第2の表示手段に第2の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第2の調整バーのスライダを調整する。上記第1の表示制御手段は、上記第2調整バー制御手段によって調整された第2の調整バーのスライダの位置に応じて、上記立体画像をズームする。   In the present invention, the display control program may further cause the computer to function as second adjustment bar control means. The second adjustment bar control means displays the second adjustment bar on the second display means, and adjusts the slider of the second adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. The first display control means zooms the stereoscopic image in accordance with the position of the slider of the second adjustment bar adjusted by the second adjustment bar control means.

上記によれば、ユーザは、指示座標検出手段を用いて画面に表示された第2の調整バーを調整することで、第1の表示手段に表示される立体画像をズームすることができる。   According to the above, the user can zoom the stereoscopic image displayed on the first display unit by adjusting the second adjustment bar displayed on the screen using the designated coordinate detection unit.

また、本発明では、表示制御プログラムは、方向検出手段として上記コンピュータをさらに機能させてもよい。方向検出手段は、上記指示座標検出手段が検出する指示座標に基づいて、ユーザによって入力された方向を検出する。上記第1の表示制御手段は、上記方向検出手段によって検出された方向に基づいて、上記立体画像をスクロールさせる。   In the present invention, the display control program may further cause the computer to function as direction detection means. The direction detecting means detects the direction input by the user based on the designated coordinates detected by the designated coordinate detecting means. The first display control means scrolls the stereoscopic image based on the direction detected by the direction detection means.

上記によれば、指示座標検出手段を用いてユーザによって入力された方向を検出することができる。そして、検出された方向に基づいて、立体画像をスクロールさせることができる。これにより、ユーザは、指示座標検出手段を用いて容易に立体画像をスクロールさせることができる。   According to the above, it is possible to detect the direction input by the user using the designated coordinate detection means. Then, the stereoscopic image can be scrolled based on the detected direction. Accordingly, the user can easily scroll the stereoscopic image using the designated coordinate detection unit.

また、本発明では、上記第2の表示制御手段は、上記右目用画像及び上記左目用画像を表示する画像表示領域を上記第2の表示手段に設定してもよい。この場合において、上記画像表示領域のアスペクト比における横幅の割合は、上記右目用画像及び上記左目用画像のアスペクト比における横幅の割合よりも大きい。   In the present invention, the second display control means may set an image display area for displaying the right-eye image and the left-eye image in the second display means. In this case, the ratio of the width in the aspect ratio of the image display area is larger than the ratio of the width in the aspect ratio of the right-eye image and the left-eye image.

上記によれば、画像表示領域を右目用画像及び左目用画像よりも横長に設定することができる。これにより、例えば、右目用画像及び左目用画像の位置を画面の横方向に調整しても、右目用画像及び左目用画像の全体を画面に表示させることができ、ユーザにとって横方向の調整が容易になる。   According to the above, the image display area can be set to be horizontally longer than the right-eye image and the left-eye image. As a result, for example, even if the positions of the right-eye image and the left-eye image are adjusted in the horizontal direction of the screen, the entire right-eye image and the left-eye image can be displayed on the screen. It becomes easy.

また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段の画面における上記画像表示領域とは異なる領域に、上記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該スライダを調整する。上記調整手段は、上記第1調整バー制御手段によって調整されたスライダの位置に応じて、上記右目用画像及び/又は上記左目用画像を横方向にずらす。   In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. The display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means has a first adjustment bar having a slider that is movable in a horizontal direction of the screen of the second display means in a region different from the image display area on the screen of the second display means. Is displayed, and the slider is adjusted in accordance with the designated coordinates detected by the designated coordinate detecting means. The adjustment means shifts the right-eye image and / or the left-eye image in the horizontal direction according to the position of the slider adjusted by the first adjustment bar control means.

上記によれば、ユーザは、第1の調整バーを用いて、右目用画像及び/又は左目用画像の位置を横方向にずらすことができる。これにより、ユーザは、直感的な操作で右目用画像及び/又は左目用画像の位置を調整することができ、立体画像の見え方を容易に調整することができる。また、上記画像表示領域は、横長の画面であるため、ユーザは、右目用画像及び/又は左目用画像を画面の横方向にずらしても、右目用画像及び左目用画像の全体を認識することができる。   According to the above, the user can shift the position of the right-eye image and / or the left-eye image in the horizontal direction using the first adjustment bar. Accordingly, the user can adjust the position of the right-eye image and / or the left-eye image with an intuitive operation, and can easily adjust the appearance of the stereoscopic image. In addition, since the image display area is a horizontally long screen, the user can recognize the entire right-eye image and left-eye image even if the right-eye image and / or left-eye image is shifted in the horizontal direction of the screen. Can do.

また、本発明では、前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。表示制御プログラムは、第1調整バー制御手段として上記コンピュータをさらに機能させる。第1調整バー制御手段は、上記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを上記第2の表示手段に表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダの位置を調整する。また、第1調整バー制御手段は、上記指示座標検出手段が検出する指示座標に応じて、上記第1の調整バー自体を上記スライダの可動範囲よりも小さい範囲で上記第2の表示手段の画面の縦方向に移動させる。上記調整手段は、上記第1調整バー制御手段によって上記スライダが横方向に移動された場合は、当該スライダの移動量に応じて、上記右目用画像及び/又は上記左目用画像を横方向にずらす。また、上記調整手段は、上記第1調整バー制御手段によって上記第1の調整バーが縦方向に移動された場合は、当該第1の調整バーの移動量に応じて、上記右目用画像及び/又は上記左目用画像を縦方向にずらす。   In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to a display position of the second display unit. The display control program causes the computer to further function as first adjustment bar control means. The first adjustment bar control means displays on the second display means a first adjustment bar having a slider that can move in the horizontal direction of the screen of the second display means, and is detected by the indicated coordinate detection means. The position of the slider of the first adjustment bar is adjusted according to the designated coordinates. Further, the first adjustment bar control means moves the first adjustment bar itself on the screen of the second display means within a range smaller than the movable range of the slider in accordance with the designated coordinates detected by the designated coordinate detection means. Move vertically. When the slider is moved in the horizontal direction by the first adjustment bar control means, the adjustment means shifts the right-eye image and / or the left-eye image in the horizontal direction according to the movement amount of the slider. . Further, the adjusting means may be arranged such that, when the first adjusting bar is moved in the vertical direction by the first adjusting bar control means, the right eye image and / or the right eye image and / or the right eye according to the movement amount of the first adjusting bar. Alternatively, the left-eye image is shifted in the vertical direction.

上記によれば、ユーザは、第1の調整バーを用いて、右目用画像及び/又は左目用画像を横方向及び縦方向にずらすことができる。また、第1の調整バーの縦方向の可動範囲は、第1の調整バーのスライダの横方向の可動範囲よりも狭く設定される。第1の調整バーのスライダの横方向への移動量に応じて、右目用画像及び/又は左目用画像は横方向にずらされる。また、第1の調整バーの縦方向への移動量に応じて、右目用画像及び/又は左目用画像は縦方向にずらされる。従って、ユーザは、直感的な操作で、右目用画像及び/又は左目用画像の横方向の位置を調整し易い。また、ユーザは、右目用画像及び/又は左目用画像の縦方向の位置を微調整することが可能である。   According to the above, the user can shift the image for the right eye and / or the image for the left eye in the horizontal direction and the vertical direction using the first adjustment bar. Further, the movable range in the vertical direction of the first adjustment bar is set to be narrower than the movable range in the horizontal direction of the slider of the first adjustment bar. The right-eye image and / or the left-eye image are shifted in the horizontal direction according to the amount of horizontal movement of the slider of the first adjustment bar. Further, the right-eye image and / or the left-eye image are shifted in the vertical direction according to the amount of movement of the first adjustment bar in the vertical direction. Therefore, the user can easily adjust the horizontal position of the right-eye image and / or the left-eye image with an intuitive operation. The user can finely adjust the position in the vertical direction of the right-eye image and / or the left-eye image.

また、本発明では、上記調整手段は、上記右目用画像と上記左目用画像との相対的な位置を、横方向に第1の範囲で調整可能であり、縦方向に該第1の範囲よりも小さい第2の範囲で調整可能であってもよい。   In the present invention, the adjusting means can adjust the relative positions of the right-eye image and the left-eye image in the first range in the horizontal direction, and from the first range in the vertical direction. May be adjustable within a small second range.

上記によれば、ユーザは、右目用画像及び/又は左目用画像の位置を表示画面の横方向に調整することができ、横方向よりも狭い範囲で縦方向にも調整することができる。   According to the above, the user can adjust the position of the right-eye image and / or the left-eye image in the horizontal direction of the display screen, and can also adjust the vertical direction in a narrower range than the horizontal direction.

また、本発明では、上記表示制御装置には、上記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続されてもよい。この場合において、表示制御プログラムは、上記コンピュータを第1調整バー制御手段としてさらに機能させてもよい。第1調整バー制御手段は、上記第2の表示手段に第1の調整バーを表示させ、上記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する。上記調整手段は、上記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、上記右目用画像と上記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整し、該調整した量を上記立体画像毎に記憶手段に記憶する。   In the present invention, the display control device may be connected to an instruction coordinate detection unit that detects an instruction coordinate corresponding to the display position of the second display unit. In this case, the display control program may further cause the computer to function as first adjustment bar control means. The first adjustment bar control means displays the first adjustment bar on the second display means, and adjusts the slider of the first adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. The adjusting means has a relative position, size, and size of the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means; At least one of the rotations is adjusted, and the adjusted amount is stored in the storage unit for each stereoscopic image.

上記によれば、第1の調整バーで調整された、右目用画像と左目用画像との相対的な位置、大きさ、回転に関する調整量を記憶手段に記憶することができる。これにより、例えば、調整された画像を他の機器で読み取って表示させることにより、調整後の立体画像を当該他の機器で表示させることができる。   According to the above, it is possible to store the adjustment amount relating to the relative position, size, and rotation of the image for the right eye and the image for the left eye, adjusted with the first adjustment bar, in the storage unit. Thereby, for example, the adjusted stereoscopic image can be displayed on the other device by reading and displaying the adjusted image on the other device.

また、本発明では、前記表示制御装置は、ステレオカメラを備えてもよい。   In the present invention, the display control device may include a stereo camera.

上記によれば、表示制御装置に備えられたステレオカメラによって撮像された右目用画像及び左目用画像を用いて、立体画像を調整することができる。   Based on the above, it is possible to adjust the stereoscopic image using the right-eye image and the left-eye image captured by the stereo camera provided in the display control device.

また、本発明では、表示制御装置は、上記第1の表示手段及び上記第2の表示手段と一体として構成され、上記第1の表示手段と上記第2の表示手段とが折り畳み可能な携帯型表示装置であってもよい。   Further, in the present invention, the display control device is configured integrally with the first display unit and the second display unit, and the first display unit and the second display unit can be folded. It may be a display device.

上記によれば、立体表示と平面表示が可能な、折り畳み可能な携帯型の表示装置を提供することができる。   According to the above, it is possible to provide a foldable portable display device capable of stereoscopic display and flat display.

また、本発明では、表示制御装置は、上記右目用画像と上記左目用画像とを記憶する記憶手段と着脱自在に接続されてもよい。   In the present invention, the display control device may be detachably connected to storage means for storing the right-eye image and the left-eye image.

上記によれば、例えば、他の機器で撮像した右目用画像と左目用画像とを上記記憶手段に記憶し、上記表示制御装置に読み込むことができる。   According to the above, for example, the right-eye image and the left-eye image captured by another device can be stored in the storage unit and read into the display control device.

また、本発明では、表示制御装置は、上記右目用画像と上記左目用画像とを送受信可能な通信手段を備えてもよい。   In the present invention, the display control apparatus may include a communication unit capable of transmitting and receiving the right-eye image and the left-eye image.

上記によれば、例えば、他の機器で撮像した右目用画像と左目用画像とを上記通信手段を用いて、上記表示制御装置に取り込むことができる。   According to the above, for example, the right-eye image and the left-eye image captured by another device can be taken into the display control device using the communication unit.

また、本発明では、表示制御装置は、所定方向に位置を調整可能なスライダを備えてもよい。表示制御プログラムは、モード選択手段として上記コンピュータをさらに機能させる。モード選択手段は、既に撮像された右目用画像と左目用画像とを用いる第1のモードと、2台の仮想カメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択する。第1の表示制御手段は、上記モード選択手段で上記第1のモードが選択されている場合、上記既に撮像された右目用画像と左目用画像とを用いて上記立体画像を表示させる。また、第1の表示制御手段は、上記モード選択手段で上記第2のモードが選択されている場合、上記スライダの位置に応じて、上記仮想カメラ間の距離を調整し、該距離を調整された2台の仮想カメラで上記仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示させる。   In the present invention, the display control device may include a slider whose position can be adjusted in a predetermined direction. The display control program causes the computer to further function as mode selection means. The mode selection means uses a first mode that uses a right-eye image and a left-eye image that have already been captured, and a second mode that uses a right-eye image and a left-eye image obtained by capturing a virtual space with two virtual cameras. And select. When the first mode is selected by the mode selection unit, the first display control unit displays the stereoscopic image using the already-captured right-eye image and left-eye image. The first display control means adjusts the distance between the virtual cameras according to the position of the slider and adjusts the distance when the second mode is selected by the mode selection means. The stereoscopic image is displayed using the right-eye image and the left-eye image obtained by imaging the virtual space with the two virtual cameras.

上記によれば、ユーザは、上記表示制御装置を第1のモードと第2のモードとで動作させることができ、これらのモードを選択することができる。第1のモードでは、既に撮像された画像を用いて立体画像を表示させることができる。第2のモードでは、仮想空間に存在する仮想ステレオカメラのカメラ間距離を、スライダを用いて調整することができる。これにより、ユーザは、仮想ステレオカメラの視差を調整することができ、立体画像の見え方を調整することができる。することができる。   Based on the above, the user can operate the display control device in the first mode and the second mode, and can select these modes. In the first mode, a stereoscopic image can be displayed using an already captured image. In the second mode, the inter-camera distance of the virtual stereo camera existing in the virtual space can be adjusted using the slider. Thereby, the user can adjust the parallax of the virtual stereo camera, and can adjust the appearance of the stereoscopic image. can do.

また、本発明では、上記第1の表示制御手段は、上記モード選択手段で上記第1のモードが選択されている場合において、上記スライダの位置が所定の位置である場合のみ、上記立体画像を表示させてもよい。   Further, in the present invention, the first display control means displays the stereoscopic image only when the position of the slider is a predetermined position when the first mode is selected by the mode selection means. It may be displayed.

上記によれば、第1モードが選択されている場合において、ユーザは、スライダの位置に応じて第1の表示手段に立体画像を表示させる/させないを制御することができる。   According to the above, when the first mode is selected, the user can control whether or not to display the stereoscopic image on the first display unit according to the position of the slider.

また、本発明は、所定方向に位置を調整可能なスライダを備える表示制御装置のコンピュータにおいて実行される表示制御プログラムである。表示制御プログラムは、上記コンピュータを仮想カメラ設定手段、表示制御手段として機能させる。仮想カメラ設定手段は、上記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する。表示制御手段は、上記仮想カメラ設定手段で設定されたカメラ間距離で上記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる。   The present invention is also a display control program that is executed in a computer of a display control device including a slider whose position can be adjusted in a predetermined direction. The display control program causes the computer to function as virtual camera setting means and display control means. The virtual camera setting means sets the distance between the two virtual cameras existing in the virtual space according to the position of the slider. The display control means displays a stereoscopic image on a display means capable of stereoscopic display, using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at the inter-camera distance set by the virtual camera setting means.

上記によれば、表示制御装置に備えられたスライダの位置が調整されることで、仮想空間に存在する2台の仮想カメラ間の距離が設定される。そして、設定された仮想カメラ間距離で仮想空間が撮像され、立体表示可能な表示手段に立体画像が表示される。これにより、ユーザは、例えば、3次元のゲーム空間を撮像した立体画像の見え方を調整することができる。   According to the above, the distance between the two virtual cameras existing in the virtual space is set by adjusting the position of the slider provided in the display control device. Then, the virtual space is imaged at the set distance between the virtual cameras, and the stereoscopic image is displayed on the display means capable of stereoscopic display. Thereby, the user can adjust the appearance of the stereoscopic image which imaged the three-dimensional game space, for example.

また、本発明では、上記表示制御プログラムを実行する表示制御装置の形態で実施されてもよい。また、上記各手段を実現する複数の装置が相互に動作することによって、1つの表示制御システムとして構成されてもよい。   In the present invention, the present invention may be implemented in the form of a display control device that executes the display control program. In addition, a plurality of devices that implement the above means may be configured to operate as one display control system.

本発明によれば、ユーザは、第1の表示手段に表示された立体画像を見ながら、第2の表示手段に表示された右目用画像と左目用画像とを調整することができる。これにより、ユーザは、容易に立体画像の立体感を調整することがことができる。   According to the present invention, the user can adjust the right-eye image and the left-eye image displayed on the second display unit while viewing the stereoscopic image displayed on the first display unit. Accordingly, the user can easily adjust the stereoscopic effect of the stereoscopic image.

本発明の一実施形態に係る携帯型の画像表示装置の外観図1 is an external view of a portable image display device according to an embodiment of the present invention. 上側ハウジング13aと下側ハウジング13bとを折り畳んだ状態で下側ハウジング13bを背面から見た図The figure which looked at lower housing 13b from the back in the state where upper housing 13a and lower housing 13b were folded up 画像表示装置10の内部構成を示すブロック図The block diagram which shows the internal structure of the image display apparatus 10 画像表示装置10の機能構成を示すブロック図The block diagram which shows the function structure of the image display apparatus 10 立体画像表示装置11及び平面画像表示装置12の画面に表示される画像の一例を示した図The figure which showed an example of the image displayed on the screen of the stereo image display apparatus 11 and the planar image display apparatus 12 ユーザがスティック16を用いて位置調整バー54のスライダ55を調整する様子を示した図The figure which showed a mode that the user adjusted the slider 55 of the position adjustment bar 54 using the stick 16. FIG. 位置調整バー54のスライダ55の調整によってユーザが感じる撮像対象画像62(52)及び撮像対象画像63(53)の位置が変化する様子を示した図The figure which showed a mode that the position of the imaging target image 62 (52) and the imaging target image 63 (53) which a user feels by adjustment of the slider 55 of the position adjustment bar 54 changes. 左目用画像51a及び右目用画像51bを重ね合わせた場合において、重なり合う部分と重なり合わない部分とを説明するための図The figure for demonstrating the part which overlaps and the part which does not overlap when the image 51a for left eyes and the image 51b for right eyes are overlap | superposed. 位置調整バー54を用いて左目用画像51a及び右目用画像51bの縦方向の位置を調整する様子を示した図The figure which showed a mode that the position of the vertical direction of the image 51a for left eyes and the image 51b for right eyes was adjusted using the position adjustment bar 54 ズーム調整バー56を用いて立体画像61を拡大する様子を示した図The figure which showed a mode that the three-dimensional image 61 was expanded using the zoom adjustment bar 56. FIG. タッチ操作によって立体画像61がスクロールする様子を示した図The figure which showed a mode that the three-dimensional image 61 scrolled by touch operation. 右目用画像51bを回転又は拡大させることによって立体画像を調整する様子を示した図The figure which showed a mode that a three-dimensional image was adjusted by rotating or enlarging the image 51b for right eyes. 画像表示装置10のメインメモリ31のメモリマップを示す図The figure which shows the memory map of the main memory 31 of the image display apparatus 10 第1の実施形態に係る画像表示制御処理の詳細を示すメインフローチャートMain flowchart showing details of image display control processing according to the first embodiment 位置調整処理(ステップS2)の詳細を示すフローチャートFlowchart showing details of position adjustment processing (step S2) 回転、サイズ変更処理(ステップS3)の詳細を示すフローチャートFlowchart showing details of rotation and size change processing (step S3) ズーム処理(ステップS4)の詳細を示すフローチャートFlowchart showing details of zoom processing (step S4) スクロール処理(ステップS5)の詳細を示すフローチャートFlowchart showing details of scroll processing (step S5) 立体画像61がズーム及びスクロールされることに応じて、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bがズーム及びスクロールされる様子を示す図The figure which shows a mode that the image 51a for left eyes and the image 51b for right eyes displayed on the planar image display apparatus 12 are zoomed and scrolled according to the stereoscopic image 61 being zoomed and scrolled. 第2の実施形態に係る画像表示装置10のメインメモリ31のメモリマップを示す図The figure which shows the memory map of the main memory 31 of the image display apparatus 10 which concerns on 2nd Embodiment. 第2の実施形態に係る処理の詳細を示すメインフローチャートMain flowchart showing details of processing according to the second embodiment 第1のモードの処理の詳細を示すフローチャートFlow chart showing details of processing in first mode

(第1の実施形態)
図面を参照して、本発明の第1の実施形態に係る画像表示装置について説明する。図1は、本発明の一実施形態に係る携帯型の画像表示装置の外観図である。
(First embodiment)
An image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a portable image display apparatus according to an embodiment of the present invention.

(画像表示装置の説明)
図1において、画像表示装置10は、立体表示可能な立体画像表示装置11、および、2次元の平面画像を表示可能な平面画像表示装置12を含む。ハウジング13は上側ハウジング13aと下側ハウジング13bとによって構成されている。立体画像表示装置11は上側ハウジング13aに収納され、平面画像表示装置12は下側ハウジング13bに収納される。立体画像表示装置11および平面画像表示装置12は、いずれも所定の解像度(例えば、256dot×192dot)を有している。なお、本実施形態では表示装置として液晶表示装置を用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用することができる。また、任意の解像度のものを利用することができる。
(Description of image display device)
In FIG. 1, an image display device 10 includes a stereoscopic image display device 11 capable of stereoscopic display and a planar image display device 12 capable of displaying a two-dimensional planar image. The housing 13 includes an upper housing 13a and a lower housing 13b. The stereoscopic image display device 11 is accommodated in the upper housing 13a, and the flat image display device 12 is accommodated in the lower housing 13b. Both the stereoscopic image display device 11 and the flat image display device 12 have a predetermined resolution (for example, 256 dots × 192 dots). In this embodiment, a liquid crystal display device is used as the display device. However, any other display device such as a display device using EL (Electro Luminescence) can be used. Any resolution can be used.

立体画像表示装置11は、裸眼で立体画像を表示可能な表示装置であり、レンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、立体画像表示装置11は、パララックスバリア方式のものとする。   The stereoscopic image display device 11 is a display device that can display a stereoscopic image with the naked eye, and a lenticular method or a parallax barrier method (parallax barrier method) is used. In the present embodiment, the stereoscopic image display device 11 is of a parallax barrier type.

平面画像表示装置12の画面上には、指示座標検出装置であるタッチパネル15が装着されている。タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式など、任意の方式のものを利用することができる。本実施形態では、タッチパネル15は、抵抗膜方式であるものとする。タッチパネル15は、ユーザがスティック16を用いて平面画像表示装置12の画面上を接触(タッチ)することにより、平面画像表示装置12の画面上の位置を検出する。タッチパネル15が検出する位置は、平面画像表示装置12の画面上の位置と対応している。なお、ユーザは、スティック16に限らず
指で画面上の位置を指示することも可能である。本実施形態では、タッチパネル15として、平面画像表示装置12の解像度と同じ解像度(検出精度)のものを利用する。ただし、タッチパネル15の解像度と平面画像表示装置12の解像度とは、必ずしも一致している必要はない。
On the screen of the flat image display device 12, a touch panel 15 which is a designated coordinate detection device is mounted. As the touch panel 15, an arbitrary system such as a resistive film system, an optical system (infrared system), and a capacitive coupling system can be used. In the present embodiment, it is assumed that the touch panel 15 is a resistive film type. The touch panel 15 detects the position on the screen of the flat image display device 12 when the user touches (touches) the screen of the flat image display device 12 using the stick 16. The position detected by the touch panel 15 corresponds to the position on the screen of the flat image display device 12. Note that the user can specify the position on the screen with a finger as well as the stick 16. In the present embodiment, the touch panel 15 having the same resolution (detection accuracy) as the resolution of the flat image display device 12 is used. However, the resolution of the touch panel 15 and the resolution of the planar image display device 12 do not necessarily match.

上側ハウジング13aには、後述するハードウェアスライダ14が配設されている。また、下側ハウジング13bの側面には、後述するステレオカメラ18で撮像対象を撮像するためのシャッターボタン17が設けられている。上側ハウジング13aと下側ハウジング13bとは、ヒンジ部19によって接続されている。上側ハウジング13aと下側ハウジング13bとは、当該ヒンジ部19によって開閉可能(折り畳み可能)に接続されている。   A hardware slider 14 to be described later is disposed in the upper housing 13a. In addition, a shutter button 17 is provided on the side surface of the lower housing 13b to capture an imaging target with a stereo camera 18 described later. The upper housing 13 a and the lower housing 13 b are connected by a hinge portion 19. The upper housing 13a and the lower housing 13b are connected to each other by a hinge portion 19 so as to be opened and closed (foldable).

図2は、上側ハウジング13aと下側ハウジング13bとを折り畳んだ状態で下側ハウジング13bを背面から見た図である。図2に示すように、下側ハウジング13bの背面には、ステレオカメラ18が配設される。ステレオカメラ18は、左目画像撮像部18aと右目画像撮像部18bとを有する。左目画像撮像部18aと右目画像撮像部18bとの間隔は、例えば、平均的な人間の左右の目の間隔(例えば、65mm)に設定される。左目画像撮像部18a及び右目画像撮像部18bは、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、ズームレンズとを含む。左目画像撮像部18aは、左目用画像を撮像し、右目画像撮像部18bは、右目用画像を撮像する。左目画像撮像部18a及び右目画像撮像部18bは、ユーザによってシャッターボタン17が押されたことに応じて、それぞれ左目用画像及び右目用画像を撮像する。ユーザは、図1に示すように上側ハウジング13aと下側ハウジング13bとを開いた状態で立体画像表示装置11及び平面画像表示装置12の画面を見ながら、シャッターボタン17を押すことができる。すなわち、ステレオカメラ18で撮像対象を撮像した場合の左目用画像及び右目用画像が平面画像表示装置12の画面に表示され、そのときの立体画像が立体画像表示装置11に表示される。これにより、ユーザは画面に表示された画像を確認しながら、撮像対象を撮像することができる。   FIG. 2 is a view of the lower housing 13b as seen from the back surface in a state where the upper housing 13a and the lower housing 13b are folded. As shown in FIG. 2, a stereo camera 18 is disposed on the back surface of the lower housing 13b. The stereo camera 18 includes a left eye image capturing unit 18a and a right eye image capturing unit 18b. The interval between the left eye image capturing unit 18a and the right eye image capturing unit 18b is set to, for example, an average human left and right eye interval (for example, 65 mm). The left-eye image capturing unit 18a and the right-eye image capturing unit 18b include an image sensor (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution and a zoom lens. The left eye image capturing unit 18a captures a left eye image, and the right eye image capturing unit 18b captures a right eye image. The left-eye image capturing unit 18a and the right-eye image capturing unit 18b capture a left-eye image and a right-eye image, respectively, in response to the user pressing the shutter button 17. The user can press the shutter button 17 while viewing the screens of the stereoscopic image display device 11 and the flat image display device 12 with the upper housing 13a and the lower housing 13b opened as shown in FIG. That is, the left-eye image and the right-eye image when the imaging target is imaged by the stereo camera 18 are displayed on the screen of the flat image display device 12, and the stereoscopic image at that time is displayed on the stereoscopic image display device 11. Thereby, the user can image the imaging target while confirming the image displayed on the screen.

図3は、画像表示装置10の内部構成を示すブロック図である。図3に示すように、画像表示装置10は、上述の他、CPU30と、メインメモリ31と、ROM32と、メモリ制御回路33と、保存用データメモリ34と、通信モジュール35とを備えている。これらは電子部品として電子回路基板上に実装されて、下側ハウジング13b(または上側ハウジング13aでもよい)内に収納される。   FIG. 3 is a block diagram showing the internal configuration of the image display apparatus 10. As shown in FIG. 3, the image display device 10 includes a CPU 30, a main memory 31, a ROM 32, a memory control circuit 33, a storage data memory 34, and a communication module 35 in addition to the above. These are mounted on an electronic circuit board as electronic components and stored in the lower housing 13b (or the upper housing 13a).

CPU30は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムが画像表示装置10のROM32に記憶されており、CPU30が、当該所定のプログラムを実行することによって、後述する表示制御処理を実行する。   The CPU 30 is information processing means for executing a predetermined program. In the present embodiment, a predetermined program is stored in the ROM 32 of the image display device 10, and the CPU 30 executes a display control process described later by executing the predetermined program.

CPU30には、メインメモリ31、ROM32、およびメモリ制御回路33が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ31は、読み書き可能な半導体メモリである。メインメモリ31には、上記所定のプログラムを一時的に格納する領域、左目用画像及び右目用画像を一時的に格納する領域、CPU30のワーク領域やバッファ領域が設けられる。すなわち、メインメモリ31は、後述する表示制御処理に用いられる各種データを記憶したり、ROM32に記憶された上記所定のプログラムを記憶したりする。ROM32は、不揮発性のメモリであり、上記所定のプログラムを格納する。保存用データメモリ34は、左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば、NAND型フラッシュメモリが用いられる。メモリ制御回路33は、CPU30の指示に従っ
て、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。
A main memory 31, a ROM 32, and a memory control circuit 33 are connected to the CPU 30. In addition, a storage data memory 34 is connected to the memory control circuit 33. The main memory 31 is a readable / writable semiconductor memory. The main memory 31 is provided with an area for temporarily storing the predetermined program, an area for temporarily storing the left-eye image and the right-eye image, a work area for the CPU 30, and a buffer area. That is, the main memory 31 stores various data used for display control processing described later, and stores the predetermined program stored in the ROM 32. The ROM 32 is a non-volatile memory and stores the predetermined program. The storage data memory 34 is a storage unit for storing data of images captured by the left eye image capturing unit 18a and the right eye image capturing unit 18b. The storage data memory 34 is configured by a nonvolatile storage medium, and for example, a NAND flash memory is used. The memory control circuit 33 is a circuit that controls reading and writing of data with respect to the storage data memory 34 in accordance with instructions from the CPU 30.

なお、CPU30によって実行されるプログラムは、ROM32に予め記憶されていてもよいし、保存用データメモリ34から取得されてもよいし、通信モジュール35を用いた通信によって他の機器から取得されてもよい。   The program executed by the CPU 30 may be stored in advance in the ROM 32, may be acquired from the storage data memory 34, or may be acquired from another device through communication using the communication module 35. Good.

通信モジュール35は、有線又は無線によって他の機器と通信するための機能を有する。通信モジュール35は、例えば、赤外線通信により他の機器と通信するための機能を有する。なお、通信モジュール35は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有してもよし、Bluetooth(ブルートゥース)(登録商標)の技術を用いて、他の機器と通信する機能を有してもよい。また、通信モジュール35は、携帯電話等に用いられる通信方式により移動体通信網に接続する機能を有してもよい。   The communication module 35 has a function for communicating with other devices by wire or wireless. The communication module 35 has a function for communicating with other devices by infrared communication, for example. The communication module 35 is, for example, IEEE802.11. It may have a function of connecting to a wireless LAN by a method compliant with the b / g standard, or may have a function of communicating with other devices using the Bluetooth (registered trademark) technology. Good. Further, the communication module 35 may have a function of connecting to a mobile communication network by a communication method used for a mobile phone or the like.

また、CPU30には、タッチパネル15が接続される。タッチパネル15は、図示しないインターフェイス回路に接続され、当該インターフェイス回路は、タッチパネル15からの信号に基づいて、所定の形式のタッチ位置データを生成し、CPU30に出力する。例えば、タッチ位置データは、タッチパネル15の入力面に対して入力が行われた位置の座標を示すデータである。なお、上記インターフェイス回路は、タッチパネル15からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU30は、上記インターフェイス回路を介して、タッチ位置データを取得することにより、タッチパネル15に対して入力が行われた位置を知ることができる。   Further, the touch panel 15 is connected to the CPU 30. The touch panel 15 is connected to an interface circuit (not shown), and the interface circuit generates touch position data in a predetermined format based on a signal from the touch panel 15 and outputs it to the CPU 30. For example, the touch position data is data indicating coordinates of a position where an input is performed on the input surface of the touch panel 15. The interface circuit reads a signal from the touch panel 15 and generates touch position data at a rate of once per predetermined time. The CPU 30 can know the position where the input is performed on the touch panel 15 by acquiring the touch position data via the interface circuit.

シャッターボタン17と、撮像装置(左目画像撮像部18a及び右目画像撮像部18b)とは、CPU30に接続される。CPU30は、シャッターボタン17が押されたことに応じて、左目画像撮像部18a及び右目画像撮像部18bに画像を撮像する命令を送信する。左目画像撮像部18a及び右目画像撮像部18bは、CPU30からの命令に応じて画像を撮像し、撮像した画像データをCPU30に出力する。   The shutter button 17 and the imaging device (the left eye image capturing unit 18a and the right eye image capturing unit 18b) are connected to the CPU 30. In response to the shutter button 17 being pressed, the CPU 30 transmits a command to capture an image to the left eye image capturing unit 18a and the right eye image capturing unit 18b. The left-eye image capturing unit 18 a and the right-eye image capturing unit 18 b capture an image in accordance with a command from the CPU 30 and output the captured image data to the CPU 30.

また、立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30に接続される。立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30の指示に従って画像を表示する。上述のように、立体画像表示装置11には立体画像が表示され、平面画像表示装置12には平面画像が表示される。   The stereoscopic image display device 11 and the flat image display device 12 are each connected to the CPU 30. The stereoscopic image display device 11 and the flat image display device 12 each display an image according to an instruction from the CPU 30. As described above, a stereoscopic image is displayed on the stereoscopic image display device 11, and a planar image is displayed on the flat image display device 12.

また、CPU30には、ハードウェアスライダ14が接続される。ハードウェアスライダ14は、スライドスイッチであり、横方向の任意の位置(又は所定の位置)に調整可能である。ハードウェアスライダ14は、その位置に応じた信号をCPU30に出力する。   A hardware slider 14 is connected to the CPU 30. The hardware slider 14 is a slide switch and can be adjusted to an arbitrary position (or a predetermined position) in the horizontal direction. The hardware slider 14 outputs a signal corresponding to the position to the CPU 30.

次に、図4を用いて、画像表示装置10の機能構成について説明する。図4は、画像表示装置10の機能構成を示すブロック図である。図4に示すように、画像表示装置10は、メモリ31a及び31b、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43を含む。メモリ31a及び31bは、上述したメインメモリ31の記憶領域の一部である。また、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43は、CPU30が上記所定のプログラムを実行することにより実現される。   Next, the functional configuration of the image display apparatus 10 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a functional configuration of the image display apparatus 10. As shown in FIG. 4, the image display device 10 includes memories 31 a and 31 b, an adjustment unit 40, an input control unit 41, a first display control unit 42, and a second display control unit 43. The memories 31a and 31b are part of the storage area of the main memory 31 described above. The adjustment unit 40, the input control unit 41, the first display control unit 42, and the second display control unit 43 are realized by the CPU 30 executing the predetermined program.

メモリ31a及び31bは、それぞれ左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像を一時的に格納する。メモリ31aには、左目画像撮像部18aによって撮像された左目用画像が格納され、メモリ31bには、右目画像撮像部18bに
よって撮像された左目用画像が格納される。
The memories 31a and 31b temporarily store images captured by the left eye image capturing unit 18a and the right eye image capturing unit 18b, respectively. The memory 31a stores the left-eye image captured by the left-eye image capturing unit 18a, and the memory 31b stores the left-eye image captured by the right-eye image capturing unit 18b.

調整部40は、入力制御部41からの出力信号に応じて、左目用画像と右目用画像とを表示装置に表示するときの両画像の相対的な位置、相対的な大きさ、相対的な回転を調整する。左目用画像及び右目用画像の位置は、それぞれの画像中心の座標値(内部的に設定されたXY座標系の座標値)として表される。XY座標系のX軸方向は、画面(立体画像表示装置11及び平面画像表示装置12の画面)の横方向に対応し、Y軸方向は、画面の縦方向に対応する。左目用画像と右目用画像との相対的な位置は、各画像の画像中心の横方向(X方向)及び/又は縦方向(Y方向)の座標値を変化させることにより、調整される。例えば、調整部40は、左目用画像及び/又は右目用画像を横方向に移動させることにより、左目用画像と右目用画像との相対的な位置を調整する。また、調整部40は、左目用画像及び/又は右目用画像の大きさを変化させることにより、左目用画像と右目用画像との相対的な大きさを調整する。例えば、調整部40は、左目用画像を拡大させることにより、左目用画像を右目用画像よりも相対的に大きくさせる。さらに、調整部40は、左目用画像及び/又は右目用画像をそれぞれの画像中心の周りに回転させることにより、左目用画像と右目用画像との相対的な回転(回転角度)を調整する。例えば、調整部40は、左目用画像を所定の角度だけ回転させることにより、左目用画像と右目用画像との相対的な回転を調整する。   In accordance with the output signal from the input control unit 41, the adjustment unit 40 displays the relative position, the relative size, and the relative size of both images when the left-eye image and the right-eye image are displayed on the display device. Adjust the rotation. The positions of the image for the left eye and the image for the right eye are represented as coordinate values (coordinate values of the XY coordinate system set internally) of the respective images. The X-axis direction of the XY coordinate system corresponds to the horizontal direction of the screen (screens of the stereoscopic image display device 11 and the flat image display device 12), and the Y-axis direction corresponds to the vertical direction of the screen. The relative positions of the left-eye image and the right-eye image are adjusted by changing the coordinate values in the horizontal direction (X direction) and / or vertical direction (Y direction) of the image center of each image. For example, the adjustment unit 40 adjusts the relative positions of the left-eye image and the right-eye image by moving the left-eye image and / or the right-eye image in the horizontal direction. The adjustment unit 40 adjusts the relative sizes of the left-eye image and the right-eye image by changing the size of the left-eye image and / or the right-eye image. For example, the adjustment unit 40 enlarges the left-eye image so that the left-eye image is relatively larger than the right-eye image. Further, the adjustment unit 40 adjusts the relative rotation (rotation angle) between the left-eye image and the right-eye image by rotating the left-eye image and / or the right-eye image around the respective image centers. For example, the adjustment unit 40 adjusts the relative rotation between the left-eye image and the right-eye image by rotating the left-eye image by a predetermined angle.

入力制御部41は、タッチパネル15が検出する位置に応じて、調整部40に制御信号を出力する。すなわち、入力制御部41は、タッチパネル15が検出する位置に応じて、ユーザによって行われた左目用画像及び右目用画像に対する操作(後述する位置調整バー54(図5参照)に対する操作、左目用画像又は右目用画像に対する回転操作、拡大又は縮小操作等)を検出し、制御信号として調整部40に送信する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、平面画像表示装置12に表示される位置調整バー54の位置、位置調整バー54のスライダ55の位置、及び、ズーム調整バー56のスライダ57の位置を調整する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、立体画像表示装置11に表示される立体画像をスクロールさせたり、ズームさせたりする(詳細は後述する)。   The input control unit 41 outputs a control signal to the adjustment unit 40 according to the position detected by the touch panel 15. That is, the input control unit 41 performs an operation on a left-eye image and a right-eye image (an operation on a position adjustment bar 54 (see FIG. 5) described later), a left-eye image performed by the user according to the position detected by the touch panel 15. Alternatively, a rotation operation, an enlargement or reduction operation, or the like for the right eye image) is detected and transmitted to the adjustment unit 40 as a control signal. The input control unit 41 also determines the position of the position adjustment bar 54 displayed on the flat image display device 12, the position of the slider 55 of the position adjustment bar 54, and the zoom adjustment bar 56 according to the position detected by the touch panel 15. The position of the slider 57 is adjusted. Further, the input control unit 41 scrolls or zooms the stereoscopic image displayed on the stereoscopic image display device 11 according to the position detected by the touch panel 15 (details will be described later).

第1表示制御部42は、立体画像表示装置11の表示制御を行う。第1表示制御部42は、調整部40によって調整された左目用画像及び右目用画像を合成することにより、立体画像表示装置11に立体画像を表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第1表示制御部42は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第1表示制御部42は、ずらした2つの画像を合成して立体画像を生成する。例えば、第1表示制御部42は、ずらした2つの画像を画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。そして、合成した画像データを立体画像表示装置11に出力する。立体画像表示装置11は、表示した画像について、視差バリアを通して見ることによって、1ライン毎に交互に、右目にのみ見える表示と左目にのみ見える表示となるため、ユーザの右目に右目用画像、左目に左目用画像を視認させることができる。これにより、立体画像を立体画像表示装置11に表示させる。また、第1表示制御部42は、入力制御部41からの信号に基づいて、立体画像表示装置11に表示される立体画像をズームしたり、スクロールしたりする。   The first display control unit 42 performs display control of the stereoscopic image display device 11. The first display control unit 42 causes the stereoscopic image display device 11 to display a stereoscopic image by combining the left-eye image and the right-eye image adjusted by the adjustment unit 40. For example, when the adjustment unit 40 shifts the positions of the left-eye image and the right-eye image by a predetermined amount in the left-right direction, the first display control unit 42 sets the position of the left-eye image and the right-eye image to the predetermined value. Shift left and right by the amount. Then, the first display control unit 42 generates a stereoscopic image by combining the two shifted images. For example, the first display control unit 42 divides the two shifted images into strips for each line in which the pixels are arranged vertically, and alternately arranges the striped strip images so that the two images are displayed. Synthesize. Then, the combined image data is output to the stereoscopic image display device 11. By viewing the displayed image through the parallax barrier, the stereoscopic image display device 11 alternately displays the right eye and the left eye for each line. Therefore, the right eye image and the left eye are displayed for the user's right eye. Can visually recognize the left-eye image. As a result, the stereoscopic image is displayed on the stereoscopic image display device 11. Further, the first display control unit 42 zooms or scrolls the stereoscopic image displayed on the stereoscopic image display device 11 based on the signal from the input control unit 41.

第2表示制御部43は、平面画像表示装置12の表示制御を行う。第2表示制御部43は、調整部40によって調整された左目用画像及び右目用画像を重ね合わせ、重ね合わせた平面画像を平面画像表示装置12に表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第2表示制御部43は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第2表
示制御部43は、ずらした2つの画像を半透明にして重ね合わせ、平面画像表示装置12に平面的に表示させる。従って、ユーザは、左目用画像及び右目用画像の両方を視認することができ、左目用画像及び右目用画像がどの程度ずれているかを容易に認識することができる。また、第2表示制御部43は、入力制御部41からの信号に基づいて、位置調整バー54、及び、ズーム調整バー56の表示を制御する。
The second display control unit 43 performs display control of the flat image display device 12. The second display control unit 43 superimposes the left-eye image and the right-eye image adjusted by the adjustment unit 40 and causes the planar image display device 12 to display the superimposed planar image. For example, when the adjustment unit 40 shifts the positions of the left-eye image and the right-eye image by a predetermined amount in the left-right direction, the second display control unit 43 sets the positions of the left-eye image and the right-eye image to the predetermined Shift left and right by the amount. Then, the second display control unit 43 superimposes the two shifted images so as to be translucent, and causes the planar image display device 12 to display them in a planar manner. Therefore, the user can visually recognize both the left-eye image and the right-eye image, and can easily recognize how much the left-eye image and the right-eye image are shifted. The second display control unit 43 controls the display of the position adjustment bar 54 and the zoom adjustment bar 56 based on the signal from the input control unit 41.

(立体画像の調整操作)
次に、図5から図12を参照して、立体画像の調整について説明する。図5は、立体画像表示装置11及び平面画像表示装置12の画面に表示される画像の一例を示した図である。なお、図5から図12において、説明と関係しない部分については表示を省略しており、また、立体画像表示装置11及び平面画像表示装置12の画面を実際よりも相対的に大きく表示している。
(3D image adjustment operation)
Next, the adjustment of the stereoscopic image will be described with reference to FIGS. FIG. 5 is a diagram illustrating an example of images displayed on the screens of the stereoscopic image display device 11 and the flat image display device 12. In FIGS. 5 to 12, the portions not related to the description are not shown, and the screens of the stereoscopic image display device 11 and the flat image display device 12 are displayed relatively larger than actual. .

図5に示すように、平面画像表示装置12の画面には、画像表示領域50が設けられる。画像表示領域50には、左目用画像51a及び右目用画像51bが表示されている。図5に示すように、画像表示領域50のアスペクト比(横方向の長さ(横幅)と縦方向の長さ(高さ)との比)における横幅の比率は、左目用画像51a及び右目用画像51bのアスペクト比における横幅の比率よりも大きい。すなわち、画像表示領域50は、左目用画像51a及び右目用画像51bよりも横長の領域である。   As shown in FIG. 5, an image display area 50 is provided on the screen of the flat image display device 12. In the image display area 50, a left-eye image 51a and a right-eye image 51b are displayed. As shown in FIG. 5, the ratio of the horizontal width in the aspect ratio of the image display area 50 (the ratio between the horizontal length (horizontal width) and the vertical length (height)) is the left-eye image 51a and the right-eye image. It is larger than the width ratio in the aspect ratio of the image 51b. That is, the image display area 50 is a horizontally longer area than the left-eye image 51a and the right-eye image 51b.

左目用画像51aは、左目画像撮像部18aによって撮像された画像であり、左目用画像51aには、撮像対象画像52a及び撮像対象画像53aが含まれている。撮像対象画像52a及び撮像対象画像53aは、実空間に存在する撮像対象52及び53を左目画像撮像部18aによって撮像した画像である。また、右目用画像51bは、右目画像撮像部18bによって撮像された画像であり、右目用画像51bには、撮像対象画像52b及び撮像対象画像53bが含まれている。撮像対象画像52b及び撮像対象画像53bは、実空間に存在する撮像対象52及び53を右目画像撮像部18bによって撮像した画像である。すなわち、撮像対象画像52a及び撮像対象画像52bは、同じ撮像対象52を撮像した画像である。しかし、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像52a及び撮像対象画像52bは完全に同一の画像ではない。同様に、撮像対象画像53a及び撮像対象画像53bは、同じ撮像対象53を撮像した画像であるが、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像53a及び撮像対象画像53bは完全に同一の画像ではない。   The left-eye image 51a is an image captured by the left-eye image capturing unit 18a, and the left-eye image 51a includes an imaging target image 52a and an imaging target image 53a. The imaging target image 52a and the imaging target image 53a are images obtained by imaging the imaging targets 52 and 53 existing in the real space by the left-eye image imaging unit 18a. The right eye image 51b is an image captured by the right eye image capturing unit 18b, and the right eye image 51b includes an imaging target image 52b and an imaging target image 53b. The imaging target image 52b and the imaging target image 53b are images obtained by imaging the imaging targets 52 and 53 existing in the real space by the right eye image imaging unit 18b. That is, the imaging target image 52a and the imaging target image 52b are images obtained by imaging the same imaging target 52. However, since the left-eye image 51a and the right-eye image 51b have parallax, the imaging target image 52a and the imaging target image 52b are not completely the same image. Similarly, the imaging target image 53a and the imaging target image 53b are images obtained by imaging the same imaging target 53. However, since the left-eye image 51a and the right-eye image 51b have parallax, the imaging target image 53a and the imaging target image 53b is not completely the same image.

図5に示すように、平面画像表示装置12の画面に表示された左目用画像51a及び右目用画像51bは、半透明で重ね合わされて表示されている。また、平面画像表示装置12の画面には、位置調整バー54及びスライダ55が表示される。また、平面画像表示装置12の画面には、ズーム調整バー56及びスライダ57が表示される。   As shown in FIG. 5, the left-eye image 51 a and the right-eye image 51 b displayed on the screen of the flat image display device 12 are displayed in a semi-transparent and superimposed manner. A position adjustment bar 54 and a slider 55 are displayed on the screen of the flat image display device 12. A zoom adjustment bar 56 and a slider 57 are displayed on the screen of the flat image display device 12.

一方、立体画像表示装置11の画面には、立体画像61が表示されている。立体画像61は、左目用画像51aと右目用画像51bとが合成された画像であり、ユーザが立体画像61を見たときに立体的に見える画像である。立体画像61には、撮像対象画像62及び撮像対象画像63が含まれている。撮像対象画像62は、実空間に存在する撮像対象52を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像62は、左目用画像51aの撮像対象画像52aと右目用画像51bの撮像対象画像52bとが合成された画像である。同様に、撮像対象画像63は、実空間に存在する撮像対象53を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像63は、左目用画像51aの撮像対象画像53aと右目用画像51bの撮像対象画像53bとが合成された画像である。   On the other hand, a stereoscopic image 61 is displayed on the screen of the stereoscopic image display device 11. The stereoscopic image 61 is an image in which the left-eye image 51 a and the right-eye image 51 b are combined, and is an image that appears stereoscopic when the user views the stereoscopic image 61. The stereoscopic image 61 includes an imaging target image 62 and an imaging target image 63. The imaging target image 62 is an image obtained by imaging the imaging target 52 existing in the real space, and is an image that the user can see stereoscopically as shown in FIG. The imaging target image 62 is an image obtained by combining the imaging target image 52a of the left-eye image 51a and the imaging target image 52b of the right-eye image 51b. Similarly, the imaging target image 63 is an image obtained by imaging the imaging target 53 existing in the real space, and is an image that the user can see stereoscopically as shown in FIG. The imaging target image 63 is an image obtained by combining the imaging target image 53a of the left-eye image 51a and the imaging target image 53b of the right-eye image 51b.

位置調整バー54は、ユーザが左目用画像51a及び右目用画像51bの位置を画面の横方向及び縦方向に調整するためのユーザインターフェイスである。ユーザは、位置調整バー54のスライダ55をスティック16でタッチしたまま横方向にスライドさせることにより、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。また、ユーザはスティック16を用いて位置調整バー54の所定の位置をタッチすることにより、スライダ55を当該タッチ位置に移動させ、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。詳細は後述するが、この調整によって立体画像表示装置11に表示される立体画像の立体感が変化する。   The position adjustment bar 54 is a user interface for the user to adjust the positions of the left-eye image 51a and the right-eye image 51b in the horizontal and vertical directions of the screen. The user can adjust the horizontal shift amount (relative position) of the left-eye image 51a and the right-eye image 51b by sliding the slider 55 of the position adjustment bar 54 in the horizontal direction while touching with the stick 16. . In addition, the user touches a predetermined position of the position adjustment bar 54 with the stick 16 to move the slider 55 to the touch position, and the lateral shift amount (relative to the left-eye image 51a and the right-eye image 51b). Position) can be adjusted. Although details will be described later, the stereoscopic effect of the stereoscopic image displayed on the stereoscopic image display device 11 is changed by this adjustment.

なお、図5においては、説明のため左目用画像51aと右目用画像51bとが若干上下左右方向にずれて表示されているが、実際には、左目用画像51aと右目用画像51bとの位置は一致している(左目用画像51aの画像中心と左目用画像51aの画像中心とは一致している)。しかしながら、左目用画像51aに含まれる撮像対象画像52aと右目用画像51bに含まれる撮像対象画像52bとは、位置が異なる。具体的には、2つの画像の位置を一致させて半透明で重ね合わせた場合に、左目用画像51aに含まれる撮像対象画像52aは、右目用画像51bに含まれる撮像対象画像52bよりも右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像52aは相対的に右側に、右目用画像51bに含まれる撮像対象画像52bは相対的に左側に位置している。従って、立体画像表示装置11に表示される撮像対象画像62は、ユーザにとって立体画像表示装置11の画面よりも手前に位置しているように見える(後述する図7参照)。また、左目用画像51aに含まれる撮像対象画像53aは、右目用画像51bに含まれる撮像対象画像53bよりもさらに右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像53aは右側に、右目用画像51bに含まれる撮像対象画像53bは左側にずれている。撮像対象画像53aと撮像対象画像53bとのずれは、撮像対象画像52aと撮像対象画像52bとのずれよりも大きい。従って、立体画像表示装置11に表示される撮像対象画像63は、ユーザにとって撮像対象画像62よりもさらに手前に位置しているように見える(後述する図7参照)。   In FIG. 5, the left-eye image 51a and the right-eye image 51b are displayed with a slight shift in the vertical and horizontal directions for the sake of explanation, but in actuality, the positions of the left-eye image 51a and the right-eye image 51b are displayed. Are matched (the image center of the left-eye image 51a and the image center of the left-eye image 51a are matched). However, the imaging target image 52a included in the left-eye image 51a and the imaging target image 52b included in the right-eye image 51b are different in position. Specifically, when the positions of the two images are matched and semi-transparent and superimposed, the imaging target image 52a included in the left-eye image 51a is on the right side of the imaging target image 52b included in the right-eye image 51b. It is shifted to. That is, the imaging target image 52a included in the left-eye image 51a is positioned relatively on the right side, and the imaging target image 52b included in the right-eye image 51b is positioned relatively on the left side. Therefore, the imaging target image 62 displayed on the stereoscopic image display device 11 seems to be positioned in front of the screen of the stereoscopic image display device 11 for the user (see FIG. 7 described later). In addition, the imaging target image 53a included in the left-eye image 51a is further shifted to the right side than the imaging target image 53b included in the right-eye image 51b. That is, the imaging target image 53a included in the left-eye image 51a is shifted to the right side, and the imaging target image 53b included in the right-eye image 51b is shifted to the left side. The deviation between the imaging target image 53a and the imaging target image 53b is larger than the deviation between the imaging target image 52a and the imaging target image 52b. Therefore, the imaging target image 63 displayed on the stereoscopic image display device 11 seems to be positioned in front of the imaging target image 62 for the user (see FIG. 7 described later).

次に、図6を用いて左目用画像51a及び右目用画像51bの横方向の位置の調整について、説明する。図6は、ユーザがスティック16を用いて位置調整バー54のスライダ55を調整する様子を示した図である。図6において、破線によって示されるスライダ55’は、ユーザによって調整される(画面の右方向に移動される)前のものであり、実線によって示されるスライダ55は、ユーザによって調整された後のものである。スライダ55が位置P1から位置P2に移動されることに応じて、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び右目用画像51bはそれぞれ、画面の横方向に移動する。具体的には、左目用画像51aは画面の左方向に移動し、右目用画像51bは画面の右方向に移動する。すなわち、位置調整バー54のスライダ55が横方向に移動すると、左目用画像51a及び右目用画像51bがスライダ55の移動量に応じた量だけ、横方向に、互いに反対方向に移動し(ずれ)、左目用画像51aと右目用画像51bとの間のずれ量が変化する。なお、左目用画像51a及び右目用画像51bの何れか一方のみが、スライダ55の移動量に応じて移動することで、左目用画像51aと右目用画像51bとの間のずれ量を変化させても良い。   Next, adjustment of the horizontal position of the left-eye image 51a and the right-eye image 51b will be described with reference to FIG. FIG. 6 is a diagram showing how the user adjusts the slider 55 of the position adjustment bar 54 using the stick 16. In FIG. 6, the slider 55 ′ indicated by a broken line is the one before being adjusted (moved in the right direction of the screen) by the user, and the slider 55 indicated by the solid line is after being adjusted by the user. It is. In accordance with the movement of the slider 55 from the position P1 to the position P2, the left-eye image 51a and the right-eye image 51b displayed in the image display area 50 of the flat image display device 12 each move in the horizontal direction of the screen. . Specifically, the left-eye image 51a moves in the left direction of the screen, and the right-eye image 51b moves in the right direction of the screen. That is, when the slider 55 of the position adjustment bar 54 moves in the horizontal direction, the left-eye image 51a and the right-eye image 51b move in the lateral direction in the opposite directions by the amount corresponding to the movement amount of the slider 55 (shift). The shift amount between the left-eye image 51a and the right-eye image 51b changes. Note that only one of the left-eye image 51a and the right-eye image 51b moves according to the movement amount of the slider 55, thereby changing the shift amount between the left-eye image 51a and the right-eye image 51b. Also good.

なお、位置調整バー54のスライダ55が所定の位置(例えば可動範囲の中心)に位置する場合、左目用画像51aと右目用画像51bとの間のずれ量はゼロとなる(左目用画像51aの画像中心の位置と右目用画像51bの画像中心の位置とが、一致する)。例えば、スライダ55が中心から右にスライドされるに従って左目用画像51aは左に、右目用画像51bは右に移動するように、画像同士のずれ量が大きくなる。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63
は画面の奥方向に移動するように見える。逆に、スライダ55が中心から左にスライドされるに従って左目用画像51aは右に、右目用画像51bは左に移動するように、画像同士のずれ量の絶対値が大きくなる(この場合のずれ量は負の値となる)。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63は画面の手前方向に移動するように見える。
When the slider 55 of the position adjustment bar 54 is positioned at a predetermined position (for example, the center of the movable range), the amount of deviation between the left-eye image 51a and the right-eye image 51b is zero (the left-eye image 51a The position of the image center coincides with the position of the image center of the right-eye image 51b). For example, as the slider 55 is slid from the center to the right, the shift amount between the images increases so that the left-eye image 51a moves to the left and the right-eye image 51b moves to the right. Thereby, as described later, the imaging target image 62 and the imaging target image 63 displayed on the stereoscopic image display device 11 are displayed.
Seems to move deeper in the screen. Conversely, as the slider 55 is slid from the center to the left, the absolute value of the shift amount between the images increases so that the left-eye image 51a moves to the right and the right-eye image 51b moves to the left (the shift in this case). The quantity is negative). As a result, as described later, the imaging target image 62 and the imaging target image 63 displayed on the stereoscopic image display device 11 appear to move toward the front of the screen.

一方、立体画像表示装置11の画面に表示される立体画像61も、スライダ55の移動に応じて変化する。スライダ55が移動すると、立体画像表示装置11の画面に表示される、ユーザの左目に視認される左目用画像51aと、ユーザの右目に視認される右目用画像51bとの横方向の位置も変化する。すなわち、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bと同様に、立体画像表示装置11に表示される左目用画像51a及び右目用画像51bもスライダ55の移動量に応じた量だけ横方向に移動する。その結果、スライダ55が移動した後(位置P2)の立体画像61をユーザが見ると、立体画像61に含まれる撮像対象画像62及び撮像対象画像63は、スライダ55が移動する前(位置P1)よりも、画面の奥方向に位置しているように見える。すなわち、スライダ55の移動によって、立体画像61に含まれる撮像対象画像62及び撮像対象画像63が、画面の奥方向に移動したように見える。   On the other hand, the stereoscopic image 61 displayed on the screen of the stereoscopic image display device 11 also changes according to the movement of the slider 55. When the slider 55 is moved, the horizontal positions of the left-eye image 51a visually recognized by the user's left eye and the right-eye image 51b visually recognized by the user's right eye displayed on the screen of the stereoscopic image display device 11 also change. To do. That is, similarly to the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12, the left-eye image 51a and the right-eye image 51b displayed on the stereoscopic image display device 11 correspond to the movement amount of the slider 55. Move horizontally by the specified amount. As a result, when the user views the stereoscopic image 61 after the slider 55 moves (position P2), the imaging target image 62 and the imaging target image 63 included in the stereoscopic image 61 are before the slider 55 moves (position P1). It seems to be located in the back direction of the screen. That is, as the slider 55 moves, the imaging target image 62 and the imaging target image 63 included in the stereoscopic image 61 appear to move in the depth direction of the screen.

図7は、位置調整バー54のスライダ55の調整によってユーザが感じる撮像対象画像62(52)及び撮像対象画像63(53)の位置が変化する様子を示した図である。図7は、ユーザ、立体画像表示装置11、及び、2つの撮像対象52及び53(撮像対象画像62及び63)を上方から見た図であり、ユーザが感じるこれらの位置関係を示している。スライダ55が移動する前においては、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面より手前(画面よりユーザ側)に位置していると感じる(62’及び63’の位置に存在しているように見える)。より具体的には、ユーザは、実空間に存在する撮像対象52と撮像対象53との位置関係と同様に、撮像対象画像63’が撮像対象画像62’よりも画面の手前方向の位置(ユーザに近い位置)に存在しているように感じる。一方、スライダ55が移動することに応じて、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面の奥方向(画面に垂直な方向であってユーザの視線方向)に移動するように見える(言い換えると、立体画像表示装置11の画面がユーザに向かって移動するように見える)。より具体的には、スライダ55が移動した後においては、ユーザは、撮像対象画像62が画面の奥方向に位置しており、撮像対象画像63が画面近傍に位置していると感じる。このように、ユーザがスライダ55を平面画像表示装置12の画面の右方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも立体画像表示装置11の画面の奥方向に移動したように(画面の奥方向に遠ざかるように)見える。逆に、ユーザがスライダ55を左方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも画面の手前方向に移動したように(画面から飛び出したように)見える。つまり、ユーザが位置調整バー54のスライダ55を横方向に調整すると、ユーザにとっては立体画像61に含まれる撮像対象の位置が変化したように見える。従って、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61の見え方を変化させることができる。   FIG. 7 is a diagram illustrating a state in which the positions of the imaging target image 62 (52) and the imaging target image 63 (53) that the user feels by changing the slider 55 of the position adjustment bar 54 are changed. FIG. 7 is a view of the user, the stereoscopic image display device 11, and the two imaging targets 52 and 53 (imaging target images 62 and 63) as viewed from above, and shows the positional relationship felt by the user. Before the slider 55 moves, the user feels that the imaging target image 62 and the imaging target image 63 are located in front of the screen of the stereoscopic image display device 11 (on the user side from the screen) (62 ′ and 63 ′). Appears to be present). More specifically, in the same manner as the positional relationship between the imaging target 52 and the imaging target 53 that exist in the real space, the user sets the imaging target image 63 ′ to the position in the near side of the screen relative to the imaging target image 62 ′ (user It feels as if it exists in a position close to On the other hand, according to the movement of the slider 55, the user captures the imaging target image 62 and the imaging target image 63 in the back direction of the screen of the stereoscopic image display device 11 (the direction perpendicular to the screen and the user's line of sight). It appears to move (in other words, the screen of the stereoscopic image display device 11 appears to move toward the user). More specifically, after the slider 55 moves, the user feels that the imaging target image 62 is positioned in the back direction of the screen and the imaging target image 63 is positioned near the screen. As described above, when the user moves the slider 55 to the right of the screen of the planar image display device 12, the imaging target image 62 (and 63) included in the stereoscopic image 61 is as if the screen of the stereoscopic image display device 11. It looks as if it has moved in the back direction (as it moves away from the back of the screen). On the other hand, when the user moves the slider 55 to the left, the imaging target image 62 (and 63) included in the stereoscopic image 61 is as if it has moved in the front direction of the screen (as if it jumped out of the screen). appear. That is, when the user adjusts the slider 55 of the position adjustment bar 54 in the horizontal direction, it seems to the user that the position of the imaging target included in the stereoscopic image 61 has changed. Therefore, the user can change the appearance of the stereoscopic image 61 by moving the slider 55 of the position adjustment bar 54 in the horizontal direction.

また、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象を自身にとって見やすく表示させることができる。例えば、図7の点線に示すように、スライダ55を移動させる前においては、ユーザが視認する撮像対象画像63の位置は、画面の手前であり、画面から所定距離だけ離れた位置(63’の位置)である。一方、ユーザによって視認される撮像対象画像62の位置は、画面の手前であり、画面近傍(62’の位置)である。この場合において、ユーザは、撮像対象画像62を立体的に視認することは容易であるが、撮像対象画像63を立体的
に視認することは困難である。これは、実際に画像が表示されているのは画面上であるため、画像を見ようとするときに、ユーザは、目の焦点を画面上に合わせるためである。画面近傍に視認される移動前の撮像対象画像62’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが近いため、立体的に視認され易い。一方、移動前の撮像対象画像63’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが異なるため、立体的に視認され難い(目の焦点が画面上に合っている場合に、移動前の撮像対象画像63’を見ると、画像がぼやけて見えたり、立体として認識できなかったりする)。この場合において、ユーザは、スライダ55を横方向に移動させることによって、撮像対象画像63を画面の奥方向に移動させることができ、撮像対象画像63を画面近傍に移動させることができる。従って、ユーザは、スライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象(撮像対象画像63)を自身にとって見やすく表示させることができる。
In addition, the user can display the desired imaging target included in the stereoscopic image 61 in an easy-to-view manner for himself / herself by moving the slider 55 of the position adjustment bar 54 in the horizontal direction. For example, as shown by the dotted line in FIG. 7, before the slider 55 is moved, the position of the imaging target image 63 visually recognized by the user is in front of the screen, and is a position (63 ′ of 63 ′) away from the screen. Position). On the other hand, the position of the imaging target image 62 visually recognized by the user is in front of the screen and is in the vicinity of the screen (position 62 ′). In this case, it is easy for the user to visually recognize the imaging target image 62 in three dimensions, but it is difficult to visually recognize the imaging target image 63 in three dimensions. This is because the image is actually displayed on the screen, so that the user focuses his eyes on the screen when trying to view the image. The imaging target image 62 ′ before movement that is visually recognized in the vicinity of the screen is easy to be viewed stereoscopically because the position in the direction perpendicular to the screen recognized by the user is close to the position where the eyes are in focus. On the other hand, the imaging target image 63 ′ before movement is difficult to view in three dimensions because the position in the direction perpendicular to the screen recognized by the user is different from the position where the eyes are in focus (the focus of the eyes is on the screen). If the captured image 63 ′ before moving is viewed when it is suitable, the image may appear blurred or cannot be recognized as a solid. In this case, the user can move the imaging target image 63 in the back direction of the screen by moving the slider 55 in the horizontal direction, and can move the imaging target image 63 to the vicinity of the screen. Therefore, the user can display the desired imaging target (imaging target image 63) included in the stereoscopic image 61 in an easy-to-view manner by moving the slider 55 in the horizontal direction.

なお、図6に示す横方向のずれ(位置)を調整した後の立体画像61は、図5に示す調整する前の立体画像61の両端部分が削られたような画像となっている(図6参照)。このため、図6に示す撮像対象画像62の一部は表示されていない。これは、左目用画像51a及び右目用画像51bを横方向にずらしたことによって、2つの画像が重なり合わない部分が生じたためである。左目用画像51a及び右目用画像51bが重なり合わない部分(非重複領域)も含めて立体画像表示装置11の画面に立体画像を表示すると、立体画像の一部は立体感のある画像となり、他の一部は立体感のない画像となる。このときの表示は、視聴者にとっては、「見えているはずのものが見えない」または「見えないはずのものが見えている」といった状態である。このため、全体としてユーザにとって違和感のある画像となってしまう。従って、立体画像表示装置11の画面には、左目用画像51a及び右目用画像51bが重なり合う部分(重複領域)のみを合成して、表示させる。   Note that the stereoscopic image 61 after adjusting the lateral displacement (position) shown in FIG. 6 is an image in which both end portions of the stereoscopic image 61 before adjustment shown in FIG. 6). For this reason, a part of the imaging target image 62 shown in FIG. 6 is not displayed. This is because the left-eye image 51a and the right-eye image 51b are shifted in the horizontal direction, thereby generating a portion where the two images do not overlap. When a stereoscopic image is displayed on the screen of the stereoscopic image display device 11 including a portion (non-overlapping area) where the left-eye image 51a and the right-eye image 51b do not overlap, a part of the stereoscopic image becomes a stereoscopic image, A part of the image has no stereoscopic effect. The display at this time is in a state such as “I can't see what I should see” or “I can see what I shouldn't see” for the viewer. For this reason, the image becomes uncomfortable for the user as a whole. Therefore, only a portion (overlapping region) where the left-eye image 51a and the right-eye image 51b overlap is synthesized and displayed on the screen of the stereoscopic image display device 11.

ここで、2つの画像の「重なり合う部分」と「重なり合わない部分」について、図8を用いて説明する。図8は、左目用画像51a及び右目用画像51bを重ね合わせた場合において、重なり合う部分と重なり合わない部分とを説明するための図である。図8に示すように、左目用画像51aには、撮像対象画像52a、53a、及び、58aが含まれる。同様に、右目用画像51bには、撮像対象画像52b、53b、及び、58bが含まれる。これら2つの画像を横方向にずらして重ね合わせた場合、2つの画像が重なり合う部分(重複領域)と重なり合わない部分(非重複領域)とが生じる。上記重なり合う部分は、重ね合わせた画像の破線によって囲まれる領域Rである。重なり合わない部分は、重ね合わせた画像の領域R以外の領域である。立体画像表示装置11の画面には、領域Rのみが表示される。この場合において、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像58aを視認することができ、右目で撮像対象画像58bを視認することができる。その結果、ユーザは撮像対象画像58を立体的に認識することができる。また、右目用画像51bに含まれる撮像対象画像53bは、領域Rに含まれるため、立体画像表示装置11の画面に表示される。一方、左目用画像51aに含まれる撮像対象画像53aは、領域Rに含まれないため、立体画像表示装置11の画面には表示されない。従って、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像53aを視認することができず、右目で撮像対象画像53bを視認することができる。これは、ユーザにとっては自然な見え方である。すなわち、実空間をユーザが見た場合においても、右目と左目には視差があるため、ある物体を見た場合に片方の目にしか見えない場合がある。例えば、ユーザが窓から外の風景を見る場合においては、窓枠によって、例えば右目には見えない部分でも左目には見える部分が存在する。しかしながら、重なり合わない部分も含めて画面に表示すると、ユーザの目(図8の例では左目)に見えない部分(図8の53a)が見えてしまい、ユーザにとっては違和感のある画像となってしまう。従って、立体画像表示装置11には上記重なり合う部分のみを表示することにより、ユーザにとって違和感のない画像を表示することができる。   Here, the “overlapping part” and “non-overlapping part” of the two images will be described with reference to FIG. FIG. 8 is a diagram for explaining an overlapping portion and a non-overlapping portion when the left-eye image 51a and the right-eye image 51b are overlapped. As illustrated in FIG. 8, the left-eye image 51a includes imaging target images 52a, 53a, and 58a. Similarly, the right-eye image 51b includes imaging target images 52b, 53b, and 58b. When these two images are shifted in the horizontal direction and overlapped, a portion where the two images overlap (overlapping region) and a portion where the two images do not overlap (non-overlapping region) are generated. The overlapping portion is a region R surrounded by a broken line of the superimposed images. The portion that does not overlap is a region other than the region R of the superimposed image. Only the region R is displayed on the screen of the stereoscopic image display device 11. In this case, when the user views the screen of the stereoscopic image display device 11, the user can visually recognize the imaging target image 58a with the left eye and can visually recognize the imaging target image 58b with the right eye. As a result, the user can recognize the imaging target image 58 three-dimensionally. Further, since the imaging target image 53b included in the right-eye image 51b is included in the region R, it is displayed on the screen of the stereoscopic image display device 11. On the other hand, since the imaging target image 53a included in the left-eye image 51a is not included in the region R, it is not displayed on the screen of the stereoscopic image display device 11. Therefore, when the user views the screen of the stereoscopic image display device 11, the user cannot visually recognize the imaging target image 53a with the left eye, but can visually recognize the imaging target image 53b with the right eye. This is a natural view for the user. That is, even when the user sees the real space, there is a parallax between the right eye and the left eye, and therefore, when a certain object is seen, it may be visible only to one eye. For example, when the user views the scenery outside the window, there is a portion that can be seen by the left eye even if the portion is invisible to the right eye, for example. However, if a portion that does not overlap is displayed on the screen, a portion (53a in FIG. 8) that cannot be seen by the user's eyes (the left eye in the example of FIG. 8) can be seen, resulting in an uncomfortable image for the user. End up. Therefore, by displaying only the overlapping portion on the stereoscopic image display device 11, it is possible to display an image that does not feel uncomfortable for the user.

一方、平面画像表示装置12の画像表示領域50には、調整前後において、左目用画像51a及び右目用画像51bの全体が表示される。より具体的には、左目用画像51a及び右目用画像51bが重なり合う部分と重なり合わない部分とが、平面画像表示装置12の画像表示領域50に表示される。上述のように、立体画像表示装置11では、立体画像をユーザにとって違和感のないようにするために、2つの画像が重なり合う部分のみが表示される。一方、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、それぞれユーザの両目で視認されるため、ユーザは、2つの画像を別々の画像として認識することができる。このため、2つの画像が重なり合う部分のみならず、重なり合わない部分が表示されてもユーザにとって違和感はない。むしろ、重なり合わない部分も含めて表示されることにより、ユーザは、2つの画像をそれぞれ別の画像として認識することができ、2つの画像の位置関係を容易に認識することができる。従って、ユーザは、2つの画像に含まれる撮像対象画像の位置を容易に認識することができる。また、重なり合わない部分も含めて平面画像表示装置12に表示されるため、ユーザは、重なり合わない部分に存在する撮像対象(当該撮像対象は立体画像表示装置11には表示されないか、立体画像表示装置11に表示されてもユーザの片目にのみ視認される)を視認することができる。例えば、図8に示す左目用画像51aに含まれる撮像対象画像53aは、重なり合わない部分に存在し、ユーザの左目には視認されない。このような撮像対象画像53aをユーザの左目で視認できるように左目用画像51aを移動させる場合、ユーザは、立体画像表示装置11に表示される立体画像61を見ながら調整することは困難である。すなわち、立体画像表示装置11には撮像対象画像53aが表示されないため、その位置を認識することができないからである。しかしながら、平面画像表示装置12には、重なり合わない部分も表示されるため、ユーザは、当該重なり合わない部分に含まれる撮像対象画像53aを視認しながら撮像対象画像53aの位置を調整することができる。このため、ユーザは、重なり合わない部分に存在する撮像対象の位置を調整することができ、所望の撮像対象を容易に立体的に表示させることができる。   On the other hand, the entire left-eye image 51a and right-eye image 51b are displayed in the image display area 50 of the flat image display device 12 before and after adjustment. More specifically, a portion where the left-eye image 51 a and the right-eye image 51 b overlap and a portion where they do not overlap are displayed in the image display area 50 of the flat image display device 12. As described above, in the stereoscopic image display device 11, only a portion where the two images overlap is displayed so that the stereoscopic image does not feel uncomfortable for the user. On the other hand, since the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are visually recognized by both eyes of the user, the user can recognize the two images as separate images. For this reason, there is no sense of incongruity for the user even if the non-overlapping part is displayed as well as the overlapping part of the two images. Rather, the display including the non-overlapping portion allows the user to recognize the two images as different images, and to easily recognize the positional relationship between the two images. Therefore, the user can easily recognize the position of the imaging target image included in the two images. In addition, since it is displayed on the flat image display device 12 including the non-overlapping portion, the user can capture the imaging target existing in the non-overlapping portion (the imaging target is not displayed on the stereoscopic image display device 11 or is a stereoscopic image). Even if displayed on the display device 11, it can be visually recognized only by one eye of the user). For example, the imaging target image 53a included in the left-eye image 51a illustrated in FIG. 8 exists in a portion that does not overlap and is not visually recognized by the user's left eye. When moving the left-eye image 51a so that the imaging target image 53a can be visually recognized by the user's left eye, it is difficult for the user to adjust while viewing the stereoscopic image 61 displayed on the stereoscopic image display device 11. . That is, since the imaging target image 53a is not displayed on the stereoscopic image display device 11, the position cannot be recognized. However, since the non-overlapping part is also displayed on the flat image display device 12, the user can adjust the position of the imaging target image 53a while visually recognizing the imaging target image 53a included in the non-overlapping part. it can. For this reason, the user can adjust the position of the imaging target existing in the non-overlapping portion, and can easily display the desired imaging target in a three-dimensional manner.

また、ユーザは、立体画像表示装置11に表示された立体画像61を見ながら左目用画像51a及び右目用画像51bの位置を調整することができるため、ユーザは立体画像を容易に調整することができる。上述のように、ユーザが立体画像表示装置11に表示された立体画像61を見る場合、ユーザは図7に示す撮像対象画像63’を立体的に視認することが困難な場合がある。ユーザが撮像対象画像63’を立体的に視認できない場合、立体画像表示装置11を見るだけでは、左目用画像51a及び右目用画像51bをどの方向に調整したらいいのか判断することが困難である(撮像対象画像63’を画面に垂直な方向のどの位置に移動させればよいか判断ができない)。一方、平面画像表示装置12には、左目用画像51a及び右目用画像51bが半透明で重ね合わされて表示されている。これにより、ユーザは、平面画像表示装置12を見ることにより、2つの画像に含まれる撮像対象画像53a及び53bがどの程度離れているかを容易に認識することができる。従って、ユーザは、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bを見ながら、撮像対象画像53aと53bとを近づけるように(撮像対象画像53a及び53bが重なり合うように)左目用画像51a及び右目用画像51bの位置を調整すればよい。   Further, since the user can adjust the positions of the left-eye image 51a and the right-eye image 51b while viewing the stereoscopic image 61 displayed on the stereoscopic image display device 11, the user can easily adjust the stereoscopic image. it can. As described above, when the user views the stereoscopic image 61 displayed on the stereoscopic image display device 11, it may be difficult for the user to visually recognize the imaging target image 63 'shown in FIG. When the user cannot visually recognize the imaging target image 63 ′, it is difficult to determine in which direction the left-eye image 51a and the right-eye image 51b should be adjusted only by looking at the stereoscopic image display device 11. It cannot be determined to which position in the direction perpendicular to the screen the image to be imaged 63 ′ should be moved). On the other hand, the left-eye image 51a and the right-eye image 51b are displayed on the flat image display device 12 so as to be semitransparent and superimposed. Accordingly, the user can easily recognize how far the imaging target images 53a and 53b included in the two images are apart by looking at the flat image display device 12. Accordingly, the user can bring the imaging target images 53a and 53b closer to each other while viewing the left eye image 51a and the right eye image 51b displayed on the flat image display device 12 (so that the imaging target images 53a and 53b overlap). The positions of the left-eye image 51a and the right-eye image 51b may be adjusted.

さらに、ユーザは、左目用画像51a及び右目用画像51bの双方の全体画像(上記重なり合う部分と重なり合わない部分とを含めた全体画像)を視認しながら、左目用画像51a及び右目用画像51bの位置(横方向のずれ)を調整することができる。従って、ユーザは2つの画像の位置関係を容易に認識することができるため、調整が容易である。例えば、ある撮像対象を立体的に視認するために2つの画像を調整した後、別の撮像対象を立体的に視認するために画像を調整する場合においても、ユーザは容易に画像を調整することができる。すなわち、左目用画像51a及び右目用画像51bの双方の全体画像が平
面画像表示装置12に表示されるため、2つの画像の位置を調整した後においても、2つの画像の位置関係を容易に認識することができる。従って、調整が容易である。
Further, the user visually recognizes the entire images of both the left-eye image 51a and the right-eye image 51b (the entire image including the overlapping portion and the non-overlapping portion) while viewing the left-eye image 51a and the right-eye image 51b. The position (lateral deviation) can be adjusted. Therefore, since the user can easily recognize the positional relationship between the two images, adjustment is easy. For example, after adjusting two images to view a certain imaging target in three dimensions, the user can easily adjust the image even when adjusting an image to view another imaging target in three dimensions. Can do. That is, since the entire images of both the left-eye image 51a and the right-eye image 51b are displayed on the flat image display device 12, the positional relationship between the two images can be easily recognized even after adjusting the positions of the two images. can do. Therefore, adjustment is easy.

以上のように、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像表示装置11及び平面画像表示装置12に表示される画像が変化する。具体的には、左目用画像51a及び右目用画像51bの横方向の位置を調整することにより、ユーザは、立体画像に含まれる撮像対象を画面に対して垂直な方向に移動させるように表示させることができる。ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bの位置を調整することができる。これにより、ユーザは立体画像の見え方を容易に調整することができる。   As described above, by moving the slider 55 of the position adjustment bar 54 in the horizontal direction, the images displayed on the stereoscopic image display device 11 and the flat image display device 12 change. Specifically, by adjusting the horizontal position of the left-eye image 51a and the right-eye image 51b, the user displays the imaging target included in the stereoscopic image so as to move in a direction perpendicular to the screen. be able to. The user can adjust the positions of the left-eye image 51 a and the right-eye image 51 b displayed on the flat image display device 12 while viewing the stereoscopic image 61 displayed on the stereoscopic image display device 11. Thereby, the user can easily adjust the appearance of the stereoscopic image.

次に、図9を参照して左目用画像51a及び右目用画像51bの縦方向の位置の調整について、説明する。図9は、位置調整バー54を用いて左目用画像51a及び右目用画像51bの縦方向の位置を調整する様子を示した図である。   Next, the adjustment of the vertical position of the left-eye image 51a and the right-eye image 51b will be described with reference to FIG. FIG. 9 is a diagram showing how the position of the left-eye image 51a and the right-eye image 51b is adjusted using the position adjustment bar 54 in the vertical direction.

図9に示すように、ユーザがスティック16を用いて位置調整バー54をタッチした状態で、平面画像表示装置12の画面の上方向にスティック16を移動させると、タッチ位置の移動に伴って位置調整バー54も上方向に移動する。位置調整バー54は、画面の縦方向(上下方向)に移動可能であり、位置調整バー54の可動範囲(位置調整バー54が移動する範囲)は、予め定められている。位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。   As illustrated in FIG. 9, when the user touches the position adjustment bar 54 using the stick 16 and moves the stick 16 upward on the screen of the flat image display device 12, the position is moved with the movement of the touch position. The adjustment bar 54 also moves upward. The position adjustment bar 54 is movable in the vertical direction (vertical direction) of the screen, and the movable range of the position adjustment bar 54 (the range in which the position adjustment bar 54 moves) is determined in advance. The movable range in the vertical direction of the position adjustment bar 54 is set to be smaller than the movable range in the horizontal direction of the slider 55 of the position adjustment bar 54.

位置調整バー54が縦方向に移動すると、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び/又は右目用画像51bも縦方向(上下方向)に移動する。例えば、位置調整バー54が画面の上方向に移動されると、位置調整バー54の上方向への移動量に応じて、左目用画像51a(又は右目用画像51b)も画面の上方向に移動する。なお、位置調整バー54の縦方向の移動に応じて、画像表示領域50に表示された左目用画像51a及び右目用画像51bが縦方向に互いに反対方向に移動されてもよいし、スティック16によって選択された画像のみが縦方向に移動されてもよい。   When the position adjustment bar 54 moves in the vertical direction, the left-eye image 51a and / or the right-eye image 51b displayed in the image display area 50 of the flat image display device 12 also move in the vertical direction (vertical direction). For example, when the position adjustment bar 54 is moved upward on the screen, the left-eye image 51a (or right-eye image 51b) is also moved upward on the screen in accordance with the upward movement amount of the position adjustment bar 54. To do. Note that the left-eye image 51 a and the right-eye image 51 b displayed in the image display area 50 may be moved in the opposite directions in the vertical direction according to the vertical movement of the position adjustment bar 54, or by the stick 16. Only the selected image may be moved in the vertical direction.

一方、位置調整バー54の縦方向の移動に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、左目用画像51aと右目用画像51bとが画面の縦方向に大きくずれている場合、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。しかしながら、左目用画像51aと右目用画像51bとの縦方向の位置のずれをユーザが調整することにより、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示することができる。   On the other hand, as the position adjustment bar 54 moves in the vertical direction, the appearance of the stereoscopic image 61 displayed on the screen of the stereoscopic image display device 11 also changes. For example, when the left-eye image 51a and the right-eye image 51b are greatly shifted in the vertical direction of the screen, when the user looks at the imaging target image 62 included in the stereoscopic image 61, the actual shape of the imaging target 52 is different. It may look like a shape or it may be difficult to see as a stereoscopic image. However, when the user adjusts the shift in the vertical position between the left-eye image 51a and the right-eye image 51b, it is possible to display an easy-to-see image having a stereoscopic effect on the stereoscopic image display device 11.

以上のように、位置調整バー54を平面画像表示装置12の画面の縦方向(上下方向)に移動させることによって、左目用画像51a及び右目用画像51bの縦方向の位置のずれを調整することができる。この縦方向の位置のずれは、左目画像撮像部18a及び右目画像撮像部18bの物理的な位置のずれによって生じる。例えば、製造時の誤差等により左目画像撮像部18aが右目画像撮像部18bよりも僅かに縦方向にずれている場合(図2の上方向にずれている場合)、互いに縦方向に僅かにずれた画像が撮像される。ユーザは、このような左目用画像51a及び右目用画像51bの縦方向のずれを位置調整バー54によって調整することができる。   As described above, by moving the position adjustment bar 54 in the vertical direction (vertical direction) of the screen of the flat image display device 12, the shift in the vertical position of the left-eye image 51a and the right-eye image 51b is adjusted. Can do. This vertical position shift is caused by a physical position shift between the left-eye image capturing unit 18a and the right-eye image capturing unit 18b. For example, when the left-eye image capturing unit 18a is slightly shifted in the vertical direction from the right-eye image capturing unit 18b due to manufacturing errors or the like (when shifted in the upward direction in FIG. 2), they are slightly shifted in the vertical direction. A captured image is captured. The user can adjust the vertical shift between the left-eye image 51a and the right-eye image 51b with the position adjustment bar 54.

通常、左目用画像51a及び右目用画像51bの縦方向のずれは僅かであり、ユーザは、縦方向には微調整のみ行うことが多い。一方、ユーザは立体画像に含まれる撮像対象を
画面の奥方向又は手前方向に移動させるため、スライダ55を横方向にスライドさせることによって、左目用画像51a及び右目用画像51bの横方向のずれを調整する。すなわち、通常、縦方向の調整量は、横方向の調整量よりも小さい。従って、本実施形態では、位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。このため、ユーザは、左目用画像51a及び右目用画像51bの横方向のずれを調整しやすく、縦方向のずれを微調整しやすい。すなわち、スライダ55は横方向に可動範囲が大きく、位置調整バー54は縦方向には可動範囲が小さいため、ユーザは横方向には大きく調整可能であり、縦方向には微調整のみ可能となる。また、横方向の調整ではスライダ55を横方向にスライドさせ、縦方向の調整では、位置調整バー54を縦方向に移動させるため、上記のような操作は、ユーザにとって直感的でわかりやすい操作であるといえる。なお、左目用画像51a及び右目用画像51bの縦方向の調整は、上記位置調整バー54とは異なる調整バーのスライダによって行われてもよい。
Normally, the vertical shift between the left-eye image 51a and the right-eye image 51b is slight, and the user often performs only fine adjustment in the vertical direction. On the other hand, in order to move the imaging target included in the stereoscopic image in the back direction or the near side of the screen, the user slides the slider 55 in the horizontal direction, thereby shifting the left-eye image 51a and the right-eye image 51b in the horizontal direction. adjust. In other words, the vertical adjustment amount is usually smaller than the horizontal adjustment amount. Therefore, in the present embodiment, the movable range in the vertical direction of the position adjustment bar 54 is set to be smaller than the movable range in the horizontal direction of the slider 55 of the position adjustment bar 54. For this reason, the user can easily adjust the horizontal deviation of the left-eye image 51a and the right-eye image 51b, and can easily fine-tune the vertical deviation. That is, since the slider 55 has a large movable range in the horizontal direction and the position adjustment bar 54 has a small movable range in the vertical direction, the user can make a large adjustment in the horizontal direction and can only make a fine adjustment in the vertical direction. . Further, since the slider 55 is slid in the horizontal direction in the horizontal adjustment and the position adjustment bar 54 is moved in the vertical direction in the vertical adjustment, the above operations are intuitive and easy to understand for the user. It can be said. The vertical adjustment of the left-eye image 51a and the right-eye image 51b may be performed by a slider of an adjustment bar different from the position adjustment bar 54.

次に、図10を参照してズーム操作について説明する。図10は、ズーム調整バー56を用いて立体画像61を拡大する様子を示した図である。図10に示すように、ユーザがスティック16を用いてズーム調整バー56のスライダ57をタッチした状態で、平面画像表示装置12の画面の右方向にスティック16を移動させると、スライダ57は右方向に移動する。57’は移動前のスライダ57を示し、57は、移動後のスライダ57を示す。スライダ57が移動することに伴って、立体画像表示装置11に表示される立体画像61は、拡大される。図10において、立体画像61が拡大されたため、立体画像61に含まれる撮像対象画像62及び63も拡大されている。立体画像61は、立体画像表示装置11の画面よりも大きく拡大されたため、その一部のみが表示されている。   Next, the zoom operation will be described with reference to FIG. FIG. 10 is a diagram illustrating a state in which the stereoscopic image 61 is enlarged using the zoom adjustment bar 56. As shown in FIG. 10, when the user touches the slider 57 of the zoom adjustment bar 56 using the stick 16 and moves the stick 16 to the right of the screen of the flat image display device 12, the slider 57 moves to the right. Move to. 57 'indicates the slider 57 before movement, and 57 indicates the slider 57 after movement. As the slider 57 moves, the stereoscopic image 61 displayed on the stereoscopic image display device 11 is enlarged. In FIG. 10, since the stereoscopic image 61 is enlarged, the imaging target images 62 and 63 included in the stereoscopic image 61 are also enlarged. Since the stereoscopic image 61 is enlarged larger than the screen of the stereoscopic image display device 11, only a part of the stereoscopic image 61 is displayed.

一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、スライダ57が移動することに伴って拡大されない。平面画像表示装置12の画像表示領域50には、破線によって示される立体画像表示枠59が表示される。立体画像表示枠59は、立体画像表示装置11に表示される立体画像の領域に対応する領域を示す。このように、立体画像表示装置11に表示される立体画像が拡大されても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは拡大されず、全体が表示される。このため、立体画像が拡大された場合でも、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。   On the other hand, the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are not enlarged as the slider 57 moves. A stereoscopic image display frame 59 indicated by a broken line is displayed in the image display area 50 of the flat image display device 12. The stereoscopic image display frame 59 indicates an area corresponding to the area of the stereoscopic image displayed on the stereoscopic image display device 11. As described above, even when the stereoscopic image displayed on the stereoscopic image display device 11 is enlarged, the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are not enlarged, but are displayed as a whole. Therefore, even when the stereoscopic image is enlarged, it is easy to adjust the positions of the left-eye image 51a and the right-eye image 51b (adjustment of the horizontal and vertical positions using the position adjustment bar 54). That is, since the entire left-eye image 51a and right-eye image 51b are displayed on the flat image display device 12, the user can easily grasp the positional relationship between these images.

次に、図11を参照してスクロール操作について説明する。図11は、タッチ操作によって立体画像61がスクロールする様子を示した図である。図11に示すように、ユーザが平面画像表示装置12に表示された左目用画像51a又は右目用画像51bを、スティック16を用いてタッチしたまま画面上を移動させた場合、立体画像表示装置11の立体画像61はスクロールされる。例えば、ユーザがスティック16を用いて左目用画像51a又は右目用画像51bをタッチしたまま左方向に移動させると、立体画像61は右方向にスクロールされる(立体画像61に含まれる撮像対象画像62は、左方向に移動する)。図11の立体画像表示装置11の画面には、立体画像61がスクロールした後の画像が表示されている。立体画像61は、右方向にスクロールしたため、立体画像61に含まれる撮像対象画像62は画面の中央より左側に移動し、撮像対象画像63の一部は表示されていない。なお、スクロール操作によって、ユーザは、立体画像61を画面の任意の方向にスクロールさせることができる。   Next, the scroll operation will be described with reference to FIG. FIG. 11 is a diagram illustrating how the stereoscopic image 61 is scrolled by a touch operation. As shown in FIG. 11, when the user moves the left-eye image 51 a or the right-eye image 51 b displayed on the flat image display device 12 on the screen while touching with the stick 16, the stereoscopic image display device 11. The three-dimensional image 61 is scrolled. For example, when the user uses the stick 16 to move the left-eye image 51a or the right-eye image 51b to the left while touching, the stereoscopic image 61 is scrolled to the right (the imaging target image 62 included in the stereoscopic image 61). Move to the left). The image after the stereoscopic image 61 is scrolled is displayed on the screen of the stereoscopic image display device 11 of FIG. Since the stereoscopic image 61 is scrolled in the right direction, the imaging target image 62 included in the stereoscopic image 61 moves to the left from the center of the screen, and a part of the imaging target image 63 is not displayed. Note that the user can scroll the stereoscopic image 61 in an arbitrary direction on the screen by the scroll operation.

一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、上記ユーザによるスクロール操作(タッチしたまま画面の右方向に移動させる操作)によ
って、スクロールしない。平面画像表示装置12の画像表示領域50には、上記立体画像表示枠59が表示される。このように、立体画像表示装置11に表示される立体画像がスクロールされても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bはスクロールされない。このため、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。
On the other hand, the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are not scrolled by the scroll operation (the operation of moving the screen in the right direction while touching). The stereoscopic image display frame 59 is displayed in the image display area 50 of the flat image display device 12. As described above, even when the stereoscopic image displayed on the stereoscopic image display device 11 is scrolled, the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are not scrolled. Therefore, it is easy to adjust the positions of the left-eye image 51a and the right-eye image 51b (adjustment of the horizontal and vertical positions using the position adjustment bar 54). That is, since the entire left-eye image 51a and right-eye image 51b are displayed on the flat image display device 12, the user can easily grasp the positional relationship between these images.

次に、図12を参照して左目用画像51a又は右目用画像51bの回転及びサイズ変更について説明する。図12は、右目用画像51bを回転又は拡大させることによって立体画像を調整する様子を示した図である。ユーザが、平面画像表示装置12に表示された左目用画像51a又は右目用画像51bの所定の位置を、スティック16を用いてタッチしたまま移動させると、左目用画像51a又は右目用画像51bは回転する。例えば、図12に示すように、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bを回転させるように操作する(図12の矢印Aの方向に移動させる)と、右目用画像51bは回転する。また、例えば、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bの対角線方向にスティック16を移動させる(図12の矢印Bの方向に移動させる)と、右目用画像51bは拡大する。   Next, rotation and size change of the left-eye image 51a or the right-eye image 51b will be described with reference to FIG. FIG. 12 is a diagram illustrating how the stereoscopic image is adjusted by rotating or enlarging the right-eye image 51b. When the user moves a predetermined position of the left-eye image 51a or the right-eye image 51b displayed on the flat image display device 12 while touching with the stick 16, the left-eye image 51a or the right-eye image 51b is rotated. To do. For example, as shown in FIG. 12, when the user operates to rotate the right eye image 51b (moving in the direction of arrow A in FIG. 12) while touching the vertex V1 of the right eye image 51b, The image 51b rotates. For example, when the user moves the stick 16 in the diagonal direction of the right eye image 51b while moving the vertex V1 of the right eye image 51b (moves in the direction of arrow B in FIG. 12), the right eye image 51b is Expanding.

一方、右目用画像51bの回転又は拡大に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、右目用画像51bが左目用画像51aに対して所定の角度だけ回転している場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aに対して所定の角度だけ回転している場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような回転が発生する原因は、製造時の誤差等が考えられる。例えば、製造時に左目画像撮像部18aが所定の角度だけ回転されて配設される場合がある。このため、ユーザは、左目用画像51a又は右目用画像51bを回転させることにより、左目用画像51aと右目用画像51bの相対的な回転角を調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。   On the other hand, with the rotation or enlargement of the right-eye image 51b, the appearance of the stereoscopic image 61 displayed on the screen of the stereoscopic image display device 11 also changes. For example, when the right-eye image 51b is rotated by a predetermined angle with respect to the left-eye image 51a (more precisely, the imaging target image 52b included in the right-eye image 51b is captured in the left-eye image 51a). When the user looks at the imaging target image 62 included in the stereoscopic image 61, it looks like a shape different from the actual imaging target 52 or a stereoscopic image. It may be difficult to see as. The cause of such rotation may be an error during manufacturing. For example, the left-eye image capturing unit 18a may be rotated at a predetermined angle during manufacture. Therefore, the user can adjust the relative rotation angle of the left-eye image 51a and the right-eye image 51b by rotating the left-eye image 51a or the right-eye image 51b. As a result, the user can cause the stereoscopic image display device 11 to display an easy-to-see image having a stereoscopic effect.

また、例えば、右目用画像51bが左目用画像51aと比較して小さい場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aより小さい場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような大きさの違いは、撮像時における状態(例えば、左目画像撮像部18a及び右目画像撮像部18bのズーム機構の動作の違い)によって生じる場合がある。ユーザは、上述した操作によって左目用画像51a又は右目用画像51bを拡大又は縮小することにより、左目用画像51aと右目用画像51bとの相対的な大きさを調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。   Further, for example, when the right-eye image 51b is smaller than the left-eye image 51a (more precisely, the imaging target image 52b included in the right-eye image 51b is more than the imaging target image 52a included in the left-eye image 51a. When the user looks at the imaging target image 62 included in the stereoscopic image 61, the user may see a shape different from the actual imaging target 52 or may be difficult to see as a stereoscopic image. Such a difference in size may be caused by a state at the time of imaging (for example, a difference in operation of zoom mechanisms of the left-eye image capturing unit 18a and the right-eye image capturing unit 18b). The user can adjust the relative sizes of the left-eye image 51a and the right-eye image 51b by enlarging or reducing the left-eye image 51a or the right-eye image 51b by the above-described operation. As a result, the user can cause the stereoscopic image display device 11 to display an easy-to-see image having a stereoscopic effect.

(画像表示制御処理の詳細)
次に、図13から図18を参照して、本実施形態に係る画像表示制御処理の詳細について説明する。まず、画像表示制御処理の際にメインメモリ31に記憶される主なデータについて説明する。図13は、画像表示装置10のメインメモリ31のメモリマップを示す図である。図13に示されるように、メインメモリ31には、データ記憶領域70が設けられる。データ記憶領域70には、左目用画像位置データ71、右目用画像位置データ72、現在タッチ位置データ73、直前タッチ位置データ74、位置調整データ75、ズー
ム調整データ76、立体画像表示枠データ77等が記憶される。これらのデータの他、メインメモリ31には、上記画像表示制御処理を実行するプログラムや左目用画像データ、右目用画像データ、位置調整バーの画像データ、及び、ズーム調整バーの画像データ等が記憶される。
(Details of image display control processing)
Next, details of the image display control process according to the present embodiment will be described with reference to FIGS. 13 to 18. First, main data stored in the main memory 31 in the image display control process will be described. FIG. 13 is a diagram showing a memory map of the main memory 31 of the image display device 10. As shown in FIG. 13, the main memory 31 is provided with a data storage area 70. In the data storage area 70, left-eye image position data 71, right-eye image position data 72, current touch position data 73, previous touch position data 74, position adjustment data 75, zoom adjustment data 76, stereoscopic image display frame data 77, and the like. Is memorized. In addition to these data, the main memory 31 stores a program for executing the image display control process, image data for the left eye, image data for the right eye, image data for the position adjustment bar, image data for the zoom adjustment bar, and the like. Is done.

左目用画像位置データ71は、左目用画像51aの表示位置を示すデータであり、左目用画像51aの画像中心の座標値を示すデータである。右目用画像位置データ72は、右目用画像51bの表示位置を示すデータであり、右目用画像51bの画像中心の座標値を示すデータである。   The left-eye image position data 71 is data indicating the display position of the left-eye image 51a, and is data indicating the coordinate value of the image center of the left-eye image 51a. The right-eye image position data 72 is data indicating the display position of the right-eye image 51b, and is data indicating the coordinate value of the image center of the right-eye image 51b.

現在タッチ位置データ73は、現在のフレームにおいてタッチパネル15が検出しているタッチ位置の座標値を示すデータである。現在のフレームにおいてタッチ位置が検出されていない場合、現在タッチ位置データ73には、タッチ位置が検出されていないことを示す値が格納される。直前タッチ位置データ74は、直前のフレームにおいてタッチパネル15が検出した座標値を示すデータである。直前のフレームにおいてタッチ位置が検出されなかった場合、直前タッチ位置データ74には、タッチ位置が検出されなかったことを示す値が格納される。   The current touch position data 73 is data indicating the coordinate value of the touch position detected by the touch panel 15 in the current frame. When the touch position is not detected in the current frame, the current touch position data 73 stores a value indicating that the touch position is not detected. The immediately preceding touch position data 74 is data indicating coordinate values detected by the touch panel 15 in the immediately preceding frame. When the touch position is not detected in the immediately preceding frame, the previous touch position data 74 stores a value indicating that the touch position has not been detected.

位置調整データ75は、位置調整バー54に関するデータである。具体的には、位置調整データ75は、位置調整バー54の表示位置の座標値を示すデータ、及び、位置調整バー54上のスライダ55の位置を示すデータを含む。   The position adjustment data 75 is data related to the position adjustment bar 54. Specifically, the position adjustment data 75 includes data indicating the coordinate value of the display position of the position adjustment bar 54 and data indicating the position of the slider 55 on the position adjustment bar 54.

ズーム調整データ76は、ズーム調整バー56に関するデータであり、スライダ57のズーム調整バー56における位置を示すデータである。   The zoom adjustment data 76 is data relating to the zoom adjustment bar 56 and is data indicating the position of the slider 57 on the zoom adjustment bar 56.

立体画像表示枠データ77は、平面画像表示装置12に表示される上記立体画像表示枠59の位置及び大きさを示すデータである。   The stereoscopic image display frame data 77 is data indicating the position and size of the stereoscopic image display frame 59 displayed on the planar image display device 12.

次に、画像表示制御処理の詳細について図14を参照して説明する。図14は、第1の実施形態に係る画像表示制御処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶された画像表示制御プログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。また、保存用データメモリ34に記憶された左目用画像51a及び右目用画像51bが、メインメモリ31に読み込まれる。図14に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図14では、本発明に直接関連しない処理については記載を省略する。また、図14に示すステップS1〜ステップS8の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。   Next, details of the image display control process will be described with reference to FIG. FIG. 14 is a main flowchart showing details of the image display control process according to the first embodiment. When the power of the image display device 10 is turned on, the CPU 30 of the image display device 10 executes a startup program stored in the ROM 32, whereby each unit such as the main memory 31 is initialized. Next, the image display control program stored in the ROM 32 is read into the main memory 31, and the CPU 30 starts executing the program. Further, the left-eye image 51 a and the right-eye image 51 b stored in the storage data memory 34 are read into the main memory 31. The flowchart shown in FIG. 14 is a flowchart showing processing performed after the above processing is completed. In FIG. 14, the description of processing not directly related to the present invention is omitted. Further, the processing loop of step S1 to step S8 shown in FIG. 14 is repeatedly executed for each frame (for example, 1/30 second, referred to as frame time).

まず、ステップS1において、CPU30は、タッチパネル15へのタッチを検出する。タッチパネル15へのタッチが行われている場合、CPU30は、検出したタッチ位置を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS2の処理を実行する。一方、タッチパネル15へのタッチが行われていない場合、CPU30は、タッチ位置が検出されていないことを示す値を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS6の処理を実行する。   First, in step S <b> 1, the CPU 30 detects a touch on the touch panel 15. When the touch on the touch panel 15 is performed, the CPU 30 stores the detected touch position in the main memory 31 as the current touch position data 73, and then executes the process of step S2. On the other hand, when the touch on the touch panel 15 is not performed, the CPU 30 stores a value indicating that the touch position is not detected as the current touch position data 73 in the main memory 31, and then executes the process of step S6. To do.

ステップS2において、CPU30は、位置調整処理を実行する。ステップS2においては、検出したタッチ位置に基づいて、左目用画像51a及び右目用画像51bの位置を調整する。ステップS2における位置調整処理の詳細を、図15を参照して説明する。図
15は、位置調整処理(ステップS2)の詳細を示すフローチャートである。
In step S2, the CPU 30 executes a position adjustment process. In step S2, the positions of the left-eye image 51a and the right-eye image 51b are adjusted based on the detected touch position. Details of the position adjustment processing in step S2 will be described with reference to FIG. FIG. 15 is a flowchart showing details of the position adjustment process (step S2).

ステップS11において、CPU30は、現在のタッチ位置が位置調整バー54の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置(今回の処理ループのステップS1で検出されたタッチ位置)を取得する。次に、CPU30は、位置調整データ75を参照して、取得した現在のタッチ位置が、位置調整バー54の表示領域(位置調整バー54が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS12の処理を実行する。一方、判定結果が否定の場合、CPU30は、次にステップS14の処理を実行する。   In step S <b> 11, the CPU 30 determines whether or not the current touch position is within the display area of the position adjustment bar 54. Specifically, the CPU 30 refers to the current touch position data 73 in the main memory 31 and acquires the current touch position (the touch position detected in step S1 of the current processing loop). Next, the CPU 30 refers to the position adjustment data 75 and the acquired current touch position is within the display area of the position adjustment bar 54 (area where the position adjustment bar 54 is displayed on the screen of the flat image display device 12). It is determined whether or not it exists. If the determination result is affirmative, the CPU 30 next executes a process of step S12. On the other hand, if the determination result is negative, the CPU 30 next executes a process of step S14.

ステップS12において、CPU30は、現在のタッチ位置に位置調整バー54のスライダ55を移動させる。ステップS12においては、位置調整バー54のスライダ55が位置調整バー54上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応する位置調整バー54上の位置を算出し、メインメモリ31の位置調整データ75に記憶する。次に、CPU30は、ステップS13の処理を実行する。   In step S12, the CPU 30 moves the slider 55 of the position adjustment bar 54 to the current touch position. In step S12, the slider 55 of the position adjustment bar 54 is moved laterally on the position adjustment bar 54. Specifically, the CPU 30 calculates a position on the position adjustment bar 54 corresponding to the current touch position and stores it in the position adjustment data 75 of the main memory 31. Next, the CPU 30 executes the process of step S13.

ステップS13において、CPU30は、横方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS12で算出したスライダ55の位置調整バー54上の位置に基づいて、左目用画像51aと右目用画像51bとの横方向(画面の左右(X軸)方向)のずれ量を算出し、メインメモリ31に記憶する。CPU30は、スライダ55が位置調整バー54の左端から所定距離の位置に存在する場合、当該所定距離に応じて、上記横方向のずれ量を設定する。横方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのX軸に関する座標値のずれ(X座標値の差分)である。例えば、CPU30は、スライダ55が位置調整バー54の位置P0(例えば、位置調整バー54の中心位置)に存在する場合の横方向のずれ量を0として、当該位置P0よりも右側にスライダ55が存在する場合、横方向のずれ量を正とする。一方、例えば、当該位置P0よりも左側にスライダ55が存在する場合、CPU30は、横方向のずれ量を負とする。なお、横方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の左側に位置する。横方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の右側に位置する。次に、CPU30は、位置調整処理を終了する。   In step S <b> 13, the CPU 30 sets a displacement amount in the horizontal direction. Specifically, the CPU 30 determines the horizontal direction of the left-eye image 51a and the right-eye image 51b (left and right (X-axis) direction of the screen) based on the position of the slider 55 on the position adjustment bar 54 calculated in step S12. Is calculated and stored in the main memory 31. When the slider 55 is present at a predetermined distance from the left end of the position adjustment bar 54, the CPU 30 sets the lateral displacement amount according to the predetermined distance. The amount of shift in the horizontal direction is a shift in coordinate values (difference in X coordinate values) regarding the X axis between the image center of the left-eye image 51a and the image center of the right-eye image 51b. For example, the CPU 30 sets the lateral shift amount when the slider 55 is present at the position P0 of the position adjustment bar 54 (for example, the center position of the position adjustment bar 54) to 0, and the slider 55 is located on the right side of the position P0. If present, the amount of lateral displacement is positive. On the other hand, for example, when the slider 55 exists on the left side of the position P0, the CPU 30 sets the lateral shift amount to be negative. Note that when the amount of shift in the horizontal direction is positive, the left-eye image 51a is positioned on the left side of the screen relative to the right-eye image 51b. When the lateral shift amount is negative, the left-eye image 51a is positioned on the right side of the screen relative to the right-eye image 51b. Next, the CPU 30 ends the position adjustment process.

一方、ステップS14において、CPU30は、直前のフレームにおけるタッチ位置が位置調整バー54の表示領域内か否かを判定する。直前のフレームにおけるタッチ位置とは、現在の処理ループの直前の処理ループにおいて、ステップS1で検出されたタッチ位置である。具体的には、CPU30は、メインメモリ31の直前タッチ位置データ74を参照して、直前のタッチ位置が位置調整バー54の表示領域内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS15の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。   On the other hand, in step S <b> 14, the CPU 30 determines whether or not the touch position in the immediately preceding frame is within the display area of the position adjustment bar 54. The touch position in the immediately preceding frame is the touch position detected in step S1 in the processing loop immediately before the current processing loop. Specifically, the CPU 30 refers to the previous touch position data 74 in the main memory 31 and determines whether or not the previous touch position exists within the display area of the position adjustment bar 54. If the determination result is affirmative, the CPU 30 next executes a process of step S15. On the other hand, when the determination result is negative, the CPU 30 ends the position adjustment process.

ステップS15において、CPU30は、現在のタッチ位置が位置調整バー54の可動範囲内か否かを判定する。位置調整バー54は、予め定められた範囲で画面の縦方向(上下方向)に移動可能である。従って、ステップS15においては、現在のタッチ位置がこの移動範囲内か否かが判定される。判定結果が肯定の場合、CPU30は、次にステップS16の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。   In step S <b> 15, the CPU 30 determines whether or not the current touch position is within the movable range of the position adjustment bar 54. The position adjustment bar 54 is movable in the vertical direction (vertical direction) of the screen within a predetermined range. Therefore, in step S15, it is determined whether or not the current touch position is within this movement range. If the determination result is affirmative, the CPU 30 next executes a process of step S16. On the other hand, when the determination result is negative, the CPU 30 ends the position adjustment process.

ステップS16において、CPU30は、現在のタッチ位置に位置調整バー54を移動させる。ステップS16においては、位置調整バー54が画面の縦方向(上下方向)に移動される。具体的には、CPU30は、現在タッチ位置データ73が示す現在のタッチ位
置に基づいて、位置調整バー54の画面の縦(Y軸)方向への移動を示す移動ベクトルを算出する。例えば、CPU30は、現在のタッチ位置を通りY軸に平行な線分と位置調整バー54の表示領域との交点を算出し、算出した交点から現在のタッチ位置に向かうベクトルを上記移動ベクトルとして算出する。そして、CPU30は、位置調整データ75が示す位置調整バー54の表示位置を示す位置ベクトルに、算出した移動ベクトルを加えることによって、位置調整バー54の位置を算出する。CPU30は、算出した位置調整バー54の位置を位置調整データ75としてメインメモリ31に記憶する。次に、CPU30は、ステップS17の処理を実行する。
In step S16, the CPU 30 moves the position adjustment bar 54 to the current touch position. In step S16, the position adjustment bar 54 is moved in the vertical direction (vertical direction) of the screen. Specifically, the CPU 30 calculates a movement vector indicating the movement of the position adjustment bar 54 in the vertical (Y-axis) direction of the screen based on the current touch position indicated by the current touch position data 73. For example, the CPU 30 calculates an intersection between a line segment passing through the current touch position and parallel to the Y axis and the display area of the position adjustment bar 54, and calculates a vector from the calculated intersection toward the current touch position as the movement vector. To do. Then, the CPU 30 calculates the position of the position adjustment bar 54 by adding the calculated movement vector to the position vector indicating the display position of the position adjustment bar 54 indicated by the position adjustment data 75. The CPU 30 stores the calculated position of the position adjustment bar 54 in the main memory 31 as position adjustment data 75. Next, the CPU 30 executes the process of step S17.

ステップS17において、CPU30は、縦方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS16で算出した位置調整バー54の位置に基づいて、左目用画像51aと右目用画像51bとの縦方向(画面の上下(Y軸)方向)のずれ量を算出し、メインメモリ31に記憶する。より具体的には、CPU30は、位置調整バー54のY軸の座標値に応じて、縦方向の位置のずれ量を算出する。縦方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのY軸に関する座標値のずれ(Y座標値の差分)である。例えば、CPU30は、位置調整バー54が所定位置(例えば、位置調整バー54の縦方向の可動範囲における中心)に存在する場合の縦方向のずれ量を0として、当該所定位置よりも上側に位置調整バー54が存在する場合、縦方向のずれ量を正とする。一方、例えば、当該所定位置よりも下側に位置調整バー54が存在する場合、CPU30は、縦方向のずれ量を負とする。なお、縦方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の上側に位置する。縦方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の下側に位置する。次に、CPU30は、位置調整処理を終了する。   In step S <b> 17, the CPU 30 sets the amount of displacement in the vertical direction. Specifically, based on the position of the position adjustment bar 54 calculated in step S16, the CPU 30 determines the amount of shift in the vertical direction (up and down (Y axis) direction of the screen) between the left-eye image 51a and the right-eye image 51b. Calculate and store in the main memory 31. More specifically, the CPU 30 calculates the amount of positional shift in the vertical direction according to the coordinate value of the Y axis of the position adjustment bar 54. The amount of shift in the vertical direction is a shift in coordinate values (difference in Y coordinate values) regarding the Y axis between the image center of the left-eye image 51a and the image center of the right-eye image 51b. For example, the CPU 30 sets the vertical shift amount when the position adjustment bar 54 is present at a predetermined position (for example, the center of the position adjustment bar 54 in the vertical movable range) to 0 above the predetermined position. When the adjustment bar 54 exists, the amount of shift in the vertical direction is positive. On the other hand, for example, when the position adjustment bar 54 exists below the predetermined position, the CPU 30 sets the amount of shift in the vertical direction to be negative. When the amount of shift in the vertical direction is positive, the left-eye image 51a is positioned on the upper side of the screen relative to the right-eye image 51b. When the amount of shift in the vertical direction is negative, the left-eye image 51a is positioned on the lower side of the screen than the right-eye image 51b. Next, the CPU 30 ends the position adjustment process.

図14に戻り、ステップS2の処理の後、CPU30は、次にステップS3の処理を実行する。   Returning to FIG. 14, after the process of step S <b> 2, the CPU 30 next executes the process of step S <b> 3.

ステップS3において、CPU30は、回転、サイズ変更処理を実行する。ステップS3では、ステップS1で検出したタッチ位置に基づいて、左目用画像51a又は右目用画像51bを回転させたり、左目用画像51a又は右目用画像51bのサイズを変更したりする。ステップS3における回転、サイズ変更処理の詳細を、図16を用いて説明する。図16は、回転、サイズ変更処理(ステップS3)の詳細を示すフローチャートである。   In step S3, the CPU 30 executes rotation and size change processing. In step S3, based on the touch position detected in step S1, the left-eye image 51a or the right-eye image 51b is rotated, or the size of the left-eye image 51a or the right-eye image 51b is changed. Details of the rotation and size change processing in step S3 will be described with reference to FIG. FIG. 16 is a flowchart showing details of the rotation and size change processing (step S3).

ステップS21において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの頂点か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの頂点を含む所定の領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS22の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。   In step S21, the CPU 30 determines whether or not the touch position in the immediately preceding frame is the vertex of the left-eye image 51a or the right-eye image 51b. Specifically, the CPU 30 refers to the previous touch position data 74 and determines whether or not the previous touch position is within a predetermined region including the vertex of the left-eye image 51a or the right-eye image 51b. If the determination result is affirmative, the CPU 30 next executes a process of step S22. On the other hand, when the determination result is negative, the CPU 30 ends the rotation and size change processing.

ステップS22において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS23の処理を実行する。   In step S22, the CPU 30 calculates a vector from the touch position in the immediately previous frame to the current touch position. Specifically, the CPU 30 refers to the current touch position data 73 and the previous touch position data 74, calculates a vector having the immediately previous touch position as the start point and the current touch position as the end point, and stores the vector in the main memory 31. . Next, the CPU 30 executes the process of step S23.

ステップS23において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS23の処理によって、直前のタッチ位置によって選択された画像(左目用画像51a又は右目用画像51b)の回転量又はサイズを変更する量が制限される。具体的には、CPU30は、ステップS22で
算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS24の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。
In step S23, the CPU 30 determines whether or not the distance between the touch position in the immediately previous frame and the current touch position is equal to or less than a threshold value. The amount of change in the amount of rotation or size of the image (left-eye image 51a or right-eye image 51b) selected by the immediately previous touch position is limited by the process in step S23. Specifically, the CPU 30 determines whether or not the magnitude of the vector calculated in step S22 is equal to or smaller than a predetermined threshold value. If the determination result is affirmative, the CPU 30 next executes a process of step S24. On the other hand, when the determination result is negative, the CPU 30 ends the rotation and size change processing.

ステップS24において、CPU30は、算出したベクトルに応じて、右目用画像又は左目用画像を回転又はサイズ変更させる。具体的には、CPU30は、ステップS22で算出されたベクトルの方向と大きさとに基づいて、直前のタッチ位置によって選択された画像を回転させたり、選択された画像のサイズを変更したりする。例えば、CPU30は、算出されたベクトルの方向が選択された画像の対角線方向である場合(所定の角度以下である場合)、当該ベクトルの大きさに応じて、選択された画像を拡大する。ここで、対角線方向とは、選択された画像の画像中心から直前のタッチ位置によって指示された頂点に向かう方向を示す。例えば、CPU30は、算出されたベクトルの方向が上記対角線方向と反対の方向である場合、選択された画像を縮小する。また、CPU30は、例えば、算出されたベクトルの方向が上記対角線方向と垂直である場合(所定の角度の範囲である場合)、当該ベクトルの大きさに応じて、選択された画像を画像中心周りに回転させる。次に、CPU30は、回転、サイズ変更処理を終了する。   In step S24, the CPU 30 rotates or changes the size of the right-eye image or the left-eye image according to the calculated vector. Specifically, the CPU 30 rotates the image selected by the immediately previous touch position or changes the size of the selected image based on the direction and size of the vector calculated in step S22. For example, when the calculated vector direction is the diagonal direction of the selected image (when it is equal to or smaller than a predetermined angle), the CPU 30 enlarges the selected image according to the size of the vector. Here, the diagonal direction indicates a direction from the image center of the selected image toward the vertex designated by the immediately previous touch position. For example, when the calculated vector direction is opposite to the diagonal direction, the CPU 30 reduces the selected image. In addition, for example, when the calculated vector direction is perpendicular to the diagonal direction (in a range of a predetermined angle), the CPU 30 displays the selected image around the center of the image according to the size of the vector. Rotate to Next, the CPU 30 ends the rotation and size change processing.

図14に戻り、ステップS3の処理の後、CPU30は、次にステップS4の処理を実行する。   Returning to FIG. 14, after the process of step S3, the CPU 30 next executes a process of step S4.

ステップS4において、CPU30は、ズーム処理を実行する。ステップS4においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をズーム(拡大又は縮小)する。ステップS4におけるズーム処理の詳細を、図17を用いて説明する。図17は、ズーム処理(ステップS4)の詳細を示すフローチャートである。   In step S4, the CPU 30 executes zoom processing. In step S4, the stereoscopic image 61 displayed on the stereoscopic image display device 11 is zoomed (enlarged or reduced) based on the touch position detected in step S1. Details of the zoom process in step S4 will be described with reference to FIG. FIG. 17 is a flowchart showing details of the zoom process (step S4).

ステップS31において、CPU30は、現在のタッチ位置がズーム調整バー56の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置が、ズーム調整バー56の表示領域(ズーム調整バー56が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS32の処理を実行する。一方、判定結果が否定の場合、CPU30は、ズーム処理を終了する。   In step S <b> 31, the CPU 30 determines whether or not the current touch position is within the display area of the zoom adjustment bar 56. Specifically, the CPU 30 refers to the current touch position data 73 of the main memory 31 and displays the current touch position on the display area of the zoom adjustment bar 56 (the zoom adjustment bar 56 is displayed on the screen of the flat image display device 12. It is determined whether or not it exists in the area). If the determination result is affirmative, the CPU 30 next executes a process of step S32. On the other hand, if the determination result is negative, the CPU 30 ends the zoom process.

ステップS32において、CPU30は、現在のタッチ位置にズーム調整バー56のスライダ57を移動させる。ステップS32においては、ズーム調整バー56のスライダ57がズーム調整バー56上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応するズーム調整バー56上の位置を算出し、メインメモリ31のズーム調整データ76に記憶する。次に、CPU30は、ステップS33の処理を実行する。   In step S32, the CPU 30 moves the slider 57 of the zoom adjustment bar 56 to the current touch position. In step S32, the slider 57 of the zoom adjustment bar 56 is moved in the horizontal direction on the zoom adjustment bar 56. Specifically, the CPU 30 calculates a position on the zoom adjustment bar 56 corresponding to the current touch position and stores it in the zoom adjustment data 76 of the main memory 31. Next, the CPU 30 executes the process of step S33.

ステップS33において、CPU30は、立体画像61のズーム設定を行う。ステップS33の処理は、後述するステップS6において立体画像表示装置11に表示される立体画像61をズームするための設定処理である。具体的には、CPU30は、ズーム調整バー56のスライダ57の位置に応じて、左目用画像51a及び右目用画像51bの双方を拡大又は縮小する度合いを決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS34の処理を実行する。   In step S <b> 33, the CPU 30 performs zoom setting for the stereoscopic image 61. The process of step S33 is a setting process for zooming the stereoscopic image 61 displayed on the stereoscopic image display device 11 in step S6 described later. Specifically, the CPU 30 determines the degree of enlargement or reduction of both the left-eye image 51 a and the right-eye image 51 b according to the position of the slider 57 of the zoom adjustment bar 56 and stores it in the main memory 31. Next, the CPU 30 executes the process of step S34.

ステップS34において、CPU30は、立体画像表示枠59を設定する。具体的には、CPU30は、ステップS33での立体画像61のズーム設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置と大きさとを算出し、立体画像表示枠データ77としてメインメモ
リ31に記憶する。立体画像表示枠59は、平面画像表示装置12の画像表示領域50に表示される枠であり、立体画像表示装置11に表示される立体画像61の領域に対応する左目用画像51a及び右目用画像51bの領域を示す。立体画像61がズームにより拡大された場合、立体画像表示装置11には、左目用画像51a及び右目用画像51bの一部しか表示されないことがある。なお、立体画像61がズームにより拡大された場合でも、立体画像表示装置11に左目用画像51a及び右目用画像51bの全部が表示される場合は、立体画像表示枠59は表示されない。次に、CPU30は、ズーム処理を終了する。
In step S <b> 34, the CPU 30 sets the stereoscopic image display frame 59. Specifically, the CPU 30 calculates the area of the stereoscopic image 61 displayed on the stereoscopic image display device 11 based on the zoom setting of the stereoscopic image 61 in step S33. That is, the CPU 30 calculates the position and size of the stereoscopic image display frame 59 and stores them in the main memory 31 as stereoscopic image display frame data 77. The stereoscopic image display frame 59 is a frame displayed in the image display area 50 of the planar image display device 12, and the left-eye image 51 a and the right-eye image corresponding to the region of the stereoscopic image 61 displayed on the stereoscopic image display device 11. The region 51b is shown. When the stereoscopic image 61 is enlarged by zooming, only a part of the left-eye image 51a and the right-eye image 51b may be displayed on the stereoscopic image display device 11. Even when the stereoscopic image 61 is enlarged by zooming, the stereoscopic image display frame 59 is not displayed when the left-eye image 51a and the right-eye image 51b are all displayed on the stereoscopic image display device 11. Next, the CPU 30 ends the zoom process.

図14に戻り、ステップS4の処理の後、CPU30は、次にステップS5の処理を実行する。   Returning to FIG. 14, after the process of step S4, the CPU 30 next executes the process of step S5.

ステップS5において、CPU30は、スクロール処理を実行する。ステップS5においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をスクロールする。ステップS5におけるスクロール処理の詳細を、図18を用いて説明する。図18は、スクロール処理(ステップS5)の詳細を示すフローチャートである。   In step S5, the CPU 30 executes a scroll process. In step S5, the stereoscopic image 61 displayed on the stereoscopic image display device 11 is scrolled based on the touch position detected in step S1. Details of the scroll processing in step S5 will be described with reference to FIG. FIG. 18 is a flowchart showing details of the scroll process (step S5).

ステップS41において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS42の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。   In step S41, the CPU 30 determines whether or not the touch position in the immediately preceding frame is within the display area of the left-eye image 51a or the right-eye image 51b. Specifically, the CPU 30 refers to the previous touch position data 74 and determines whether or not the previous touch position is within the display area of the left-eye image 51a or the right-eye image 51b. If the determination result is affirmative, the CPU 30 next executes a process of step S42. On the other hand, when the determination result is negative, the CPU 30 ends the scroll process.

ステップS42において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS43の処理を実行する。   In step S42, the CPU 30 calculates a vector from the touch position in the immediately previous frame to the current touch position. Specifically, the CPU 30 refers to the current touch position data 73 and the previous touch position data 74, calculates a vector having the immediately previous touch position as the start point and the current touch position as the end point, and stores the vector in the main memory 31. . Next, the CPU 30 executes the process of step S43.

ステップS43において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS43の処理によって、立体画像61のスクロール量が制限される。具体的には、CPU30は、ステップS42で算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS44の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。   In step S43, the CPU 30 determines whether or not the distance between the touch position in the immediately previous frame and the current touch position is equal to or less than a threshold value. The scroll amount of the stereoscopic image 61 is limited by the process of step S43. Specifically, the CPU 30 determines whether or not the magnitude of the vector calculated in step S42 is equal to or smaller than a predetermined threshold value. If the determination result is affirmative, the CPU 30 next executes a process of step S44. On the other hand, when the determination result is negative, the CPU 30 ends the scroll process.

ステップS44において、CPU30は、立体画像表示装置11に表示される立体画像61をスクロールさせる方向とスクロール量を設定する。具体的には、CPU30は、ステップS42で算出されたベクトルの方向と反対方向をスクロールさせる方向として決定し、メインメモリ31に記憶する。これにより、立体画像61に含まれる撮像対象画像は、ユーザがスティック16を移動させた方向に移動する。また、CPU30は、ステップS42で算出されたベクトルの大きさに応じて、スクロール量を決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS45の処理を実行する。   In step S <b> 44, the CPU 30 sets the scroll direction and scroll amount of the stereoscopic image 61 displayed on the stereoscopic image display device 11. Specifically, the CPU 30 determines the direction opposite to the vector direction calculated in step S 42 as the scroll direction and stores it in the main memory 31. Thereby, the imaging target image included in the stereoscopic image 61 moves in the direction in which the user moves the stick 16. Further, the CPU 30 determines a scroll amount according to the vector size calculated in step S <b> 42 and stores it in the main memory 31. Next, the CPU 30 executes the process of step S45.

ステップS45において、CPU30は、立体画像表示枠59を設定する。ステップS45の処理は、上述したステップS34の処理と同様である。具体的には、CPU30は、ステップS44での立体画像61のスクロール設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置を算出し、立体画像表示枠データ77としてメインメモリ31に記憶する。次
に、CPU30は、スクロール処理を終了する。
In step S45, the CPU 30 sets the stereoscopic image display frame 59. The process of step S45 is the same as the process of step S34 described above. Specifically, the CPU 30 calculates the area of the stereoscopic image 61 displayed on the stereoscopic image display device 11 based on the scroll setting of the stereoscopic image 61 in step S44. That is, the CPU 30 calculates the position of the stereoscopic image display frame 59 and stores it in the main memory 31 as stereoscopic image display frame data 77. Next, the CPU 30 ends the scroll process.

図14に戻り、ステップS5の処理の後、CPU30は、次にステップS6の処理を実行する。   Returning to FIG. 14, after the process of step S5, the CPU 30 next executes the process of step S6.

ステップS6において、CPU30は、立体画像表示装置11に立体画像61を表示させる。ステップS6においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが立体画像表示装置11に表示されることにより、立体画像61が表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらして、合成する。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを合成する。より具体的には、CPU30は、ステップS2又はS3で調整された2つの画像を、画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。また、CPU30は、ステップS4のズーム処理で設定されたズーム設定、又は、ステップS5のスクロール処理で設定されたスクロール設定に基づいて、表示領域を設定する。例えば、CPU30は、ステップS4でズーム設定された場合、決定された拡大又は縮小の度合いに応じて、表示領域を設定し、当該表示領域に対応する左目用画像51a及び右目用画像51bの領域を拡大又は縮小(デジタルズーム)する。また、例えば、CPU30は、ステップS5でスクロール設定された場合、スクロール方向とスクロール量とに基づいて、表示領域を設定する。なお、ステップS2からS5で調整された左目用画像51aと右目用画像51bと重ね合わせた場合に、重なり合う領域のみが、表示領域として設定される。そして、CPU30は、合成された画像の上記表示領域を立体画像表示装置11に表示させることにより、立体画像を表示する。次に、CPU30は、ステップS7の処理を実行する。   In step S <b> 6, the CPU 30 displays the stereoscopic image 61 on the stereoscopic image display device 11. In step S6, the left-eye image 51a and the right-eye image 51b adjusted in steps S2 to S5 are displayed on the stereoscopic image display device 11, whereby the stereoscopic image 61 is displayed. Specifically, the CPU 30 combines the positions of the left-eye image 51a and the right-eye image 51b by shifting the horizontal and vertical positions set in the process of step S2. Further, the CPU 30 synthesizes the left-eye image 51a and the right-eye image 51b using the image (left-eye image 51a or right-eye image 51b) that has been rotated or resized in step S3. More specifically, the CPU 30 divides the two images adjusted in step S2 or S3 into strips for each line in which pixels are arranged vertically, and alternately arranges the striped images. Thus, the two images are synthesized. Further, the CPU 30 sets the display area based on the zoom setting set in the zoom process in step S4 or the scroll setting set in the scroll process in step S5. For example, when the zoom setting is performed in step S4, the CPU 30 sets a display area according to the determined degree of enlargement or reduction, and sets the areas of the left-eye image 51a and the right-eye image 51b corresponding to the display area. Enlarge or reduce (digital zoom). Further, for example, when the scroll setting is made in step S5, the CPU 30 sets the display area based on the scroll direction and the scroll amount. Note that, when the left-eye image 51a and the right-eye image 51b adjusted in steps S2 to S5 are overlapped, only the overlapping region is set as the display region. Then, the CPU 30 displays the stereoscopic image by causing the stereoscopic image display device 11 to display the display area of the synthesized image. Next, the CPU 30 executes the process of step S7.

ステップS7において、CPU30は、平面画像表示装置12に左目用画像51a及び右目用画像51bを表示させる。ステップS7においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが平面画像表示装置12に表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらし、2つの画像を半透明にして重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12の画像表示領域50に表示させる。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを半透明で重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12に表示させる。ここで、平面画像表示装置12の画像表示領域50は、立体画像表示装置11の画面よりも小さい。従って、CPU30は、画像表示領域50と立体画像表示装置11の画面との大きさの比率に応じて、左目用画像51a及び右目用画像51bを縮小し、平面画像表示装置12に表示させる。また、CPU30は、ステップS4のズーム処理(S34)又はステップS5のスクロール処理(S45)で設定された立体画像表示枠59を平面画像表示装置12に表示させる。上述のように、立体画像表示装置11に表示される立体画像61がズーム又はスクロールされても、平面画像表示装置12に表示される画像はズーム又はスクロールされない。すなわち、ズーム又はスクロールによって立体画像61の全体が立体画像表示装置11に表示されない場合でも、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示される。これにより、ズーム又はスクロールされた場合でも、ユーザは左目用画像51a及び右目用画像51bの全体を確認しながら、画像を調整することができる。次に、CPU30は、ステップS8の処理を実行する。   In step S <b> 7, the CPU 30 displays the left-eye image 51 a and the right-eye image 51 b on the flat image display device 12. In step S7, the left-eye image 51a and the right-eye image 51b adjusted in steps S2 to S5 are displayed on the flat image display device 12. Specifically, the CPU 30 shifts the positions of the left-eye image 51a and the right-eye image 51b by the horizontal and vertical position shift amounts set in the process of step S2, and makes the two images translucent. Overlapping. Then, the CPU 30 displays the superimposed image in the image display area 50 of the flat image display device 12. Further, the CPU 30 superimposes the left-eye image 51a and the right-eye image 51b in a translucent manner using the image (left-eye image 51a or right-eye image 51b) that has been rotated or resized in step S3. Then, the CPU 30 causes the flat image display device 12 to display the superimposed image. Here, the image display area 50 of the flat image display device 12 is smaller than the screen of the stereoscopic image display device 11. Therefore, the CPU 30 reduces the left-eye image 51a and the right-eye image 51b according to the size ratio between the image display area 50 and the screen of the stereoscopic image display device 11, and displays the reduced image on the flat image display device 12. In addition, the CPU 30 causes the flat image display device 12 to display the stereoscopic image display frame 59 set in the zoom process (S34) in step S4 or the scroll process (S45) in step S5. As described above, even if the stereoscopic image 61 displayed on the stereoscopic image display device 11 is zoomed or scrolled, the image displayed on the flat image display device 12 is not zoomed or scrolled. That is, even when the entire stereoscopic image 61 is not displayed on the stereoscopic image display device 11 by zooming or scrolling, the entire left-eye image 51a and right-eye image 51b are displayed on the planar image display device 12. Thereby, even when zoomed or scrolled, the user can adjust the image while confirming the entire left-eye image 51a and right-eye image 51b. Next, the CPU 30 executes the process of step S8.

ステップS8において、CPU30は、調整終了か否かを判定する。CPU30は、例
えば、ユーザによって所定の操作がなされたか否か(例えば、図示しない下側ハウジング13bに配設されたボタン等が押されたか否か)を判定する。判定結果が否定の場合、CPU30は、次にステップS1の処理を実行する。判定結果が肯定の場合、CPU30は、図14に示す処理を終了する。以上で本実施形態に係る画像表示制御処理は終了する。
In step S8, the CPU 30 determines whether or not the adjustment is finished. For example, the CPU 30 determines whether or not a predetermined operation has been performed by the user (for example, whether or not a button or the like disposed on the lower housing 13b (not shown) has been pressed). If the determination result is negative, the CPU 30 next executes the process of step S1. If the determination result is affirmative, the CPU 30 ends the process shown in FIG. The image display control process according to the present embodiment is thus completed.

なお、上述した処理の内容や処理の順番等は、単なる例示に過ぎない。すなわち、上記位置調整処理や回転、サイズ変更処理等は具体的な例示に過ぎず、左目用画像51a及び右目用画像51bの相対的な位置、大きさ、回転は、どのように調整されてもよい。また、上記処理の順番はどのような順番であってもよい。   Note that the above-described processing contents, processing order, and the like are merely examples. That is, the position adjustment process, rotation, size change process, and the like are merely specific examples, and the relative positions, sizes, and rotations of the left-eye image 51a and the right-eye image 51b are adjusted in any way. Good. In addition, the order of the processing may be any order.

以上のように、左目用画像51a及び右目用画像51bの位置や大きさ、回転を調整することにより、ユーザは立体画像61の見え方を調整することができる。ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12の画面上で左目用画像51a及び右目用画像51bの位置、大きさ、回転を調整することができる。このため、ユーザは容易に立体画像61の見え方を調整することができる。   As described above, the user can adjust the appearance of the stereoscopic image 61 by adjusting the position, size, and rotation of the left-eye image 51a and the right-eye image 51b. The user can adjust the position, size, and rotation of the left-eye image 51 a and the right-eye image 51 b on the screen of the flat image display device 12 while viewing the stereoscopic image 61 displayed on the stereoscopic image display device 11. . For this reason, the user can easily adjust the appearance of the stereoscopic image 61.

なお、他の機器で撮像された左目用画像51a及び右目用画像51bが保存用データメモリ34を介して画像表示装置10に読み込まれてもよい。また、他の機器で撮像された左目用画像51a及び右目用画像51bが、通信モジュール35を介して画像表示装置10に提供されてもよい。   Note that the left-eye image 51 a and the right-eye image 51 b captured by another device may be read into the image display device 10 via the storage data memory 34. Further, the left-eye image 51 a and the right-eye image 51 b captured by another device may be provided to the image display device 10 via the communication module 35.

また、上記ステップS2及びS3で調整された左目用画像51aと右目用画像51bとの位置、大きさ、回転の調整量を示す情報を、左目用画像51a及び右目用画像51bの画像データとともに保存用データメモリ34に記憶してもよい。当該情報は、左目用画像51a及び右目用画像51bの画像データの一部として記憶されてもよい。そして、上記画像表示装置10とは異なる他の装置に保存用データメモリ34が接続され、保存用データメモリ34に記憶された画像データと上記調整量を示す情報とを用いて、調整された立体画像が当該他の装置の画面に表示されてもよい。   Further, information indicating the adjustment amount of the position, size, and rotation of the left-eye image 51a and the right-eye image 51b adjusted in steps S2 and S3 is stored together with the image data of the left-eye image 51a and the right-eye image 51b. The data may be stored in the data memory 34. The information may be stored as part of the image data of the left-eye image 51a and the right-eye image 51b. Then, the storage data memory 34 is connected to another device different from the image display device 10, and the three-dimensional data adjusted using the image data stored in the storage data memory 34 and the information indicating the adjustment amount are used. An image may be displayed on the screen of the other device.

また、上記実施形態では、立体画像がズーム又はスクロールされた場合においても、平面画像表示装置12に表示される平面画像(左目用画像51a及び右目用画像51b)は、ズーム又はスクロールされないこととした。他の実施形態では、立体画像がズーム又はスクロールされた場合、平面画像表示装置12に表示される平面画像もズーム又はスクロールされてもよい。すなわち、他の実施形態では、立体画像がズーム又はスクロールによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bの一部が平面画像表示装置12に表示されてもよい(左目用画像51a及び右目用画像51bの全体画像が表示されなくてもよい)。   In the above embodiment, even when the stereoscopic image is zoomed or scrolled, the planar images (the left-eye image 51a and the right-eye image 51b) displayed on the planar image display device 12 are not zoomed or scrolled. . In another embodiment, when the stereoscopic image is zoomed or scrolled, the planar image displayed on the planar image display device 12 may be zoomed or scrolled. That is, in another embodiment, a part of the left-eye image 51a and the right-eye image 51b displayed on the planar image display device 12 may be displayed on the planar image display device 12 by zooming or scrolling the stereoscopic image ( The entire image of the left-eye image 51a and the right-eye image 51b may not be displayed).

具体的には、図19に示すように、立体画像61がズーム及びスクロールされることによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bもズーム及びスクロールされてもよい。図19は、立体画像61がズーム及びスクロールされることに応じて、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bがズーム及びスクロールされる様子を示す図である。図19では、立体画像61がズーム及びスクロールされたことによって、左目用画像51a及び右目用画像51bの一部が半透明で重ね合わされて平面画像表示装置12に表示されている。具体的には、図19では、左目用画像51a及び右目用画像51bが重なり合う部分の一部と、重なり合わない部分の一部とが、平面画像表示装置12の画面に表示されている。また、左目用画像51a及び右目用画像51bが重なり合う部分の一部に対応する立体画像が、立体画像表示装置11の画面に表示されている。図19に示すように、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61の拡大比率と同じ比率で拡
大される。なお、立体画像表示装置11の画面は平面画像表示装置12の画像表示領域50より大きいため、撮像対象画像63は、撮像対象画像53a及び53bよりも大きく表示されている。また、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61がスクロールされることに応じて、スクロールされる。すなわち、平面画像表示装置12に表示される画像は、立体画像表示装置11に表示される画像と同じ画像である。このように、立体画像表示装置11に表示される立体画像と同様に、平面画像表示装置12に表示される平面画像もズーム及び/又はスクロールすることによって、ユーザにとって立体画像と平面画像との対応が分かりやすくなる。
Specifically, as shown in FIG. 19, the stereoscopic image 61 is zoomed and scrolled so that the left-eye image 51a and the right-eye image 51b displayed on the planar image display device 12 may be zoomed and scrolled. . FIG. 19 is a diagram illustrating a state in which the left-eye image 51a and the right-eye image 51b displayed on the planar image display device 12 are zoomed and scrolled in response to the stereoscopic image 61 being zoomed and scrolled. In FIG. 19, when the stereoscopic image 61 is zoomed and scrolled, a part of the left-eye image 51 a and the right-eye image 51 b are displayed on the flat image display device 12 in a semi-transparent manner. Specifically, in FIG. 19, a part of the part where the left-eye image 51 a and the right-eye image 51 b overlap and a part of the part which does not overlap are displayed on the screen of the flat image display device 12. In addition, a stereoscopic image corresponding to a part of a portion where the left-eye image 51 a and the right-eye image 51 b overlap is displayed on the screen of the stereoscopic image display device 11. As shown in FIG. 19, the left-eye image 51 a and the right-eye image 51 b displayed on the flat image display device 12 are magnified at the same ratio as the magnification ratio of the stereoscopic image 61. Since the screen of the stereoscopic image display device 11 is larger than the image display area 50 of the flat image display device 12, the imaging target image 63 is displayed larger than the imaging target images 53a and 53b. Further, the left-eye image 51a and the right-eye image 51b displayed on the flat image display device 12 are scrolled in response to the stereoscopic image 61 being scrolled. That is, the image displayed on the flat image display device 12 is the same image as the image displayed on the stereoscopic image display device 11. Thus, similarly to the stereoscopic image displayed on the stereoscopic image display device 11, the planar image displayed on the planar image display device 12 is also zoomed and / or scrolled, so that the correspondence between the stereoscopic image and the planar image for the user can be achieved. Becomes easier to understand.

また、上記実施形態では、平面画像表示装置12には、左目用画像51a及び右目用画像51bを半透明で重ね合わせた画像が表示されることとした。他の実施形態では、左目用画像51a及び右目用画像51bのずれ(位置、大きさ、及び、回転に関するずれ)がユーザによって認識できるような態様であれば、どのように表示されてもよい。例えば、2つの画像の輪郭をユーザが認識できるように強調表示して、2つの画像を半透明にせずに重畳表示させてもよい。すなわち、一方の画像によって他方の画像の一部が完全に隠れるように表示されてもよい。   In the above embodiment, the planar image display device 12 displays an image obtained by superimposing the left-eye image 51a and the right-eye image 51b in a translucent manner. In another embodiment, any display may be used as long as the user can recognize the shift (the shift in position, size, and rotation) between the left-eye image 51a and the right-eye image 51b. For example, the outlines of the two images may be highlighted so that the user can recognize them, and the two images may be superimposed and displayed without being translucent. That is, one image may be displayed so that a part of the other image is completely hidden.

また、左目用画像51a及び/又は右目用画像51bは、上記操作に限らずどのような操作によって位置、大きさ、又は、回転を調整されてもよい。例えば、下側ハウジング13bにボタン(十字ボタン等)が配設されてもよく、当該ボタン操作によって左目用画像51a及び/又は右目用画像51bの位置が調整されてもよい。具体的には、例えば、スティック16を用いて移動させる画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を右方向に移動させ、左方向ボタンが押された場合は選択された画像を左方向に移動させてもよい。また、例えば、スティック16を用いて回転する画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を時計回りに回転させ、左方向ボタンが押された場合は選択された画像を反時計回りに回転させてもよい。また、例えば、スティック16を用いて拡大又は縮小する画像が選択され、十字ボタンの上方向ボタンが押された場合は選択された画像を拡大させ、下方向ボタンが押された場合は選択された画像を縮小させてもよい。   Further, the position, size, or rotation of the left-eye image 51a and / or the right-eye image 51b is not limited to the above-described operation, and may be adjusted by any operation. For example, a button (a cross button or the like) may be disposed on the lower housing 13b, and the position of the left-eye image 51a and / or the right-eye image 51b may be adjusted by operating the button. Specifically, for example, when an image to be moved is selected using the stick 16 and the right button of the cross button is pressed, the selected image is moved to the right and the left button is pressed. May move the selected image to the left. Also, for example, an image to be rotated is selected using the stick 16, the selected image is rotated clockwise when the right button of the cross button is pressed, and is selected when the left button is pressed. The rotated image may be rotated counterclockwise. Also, for example, an image to be enlarged or reduced is selected using the stick 16, and the selected image is enlarged when the up button of the cross button is pressed, and is selected when the down button is pressed. The image may be reduced.

また、本実施形態では裸眼で立体表示可能なディスプレイを用いる場合について説明したが、時分割方式や偏向方式、アナグリフ方式(赤青眼鏡方式)などの眼鏡を用いて立体表示を行うような場合でも、本発明は適用可能である。   In this embodiment, the case where a display capable of stereoscopic display with the naked eye is used has been described. However, even when stereoscopic display is performed using glasses such as a time-division method, a deflection method, and an anaglyph method (red and blue glasses method). The present invention is applicable.

(第2の実施形態)
次に、第2の実施形態について、説明する。第2の実施形態では、上述した画像表示装置10がゲーム装置としても動作する。第2の実施形態に係る画像表示装置10の下側ハウジング13bには、ユーザによって操作される複数の操作ボタン(十字ボタンやその他のボタン)が設けられる。
(Second Embodiment)
Next, a second embodiment will be described. In the second embodiment, the image display device 10 described above also operates as a game device. The lower housing 13b of the image display apparatus 10 according to the second embodiment is provided with a plurality of operation buttons (a cross button and other buttons) operated by the user.

第2の実施形態に係る画像表示装置10は、第1のモードと、第2のモードとで動作する。第1のモードは、上記第1の実施形態のように左目画像撮像部18a及び右目画像撮像部18bで撮像した画像を用いて、立体画像表示装置11に立体画像を表示するモードである。第2のモードは、仮想ステレオカメラで撮像した画像を用いて、立体画像表示装置11にリアルタイムで立体画像を表示するモードである。第2のモードでは、仮想ステレオカメラ(左目用仮想カメラと右目用仮想カメラ)で仮想空間を撮像した画像が立体画像表示装置11に表示される。第2のモードでは、仮想ステレオカメラが3次元の仮想空間を撮像することにより、所定の視差を有する左目用画像と右目用画像とが生成される。画像表示装置10は、仮想空間をリアルタイムで撮像した左目用画像と右目用画像と合成することにより、立体画像表示装置11にリアルタイムで立体画像を表示する。   The image display apparatus 10 according to the second embodiment operates in the first mode and the second mode. The first mode is a mode in which a stereoscopic image is displayed on the stereoscopic image display device 11 using images captured by the left eye image capturing unit 18a and the right eye image capturing unit 18b as in the first embodiment. The second mode is a mode in which a stereoscopic image is displayed in real time on the stereoscopic image display device 11 using an image captured by the virtual stereo camera. In the second mode, an image obtained by capturing the virtual space with the virtual stereo camera (the left-eye virtual camera and the right-eye virtual camera) is displayed on the stereoscopic image display device 11. In the second mode, the virtual stereo camera captures a three-dimensional virtual space, thereby generating a left-eye image and a right-eye image having a predetermined parallax. The image display device 10 displays a stereoscopic image on the stereoscopic image display device 11 in real time by combining the left eye image and the right eye image obtained by capturing the virtual space in real time.

第2のモードにおいては、例えば、ユーザによって操作されるプレイヤキャラクタが3次元の仮想空間内を探検しながらストーリーが進行するロールプレイングゲームが想定される。当該ロールプレイングゲームでは、様々なゲームシーン(例えば、プレイヤキャラクタが洞窟内を探検するシーンや、プレイヤキャラクタが森を探検するシーン等)が予め用意されている。仮想ステレオカメラは、様々なゲームシーンに応じて、設定(ズーム設定、焦点位置の設定、左目用仮想カメラと右目用仮想カメラとの距離の設定等)が予めなされる。例えば、洞窟を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は予め第1の距離に設定され、森を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は第2の距離に予め設定される。   In the second mode, for example, a role-playing game in which a story progresses while a player character operated by a user explores a three-dimensional virtual space is assumed. In the role playing game, various game scenes (for example, a scene where the player character explores the cave, a scene where the player character explores the forest, etc.) are prepared in advance. The virtual stereo camera is set in advance according to various game scenes (zoom setting, focus position setting, distance setting between the left-eye virtual camera and the right-eye virtual camera, etc.). For example, in a scene for exploring a cave, the distance between the left-eye virtual camera and the right-eye virtual camera is set to a first distance in advance, and in a scene for exploring a forest, the distance between the left-eye virtual camera and the right-eye virtual camera. Is preset to the second distance.

2つの仮想カメラ(左目用仮想カメラ及び右目用仮想カメラ)間の距離は、3次元の仮想空間内に存在する様々な3次元オブジェクト(例えば、岩オブジェクトや木オブジェクト等)の奥行き方向の見え方に影響する。例えば、2つの仮想カメラ間の距離が比較的長い場合、3次元オブジェクトを撮像すると、当該3次元オブジェクトの奥行き方向がより長い立体画像が表示される。2つの仮想カメラ間の距離は、ゲームの各シーンに応じてゲームの設計者によって予め定められる。   The distance between two virtual cameras (the left-eye virtual camera and the right-eye virtual camera) is the depth direction of various three-dimensional objects (for example, rock objects and tree objects) existing in the three-dimensional virtual space. Affects. For example, when the distance between two virtual cameras is relatively long, when a three-dimensional object is imaged, a stereoscopic image in which the depth direction of the three-dimensional object is longer is displayed. The distance between the two virtual cameras is predetermined by the game designer according to each scene of the game.

ここで、第2の実施形態では、2つの仮想カメラ間の距離は、画像表示装置10のハードウェアスライダ14(図1参照)の位置に応じて調整される。すなわち、画像表示装置10のユーザは、自身にとってより見易い立体画像となるように、2つの仮想カメラ間の距離をハードウェアスライダ14を用いて調整することができる。具体的には、例えば、ハードウェアスライダ14の位置が可動範囲の中心に位置している場合、2つの仮想カメラ間の距離は、予め定められた値(デフォルト値)に設定される。また、例えば、ハードウェアスライダ14が右端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の125%に設定される。また、例えば、ハードウェアスライダ14が左端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の75%に設定される。   Here, in the second embodiment, the distance between the two virtual cameras is adjusted according to the position of the hardware slider 14 (see FIG. 1) of the image display apparatus 10. That is, the user of the image display device 10 can adjust the distance between the two virtual cameras using the hardware slider 14 so that the stereoscopic image is easier to see for the user. Specifically, for example, when the position of the hardware slider 14 is located at the center of the movable range, the distance between the two virtual cameras is set to a predetermined value (default value). For example, when the hardware slider 14 is located at the right end, the distance between the two virtual cameras is set to 125% of the default value. For example, when the hardware slider 14 is located at the left end, the distance between the two virtual cameras is set to 75% of the default value.

以上のように、第2の実施形態では、ユーザは、ハードウェアスライダ14を用いて、2つの仮想カメラ間の距離を調整することができる。これにより、立体画像の見え方を調整することができる。   As described above, in the second embodiment, the user can adjust the distance between two virtual cameras using the hardware slider 14. Thereby, the appearance of the stereoscopic image can be adjusted.

なお、第1のモードでは、左目画像撮像部18aと右目画像撮像部18bとの距離は調整できないため、ハードウェアスライダ14は、立体画像表示装置11に立体画像を表示するか否かを切り替えるスイッチとして利用される。第1のモードでは、例えば、ハードウェアスライダ14の位置が右端の場合、立体画像表示装置11に立体画像を表示させ、ハードウェアスライダ14の位置が左端の場合、立体画像表示装置11に立体画像を表示させない。立体画像表示装置11に立体画像を表示させない場合、立体画像表示装置11には、画像は表示されなくてもよいし、平面画像が表示されてもよい。   In the first mode, since the distance between the left-eye image capturing unit 18a and the right-eye image capturing unit 18b cannot be adjusted, the hardware slider 14 switches whether to display a stereoscopic image on the stereoscopic image display device 11. Used as In the first mode, for example, when the position of the hardware slider 14 is at the right end, a stereoscopic image is displayed on the stereoscopic image display device 11, and when the position of the hardware slider 14 is at the left end, the stereoscopic image display device 11 is displayed. Is not displayed. When a stereoscopic image is not displayed on the stereoscopic image display device 11, no image may be displayed on the stereoscopic image display device 11, or a planar image may be displayed.

次に、第2の実施形態に係る画像表示装置10において行われる処理の詳細について説明する。まず、当該処理の際にメインメモリ31に記憶される主なデータについて説明する。図20は、第2の実施形態に係る画像表示装置10のメインメモリ31のメモリマップを示す図である。図20に示されるように、メインメモリ31には、データ記憶領域80が設けられる。データ記憶領域80には、仮想カメラデータ81、操作データ82、キャラクタデータ83等が記憶される。これらのデータの他、メインメモリ31には、上記処理を実行するプログラムやゲームに登場する各種オブジェクトの画像データ等が記憶される。   Next, details of processing performed in the image display apparatus 10 according to the second embodiment will be described. First, main data stored in the main memory 31 during the processing will be described. FIG. 20 is a diagram illustrating a memory map of the main memory 31 of the image display apparatus 10 according to the second embodiment. As shown in FIG. 20, the main memory 31 is provided with a data storage area 80. The data storage area 80 stores virtual camera data 81, operation data 82, character data 83, and the like. In addition to these data, the main memory 31 stores a program for executing the above processing, image data of various objects appearing in the game, and the like.

仮想カメラデータ81は、ゲーム空間に存在する仮想ステレオカメラの設定に関するデータである。仮想ステレオカメラの設定には、仮想ステレオカメラの左目用仮想カメラと右目用仮想カメラとの距離、仮想ステレオカメラのズーム設定、及び、仮想ステレオカメラの注視点の位置等が含まれる。   The virtual camera data 81 is data relating to the setting of the virtual stereo camera existing in the game space. The virtual stereo camera settings include the distance between the left-eye virtual camera and the right-eye virtual camera of the virtual stereo camera, the zoom setting of the virtual stereo camera, the position of the gazing point of the virtual stereo camera, and the like.

操作データ82は、上記複数の操作ボタン(図示せず)への入力を示すデータである。ユーザによって各操作ボタンが押された場合、各操作ボタンが押されたことを示すデータがメインメモリ31に記憶される。   The operation data 82 is data indicating input to the plurality of operation buttons (not shown). When each operation button is pressed by the user, data indicating that each operation button has been pressed is stored in the main memory 31.

キャラクタデータ83は、ユーザによって操作される、ゲーム空間に存在するプレイヤキャラクタに関するデータであり、当該プレイヤキャラクタのゲーム空間における位置や当該プレイヤキャラクタの特性情報を含む。   The character data 83 is data relating to a player character that exists in the game space and is operated by the user, and includes the position of the player character in the game space and the characteristic information of the player character.

次に、第2の実施形態に係る処理の詳細について図21を用いて説明する。図21は、第2の実施形態に係る処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶されたプログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。なお、当該プログラムは、保存用データメモリ34に記憶されてもよいし、通信モジュール35を介して画像表示装置10に提供されてもよい。図21に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図21では、本発明に直接関連しない処理については記載を省略する。また、図21に示すステップS52〜ステップS56の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。   Next, details of the processing according to the second embodiment will be described with reference to FIG. FIG. 21 is a main flowchart showing details of the processing according to the second embodiment. When the power of the image display device 10 is turned on, the CPU 30 of the image display device 10 executes a startup program stored in the ROM 32, whereby each unit such as the main memory 31 is initialized. Next, the program stored in the ROM 32 is read into the main memory 31, and the CPU 30 starts executing the program. The program may be stored in the storage data memory 34 or may be provided to the image display device 10 via the communication module 35. The flowchart shown in FIG. 21 is a flowchart showing a process performed after the above process is completed. In FIG. 21, description of processing that is not directly related to the present invention is omitted. Further, the processing loop of step S52 to step S56 shown in FIG. 21 is repeatedly executed for each frame (for example, 1/30 second, referred to as frame time).

まず、ステップS51において、CPU30は、第1のモードが選択されたか否かを判定する。具体的には、CPU30は、平面画像表示装置12にユーザに上記第1のモード又は上記第2のモードを選択させる画面を表示し、ユーザからの入力を検出する。ユーザによって第1のモードが選択された場合、CPU30は、次にステップS57の処理を実行する。一方、ユーザによって第2のモードが選択された場合、CPU30は、次にステップS52の処理を実行する。   First, in step S51, the CPU 30 determines whether or not the first mode is selected. Specifically, the CPU 30 displays a screen that allows the user to select the first mode or the second mode on the flat image display device 12, and detects an input from the user. When the first mode is selected by the user, the CPU 30 next executes a process of step S57. On the other hand, when the second mode is selected by the user, the CPU 30 next executes a process of step S52.

ステップS52において、CPU30は、ハードウェアスライダ14の位置に応じて左目用仮想カメラと右目用仮想カメラとの間の距離を設定する。具体的には、CPU30は、ハードウェアスライダ14の位置を検出して、2つの仮想カメラ間の距離を算出し、仮想カメラデータ81としてメインメモリ31に記憶する。CPU30は、次にステップS53の処理を実行する。   In step S <b> 52, the CPU 30 sets the distance between the left-eye virtual camera and the right-eye virtual camera according to the position of the hardware slider 14. Specifically, the CPU 30 detects the position of the hardware slider 14, calculates the distance between the two virtual cameras, and stores it in the main memory 31 as virtual camera data 81. Next, the CPU 30 executes a process of step S53.

ステップS53において、CPU30は、操作データを取得する。具体的には、CPU30は、メインメモリ31を参照して、複数の操作ボタンに関する操作データを取得する。CPU30は、次にステップS54の処理を実行する。   In step S53, the CPU 30 acquires operation data. Specifically, the CPU 30 refers to the main memory 31 and acquires operation data regarding a plurality of operation buttons. Next, the CPU 30 executes the process of step S54.

ステップS54において、CPU30は、ゲーム処理を実行する。具体的には、CPU30は、ステップS53で取得した操作データに基づいて、プレイヤキャラクタのゲーム空間における位置を更新したり、プレイヤキャラクタに所定の動作を実行させたりする。また、CPU30は、ゲーム空間に存在するプレイヤキャラクタ以外のオブジェクトに所定の動作を実行させたりする。また、CPU30は、仮想ステレオカメラの注視点の位置を更新したり、ズーム設定を更新したりする。CPU30は、次にステップS55の処理を実行する。   In step S54, the CPU 30 executes a game process. Specifically, the CPU 30 updates the position of the player character in the game space or causes the player character to perform a predetermined action based on the operation data acquired in step S53. Further, the CPU 30 causes an object other than the player character existing in the game space to execute a predetermined action. Further, the CPU 30 updates the position of the gazing point of the virtual stereo camera or updates the zoom setting. Next, the CPU 30 executes a process of step S55.

ステップS55において、CPU30は、立体画像表示装置11に立体画像を表示させる。具体的には、CPU30は、仮想ステレオカメラでゲーム空間を撮像し、左目用画像と右目用画像とを取得する。そして、CPU30は、左目用画像と右目用画像とを合成して立体画像データを生成し、立体画像表示装置11に立体画像を表示させる。CPU30は、次にステップS56の処理を実行する。   In step S <b> 55, the CPU 30 displays a stereoscopic image on the stereoscopic image display device 11. Specifically, the CPU 30 captures the game space with a virtual stereo camera, and acquires a left-eye image and a right-eye image. Then, the CPU 30 combines the left-eye image and the right-eye image to generate stereoscopic image data, and causes the stereoscopic image display device 11 to display the stereoscopic image. Next, the CPU 30 executes a process of step S56.

ステップS56において、CPU30は、ゲーム終了か否かを判定する。例えば、CPU30は、ユーザによってゲーム終了を指示するボタン(複数の操作ボタンのうちの1つのボタン)が押されたか否かを判定する。判定結果が否定の場合、CPU30は、再びステップS52の処理を実行する。判定結果が肯定の場合、CPU30は、図21に示す処理を終了する。   In step S56, the CPU 30 determines whether or not the game is over. For example, the CPU 30 determines whether or not the user has pressed a button for instructing the end of the game (one of a plurality of operation buttons). When the determination result is negative, the CPU 30 executes the process of step S52 again. If the determination result is affirmative, the CPU 30 ends the process shown in FIG.

ステップS57において、CPU30は、第1のモードの処理を実行する。ステップS57の処理は、第1の実施形態における処理(図14のステップS1〜S8)と同様の処理であるが、図14におけるステップS5とステップS6との間において、図22に示すようにステップS58の判定処理が行われる。図22は、第1のモードの処理の詳細を示すフローチャートである。ステップS58において、CPU30は、ハードウェアスライダ14の位置が所定の位置(例えば、右端)か否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS6の処理を実行する。判定結果が否定の場合、CPU30は、次にステップS7の処理を実行する。   In step S57, the CPU 30 executes processing in the first mode. The process in step S57 is the same as the process in the first embodiment (steps S1 to S8 in FIG. 14), but between step S5 and step S6 in FIG. 14, as shown in FIG. The determination process of S58 is performed. FIG. 22 is a flowchart showing details of processing in the first mode. In step S58, the CPU 30 determines whether or not the position of the hardware slider 14 is a predetermined position (for example, the right end). If the determination result is affirmative, the CPU 30 next executes a process of step S6. If the determination result is negative, the CPU 30 next executes a process of step S7.

以上のように、第2の実施形態では、画像表示装置10は、既に撮像された左目用画像と右目用画像とを用いて立体画像を表示する第1のモードと、仮想空間に存在する仮想ステレオカメラによって撮像された左目用画像と右目用画像とを用いて立体画像を表示する第2のモードとで、動作する。   As described above, in the second embodiment, the image display device 10 includes the first mode in which a stereoscopic image is displayed using the left-eye image and the right-eye image that have already been captured, and the virtual that exists in the virtual space. The operation is performed in the second mode in which a stereoscopic image is displayed using the left-eye image and the right-eye image captured by the stereo camera.

第1のモードでは、左目用画像及び右目用画像は、ステレオカメラ18(左目画像撮像部18a及び右目画像撮像部18b)で撮像された画像であってもよいし、他のステレオカメラによって撮像された画像であってもよい。第1のモードでは、既に撮像された画像を用いるため、左目画像撮像部18aと右目画像撮像部18bとの距離によって生じる視差を変更することはできない。従って、第1のモードでは、ハードウェアスライダ14は、立体画像を表示させる/させないの切り替えを行うスイッチとして機能する。これにより、ユーザは、ハードウェアスライダ14を用いて立体表示のON/OFFを切り替えることができる。   In the first mode, the left-eye image and right-eye image may be images captured by the stereo camera 18 (the left-eye image capturing unit 18a and the right-eye image capturing unit 18b), or may be captured by another stereo camera. It may be an image. In the first mode, since an already captured image is used, the parallax caused by the distance between the left eye image capturing unit 18a and the right eye image capturing unit 18b cannot be changed. Therefore, in the first mode, the hardware slider 14 functions as a switch for switching between displaying and not displaying a stereoscopic image. Thereby, the user can switch ON / OFF of the stereoscopic display using the hardware slider 14.

一方、第2のモードでは、左目用画像及び右目用画像は、仮想ステレオカメラ(左目用仮想カメラ及び右目用仮想カメラ)によって撮像された画像であるため、左目用仮想カメラと右目用仮想カメラとの距離を任意に変更することができる。第2のモードでは、ハードウェアスライダ14を用いて、仮想カメラ間の距離(左目用仮想カメラと右目用仮想カメラとの距離)を変更する。従って、ユーザは、立体画像の見え方を調整することができる。また、ハードウェアスライダ14の位置に応じて仮想カメラ間の距離をデフォルト値から変更することができるため、ユーザはゲームのシーンに応じてハードウェアスライダ14を調整する必要がない。すなわち、各ゲームシーンで設定された仮想カメラ間の距離のデフォルト値は、設計者によって定められた値であり、そのような仮想カメラの設定で撮像された立体画像は、全てのユーザにとって違和感のない立体画像であるとは限らない。例えば、あるユーザにとっては、各ゲームシーンにおいて、デフォルト値の80%に仮想カメラ間の距離が設定された方が、より立体画像として見易い場合がある。従って、ハードウェアスライダ14の位置に応じて、仮想カメラ間の距離のデフォルト値に対する割合を設定することにより、各ゲームシーンにおいてハードウェアスライダ14の位置を調整する必要はない。   On the other hand, in the second mode, the left-eye image and the right-eye image are images captured by the virtual stereo camera (the left-eye virtual camera and the right-eye virtual camera). The distance can be arbitrarily changed. In the second mode, the hardware slider 14 is used to change the distance between the virtual cameras (the distance between the left-eye virtual camera and the right-eye virtual camera). Therefore, the user can adjust the appearance of the stereoscopic image. Further, since the distance between the virtual cameras can be changed from the default value according to the position of the hardware slider 14, the user does not need to adjust the hardware slider 14 according to the game scene. That is, the default value of the distance between the virtual cameras set in each game scene is a value determined by the designer, and the stereoscopic image captured with such virtual camera settings is uncomfortable for all users. It is not always a stereoscopic image. For example, for a certain user, it may be easier to view a stereoscopic image when the distance between virtual cameras is set to 80% of the default value in each game scene. Therefore, it is not necessary to adjust the position of the hardware slider 14 in each game scene by setting the ratio of the distance between the virtual cameras to the default value according to the position of the hardware slider 14.

なお、第2のモードにおいて、ハードウェアスライダ14の位置に応じて、左目用画像及び右目用画像の横方向のずれが設定されてもよい。すなわち、仮想カメラ間の距離を調整する替わりに、ハードウェアスライダ14の位置に応じて左目用画像及び右目用画像の横方向のずれを調整してもよい。   In the second mode, the horizontal shift between the left-eye image and the right-eye image may be set according to the position of the hardware slider 14. That is, instead of adjusting the distance between the virtual cameras, the horizontal shift between the left-eye image and the right-eye image may be adjusted according to the position of the hardware slider 14.

また、第2のモードにおいても、第1の実施形態のように位置調整バー54を用いて左目用画像と右目用画像とのずれ(横方向のずれ)が調整されてもよい。これによって、ユーザは、ゲーム空間に存在する所定のオブジェクトを立体画像表示装置11の画面に対して垂直な方向に移動させることができる。   Also in the second mode, the shift (lateral shift) between the left-eye image and the right-eye image may be adjusted using the position adjustment bar 54 as in the first embodiment. Accordingly, the user can move a predetermined object existing in the game space in a direction perpendicular to the screen of the stereoscopic image display device 11.

また、上記第1及び第2の実施形態では、立体画像表示装置11及び平面画像表示装置12の双方を備える携帯型の画像表示装置10を想定した。他の実施形態では、これらの装置は別々の装置として構成され、それらが接続されてもよい。例えば、立体表示可能な第1の表示装置と、平面表示のみを行う第2の表示装置と、上述した処理を行う制御装置とが、別々のハードウェアとして構成されてもよい。そして、これらの装置が、有線又は無線によって互いに接続されることによって、画像表示制御システムとして機能してもよい。   In the first and second embodiments, the portable image display device 10 including both the stereoscopic image display device 11 and the flat image display device 12 is assumed. In other embodiments, these devices may be configured as separate devices and they may be connected. For example, a first display device capable of stereoscopic display, a second display device that performs only planar display, and a control device that performs the above-described processing may be configured as separate hardware. Then, these devices may function as an image display control system by being connected to each other by wire or wirelessly.

また、他の実施形態では、立体表示を行う立体表示領域と平面表示を行う平面表示領域とが同時に設定可能な表示装置が、上記立体画像表示装置11及び平面画像表示装置12として、用いられてもよい。すなわち、このような表示装置の立体表示領域が立体画像表示手段、平面表示領域が平面画像表示手段として、用いられてもよい。   In another embodiment, a display device capable of simultaneously setting a stereoscopic display region for performing stereoscopic display and a planar display region for performing planar display is used as the stereoscopic image display device 11 and the planar image display device 12. Also good. That is, the stereoscopic display area of such a display device may be used as the stereoscopic image display means, and the flat display area may be used as the flat image display means.

また、他の実施形態では、表示装置とタッチパネルとを有する任意の情報処理装置(例えば、PDA(Personal Digital Assistant)、携帯電話等)や、マウス等のポインティングデバイスを備えたパーソナルコンピュータにも上記調整方法が適用されてもよい。   In other embodiments, the above adjustment is also applied to an arbitrary information processing apparatus (for example, a PDA (Personal Digital Assistant), a mobile phone, etc.) having a display device and a touch panel, or a personal computer having a pointing device such as a mouse. A method may be applied.

また、上記実施形態では、タッチパネルによる操作によって立体画像の調整(左目用画像と右目用画像の位置の調整)、立体画像のズームやスクロール等が行われた。他の実施形態では、マウス等のポインティングデバイスを操作することによって、立体画像の調整等が行われてもよい。例えば、画面に表示された位置調整バーのスライダが、マウス操作によって調整されてもよい。   In the above-described embodiment, the adjustment of the stereoscopic image (adjustment of the positions of the left-eye image and the right-eye image), the zooming and scrolling of the stereoscopic image, and the like are performed by the operation using the touch panel. In other embodiments, a stereoscopic image may be adjusted by operating a pointing device such as a mouse. For example, the slider of the position adjustment bar displayed on the screen may be adjusted by operating the mouse.

また、上記実施形態においては、画像表示装置10のCPU30が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われた。他の実施形態においては、上記処理の一部又は全部は、画像表示装置10が備える専用回路によって行われてもよい。例えば、立体画像表示装置11に表示する画像を生成する専用のGPU(Graphics Processing Unit)等が設けられてもよい。   Moreover, in the said embodiment, the process by the flowchart mentioned above was performed because CPU30 of the image display apparatus 10 performed a predetermined | prescribed program. In another embodiment, part or all of the above processing may be performed by a dedicated circuit included in the image display device 10. For example, a dedicated GPU (Graphics Processing Unit) for generating an image to be displayed on the stereoscopic image display device 11 may be provided.

10 画像表示装置
11 立体画像表示装置
12 平面画像表示装置
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 ハードウェアスライダ
15 タッチパネル
16 スティック
17 シャッターボタン
18 ステレオカメラ
18a 左目画像撮像部
18b 右目画像撮像部
30 CPU
31 メインメモリ
32 ROM
33 メモリ制御回路
34 保存用データメモリ
35 通信モジュール
40 調整部
41 入力制御部
42 第1表示制御部
43 第2表示制御部
50画像表示領域
51a 左目用画像
51b 右目用画像
54 位置調整バー
55 スライダ
56 ズーム調整バー
57 スライダ
59 立体画像表示枠
DESCRIPTION OF SYMBOLS 10 Image display apparatus 11 Stereoscopic image display apparatus 12 Planar image display apparatus 13 Housing 13a Upper housing 13b Lower housing 14 Hardware slider 15 Touch panel 16 Stick 17 Shutter button 18 Stereo camera 18a Left eye image imaging part 18b Right eye image imaging part 30 CPU
31 Main memory 32 ROM
33 memory control circuit 34 storage data memory 35 communication module 40 adjustment unit 41 input control unit 42 first display control unit 43 second display control unit 50 image display area 51a left-eye image 51b right-eye image 54 position adjustment bar 55 slider 56 Zoom adjustment bar 57 Slider 59 3D image display frame

Claims (25)

互いに視差を有する右目用画像と左目用画像とを用いて、立体表示可能な第1の表示手段に立体画像を表示させる表示制御装置のコンピュータにおいて実行される表示制御プログラムであって、前記コンピュータを、
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段として機能させる、表示制御プログラム。
A display control program executed on a computer of a display control device for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other, the computer comprising: ,
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. Display control program to function as.
前記第1の表示制御手段は、前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像とを重ね合わせた場合に、重なり合う部分である重複領域のみの前記立体画像を前記第1の表示手段に表示させ、
前記第2の表示制御手段は、前記調整手段で調整された右目用画像と左目用画像との重複領域とともに、該右目用画像と左目用画像とが重なり合わない部分である非重複領域を前記第2の表示手段に表示させる、請求項1に記載の表示制御プログラム。
When the first display control unit superimposes the right-eye image adjusted by the adjustment unit and the left-eye image adjusted by the adjustment unit, the first display control unit displays the stereoscopic image of only the overlapping region that is an overlapping portion. Displaying on the first display means;
The second display control unit includes a non-overlapping region that is a portion where the right-eye image and the left-eye image do not overlap with the overlapping region of the right-eye image and the left-eye image adjusted by the adjusting unit. The display control program according to claim 1, which is displayed on the second display means.
前記第1の表示制御手段は、前記右目用画像及び前記左目用画像の双方の大きさを変更することにより、前記立体画像をズームする、請求項1に記載の表示制御プログラム。   The display control program according to claim 1, wherein the first display control unit zooms the stereoscopic image by changing the size of both the right-eye image and the left-eye image. 前記第1の表示制御手段は、前記右目用画像及び前記左目用画像の双方の位置を変更することにより、前記立体画像をスクロールする、請求項1に記載の表示制御プログラム。   The display control program according to claim 1, wherein the first display control means scrolls the stereoscopic image by changing positions of both the right-eye image and the left-eye image. 前記第2の表示制御手段は、前記右目用画像及び前記左目用画像の双方の全体を前記第2の表示手段に表示させる、請求項3又は4に記載の表示制御プログラム。   The display control program according to claim 3 or 4, wherein the second display control means causes the second display means to display both the right-eye image and the left-eye image. 前記第2の表示制御手段は、前記第1の表示制御手段によって前記立体画像がズーム又はスクロールされることによって、前記第1の表示手段に前記立体画像の一部が表示される場合、当該立体画像の一部に対応する前記右目用画像及び前記左目用画像の領域を示す立体画像表示枠を、前記第2の表示手段に表示させる、請求項5に記載の表示制御プログラム。   When the stereoscopic display is zoomed or scrolled by the first display control unit and the part of the stereoscopic image is displayed on the first display unit, the second display control unit The display control program according to claim 5, wherein a stereoscopic image display frame indicating a region of the right-eye image and the left-eye image corresponding to a part of the image is displayed on the second display unit. 前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続され、
前記第2の表示手段に第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する、請求項1に記載の表示制御プログラム。
The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
The first adjustment bar is displayed on the second display means, and the first adjustment bar control means for adjusting the slider of the first adjustment bar according to the designated coordinates detected by the designated coordinate detection means, Make the computer work better,
The adjusting means has a relative position and size between the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means, and The display control program according to claim 1, wherein at least one of the rotations is adjusted.
前記第2の表示手段に第2の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第2の調整バーのスライダを調整する第2調整バー制御手段、として前記コンピュータをさらに機能させ、
前記第1の表示制御手段は、前記第2調整バー制御手段によって調整された第2の調整バーのスライダの位置に応じて、前記立体画像をズームする、請求項7に記載の表示制御
プログラム。
The second adjustment bar is displayed on the second display means, and the second adjustment bar control means adjusts the slider of the second adjustment bar according to the indicated coordinates detected by the indicated coordinate detection means. Make the computer work better,
The display control program according to claim 7, wherein the first display control unit zooms the stereoscopic image in accordance with a position of a slider of a second adjustment bar adjusted by the second adjustment bar control unit.
前記指示座標検出手段が検出する指示座標に基づいて、ユーザによって入力された方向を検出する方向検出手段として、前記コンピュータをさらに機能させ、
前記第1の表示制御手段は、前記方向検出手段によって検出された方向に基づいて、前記立体画像をスクロールさせる、請求項7又は8に記載の表示制御プログラム。
Based on the designated coordinates detected by the designated coordinate detecting means, the computer is further functioned as direction detecting means for detecting a direction input by a user,
The display control program according to claim 7 or 8, wherein the first display control means scrolls the stereoscopic image based on the direction detected by the direction detection means.
前記第2の表示制御手段は、前記右目用画像及び前記左目用画像を表示する画像表示領域を前記第2の表示手段に設定し、
前記画像表示領域のアスペクト比における横幅の割合は、前記右目用画像及び前記左目用画像のアスペクト比における横幅の割合よりも大きい、請求項1に記載の表示制御プログラム。
The second display control means sets an image display area for displaying the right-eye image and the left-eye image in the second display means,
The display control program according to claim 1, wherein a ratio of a horizontal width in an aspect ratio of the image display area is larger than a ratio of a horizontal width in an aspect ratio of the right-eye image and the left-eye image.
前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続され、
前記第2の表示手段の画面における前記画像表示領域とは異なる領域に、前記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該スライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整されたスライダの位置に応じて、前記右目用画像及び/又は前記左目用画像を横方向にずらす、請求項10に記載の表示制御プログラム。
The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
A first adjustment bar having a slider that is movable in a horizontal direction of the screen of the second display means is displayed in an area different from the image display area on the screen of the second display means, and the indicated coordinate detection is performed. Further causing the computer to function as first adjustment bar control means for adjusting the slider in accordance with the indicated coordinates detected by the means,
11. The display control program according to claim 10, wherein the adjustment unit shifts the right-eye image and / or the left-eye image in the horizontal direction according to the position of the slider adjusted by the first adjustment bar control unit.
前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続され、
前記第2の表示手段の画面の横方向に移動可能なスライダを有する第1の調整バーを前記第2の表示手段に表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダの位置を調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記第1調整バー制御手段は、前記指示座標検出手段が検出する指示座標に応じて、前記第1の調整バー自体を前記スライダの可動範囲よりも小さい範囲で前記第2の表示手段の画面の縦方向に移動させ、
前記調整手段は、前記第1調整バー制御手段によって前記スライダが横方向に移動された場合は、当該スライダの移動量に応じて、前記右目用画像及び/又は前記左目用画像の位置を横方向にずらし、前記第1調整バー制御手段によって前記第1の調整バーが縦方向に移動された場合は、当該第1の調整バーの移動量に応じて、前記右目用画像及び/又は前記左目用画像の位置を縦方向にずらす、請求項1に記載の表示制御プログラム。
The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
A first adjustment bar having a slider movable in the horizontal direction of the screen of the second display means is displayed on the second display means, and the first adjustment bar is displayed in accordance with the indicated coordinates detected by the indicated coordinate detecting means. Further causing the computer to function as first adjustment bar control means for adjusting the position of the slider of one adjustment bar,
The first adjustment bar control means moves the first adjustment bar itself on the screen of the second display means within a range smaller than the movable range of the slider according to the designated coordinates detected by the designated coordinate detection means. Move it vertically,
When the slider is moved in the horizontal direction by the first adjustment bar control means, the adjusting means sets the position of the right-eye image and / or the left-eye image in the horizontal direction according to the movement amount of the slider. When the first adjustment bar is moved in the vertical direction by the first adjustment bar control means, the right eye image and / or the left eye image is moved according to the amount of movement of the first adjustment bar. The display control program according to claim 1, wherein the image position is shifted in a vertical direction.
前記調整手段は、前記右目用画像と前記左目用画像との相対的な位置を、横方向に第1の範囲で調整可能であり、縦方向に該第1の範囲よりも小さい第2の範囲で調整可能である、請求項1に記載の表示制御プログラム。   The adjusting means is capable of adjusting a relative position between the right-eye image and the left-eye image in the first range in the horizontal direction, and a second range smaller than the first range in the vertical direction. The display control program according to claim 1, wherein the display control program is adjustable. 前記表示制御装置には、前記第2の表示手段の表示位置に対応した指示座標を検出する指示座標検出手段が接続され、
前記第2の表示手段に第1の調整バーを表示させ、前記指示座標検出手段が検出する指示座標に応じて、該第1の調整バーのスライダを調整する第1調整バー制御手段、として前記コンピュータをさらに機能させ、
前記調整手段は、前記第1調整バー制御手段によって調整された第1の調整バーのスライダの位置に応じて、前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整し、該調整した量を前記立体画像毎に記憶手段に記
憶する、請求項1に記載の表示制御プログラム。
The display control device is connected to an indicated coordinate detection means for detecting indicated coordinates corresponding to the display position of the second display means,
The first adjustment bar is displayed on the second display means, and the first adjustment bar control means for adjusting the slider of the first adjustment bar according to the designated coordinates detected by the designated coordinate detection means, Make the computer work better,
The adjusting means has a relative position and size between the right-eye image and the left-eye image according to the position of the slider of the first adjustment bar adjusted by the first adjustment bar control means, and The display control program according to claim 1, wherein at least one of the rotations is adjusted, and the adjusted amount is stored in a storage unit for each stereoscopic image.
前記表示制御装置は、ステレオカメラを備える、請求項1に記載の表示制御プログラム。   The display control program according to claim 1, wherein the display control device includes a stereo camera. 前記表示制御装置は、前記第1の表示手段及び前記第2の表示手段と一体として構成され、前記第1の表示手段と前記第2の表示手段とが折り畳み可能な携帯型表示装置である、請求項1に記載の表示制御プログラム。   The display control device is a portable display device that is configured integrally with the first display unit and the second display unit, and the first display unit and the second display unit are foldable. The display control program according to claim 1. 前記表示制御装置は、前記右目用画像と前記左目用画像とを記憶する記憶手段と着脱自在に接続される、請求項1に記載の表示制御プログラム。   The display control program according to claim 1, wherein the display control device is detachably connected to storage means for storing the right-eye image and the left-eye image. 前記表示制御装置は、前記右目用画像と前記左目用画像とを送受信可能な通信手段を備える、請求項1に記載の表示制御プログラム。   The display control program according to claim 1, wherein the display control device includes a communication unit capable of transmitting and receiving the right-eye image and the left-eye image. 前記表示制御装置は、所定方向に位置を調整可能なスライダを備え、
既に撮像された右目用画像と左目用画像とを用いる第1のモードと、2台の仮想カメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択するモード選択手段として、前記コンピュータをさらに機能させ、
前記第1の表示制御手段は、
前記モード選択手段で前記第1のモードが選択されている場合、前記既に撮像された右目用画像と左目用画像とを用いて前記立体画像を表示させ、
前記モード選択手段で前記第2のモードが選択されている場合、前記スライダの位置に応じて、前記仮想カメラ間の距離を調整し、該距離を調整された2台の仮想カメラで前記仮想空間を撮像した右目用画像と左目用画像とを用いて前記立体画像を表示させる、請求項1に記載の表示制御プログラム。
The display control device includes a slider whose position can be adjusted in a predetermined direction,
A mode for selecting a first mode that uses a right-eye image and a left-eye image that have already been captured, and a second mode that uses a right-eye image and a left-eye image obtained by capturing a virtual space with two virtual cameras. As a selection means, further function the computer,
The first display control means includes
When the first mode is selected by the mode selection means, the stereoscopic image is displayed using the already-captured right-eye image and left-eye image,
When the second mode is selected by the mode selection means, the distance between the virtual cameras is adjusted according to the position of the slider, and the virtual space is adjusted by two virtual cameras whose distances are adjusted. The display control program according to claim 1, wherein the stereoscopic image is displayed using a right-eye image and a left-eye image obtained by capturing the image.
前記第1の表示制御手段は、前記モード選択手段で前記第1のモードが選択されている場合において、前記スライダの位置が所定の位置である場合のみ、前記立体画像を表示させる、請求項19に記載の表示制御プログラム。   The first display control means displays the stereoscopic image only when the position of the slider is a predetermined position when the first mode is selected by the mode selection means. Display control program described in 1. 互いに視差を有する右目用画像と左目用画像とを用いて、立体表示可能な第1の表示手段に立体画像を表示させる表示制御装置であって、
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段と、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段と、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段とを備える、表示制御装置。
A display control device for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other,
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. A display control device.
互いに視差を有する右目用画像と左目用画像とを用いて、立体画像を表示可能な第1の表示手段と、
平面表示可能な第2の表示手段と、
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整手段と、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御手段と、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御手段とを備える、表示制御システム。
First display means capable of displaying a stereoscopic image using a right-eye image and a left-eye image having parallax with each other;
A second display means capable of planar display;
Adjusting means for adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means First display control means for displaying a stereoscopic image on one display means;
Second display control means for superimposing the right-eye image adjusted by the adjustment means and the left-eye image adjusted by the adjustment means, and displaying the superimposed planar image on a second display means capable of planar display. A display control system.
互いに視差を有する右目用画像と左目用画像とを用いて、立体表示可能な第1の表示手段に立体画像を表示させる表示制御方法であって、
前記右目用画像と前記左目用画像との相対的な位置、大きさ、及び、回転の少なくとも何れか1つを調整する調整ステップと、
前記調整手段で調整された右目用画像をユーザの右目に、前記調整手段で調整された左目用画像を該ユーザの左目に視認させるように前記第1の表示手段に表示させることにより、前記第1の表示手段に立体画像を表示させる第1の表示制御ステップと、
前記調整手段で調整された右目用画像と前記調整手段で調整された左目用画像と重ね合わせ、平面表示可能な第2の表示手段に該重ね合わせた平面画像を表示させる第2の表示制御ステップとを含む、方法。
A display control method for displaying a stereoscopic image on a first display means capable of stereoscopic display using a right-eye image and a left-eye image having parallax with each other,
An adjustment step of adjusting at least one of the relative position, size, and rotation of the right-eye image and the left-eye image;
By causing the first display means to display the right-eye image adjusted by the adjusting means so that the right-eye image adjusted by the adjusting means and the left-eye image adjusted by the adjusting means are visible to the user's left eye, the first display means A first display control step for displaying a stereoscopic image on one display means;
A second display control step of superimposing the right-eye image adjusted by the adjusting unit and the left-eye image adjusted by the adjusting unit, and displaying the superimposed planar image on a second display unit capable of planar display. Including a method.
所定方向に位置を調整可能なスライダを備える表示制御装置のコンピュータにおいて実行される表示制御プログラムであって、前記コンピュータを、
前記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する仮想カメラ設定手段、
前記仮想カメラ設定手段で設定されたカメラ間距離で前記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる表示制御手段、として機能させる、表示制御プログラム。
A display control program executed in a computer of a display control device including a slider whose position can be adjusted in a predetermined direction, the computer comprising:
Virtual camera setting means for setting a distance between two virtual cameras existing in a virtual space according to the position of the slider;
Functions as display control means for displaying a stereoscopic image on a display means capable of stereoscopic display using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at a distance between cameras set by the virtual camera setting means A display control program.
所定方向に位置を調整可能なスライダを備える表示制御装置であって、
前記スライダの位置に応じて、仮想空間に存在する2台の仮想カメラ間の距離を設定する仮想カメラ設定手段と、
前記仮想カメラ設定手段で設定されたカメラ間距離で前記仮想空間をリアルタイムで撮像した右目用画像と左目用画像と用いて、立体表示可能な表示手段に立体画像を表示させる表示制御手段とを備える、表示制御装置。
A display control device including a slider whose position can be adjusted in a predetermined direction,
Virtual camera setting means for setting a distance between two virtual cameras existing in a virtual space according to the position of the slider;
Display control means for displaying a stereoscopic image on a display means capable of stereoscopic display using a right-eye image and a left-eye image obtained by capturing the virtual space in real time at a distance between cameras set by the virtual camera setting means; , Display control device.
JP2011003949A 2010-01-14 2011-01-12 Display control program, display control apparatus, display control system, and display control method Pending JP2011166754A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011003949A JP2011166754A (en) 2010-01-14 2011-01-12 Display control program, display control apparatus, display control system, and display control method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010005955 2010-01-14
JP2010005955 2010-01-14
JP2011003949A JP2011166754A (en) 2010-01-14 2011-01-12 Display control program, display control apparatus, display control system, and display control method

Publications (1)

Publication Number Publication Date
JP2011166754A true JP2011166754A (en) 2011-08-25

Family

ID=44064930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011003949A Pending JP2011166754A (en) 2010-01-14 2011-01-12 Display control program, display control apparatus, display control system, and display control method

Country Status (3)

Country Link
US (2) US9128293B2 (en)
EP (1) EP2355526A3 (en)
JP (1) JP2011166754A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070286A (en) * 2011-09-22 2013-04-18 Nintendo Co Ltd Display control program, display control system, display control apparatus, and display control method
JP2013257621A (en) * 2012-06-11 2013-12-26 Nintendo Co Ltd Image display system, puzzle game system, image display method, puzzle game method, image display device, puzzle game device, image display program and puzzle game program
JP2016146656A (en) * 2016-03-24 2016-08-12 任天堂株式会社 Display control program, display control system, display control device, and display control method
KR20180117433A (en) * 2017-04-19 2018-10-29 주식회사 넥슨코리아 Method and system for testing stereo-scopic image
CN109572429A (en) * 2011-09-03 2019-04-05 大众汽车有限公司 For especially providing the method and apparatus of user interface in a motor vehicle
WO2020105272A1 (en) * 2018-11-21 2020-05-28 株式会社デンソー Virtual image display device and fused image adjustment operation device

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5800501B2 (en) 2010-03-12 2015-10-28 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
KR101731343B1 (en) * 2010-07-14 2017-04-28 엘지전자 주식회사 Mobile terminal and method for controlling thereof
FR2967324B1 (en) * 2010-11-05 2016-11-04 Transvideo METHOD AND DEVICE FOR CONTROLLING THE PHASING BETWEEN STEREOSCOPIC CAMERAS
WO2012065146A2 (en) 2010-11-12 2012-05-18 Wms Gaming, Inc. Integrating three-dimensional elements into gaming environments
US8721427B2 (en) 2010-12-14 2014-05-13 Bally Gaming, Inc. Gaming system, method and device for generating images having a parallax effect using face tracking
JP6089383B2 (en) * 2011-04-08 2017-03-08 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5909889B2 (en) * 2011-06-17 2016-04-27 ソニー株式会社 Imaging control apparatus and imaging control method
JP5367034B2 (en) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method
KR101888082B1 (en) * 2011-09-27 2018-09-10 엘지전자 주식회사 Image display apparatus, and method for operating the same
WO2013047415A1 (en) * 2011-09-29 2013-04-04 富士フイルム株式会社 Image processing apparatus, image capturing apparatus and visual disparity amount adjusting method
US20130222334A1 (en) * 2011-10-28 2013-08-29 Sony Mobile Communications Japan, Inc. Information processing apparatus
US9646453B2 (en) * 2011-12-23 2017-05-09 Bally Gaming, Inc. Integrating three-dimensional and two-dimensional gaming elements
TWI533663B (en) * 2012-01-17 2016-05-11 晨星半導體股份有限公司 Apparatus and method for processing 3-d image
JP5962092B2 (en) * 2012-03-16 2016-08-03 ソニー株式会社 Image processing apparatus and image processing method
JP2014038560A (en) * 2012-08-20 2014-02-27 Canon Inc Information processing device, information processing method, and program
US20150022631A1 (en) * 2013-07-17 2015-01-22 Htc Corporation Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
CN105092919B (en) * 2014-05-04 2017-11-10 固纬电子实业股份有限公司 The gear switch method of touch measuring instrument
JP6323183B2 (en) * 2014-06-04 2018-05-16 ソニー株式会社 Image processing apparatus and image processing method
US11284003B2 (en) * 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
CN105572888B (en) * 2016-02-04 2018-01-30 无锡博一光电科技有限公司 A kind of 3D display correction system and bearing calibration
JP2017211694A (en) * 2016-05-23 2017-11-30 ソニー株式会社 Information processing device, information processing method, and program
US10366536B2 (en) * 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
CN108114468A (en) * 2016-11-29 2018-06-05 三维视觉科技有限公司 Autostereoscopic 3D video camera implementation method and device
JP6949535B2 (en) * 2017-04-13 2021-10-13 キヤノン株式会社 Information processing equipment, information processing system, information processing method and program
JP7039179B2 (en) * 2017-04-13 2022-03-22 キヤノン株式会社 Information processing equipment, information processing system, information processing method and program
CN107959846B (en) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 Display device and image display method
CN111767700B (en) * 2019-04-01 2023-10-27 珠海金山办公软件有限公司 Graph adjustment method and device
CN112235561B (en) * 2020-10-16 2022-07-22 深圳市时代华影科技股份有限公司 LED display screen, display method and device and computer readable storage medium

Family Cites Families (234)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795621B2 (en) 1989-08-02 1995-10-11 沖電気工業株式会社 Chip component mounting structure
EP0425985B1 (en) 1989-10-25 1997-06-11 Hitachi, Ltd. Stereoscopic imaging system
JPH089421Y2 (en) 1990-07-31 1996-03-21 三菱自動車工業株式会社 Fuel injector
US5065236A (en) 1990-11-02 1991-11-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects
JPH04180180A (en) 1990-11-15 1992-06-26 Yokogawa Hewlett Packard Ltd Three-dimensional position input method and device
JPH04358181A (en) 1991-06-04 1992-12-11 Kanegafuchi Chem Ind Co Ltd Magnetic roll consisting of crystalline thermoplastic resin composite material and production thereof
EP0563737B1 (en) 1992-03-23 1997-09-10 Canon Kabushiki Kaisha Multilens imaging apparatus with correction of misregistration
US5309522A (en) 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
WO1994024631A1 (en) * 1993-04-20 1994-10-27 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
JPH06339155A (en) 1993-05-28 1994-12-06 Sharp Corp Three-dimensional image pickup system
JPH0759119A (en) 1993-08-20 1995-03-03 Seiko Epson Corp Pseudo stereoscopic video image display device
EP0888017A2 (en) 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Stereoscopic image display apparatus and related system
JPH07143524A (en) 1993-11-19 1995-06-02 Honda Motor Co Ltd On-vehicle stereo image display device
US5510832A (en) 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
KR0180026B1 (en) 1994-05-13 1999-05-01 마츠모도 세이야 Stereoscopio display using movement direction detection
US6118475A (en) 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
US6236748B1 (en) 1994-08-02 2001-05-22 Canon Kabushiki Kaisha Compound eye image pickup device utilizing plural image sensors and plural lenses
TW269094B (en) 1994-11-11 1996-01-21 Nitendo Kk Three dimensional visual image display device and electric game apparatus, memory device thereof
JPH08137428A (en) 1994-11-11 1996-05-31 Nintendo Co Ltd Image display device, image display system and program cartridge used for the same
JPH08136855A (en) 1994-11-11 1996-05-31 Nintendo Co Ltd Image display device, image display system and program cartridge used therefor
JP2716388B2 (en) 1994-12-26 1998-02-18 日本電気株式会社 Display device for stereoscopic images
JPH08205201A (en) 1995-01-31 1996-08-09 Sony Corp Pseudo stereoscopic vision method
JPH08331607A (en) 1995-03-29 1996-12-13 Sanyo Electric Co Ltd Three-dimensional display image generating method
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JP2848291B2 (en) 1995-08-24 1999-01-20 松下電器産業株式会社 3D TV device
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
JP3579162B2 (en) 1995-06-29 2004-10-20 松下電器産業株式会社 3D CG image generation device
US6369952B1 (en) 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US5964830A (en) 1995-08-22 1999-10-12 Durrett; Charles M. User portal device for the world wide web to communicate with a website server
KR100371456B1 (en) 1995-10-09 2004-03-30 닌텐도가부시키가이샤 Three-dimensional image processing system
WO1997015150A1 (en) 1995-10-19 1997-04-24 Sony Corporation Method and device for forming three-dimensional image
US6034740A (en) 1995-10-30 2000-03-07 Kabushiki Kaisha Photron Keying system and composite image producing method
US6088006A (en) 1995-12-20 2000-07-11 Olympus Optical Co., Ltd. Stereoscopic image generating system for substantially matching visual range with vergence distance
JP3525970B2 (en) 1996-01-19 2004-05-10 株式会社タイトー A parallax adjustment device for a game machine that can experience stereoscopic viewing
JP3575902B2 (en) 1996-01-24 2004-10-13 株式会社タイトー Adjusting device for binocular video incident position and convergence point of a game machine displaying a binocular stereoscopic video
US6163337A (en) 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
US6389179B1 (en) 1996-05-28 2002-05-14 Canon Kabushiki Kaisha Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
JPH09322199A (en) 1996-05-29 1997-12-12 Olympus Optical Co Ltd Stereoscopic video display device
EP0817125B1 (en) 1996-06-26 2004-09-08 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics moving image generating apparatus
JP3934211B2 (en) 1996-06-26 2007-06-20 松下電器産業株式会社 Stereoscopic CG video generation device
DE69706611T2 (en) 1996-06-27 2002-07-04 Kabushiki Kaisha Toshiba, Kawasaki Stereoscopic display system and method
JP3558104B2 (en) 1996-08-05 2004-08-25 ソニー株式会社 Three-dimensional virtual object display apparatus and method
US6310733B1 (en) 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
JP3962115B2 (en) 1996-11-08 2007-08-22 オリンパス株式会社 Video observation device
US6342900B1 (en) 1996-12-06 2002-01-29 Nikon Corporation Information processing apparatus
JP3771989B2 (en) 1997-03-24 2006-05-10 オリンパス株式会社 Image / audio communication system and videophone transmission / reception method
US6057833A (en) 1997-04-07 2000-05-02 Shoreline Studios Method and apparatus for providing real time enhancements and animations over a video image
US6002534A (en) 1997-04-09 1999-12-14 Minolta Co., Ltd. Optical apparatus with two optical systems and method for moving the two optical systems
US6252624B1 (en) 1997-07-18 2001-06-26 Idemitsu Kosan Co., Ltd. Three dimensional display
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
WO1999014983A1 (en) 1997-09-16 1999-03-25 Lake Dsp Pty. Limited Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener
US6762794B1 (en) 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
US8202094B2 (en) 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
JP4149037B2 (en) 1998-06-04 2008-09-10 オリンパス株式会社 Video system
JP3420504B2 (en) 1998-06-30 2003-06-23 キヤノン株式会社 Information processing method
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000069404A (en) 1998-08-25 2000-03-03 Konami Co Ltd Image print creating device
JP3786167B2 (en) 1998-08-31 2006-06-14 ソニー株式会社 Two-dimensional code recognition processing method, two-dimensional code recognition processing apparatus, and two-dimensional code recognition processing program storage medium
EP0984385B1 (en) 1998-08-31 2013-02-20 Sony Corporation Two-dimensional code recognition processing
JP2000078615A (en) 1998-09-02 2000-03-14 Sanyo Electric Co Ltd Digital broadcast receiver
US6504710B2 (en) 1998-11-27 2003-01-07 Xplore Technologies Corp. Method of interconnecting of a hand-held auxiliary unit, a portable computer and a peripheral device
JP3619063B2 (en) 1999-07-08 2005-02-09 キヤノン株式会社 Stereoscopic image processing apparatus, method thereof, stereoscopic parameter setting apparatus, method thereof and computer program storage medium
JP2001142166A (en) 1999-09-15 2001-05-25 Sharp Corp 3d camera
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
JP3728160B2 (en) 1999-12-06 2005-12-21 キヤノン株式会社 Depth image measuring apparatus and method, and mixed reality presentation system
JP2001165144A (en) 1999-12-07 2001-06-19 Fujitsu Ltd Folding cellphone
JP3459606B2 (en) 2000-03-03 2003-10-20 三洋電機株式会社 Foldable mobile phone
JP2001251399A (en) 2000-03-03 2001-09-14 Sanyo Electric Co Ltd Foldable mobile phone
JP3392801B2 (en) 2000-03-03 2003-03-31 三洋電機株式会社 Foldable mobile phone
KR100419927B1 (en) 2000-03-03 2004-02-25 산요덴키가부시키가이샤 Folder type portable phone
US6474819B2 (en) 2000-03-21 2002-11-05 Texas Instruments Incorporated Combination overhead projector and electronic display device
GB0010685D0 (en) 2000-05-03 2000-06-28 Koninkl Philips Electronics Nv Autostereoscopic display driver
JP2001326947A (en) * 2000-05-12 2001-11-22 Sony Corp Stereoscopic image display device
JP4590686B2 (en) 2000-05-12 2010-12-01 ソニー株式会社 Stereoscopic image display device
US6765568B2 (en) * 2000-06-12 2004-07-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002095018A (en) 2000-09-12 2002-03-29 Canon Inc Image display controller, image display system and method for displaying image data
JP3625184B2 (en) 2000-09-25 2005-03-02 コナミ株式会社 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
US7391420B1 (en) 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
US6820056B1 (en) 2000-11-21 2004-11-16 International Business Machines Corporation Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system
JP2002223458A (en) 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> Stereoscopic video image generator
JP3398796B2 (en) 2001-01-31 2003-04-21 飛島建設株式会社 Image system for 3D survey support using mixed reality
GB0105801D0 (en) 2001-03-09 2001-04-25 Koninkl Philips Electronics Nv Apparatus
JP4624582B2 (en) 2001-03-21 2011-02-02 株式会社バンダイナムコゲームス Image generating apparatus, program, and information storage medium
JP4610799B2 (en) 2001-06-25 2011-01-12 オリンパス株式会社 Stereoscopic observation system and endoscope apparatus
US20030112508A1 (en) 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
TW584815B (en) 2001-09-13 2004-04-21 Silicon Integrated Sys Corp Method for removing noise regions in a stereo 3D display system
JP2003107603A (en) 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
US7193626B2 (en) * 2002-03-08 2007-03-20 Topcon Corporation Device and method for displaying stereo image
JP3691444B2 (en) * 2002-03-11 2005-09-07 三洋電機株式会社 Stereo imaging device
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP3749227B2 (en) 2002-03-27 2006-02-22 三洋電機株式会社 Stereoscopic image processing method and apparatus
KR100977193B1 (en) 2002-04-25 2010-08-20 샤프 가부시키가이샤 Image data creation device, image data reproduction device, and image data recording medium
JP4061473B2 (en) 2002-04-26 2008-03-19 日本電気株式会社 Folding mobile phone
JP2003333624A (en) 2002-05-10 2003-11-21 Sharp Corp Electronic apparatus
JP2003348621A (en) 2002-05-27 2003-12-05 Canon Inc Means for setting two-viewpoint camera
JP2004007214A (en) 2002-05-31 2004-01-08 Canon Inc Image pickup unit
US20050239521A1 (en) 2002-06-07 2005-10-27 Hideo Harada Collapsible mobile telephone
JP2003067784A (en) 2002-07-30 2003-03-07 Canon Inc Information processor
EP1403759A3 (en) 2002-09-17 2007-04-04 Sharp Kabushiki Kaisha Electronic equipment with two and three dimensional display functions
JP3973525B2 (en) 2002-09-24 2007-09-12 シャープ株式会社 Electronic device having 2D (2D) and 3D (3D) display functions
JP2004109330A (en) 2002-09-17 2004-04-08 Sharp Corp Electronic apparatus equipped with two dimensional and three dimensional display function
CN100376924C (en) 2002-09-19 2008-03-26 三菱电机株式会社 Display unit and electronic apparatus equipped with display unit
EP2315454B1 (en) 2002-09-27 2012-07-25 Sharp Kabushiki Kaisha 3-D image display device
JP4228646B2 (en) 2002-10-02 2009-02-25 株式会社セガ Stereoscopic image generation method and stereoscopic image generation apparatus
US20040070667A1 (en) 2002-10-10 2004-04-15 Fuji Photo Optical Co., Ltd. Electronic stereoscopic imaging system
JP2004159014A (en) 2002-11-05 2004-06-03 Nec Corp Digital camera attached mobile communication terminal
US7321682B2 (en) * 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
JP4190263B2 (en) 2002-11-25 2008-12-03 三洋電機株式会社 Stereoscopic video providing method and stereoscopic video display device
WO2004049734A1 (en) 2002-11-28 2004-06-10 Seijiro Tomita Three-dimensional image signal producing circuit and three-dimensional image display apparatus
JP4400172B2 (en) 2003-02-28 2010-01-20 日本電気株式会社 Image display device, portable terminal device, display panel, and image display method
US20040214637A1 (en) 2003-03-03 2004-10-28 Nobuyuki Nonaka Gaming machine
WO2004084560A1 (en) 2003-03-20 2004-09-30 Seijiro Tomita Stereoscopic video photographing/displaying system
JP3962699B2 (en) 2003-03-20 2007-08-22 株式会社ソフィア Game machine
JP2004287902A (en) 2003-03-24 2004-10-14 Olympus Corp Composite reality image presentation device
JP2004297540A (en) 2003-03-27 2004-10-21 Sharp Corp Stereoscopic video recording and reproducing device
JP2004294861A (en) 2003-03-27 2004-10-21 Sanyo Electric Co Ltd Stereoscopic image display device
EP1617684A4 (en) * 2003-04-17 2009-06-03 Sharp Kk 3-dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
WO2004107764A1 (en) 2003-05-27 2004-12-09 Sanyo Electric Co., Ltd. Image display device and program
WO2004106856A1 (en) 2003-05-29 2004-12-09 Olympus Corporation Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
JP4378118B2 (en) 2003-06-27 2009-12-02 学校法人早稲田大学 3D image presentation device
JP2005073038A (en) 2003-08-26 2005-03-17 Casio Comput Co Ltd Electronic equipment with three-dimensional display function
JPWO2005032228A1 (en) 2003-09-26 2007-11-15 株式会社ソニー・コンピュータエンタテインメント Portable electronic device
JP4251952B2 (en) 2003-10-01 2009-04-08 シャープ株式会社 Stereoscopic image display apparatus and stereoscopic image display method
JP4338500B2 (en) 2003-11-14 2009-10-07 富士フイルム株式会社 Imaging device
JP2005165614A (en) 2003-12-02 2005-06-23 Canon Inc Device and method for synthesizing picture
JP2005165776A (en) 2003-12-03 2005-06-23 Canon Inc Image processing method and image processor
GB0329312D0 (en) 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
JP2005204754A (en) 2004-01-20 2005-08-04 Nintendo Co Ltd Game system employing touch panel input
JP4376650B2 (en) 2004-02-09 2009-12-02 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
US7660472B2 (en) 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
JP2005250950A (en) 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> Marker presentation portable terminal, expanded sense of reality system, and its operation method
JP2005286714A (en) 2004-03-30 2005-10-13 Nec Corp Mobile phone
JP4537104B2 (en) 2004-03-31 2010-09-01 キヤノン株式会社 Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
JP3770497B2 (en) 2004-03-31 2006-04-26 任天堂株式会社 Portable game machine and game program
JP2005353047A (en) 2004-05-13 2005-12-22 Sanyo Electric Co Ltd Three-dimensional image processing method and three-dimensional image processor
US7671916B2 (en) 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
JP2006024175A (en) 2004-06-11 2006-01-26 Doshisha Mobile terminal and adapter
JP4771671B2 (en) 2004-07-16 2011-09-14 シャープ株式会社 Imaging device and imaging display device
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006060516A (en) 2004-08-20 2006-03-02 Sharp Corp Foldable cellular phone
JP3841806B2 (en) 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method
US7991220B2 (en) 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP4587166B2 (en) 2004-09-14 2010-11-24 キヤノン株式会社 Moving body tracking system, photographing apparatus, and photographing method
JP4302024B2 (en) 2004-09-17 2009-07-22 株式会社ソニー・コンピュータエンタテインメント Button structure, portable electronic device
CN101308441B (en) * 2004-10-12 2010-09-22 日本电信电话株式会社 3d display control method and 3d display control device
JP4688473B2 (en) 2004-11-02 2011-05-25 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
CN101080762A (en) 2004-11-19 2007-11-28 Daem交互有限公司 Personal device and method with image-acquisition functions for the application of augmented reality resources
JP2006165795A (en) * 2004-12-03 2006-06-22 Canon Inc Image forming device and image forming method
JP2006178900A (en) 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
WO2006081362A2 (en) 2005-01-27 2006-08-03 Aperio Technologies, Inc Systems and methods for viewing three dimensional virtual slides
JP2006271663A (en) 2005-03-29 2006-10-12 Namco Bandai Games Inc Program, information storage medium, and image pickup and display device
KR101086412B1 (en) 2005-04-04 2011-11-25 삼성전자주식회사 Stereo-scopic display apparatus capable of switching 2D/3D image
BRPI0520196A2 (en) 2005-04-25 2009-04-22 Yappa Corp 3d image generation and display system
EP1720131B1 (en) 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
KR100662845B1 (en) 2005-06-30 2007-01-02 삼성전자주식회사 Memory card slot door and digital mobile apparatus having the same
JP2007044244A (en) 2005-08-10 2007-02-22 Seiko Epson Corp Display device, game machine and control method of display device
CN101674415B (en) 2005-09-09 2011-12-07 佳能株式会社 Image pickup apparatus
JP4508991B2 (en) 2005-09-09 2010-07-21 キヤノン株式会社 Imaging device
JP4358181B2 (en) * 2005-11-11 2009-11-04 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
US8189038B2 (en) 2005-12-21 2012-05-29 International Business Machines Corporation Stereographic projection apparatus with passive eyewear utilizing a continuously variable polarizing element
KR100754202B1 (en) 2006-01-26 2007-09-03 삼성전자주식회사 3D image displaying apparatus and method using eye detection information
JP2007206807A (en) 2006-01-31 2007-08-16 Nippon Hoso Kyokai <Nhk> Image composing device and image composing program
US20070210749A1 (en) 2006-03-13 2007-09-13 Jason Hsieh Portable charger
KR100893616B1 (en) 2006-04-17 2009-04-20 삼성모바일디스플레이주식회사 Electronic imaging device, 2d/3d image display device and the driving method thereof
JP5011842B2 (en) 2006-06-22 2012-08-29 株式会社ニコン Image playback device
KR100713220B1 (en) * 2006-07-28 2007-05-02 (주)블루비스 3d image editing apparatus and method thereof
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP4796926B2 (en) 2006-09-21 2011-10-19 株式会社ソニー・コンピュータエンタテインメント Electronic device casing and electronic device
WO2008038215A2 (en) 2006-09-29 2008-04-03 Koninklijke Philips Electronics N.V. 3d connected shadow mouse pointer
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP2008146109A (en) 2006-12-05 2008-06-26 Canon Inc Image processing method and image processor
JP4692770B2 (en) 2006-12-27 2011-06-01 富士フイルム株式会社 Compound eye digital camera
JP4757812B2 (en) * 2007-02-20 2011-08-24 富士フイルム株式会社 Stereoscopic imaging apparatus, method, and program
KR101345303B1 (en) * 2007-03-29 2013-12-27 삼성전자주식회사 Dynamic depth control method or apparatus in stereo-view or multiview sequence images
JP2007256960A (en) 2007-04-12 2007-10-04 Olympus Corp Head wearing type video display apparatus
US8305428B2 (en) 2007-04-18 2012-11-06 Inlife-Handnet Co., Ltd Stereo video shooting and viewing device
JP4892405B2 (en) 2007-05-18 2012-03-07 キヤノン株式会社 Image processing apparatus and method
EP2009868B1 (en) 2007-06-29 2016-09-07 Alcatel Lucent Method and system for improving the appearance of a person on the RTP stream coming from a media terminal
US20090027330A1 (en) 2007-07-26 2009-01-29 Konami Gaming, Incorporated Device for using virtual mouse and gaming machine
KR100927720B1 (en) 2007-08-24 2009-11-18 삼성모바일디스플레이주식회사 Electronic imaging equipment
US8917985B2 (en) 2007-08-29 2014-12-23 Nintendo Co., Ltd. Imaging apparatus
US8177441B2 (en) 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
EP2039398B1 (en) 2007-08-29 2016-05-04 Nintendo Co., Ltd. Imaging apparatus
JP4260215B1 (en) * 2007-08-29 2009-04-30 任天堂株式会社 Imaging device
JP4982862B2 (en) 2007-09-07 2012-07-25 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2009147863A (en) 2007-12-18 2009-07-02 Ricoh Co Ltd Electronic device and method of displaying attitude angle
US20090160936A1 (en) 2007-12-21 2009-06-25 Mccormack Kenneth Methods and apparatus for operating a video camera assembly
JP2009171064A (en) 2008-01-11 2009-07-30 Sharp Corp Photographing device, cellular phone
US20090181733A1 (en) 2008-01-15 2009-07-16 Sony Ericsson Mobile Communications Ab Portable communication device having a multi-axis hinge assembly
JP2009205556A (en) 2008-02-28 2009-09-10 Panasonic Corp User interface device
US20090275366A1 (en) * 2008-05-05 2009-11-05 Schilling Donald L Personal portable communication devices with deployable display systems for three dimensional visual representations and/or privacy and methods of use
JP2009278456A (en) 2008-05-15 2009-11-26 Hitachi Ltd Video display device
JP5045559B2 (en) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 Mobile device
JP5354975B2 (en) 2008-06-27 2013-11-27 キヤノン株式会社 Recording apparatus and conveyance control method
CN102099728A (en) 2008-07-15 2011-06-15 株式会社Ip舍路信 Naked eye three-dimensional video image display system, naked eye three-dimensional video image display device, amusement game machine and parallax barrier sheet
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
USD603363S1 (en) 2008-08-18 2009-11-03 Samsung Electronics, Ltd. Mobile phone
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method
US20100048290A1 (en) 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
JP4895312B2 (en) 2008-08-27 2012-03-14 富士フイルム株式会社 Three-dimensional display device, method and program
JP5358152B2 (en) 2008-10-03 2013-12-04 任天堂株式会社 Handheld information processing device
US8345956B2 (en) 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
KR20100050103A (en) 2008-11-05 2010-05-13 엘지전자 주식회사 Method of controlling 3 dimension individual object on map and mobile terminal using the same
KR20100053349A (en) 2008-11-12 2010-05-20 엘지전자 주식회사 Touch module, fabaricating method thereof, and portable terminal having the same
WO2010061689A1 (en) 2008-11-26 2010-06-03 日本電気株式会社 Display device, terminal device, and display method
JP4653212B2 (en) 2008-12-25 2011-03-16 富士通株式会社 Folding mobile phone
JP4834116B2 (en) 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント Augmented reality display device, augmented reality display method, and program
JP2010226362A (en) 2009-03-23 2010-10-07 Fujifilm Corp Imaging apparatus and control method thereof
JP5320133B2 (en) 2009-03-31 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ Information presentation system, information presentation server, communication terminal, and information presentation method
US8493384B1 (en) 2009-04-01 2013-07-23 Perceptive Pixel Inc. 3D manipulation using applied pressure
US20100257252A1 (en) 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
JP5409107B2 (en) 2009-05-13 2014-02-05 任天堂株式会社 Display control program, information processing apparatus, display control method, and information processing system
JP4864117B2 (en) 2009-05-22 2012-02-01 株式会社スクウェア・エニックス Image generating apparatus and method, program, and recording medium
KR101719980B1 (en) 2010-06-22 2017-03-27 엘지전자 주식회사 Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
KR101615238B1 (en) 2009-07-21 2016-05-12 삼성전자주식회사 Image processing apparatus and method
JP2011035592A (en) 2009-07-31 2011-02-17 Nintendo Co Ltd Display control program and information processing system
US8715031B2 (en) 2009-08-06 2014-05-06 Peter Sui Lun Fong Interactive device with sound-based action synchronization
JP5405264B2 (en) 2009-10-20 2014-02-05 任天堂株式会社 Display control program, library program, information processing system, and display control method
JP4754031B2 (en) 2009-11-04 2011-08-24 任天堂株式会社 Display control program, information processing system, and program used for stereoscopic display control
TWI459796B (en) 2009-12-29 2014-11-01 Ind Tech Res Inst A method and a device for generating a multi-views three-dimensional (3d) stereoscopic image
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (en) 2010-01-14 2016-04-06 任天堂株式会社 Portable information processing device, portable game device
JP2011145609A (en) 2010-01-18 2011-07-28 Clarion Co Ltd Map display apparatus and map display method
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
JP5800501B2 (en) 2010-03-12 2015-10-28 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
US9192286B2 (en) 2010-03-12 2015-11-24 Viking Systems, Inc. Stereoscopic visualization system
JP5872185B2 (en) 2010-05-27 2016-03-01 任天堂株式会社 Portable electronic devices
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP5647819B2 (en) 2010-06-11 2015-01-07 任天堂株式会社 Portable electronic devices
JP6021296B2 (en) 2010-12-16 2016-11-09 任天堂株式会社 Display control program, display control device, display control system, and display control method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572429A (en) * 2011-09-03 2019-04-05 大众汽车有限公司 For especially providing the method and apparatus of user interface in a motor vehicle
JP2013070286A (en) * 2011-09-22 2013-04-18 Nintendo Co Ltd Display control program, display control system, display control apparatus, and display control method
JP2013257621A (en) * 2012-06-11 2013-12-26 Nintendo Co Ltd Image display system, puzzle game system, image display method, puzzle game method, image display device, puzzle game device, image display program and puzzle game program
JP2016146656A (en) * 2016-03-24 2016-08-12 任天堂株式会社 Display control program, display control system, display control device, and display control method
KR20180117433A (en) * 2017-04-19 2018-10-29 주식회사 넥슨코리아 Method and system for testing stereo-scopic image
KR102374424B1 (en) * 2017-04-19 2022-03-14 주식회사 넥슨코리아 Method and system for testing stereo-scopic image
WO2020105272A1 (en) * 2018-11-21 2020-05-28 株式会社デンソー Virtual image display device and fused image adjustment operation device
JP2020086069A (en) * 2018-11-21 2020-06-04 株式会社デンソー Virtual image display device and fusion adjustment operation device

Also Published As

Publication number Publication date
US9696555B2 (en) 2017-07-04
US20140104684A1 (en) 2014-04-17
US9128293B2 (en) 2015-09-08
EP2355526A2 (en) 2011-08-10
EP2355526A3 (en) 2012-10-31
US20110221866A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP5898842B2 (en) Portable information processing device, portable game device
JP2011166754A (en) Display control program, display control apparatus, display control system, and display control method
JP5689707B2 (en) Display control program, display control device, display control system, and display control method
JP5800501B2 (en) Display control program, display control apparatus, display control system, and display control method
JP5725902B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
TW201336294A (en) Stereoscopic imaging system and method thereof
JP2012065801A (en) Display control program, display control apparatus, display control method, and display control system
JP2011172253A (en) Display control program, display controller, display control system, and display control method
US20120133641A1 (en) Hand-held electronic device
JP5876983B2 (en) Display control program, display control device, display control method, and display control system
JP5723149B2 (en) Image processing system, image processing program, image processing method, and image processing apparatus
JP5785732B2 (en) Information processing program, imaging apparatus, imaging method, and imaging system
JP5770018B2 (en) Display control program, display control apparatus, display control method, and display control system
JP5439460B2 (en) Display control program, display control apparatus, display control system, and display control method
JP2020108112A (en) Electronic apparatus and method for controlling the same
JP2012175358A (en) Display control program, display control device, display control method and display control system
JP7427739B2 (en) display device
EP2650844B1 (en) Information processing apparatus, information processing program, and information processing method and system
JP2020108111A (en) Electronic device and control method of the same

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111111