JP4912377B2 - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP4912377B2
JP4912377B2 JP2008260979A JP2008260979A JP4912377B2 JP 4912377 B2 JP4912377 B2 JP 4912377B2 JP 2008260979 A JP2008260979 A JP 2008260979A JP 2008260979 A JP2008260979 A JP 2008260979A JP 4912377 B2 JP4912377 B2 JP 4912377B2
Authority
JP
Japan
Prior art keywords
viewpoint
unit
area
line segment
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008260979A
Other languages
Japanese (ja)
Other versions
JP2010092233A (en
JP2010092233A5 (en
Inventor
俊太 曲淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008260979A priority Critical patent/JP4912377B2/en
Priority to PCT/JP2009/066602 priority patent/WO2010041557A1/en
Priority to TW098133438A priority patent/TW201030673A/en
Publication of JP2010092233A publication Critical patent/JP2010092233A/en
Publication of JP2010092233A5 publication Critical patent/JP2010092233A5/ja
Application granted granted Critical
Publication of JP4912377B2 publication Critical patent/JP4912377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • A63F13/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B12/00Component parts, details or accessories not provided for in groups B61B7/00 - B61B11/00
    • B61B12/10Cable traction drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02PCONTROL OR REGULATION OF ELECTRIC MOTORS, ELECTRIC GENERATORS OR DYNAMO-ELECTRIC CONVERTERS; CONTROLLING TRANSFORMERS, REACTORS OR CHOKE COILS
    • H02P5/00Arrangements specially adapted for regulating or controlling the speed or torque of two or more electric motors
    • H02P5/68Arrangements specially adapted for regulating or controlling the speed or torque of two or more electric motors controlling two or more dc dynamo-electric motors

Description

仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、ならびにプログラムに関する。   The present invention relates to a display device, a display method, and a program suitable for allowing a user to easily observe details of an object that is noticed among objects arranged in a virtual space.

仮想空間内に配置された敵キャラクタや爆弾や罠などのオブジェクトをゲーム画面に表示する際に、これらのオブジェクトを拡大して表示し、その詳細をユーザが観察できるようにする技術が、例えば、特許文献1に開示されている。   When displaying objects such as enemy characters, bombs, and traps arranged in the virtual space on the game screen, a technology that enlarges and displays these objects and allows the user to observe the details is, for example, It is disclosed in Patent Document 1.

特開2005−095347号公報Japanese Patent Laying-Open No. 2005-095347

しかしながら、オブジェクトを拡大して表示するだけでは、そのオブジェクトの裏側などの様子を観察することはできない。したがって、画面に描画されていないオブジェクトの外観をユーザに見易く提示したいという要望が強い。   However, just by magnifying and displaying an object, it is impossible to observe the state of the back side of the object. Accordingly, there is a strong demand for easily presenting the appearance of an object not drawn on the screen to the user.

本発明はこのような課題を解決するものであり、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、ならびにプログラムを提供することを目的とする。   The present invention solves such a problem, and among the objects arranged in the virtual space, a display device, a display method, and a display device suitable for easily observing details of an object that the user pays attention to, As well as providing a program.

上記目的を達成するため、本発明の第1の観点に係る表示装置は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える。
記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶する。
表示部は、視点により、オブジェクトを投影面に透視投影した画像を生成して表示する。
選択指示受付部は、生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける。
方向指定受付部は、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。
回転部は、選択された可視オブジェクトを中心に、視点と投影面とを、仮想空間に配置されるオブジェクトに対して、指定された方向に相対的に回転させる。
In order to achieve the above object, a display device according to a first aspect of the present invention includes a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit.
The storage unit stores the position and orientation of the object arranged in the virtual space, the position of the viewpoint, and the position and orientation of the projection plane having a predetermined size.
The display unit generates and displays an image obtained by perspectively projecting the object on the projection plane from the viewpoint.
The selection instruction receiving unit receives a selection instruction input for instructing to select one of objects (hereinafter referred to as a visible object) included in the generated image.
The direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
The rotation unit rotates the viewpoint and the projection plane relative to the object arranged in the virtual space in the designated direction around the selected visible object.

ここで、表示部は、投影面に投影される仮想空間を表示するため、仮想空間を見る窓の役割を果たす。ユーザは、タッチパネルなどに表示されたオブジェクトのうちから、いずれかをタッチするなどして選択する。また、視点を移動しようとする方向へタッチパネルにタッチしながら移動するなどして、視点を移動しようとする方向を指定する。   Here, the display unit serves as a window for viewing the virtual space in order to display the virtual space projected onto the projection plane. The user selects one of the objects displayed on the touch panel by touching the object. Further, the direction in which the viewpoint is to be moved is designated by moving the viewpoint while touching the touch panel in the direction in which the viewpoint is to be moved.

回転部は、ユーザの選択した可視オブジェクトを中心に、ユーザの指定した方向に応じて、仮想空間を回転しているかのように見せるために、仮想空間と視点とを、指定された方向に相対的に回転させる。即ち、ユーザによって選択された可視オブジェクトを中心に、仮想空間自体を回転させるようにするか、あるいは、視点と投影面とを当該可視オブジェクトの周りを移動させる。または、この両方を同時に行ってもよい。なお、可視オブジェクトの中心とは、例えば、オブジェクトの重心でもよいし、ユーザがオブジェクトをタッチした位置でもよい。このように、本発明によれば、ユーザは、注目するオブジェクトの詳細を様々な角度から観察することができる。   The rotation unit makes the virtual space and the viewpoint relative to the specified direction in order to make it appear as if the virtual space is rotated around the visible object selected by the user according to the direction specified by the user. Rotate. That is, the virtual space itself is rotated around the visible object selected by the user, or the viewpoint and the projection plane are moved around the visible object. Or both of these may be performed simultaneously. Note that the center of the visible object may be, for example, the center of gravity of the object or the position where the user touches the object. Thus, according to the present invention, the user can observe the details of the object of interest from various angles.

上記目的を達成するため、本発明の他の観点に係る表示装置は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える。
記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する。
表示部は、オブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する。
選択指示受付部は、可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける。
方向指定受付部は、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。
回転部は、選択されたオブジェクトを中心に、指定された方向に応じて仮想空間に配置されるオブジェクトの位置および向きを回転させる。
In order to achieve the above object, a display device according to another aspect of the present invention includes a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit.
The storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent area and an opaque area.
The display unit generates an image obtained by projecting an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) at the intersection of the line segment and the transparent area. indicate.
The selection instruction receiving unit receives a selection instruction input for instructing to select one of the visible objects.
The direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
The rotation unit rotates the position and orientation of the object arranged in the virtual space according to the designated direction around the selected object.

ここで、所定形状の面は、投影面に相当し、視点と仮想空間の間に配置される。表示部は、所定形状の面越しに、視点の位置から仮想空間を見たときの様子のうち、当該透明領域に投影された部分を表示する。即ち、透明領域は、仮想空間を見る窓のような役割を果たす。   Here, the surface of the predetermined shape corresponds to the projection surface, and is disposed between the viewpoint and the virtual space. A display part displays the part projected on the said transparent area | region among the modes when seeing virtual space from the position of a viewpoint over the surface of a predetermined shape. That is, the transparent area plays a role like a window for viewing the virtual space.

ユーザは、タッチパネルなどに表示されたオブジェクトのうちから、いずれかをタッチするなどして選択する。また、タッチパネルにタッチしながら視点を移動しようとする方向へ移動するなどして、視点を移動しようとする方向を指定する。回転部は、視点が移動しているかのように見せるために、選択されたオブジェクトを中心(例えば、オブジェクトの重心、或いは、ユーザがオブジェクトをタッチした位置、など)に、指定された方向に基づいて仮想空間に配置されるオブジェクトの位置や向きを回転させる。なお、後述するように、仮想空間内のすべてのオブジェクトを回転するようにしても、あるいは、一部(即ち、可視オブジェクト)を回転するようにしてもよい。   The user selects one of the objects displayed on the touch panel by touching the object. In addition, the direction in which the viewpoint is to be moved is designated by moving the viewpoint while moving the viewpoint while touching the touch panel. The rotation unit is based on the specified direction with the selected object as the center (for example, the center of gravity of the object or the position where the user touched the object) in order to make it appear as if the viewpoint is moving. To rotate the position and orientation of the object placed in the virtual space. As will be described later, all the objects in the virtual space may be rotated, or a part (that is, a visible object) may be rotated.

このように、本発明によれば、選択されたオブジェクトを中心に、指定された方向に基づいて仮想空間に配置されるオブジェクトの位置や向きが回転されることで、ユーザは、注目するオブジェクトの詳細を様々な角度から観察することができる。   As described above, according to the present invention, the position and orientation of the object arranged in the virtual space is rotated based on the specified direction around the selected object, so that the user can select the object of interest. Details can be observed from various angles.

また、表示装置において、
回転部が、位置および向きを回転させるオブジェクトは、可視オブジェクトである、ようにしてもよい。
In the display device,
The object whose rotation and position are rotated by the rotation unit may be a visible object.

即ち、回転部は仮想空間内のオブジェクトをすべて回転させるのではなく、回転前に透明領域に投影された可視オブジェクトを抽出し、当該可視オブジェクトのみを回転させるようにしてもよい。これにより、回転させるオブジェクトの数を減らすことができ、計算負荷を軽減することが可能となる。   That is, the rotation unit may not rotate all the objects in the virtual space, but may extract a visible object projected on the transparent area before rotation and rotate only the visible object. As a result, the number of objects to be rotated can be reduced, and the calculation load can be reduced.

また、表示装置において、回転部は、可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、透明領域を通過してしまう場合、回転を中止する、ようにしてもよい。   In the display device, if the rotation unit rotates the position and orientation of an object other than a visible object (hereinafter referred to as an invisible object), the distance between the invisible object and the viewpoint is determined by the distance between the visible object and the viewpoint. If the line segment that is shorter than the distance and connects the invisible object and the viewpoint passes through the transparent region, the rotation may be stopped.

即ち、本発明によれば、当該選択されたオブジェクトを中心として、指定された方向に基づいて仮想空間に配置されるオブジェクトが回転されるが、回転後に、回転以前には表示されていないオブジェクトが、当該所定形状の面の透明領域に投影されて表示され、可視オブジェクトを隠してしまう場合がある。可視オブジェクトは、ユーザが注目したいオブジェクトであるため、可視オブジェクトが隠れてしまうことは望ましくない。   That is, according to the present invention, an object arranged in the virtual space is rotated based on the specified direction around the selected object, but after rotation, an object that has not been displayed before the rotation is rotated. The projected object may be projected and displayed on the transparent area of the surface having the predetermined shape to hide the visible object. Since the visible object is an object that the user wants to pay attention to, it is not desirable that the visible object is hidden.

したがって、回転部は、指定方向に基づいてオブジェクトを回転した場合に透明領域に投影されるオブジェクトのうち、いずれかの不可視オブジェクトと視点との距離が、いずれかの可視オブジェクトと視点との距離より短くなるような場合、回転を中止する。不可視オブジェクトが、可視オブジェクトを隠すのを防ぐためである。これにより、選択されたオブジェクトが回転したときにも、当該オブジェクトが隠れてしまう状況が起きないようにすることが可能となる。   Therefore, the rotation unit, when the object is rotated based on the specified direction, the distance between any invisible object and the viewpoint among the objects projected onto the transparent area is greater than the distance between any visible object and the viewpoint. If it becomes shorter, stop the rotation. This is to prevent the invisible object from hiding the visible object. As a result, even when the selected object rotates, it is possible to prevent a situation where the object is hidden.

また、表示装置は、
所定形状の面において、透明領域と不透明領域とを指定する領域指定入力を受け付ける領域指定受付部、
をさらに備えるようにしてもよい。
The display device
An area designation receiving unit for receiving an area designation input for designating a transparent area and an opaque area on a surface of a predetermined shape;
May be further provided.

即ち、仮想空間内において、注目したい部分を指定できるように、ユーザは所定形状の面に構成される透明領域の位置を指定できるようにしてもよい。典型的には、透明領域の位置は、例えば、タッチペンやマウスなどの入力装置を用いて、閉じた領域が得られるように、丸で囲んで指定する。回転して表示される領域を小さく指定すれば、現在注目しているオブジェクトがより判別しやすくなる。さらに、回転表示される面積を狭く取ることで、所謂3D酔いを減らすことも可能となる。   That is, in the virtual space, the user may be able to specify the position of the transparent area configured on the surface of the predetermined shape so that the part to be noticed can be specified. Typically, the position of the transparent area is specified in a circle so that a closed area can be obtained by using an input device such as a touch pen or a mouse. If the area displayed by rotation is specified to be small, it becomes easier to discriminate the object currently focused on. Furthermore, so-called 3D sickness can be reduced by reducing the rotationally displayed area.

また、表示部は、位置および向きが回転されたオブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、回転が行われる以前のオブジェクトの位置と当該視点の位置とを結ぶ線分が不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、画像を生成する、ようにしてもよい。   The display unit projects an object in which a line segment connecting the position of the object whose position and orientation has been rotated and the position of the viewpoint passes through the transparent region to the intersection of the line segment and the transparent region, and the rotation is performed. An object in which the line segment connecting the position of the previous object and the position of the viewpoint that passes through the opaque region is projected to the intersection of the line segment and the opaque region to generate an image. Good.

即ち、表示部は、オブジェクトの回転が行われる以前の仮想空間の様子が、所定形状の面の不透明領域部分に投影された画像と、オブジェクトの回転が行われた後の仮想空間の様子が、所定形状の面の透明領域部分に投影された画像と、からなる画像を生成してもよい。これにより、例えば、現在注目している部分と、そうでない部分の両方が表示され、注目していない部分を少し見たいというようなユーザの要望にも対応できる。また、注目している部分のみが回転されて、他の部分は変化しない画像が生成されるため、注目部分が浮き出ているかのような効果を得られ、当該注目部分をさらに判別しやすくなる。   That is, the display unit shows the state of the virtual space before the object rotation is performed, the image projected on the opaque region portion of the surface of the predetermined shape, and the state of the virtual space after the object rotation is performed, An image composed of an image projected on a transparent region portion of a surface having a predetermined shape may be generated. Accordingly, for example, both the currently focused part and the part that is not focused are displayed, and it is possible to cope with the user's desire to see a part that is not focused a little. Further, since only the portion of interest is rotated and an image is generated in which the other portions do not change, an effect as if the portion of interest has been raised is obtained, and it becomes easier to discriminate the portion of interest.

また、領域指定受付部は、受け付けた透明領域が、所定の面積以上である場合、領域指定入力を受け付けない、ようにしてもよい。
即ち、領域指定受付部は、所定の面積より小さい領域を、透明領域としてユーザに指定させるようにする。これにより、例えば、可視オブジェクトのみを回転させる場合は、計算量を減らすことが可能となる。また、3D酔いを予防するための面積を予め設定しておくことも可能となる。
Further, the area designation receiving unit may not accept the area designation input when the received transparent area is larger than a predetermined area.
That is, the area designation receiving unit causes the user to designate an area smaller than a predetermined area as a transparent area. Thereby, for example, when only a visible object is rotated, the amount of calculation can be reduced. It is also possible to preset an area for preventing 3D sickness.

また、領域指定受付部は、領域指定入力を受け付けると、可視オブジェクトの数が所定の数以上となる場合、当該領域指定入力を受け付けない、
ようにしてもよい。
即ち、領域指定受付部は、可視オブジェクトの数が所定の数より少なくなるように、ユーザが透明領域を指定した場合において、当該領域指定を受け付ける。これにより、透明領域の面積を制限する場合と同様に、可視オブジェクトのみを回転させる場合は、計算量を減らすことが可能となる。また、3D酔いを予防するための面積を予め設定しておくことも可能となる。
In addition, when the area designation receiving unit accepts the area designation input, if the number of visible objects is equal to or greater than a predetermined number, the area designation receiving unit does not accept the area designation input.
You may do it.
That is, the area designation receiving unit accepts the area designation when the user designates the transparent area so that the number of visible objects is smaller than a predetermined number. As a result, similarly to the case where the area of the transparent region is limited, the amount of calculation can be reduced when only the visible object is rotated. It is also possible to preset an area for preventing 3D sickness.

また、本発明の他の観点に係る表示方法は、
記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える表示装置による表示方法であって、
記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶しており、
表示方法は、
表示部が、視点により、オブジェクトを、投影面に透視投影した画像を生成して表示する表示工程、
選択指示受付部が、生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、
方向指定受付部が、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、
回転部が、選択された可視オブジェクトを中心に、視点と投影面とを、仮想空間に配置されるオブジェクトに対して、指定された方向に相対的に回転させる回転工程、
を備えることを特徴とする。
In addition, a display method according to another aspect of the present invention includes:
A display method by a display device comprising a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit,
The storage unit stores the position and orientation of the object arranged in the virtual space, the position of the viewpoint, and the position and orientation of the projection plane of a predetermined size,
The display method is
A display step in which the display unit generates and displays an image obtained by perspectively projecting the object on the projection plane from a viewpoint;
A selection instruction receiving step in which a selection instruction receiving unit receives a selection instruction input instructing to select one of objects (hereinafter referred to as a visible object) included in the generated image;
A direction designation accepting step in which a direction designation accepting unit accepts a direction designation input for designating a direction to move the viewpoint in the virtual space;
A rotation step in which the rotation unit rotates the viewpoint and the projection plane relative to the object arranged in the virtual space in the specified direction around the selected visible object;
It is characterized by providing.

また、本発明の他の観点に係る表示方法は、
記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える表示装置による表示方法であって、
記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶しており、
表示方法は、
表示部が、オブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示工程、
選択指示受付部が、可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、
方向指定受付部が、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、
回転部が、選択された可視オブジェクトを中心に、指定された方向に応じて仮想空間に配置されるオブジェクトの位置および向きを回転させる回転工程、
を備えることを特徴とする。
In addition, a display method according to another aspect of the present invention includes:
A display method by a display device comprising a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit,
The storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region,
The display method is
The display unit generates an image in which an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) is projected at the intersection of the line segment and the transparent area. Display process to display,
A selection instruction receiving step for receiving a selection instruction input for instructing the selection instruction receiving unit to select one of the visible objects;
A direction designation accepting step in which a direction designation accepting unit accepts a direction designation input for designating a direction to move the viewpoint in the virtual space;
A rotation step in which the rotation unit rotates the position and orientation of the object arranged in the virtual space according to the specified direction around the selected visible object;
It is characterized by providing.

また、本発明の他の観点に係るプログラムは、コンピュータを、上記の表示装置として機能させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the display device.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明に係る表示装置によれば、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、ならびにプログラムを提供することができる。   According to the display device of the present invention, it is possible to provide a display device, a display method, and a program suitable for easily observing details of an object that is noticed by a user among objects arranged in a virtual space. can do.

以下に本発明の実施の形態を説明する。以下では、理解を容易にするため、携帯型ゲーム機に本発明が適用される実施の形態を説明するが、各種のコンピュータ、PDA、携帯電話などにおいても同様に本発明を適用することができる。すなわち、以下に説明する実施の形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと等しいものに置換した実施形態を採用することが可能であるが、これらの実施の形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a portable game machine will be described. However, the present invention can be similarly applied to various computers, PDAs, mobile phones, and the like. . That is, the embodiment described below is for explanation, and does not limit the scope of the present invention. Accordingly, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、本発明の実施形態に係る表示装置が実現される典型的な携帯型ゲーム機の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram showing a schematic configuration of a typical portable game machine in which a display device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.

携帯型ゲーム機1は、処理制御部10と、コネクタ11と、カートリッジ12と、無線通信部13と、通信コントローラ14と、サウンドアンプ15と、スピーカ16と、操作キー17と、第1の表示部18と、第2の表示部19と、タッチパネル20と、を備える。   The portable game machine 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, an operation key 17, and a first display. A unit 18, a second display unit 19, and a touch panel 20 are provided.

処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、VRAM(Video Random Access Memory) 10cと、WRAM(Work RAM) 10dと、LCD(Liquid Crystal Display)コントローラ10eと、タッチパネルコントローラ10fと、を備える。   The processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a VRAM (Video Random Access Memory) 10c, a WRAM (Work RAM) 10d, an LCD (Liquid Crystal Display) controller 10e, A touch panel controller 10f.

CPUコア10aは、携帯型ゲーム機1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory) 12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。   The CPU core 10a controls the operation of the entire portable game machine 1 and is connected to each component to exchange control signals and data. Specifically, with the cartridge 12 mounted in the connector 11, a program and data stored in a ROM (Read Only Memory) 12a in the cartridge 12 are read and predetermined processing is executed.

画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10cに格納する。   The image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10c.

VRAM 10cは、表示用の情報を記憶するフレームメモリであり、画像処理部10b等により加工された画像情報を記憶する。
WRAM 10dは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
The VRAM 10c is a frame memory that stores information for display, and stores image information processed by the image processing unit 10b and the like.
The WRAM 10d stores work data and the like necessary for the CPU core 10a to execute various processes according to the program.

LCDコントローラ10eは、第1の表示部18および、第2の表示部19を制御し、所定の表示用画像を表示させる。たとえば、LCDコントローラ10eは、VRAM 10cに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部18に出力する。また、LCDコントローラ10eは、第2の表示部19に所定の指示アイコン等を表示する。   The LCD controller 10e controls the first display unit 18 and the second display unit 19 to display a predetermined display image. For example, the LCD controller 10 e converts the image information stored in the VRAM 10 c into a display signal at a predetermined synchronization timing and outputs the display signal to the first display unit 18. In addition, the LCD controller 10 e displays a predetermined instruction icon or the like on the second display unit 19.

タッチパネルコントローラ10fは、タッチペンやユーザの指によるタッチパネル20への接触(タッチ)を検出する。たとえば、第2の表示部19に所定の指示アイコン等が表示されている状態で、タッチパネル20上の接触およびその位置等を検出する。   The touch panel controller 10f detects a touch (touch) on the touch panel 20 with a touch pen or a user's finger. For example, in the state where a predetermined instruction icon or the like is displayed on the second display unit 19, a contact on the touch panel 20 and its position are detected.

コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。   The connector 11 is a terminal that can be detachably connected to the cartridge 12, and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.

カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The cartridge 12 includes a ROM 12a and a RAM (Random Access Memory) 12b.
The ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
The RAM 12b stores various data indicating the progress of the game.

無線通信部13は、他の携帯型ゲーム機1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
なお、無線通信部13は、所定のアクセスポイントとの間で、無線LAN通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The wireless communication unit 13 is a unit that performs wireless communication with the wireless communication unit 13 of another portable game machine 1, and transmits and receives predetermined data via an antenna (not shown) (such as a built-in antenna).
The wireless communication unit 13 can also perform wireless LAN communication with a predetermined access point. The wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.

通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他の携帯型ゲーム機1の処理制御部10との間で行われる通信の仲立ちをする。   The communication controller 14 controls the wireless communication unit 13 and mediates communication performed between the process control unit 10 and the process control unit 10 of another portable game machine 1 according to a predetermined protocol.

サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。
スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。
The sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16.
The speaker 16 is composed of, for example, a stereo speaker, and outputs predetermined music sound, sound effect, and the like according to the audio signal amplified by the sound amplifier 15.

操作キー17は、携帯型ゲーム機1に適宜配置された複数のキースイッチ等からなり、ユーザの操作に従って、所定の指示入力を受け付ける。   The operation key 17 includes a plurality of key switches and the like appropriately arranged on the portable game machine 1 and receives a predetermined instruction input according to a user operation.

第1の表示部18および、第2の表示部19は、LCD等からなり、LCDコントローラ10eに制御され、ゲーム画像等を適宜表示する。
なお、第2の表示部19は、タッチパネル20の接触によりユーザから操作指示を入力させるための指示アイコン等を表示する。
The 1st display part 18 and the 2nd display part 19 consist of LCD etc., are controlled by LCD controller 10e, and display a game image etc. suitably.
Note that the second display unit 19 displays an instruction icon or the like for inputting an operation instruction from the user by touching the touch panel 20.

タッチパネル20は、第2の表示部19の前面に重畳して配置され、タッチペンやユーザの指の接触による入力を受け付ける。
タッチパネル20は、たとえば、感圧式のタッチセンサパネル等からなり、ユーザの指等の圧力を検出し、接触状態および、接触状態から非接触状態への移行等を検出する。なお、タッチパネル20は、他に静電容量の変化等から、ユーザの指等の接触を検出してもよい。
The touch panel 20 is arranged so as to be superimposed on the front surface of the second display unit 19 and accepts an input by contact with a touch pen or a user's finger.
The touch panel 20 includes, for example, a pressure-sensitive touch sensor panel and the like, detects the pressure of the user's finger and the like, and detects the contact state and the transition from the contact state to the non-contact state. In addition, the touch panel 20 may detect contact with a user's finger or the like from a change in capacitance or the like.

図2に、携帯型ゲーム機1の外観図を示す。   FIG. 2 shows an external view of the portable game machine 1.

なお、本実施の形態に係る表示装置は、上述した典型的な携帯型ゲーム機1上に実現されるが、一般的なコンピュータやゲーム装置上に実現することもできる。一般的なコンピュータやゲーム装置は、上記携帯型ゲーム機1と同様に、CPUコアや、VRAM、WRAM、を備える。また、通信部として、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−Tなどの規格に準拠するNIC(Network Interface Controller)、記憶装置としてハードディスクを有する他、DVD−ROMや、光磁気ディスク、等が利用できるようになっている。また、入力装置として、タッチパネルの代わりに、キーボードやマウスなどを利用する。そして、プログラムをインストールした後に、そのプログラムを実行させると、表示装置として機能させることができる。   The display device according to the present embodiment is realized on the typical portable game machine 1 described above, but can also be realized on a general computer or game device. A general computer or game device includes a CPU core, a VRAM, and a WRAM similarly to the portable game machine 1 described above. In addition, as a communication unit, for example, a NIC (Network Interface Controller) conforming to a standard such as 10BASE-T / 100BASE-T used when configuring a LAN (Local Area Network), a hard disk as a storage device, and a DVD -ROMs, magneto-optical disks, etc. can be used. In addition, a keyboard or a mouse is used as an input device instead of a touch panel. Then, after the program is installed, when the program is executed, it can function as a display device.

なお、以下では、注記しない限り、本実施の形態に係る表示装置は、図1に示した携帯型ゲーム機1により説明を加える。表示装置は、必要に応じて適宜一般的なコンピュータや、ゲーム装置の要素に置換することができ、これらの実施の形態も本発明の範囲に含まれる。   Hereinafter, unless otherwise noted, the display device according to the present embodiment will be described using the portable game machine 1 shown in FIG. The display device can be appropriately replaced with an element of a general computer or a game device as necessary, and these embodiments are also included in the scope of the present invention.

以下、表示装置200の構成について図3を参照して説明する。
本実施の形態に係る表示装置200は、記憶部201、表示部202、選択指示受付部203、方向指定受付部204、回転部205、領域指定受付部206、などを備える。
Hereinafter, the configuration of the display device 200 will be described with reference to FIG.
The display device 200 according to the present embodiment includes a storage unit 201, a display unit 202, a selection instruction receiving unit 203, a direction designation receiving unit 204, a rotating unit 205, an area designation receiving unit 206, and the like.

ここで、記憶部201は、例えば、ゲームの舞台となる3次元仮想空間についての情報を記憶する。この仮想空間内には、例えば、図4に示すように、オブジェクト(例えば、401A、401B、401Cなど)、仮想空間を見る視点410(即ちカメラ)、透明領域420Aと不透明領域420Bとを有する所定形状の面420などが配置される。   Here, the memory | storage part 201 memorize | stores the information about the three-dimensional virtual space used as the stage of a game, for example. In this virtual space, for example, as shown in FIG. 4, a predetermined object having an object (for example, 401A, 401B, 401C, etc.), a viewpoint 410 (that is, a camera) for viewing the virtual space, a transparent area 420A, and an opaque area 420B. A shape surface 420 or the like is disposed.

所定形状の面420は、仮想空間が投影される投影面に相当する。本実施の形態では、平面により構成されるが、形状はこれに限るものではない。所定形状の面420は、典型的には、視点410と、仮想空間内のオブジェクト(例えば、401A、401B、401Cなど)との間に配置される。そして、視線の方向415の向きは、所定形状の面420の中心を通り、所定形状の面と垂直に交わるベクトルの向きと一致する。   The surface 420 having a predetermined shape corresponds to a projection surface on which the virtual space is projected. In the present embodiment, the plane is configured, but the shape is not limited to this. The surface 420 having a predetermined shape is typically disposed between the viewpoint 410 and an object (for example, 401A, 401B, 401C, etc.) in the virtual space. The direction of the line-of-sight direction 415 matches the direction of a vector that passes through the center of the surface 420 of the predetermined shape and intersects the surface of the predetermined shape perpendicularly.

なお、所定形状の面に配置される透明領域420A、および不透明領域420Bの境界は一致しており、後述するように、ユーザにより指定可能である。   Note that the boundaries of the transparent region 420A and the opaque region 420B arranged on the surface of the predetermined shape are coincident and can be designated by the user as will be described later.

仮想空間内に配置される、オブジェクトの形状、位置および向きと、視点の位置と、所定形状の面の位置および向きなどのデータは、カートリッジ12内のROM 12aに予め記憶される。処理制御部10は適宜カートリッジ12からこれらのデータを読み出してWRAM 10d等に記憶する。回転部205は、ユーザからの指示に応じて、オブジェクトの形状、位置や向きのデータを更新する。処理制御部10とコネクタ11とカートリッジ12が協働して、記憶部201として機能する。   Data such as the shape, position and orientation of the object, the position of the viewpoint, the position and orientation of the surface of the predetermined shape, which are arranged in the virtual space, are stored in advance in the ROM 12a in the cartridge 12. The processing control unit 10 appropriately reads out these data from the cartridge 12 and stores them in the WRAM 10d or the like. The rotation unit 205 updates data on the shape, position, and orientation of the object in response to an instruction from the user. The processing control unit 10, the connector 11, and the cartridge 12 cooperate to function as the storage unit 201.

表示部202は、後述の領域指定受付部206によって、透明領域を指定する入力が受け付けられた場合、次のような所定形状の面と同じ大きさの画像を生成する。即ち、生成する画像のうち、所定形状の面の透明領域に対応する位置には、所定形状の面の透明領域に投影された仮想空間の画像の透明領域の部分を描画する。また、生成する画像のうち、透明領域以外の領域(即ち、不透明領域)に対応する位置には、暗闇を表現する所定の色(例えば黒)を描画した画像を生成する。そして、表示部202は、生成した画像を、第2の表示部19(又は第1の表示部18)に表示する。即ち、所定形状の面は、投影面に相当すると述べたが、本実施の形態において、実際に投影面として機能するのは、所定形状の面のうち、透明領域である。処理制御部10と第2の表示部19(又は第1の表示部18)が協働して動作することにより、表示部202として機能する。   The display unit 202 generates an image having the same size as the surface of the following predetermined shape when an input for designating a transparent region is accepted by the region designation receiving unit 206 described later. That is, in the generated image, a portion of the transparent area of the image in the virtual space projected on the transparent area of the surface having the predetermined shape is drawn at a position corresponding to the transparent area of the surface having the predetermined shape. In addition, an image in which a predetermined color (for example, black) representing darkness is drawn at a position corresponding to an area other than the transparent area (that is, an opaque area) among the generated images is generated. The display unit 202 displays the generated image on the second display unit 19 (or the first display unit 18). In other words, although the surface having the predetermined shape corresponds to the projection surface, in the present embodiment, it is the transparent region of the surface having the predetermined shape that actually functions as the projection surface. The processing control unit 10 and the second display unit 19 (or the first display unit 18) operate in cooperation to function as the display unit 202.

選択指示受付部203は、表示部202に表示されたオブジェクト(以下、可視オブジェクトと呼ぶ)のうちから、1つを選択する旨を指示する選択指示入力を受け付ける。ユーザは、例えば、選択したいオブジェクトが表示されるタッチパネル20の位置に接触(タッチ)して、表示部202に表示されたオブジェクトの1つを選択することができる。あるいは、これに同等な操作を、操作キー17を押下することで行い、オブジェクトを選択してもよい。受け付けられた選択オブジェクトは、例えば、WRAM 10dなどに一時記憶される。処理制御部10、操作キー17、タッチパネル20、などが協働して、選択指示受付部203として機能する。   The selection instruction receiving unit 203 receives a selection instruction input for instructing to select one of the objects displayed on the display unit 202 (hereinafter referred to as a visible object). The user can select, for example, one of the objects displayed on the display unit 202 by touching (touching) the position of the touch panel 20 on which the object to be selected is displayed. Alternatively, an operation equivalent to this may be performed by pressing the operation key 17 to select an object. The selected object received is temporarily stored in, for example, the WRAM 10d. The processing control unit 10, the operation key 17, the touch panel 20, and the like cooperate to function as the selection instruction receiving unit 203.

方向指定受付部204は、仮想空間内に配置された視点を、当該仮想空間において移動させる方向を指定する方向指定入力をユーザから受け付ける。ユーザは、例えば所定の方向に対応する操作キー17を押下して、あるいはタッチパネル20を押下しながら移動させることで、方向を指定することができる。処理制御部10と操作キー17とタッチパネル20が協働して動作することにより、方向指定受付部204として機能する。   The direction designation accepting unit 204 accepts a direction designation input for designating a direction in which a viewpoint arranged in the virtual space is moved in the virtual space. The user can specify the direction by, for example, pressing the operation key 17 corresponding to a predetermined direction or moving the touch panel 20 while pressing. The processing control unit 10, the operation key 17, and the touch panel 20 operate in cooperation to function as the direction designation receiving unit 204.

回転部205は、選択指示受付部203によって受け付けられたオブジェクトを中心に、方向指定受付部204によって受け付けられた方向に当該視点が動いて見えるように、仮想空間内のオブジェクトを回転させる。即ち、指定された方向とは逆向きに当該仮想空間に配置されるオブジェクトの位置および向きを回転させ、記憶部201に記憶されたオブジェクトの位置や向きを更新する。処理制御部10が回転部205として機能する。   The rotation unit 205 rotates the object in the virtual space so that the viewpoint moves in the direction received by the direction designation reception unit 204 around the object received by the selection instruction reception unit 203. That is, the position and orientation of the object arranged in the virtual space are rotated in the direction opposite to the designated direction, and the position and orientation of the object stored in the storage unit 201 are updated. The processing control unit 10 functions as the rotation unit 205.

領域指定受付部206は、当該所定形状の面において、当該透明領域と当該不透明領域とを指定する領域指定入力を受け付ける。ユーザは、例えば、閉じた領域が得られるように、タッチパネル20上でタッチペンを押下しながら移動させて領域の境界となるラインを描き、透明領域の位置と形状を指定することができる。あるいは、ユーザは、これに同等な操作を、操作キー17を押下することで行い、透明領域を指定してもよい。受け付けられた指定領域は、例えば、WRAM 10dなどに一時記憶される。処理制御部10と操作キー17とタッチパネル20が協働して動作することにより、領域指定受付部206として機能する。   The area designation receiving unit 206 receives an area designation input for designating the transparent area and the opaque area on the surface having the predetermined shape. The user can specify the position and shape of the transparent region by drawing a line that becomes the boundary of the region by moving the touch pen while pressing the touch pen on the touch panel 20 so as to obtain a closed region, for example. Alternatively, the user may perform an operation equivalent to this by pressing the operation key 17 and specify the transparent area. The received designated area is temporarily stored in, for example, the WRAM 10d. The processing control unit 10, the operation key 17, and the touch panel 20 operate in cooperation to function as an area designation receiving unit 206.

以下に本実施の形態に係る表示装置200の動作処理について説明する。   Hereinafter, an operation process of the display device 200 according to the present embodiment will be described.

本実施の形態においては、例えば暗闇の中で、何かを探さなくてはならないシーンのあるゲームを実行する場合を例に説明する。当該ゲームでは、ユーザは、透明領域を指定すると、当該指定された領域内のみが懐中電灯で照らされたかのように表示される。   In the present embodiment, for example, a case where a game having a scene where something must be searched for in the dark is executed will be described. In the game, when the user designates a transparent area, only the inside of the designated area is displayed as if illuminated by a flashlight.

さらに、ユーザが、透明領域に表示されたオブジェクトのうち1つを選択し、視点を移動する方向を指定する入力を行うと、表示装置200は、当該オブジェクトを中心に、指定された方向に基づいて仮想空間内のオブジェクトを回転する。そして、回転後の仮想空間の様子を示す画像を、当該領域に表示する。ユーザは、様々な角度から指定した透明領域に表示される仮想空間をみることで、探し物を行う。   Further, when the user selects one of the objects displayed in the transparent area and performs an input for designating the direction in which the viewpoint is moved, the display device 200 is based on the designated direction centering on the object. Rotate the object in the virtual space. And the image which shows the mode of the virtual space after rotation is displayed on the said area | region. The user searches for the virtual space displayed in the transparent area designated from various angles.

なお、本実施の形態において、ユーザから受け付けられる入力の状態の遷移を、図5にまとめる。何も受け付けられていない初期状態(状態A)において、透明領域の指定を受け付けることができる(状態B)。次いで、回転の中心となるオブジェクトの選択指示を受け付け(状態C)、その後、視点の移動方向の指定を受け付ける(状態D)。このように、移動方向の指示は、回転の中心となるオブジェクトが選択されていなければ受け付けられず、また、回転の中心となるオブジェクトの選択は、透明領域が指定されていなければ受け付けられない。   In the present embodiment, transitions of input states accepted from the user are summarized in FIG. In the initial state where nothing is accepted (state A), designation of a transparent area can be accepted (state B). Next, an instruction to select an object to be the center of rotation is received (state C), and then designation of the moving direction of the viewpoint is received (state D). As described above, the direction of movement is not accepted unless the object that is the center of rotation is selected, and the selection of the object that is the center of rotation is not accepted unless the transparent area is designated.

なお、状態B、C、Dにおいて、所定のキーを入力して、指定された透明領域を解除(状態E)(即ち、WRAM 10dから削除)することもできる。オブジェクトの選択指示が受け付けられた状態で、透明領域の解除が指定された場合(状態C→Eへの遷移)、解除された領域内に、回転の中心となるように選択されているオブジェクトがあるため、当該オブジェクトの選択もWRAM 10dから削除して解除する。   In the states B, C, and D, a specified key can be input to release the designated transparent area (state E) (that is, delete from the WRAM 10d). When cancellation of a transparent area is specified in a state where an object selection instruction has been received (transition from state C to E), the object selected to be the center of rotation is in the released area. Therefore, the selection of the object is also deleted from the WRAM 10d and released.

また、指定された透明領域は、領域の境界部分をドラッグするなどして形状を変更できるほか(状態B→Bへの遷移)、オブジェクトの選択指示が受け付けられた状態で、指定された透明領域内の別のオブジェクトを選択する指示を受け付けることも可能である(状態C→Cへの遷移)。あるいは、視点の移動方向の指定を行った後、さらに移動方向を指定してもよい(状態D→Dへの遷移)。   In addition, the designated transparent area can be changed in shape by dragging the boundary portion of the area (transition from state B to B), and the designated transparent area in a state where an object selection instruction is accepted. It is also possible to accept an instruction to select another object (transition from state C to C). Alternatively, after the movement direction of the viewpoint is designated, the movement direction may be further designated (transition from state D to D).

図6に示す表示処理は、本実施形態の表示装置200の各部が協働して、所定のタイミングで定期的に繰り返し実行する処理である。上述したように遷移する受付状態に応じて、表示装置200の行う表示処理について、図6を参照して、次に説明する。まず、状態A、即ち、ユーザが透明領域の指定や、オブジェクトの選択などを行っていない初期状態における場合について示す。   The display process shown in FIG. 6 is a process that is periodically and repeatedly executed at a predetermined timing in cooperation with each unit of the display device 200 of the present embodiment. The display process performed by the display device 200 according to the reception state that transitions as described above will be described next with reference to FIG. First, a state A, that is, a case in an initial state in which the user has not designated a transparent area or selected an object will be described.

処理制御部10は、まず、視点の移動方向を指定する入力があったか否かを判断する(ステップS101)。即ち、WRAM 10dなどを参照して、視点の移動方向を指定する入力が記憶されているか否かを判断する。初期状態においては、方向を指定する入力はないと判断され(ステップS101;N)、処理はステップS103へと進む。   The process control unit 10 first determines whether or not there has been an input for designating the moving direction of the viewpoint (step S101). That is, referring to the WRAM 10d or the like, it is determined whether or not an input for designating the moving direction of the viewpoint is stored. In the initial state, it is determined that there is no input specifying the direction (step S101; N), and the process proceeds to step S103.

次いで、表示部202は、透明領域に投影された仮想空間の様子を、フレームメモリ(VRAM 10c)に記憶する(ステップS103)。即ち、表示部202は視点の位置、所定形状の面の位置および向き、オブジェクトの形状、位置、および向きを、記憶部201を参照して取得する。そして、取得した情報に基づいて、所定形状の面に、仮想空間内のオブジェクトを投影した画像を生成する。そのうちの、透明領域の位置(WRAM 10dを参照して取得)に対応する画像を、当該透明領域に対応するフレームメモリ(VRAM 10c)の位置に記憶する。ただし、初期状態においては、透明領域は指定されていないため、フレームメモリには画像データは記憶されない。   Next, the display unit 202 stores the state of the virtual space projected on the transparent area in the frame memory (VRAM 10c) (step S103). That is, the display unit 202 acquires the position of the viewpoint, the position and orientation of the surface of the predetermined shape, and the shape, position, and orientation of the object with reference to the storage unit 201. And based on the acquired information, the image which projected the object in virtual space on the surface of a predetermined shape is produced | generated. Of these, the image corresponding to the position of the transparent area (acquired with reference to the WRAM 10d) is stored in the position of the frame memory (VRAM 10c) corresponding to the transparent area. However, since no transparent area is designated in the initial state, no image data is stored in the frame memory.

続いて、表示部202は、フレームメモリの、不透明領域に対応する位置に、所定の色(例えば、黒)を示すデータを書き込む(ステップS104)。初期状態においては、不透明領域のみが存在するため、この時点では、一面黒く塗りつぶされた画像がフレームメモリ内に記憶される。   Subsequently, the display unit 202 writes data indicating a predetermined color (for example, black) at a position corresponding to the opaque region in the frame memory (step S104). In the initial state, only an opaque region exists, and at this time, an image that is painted black is stored in the frame memory.

表示部202は、フレームメモリの内容を、所定のタイミングで、第1または、第2の表示部(18、19)に転送して、表示する(ステップS105)。したがって、初期状態においては、一面黒い画像が、第1または、第2の表示部(18、19)に表示される。そして、表示処理は終了する。   The display unit 202 transfers the contents of the frame memory to the first or second display unit (18, 19) at a predetermined timing and displays them (step S105). Therefore, in the initial state, a black image is displayed on the first or second display unit (18, 19). Then, the display process ends.

次に、状態B、即ち、ユーザが透明領域を指定した場合の表示処理について説明する。ユーザは、透明領域を指定する入力を、操作キー17を操作したりタッチパネル20に接触したりして行う。そして、領域指定受付部206が、当該入力によって指定された透明領域の位置や形状を受け付け、WRAM 10dなどに一時的に記憶する。   Next, the display process in the state B, that is, when the user designates a transparent area will be described. The user performs input for designating the transparent area by operating the operation key 17 or touching the touch panel 20. Then, the area designation receiving unit 206 receives the position and shape of the transparent area designated by the input, and temporarily stores them in the WRAM 10d or the like.

ユーザが、透明領域を指定した状態で、ステップS101が実行されると、処理制御部10により、視点の移動の方向指定はまだ入力されていないと判断され(ステップS101;N)、ステップS103からS105が実行される。   When step S101 is executed in a state where the user designates a transparent area, the process control unit 10 determines that the viewpoint movement direction designation has not yet been input (step S101; N), and from step S103. S105 is executed.

上記に説明したように、ステップS103からS105を実行することで、表示される画像のうち、仮想空間が、透明領域に対応する位置に投影され、それ以外の部分は黒く描画される画像が表示部202によって表示される。   As described above, by executing steps S103 to S105, the virtual space of the displayed image is projected at a position corresponding to the transparent region, and the other portion is displayed in black. Displayed by the unit 202.

例えば、図4に示す仮想空間を透明領域420Aに投影した様子を、図7(A)に示す。図7(A)に示すように、透明領域に投影されるのは、オブジェクト401Aおよび、オブジェクト401Bの一部であり、その他は不透明領域に投影される。よって、図7(B)に示すように、オブジェクト401Aの投影された像401A’および、オブジェクト401Bの投影された像401B’の一部が、画面の透明領域に対応する部分に表示され、画面の不透明領域に対応する部分は、黒く表示される。このように、ユーザによって指定された透明領域には、懐中電灯で照らされたかのように、仮想空間の一部が表示される。   For example, FIG. 7A shows a state in which the virtual space shown in FIG. 4 is projected onto the transparent region 420A. As shown in FIG. 7A, what is projected onto the transparent area is a part of the object 401A and the object 401B, and the others are projected onto the opaque area. Therefore, as shown in FIG. 7B, a projected image 401A ′ of the object 401A and a part of the projected image 401B ′ of the object 401B are displayed in a portion corresponding to the transparent area of the screen. The portion corresponding to the opaque region is displayed in black. Thus, a part of the virtual space is displayed in the transparent area designated by the user as if illuminated by a flashlight.

本実施の形態では、図7(B)に示すように、各オブジェクトを一点透視法で透視投影し、視点から遠くにあるオブジェクトは小さく、近くにあるオブジェクトは大きく投影される。ただし、一点透視法の代わりに、平行投影を採用することもできる。なお、表示部202はオブジェクト毎に、例えばZバッファ法などを用いて陰面処理を行って仮想空間の画像を描画する。   In this embodiment, as shown in FIG. 7B, each object is perspective-projected by a one-point perspective method, an object far from the viewpoint is small, and an object near is large. However, parallel projection can be adopted instead of the single point perspective method. The display unit 202 renders an image of the virtual space by performing hidden surface processing using, for example, the Z buffer method for each object.

このように、表示部202は、画像を生成する毎に画面上の透明領域に対応する領域の画像と、不透明領域に対応する領域の画像を描画するため、ユーザにより領域の形状の変更が指定された場合においても、当該変更を反映することができる。   As described above, the display unit 202 draws an image of a region corresponding to a transparent region on the screen and an image of a region corresponding to an opaque region every time an image is generated. Even if it is made, the change can be reflected.

続いて、透明領域が選択された状態で、ユーザが、表示されたオブジェクトのうちから1つを選択する指示を入力し、さらに、視点の移動方向を指定する入力を行った場合を考える(状態B→C→Dの遷移)。   Next, a case is considered in which the user inputs an instruction to select one of the displayed objects in a state where the transparent area is selected, and further performs an input for designating the moving direction of the viewpoint (state) B → C → D transition).

即ち、ユーザは、当該領域内に表示された、いずれかのオブジェクトの位置を接触する。選択指示受付部203は、当該接触が行われた座標値を含む領域に投影されるオブジェクトを特定し、当該特定されたオブジェクトが選択されたものとして受け付ける(状態C)。   That is, the user touches the position of any object displayed in the area. The selection instruction accepting unit 203 identifies an object projected on the area including the coordinate value at which the contact has been performed, and accepts the identified object as selected (state C).

例えば、選択指示受付部203は、オブジェクトが投影される位置の各画素に対応して、当該位置に投影されたオブジェクトを特定する情報を記憶する配列をWRAM 10dに記憶させてもよい。そして、検出された座標値に対応付けて記憶されるオブジェクトを特定する情報を抽出し、当該抽出した情報によって特定されるオブジェクトを、選択されたオブジェクトとして特定してもよい。選択指示受付部203は、選択されたオブジェクトを特定する情報を、後の処理で利用するため、WRAM 10dなどに一時的に記憶する。   For example, the selection instruction receiving unit 203 may store, in the WRAM 10d, an array that stores information for specifying the object projected at the position corresponding to each pixel at the position where the object is projected. Then, information specifying an object stored in association with the detected coordinate value may be extracted, and the object specified by the extracted information may be specified as the selected object. The selection instruction receiving unit 203 temporarily stores information for identifying the selected object in the WRAM 10d or the like for use in later processing.

なお、当然ながら、検出座標が、指定された透明領域内にない場合、選択指示受付部203は、当該選択指示入力を受け付けないようにすればよい。   Of course, if the detected coordinates are not within the designated transparent area, the selection instruction receiving unit 203 may be configured not to receive the selection instruction input.

また、視点の移動方向は、例えば、ユーザが、タッチパネル20に接触しながら、指定する方向に移動して指定される。接触しながらの移動では、方向指定受付部204は、連続して接触座標を検出する。方向指定受付部204は、連続されて検出された座標値のうち、前回の座標値と、今回の座標値を比較して、タッチの移動した距離や方向を算出する。移動した距離が所定の距離以上の場合、方向指定受付部204は、ユーザによる操作を方向指定入力であるとして受け付け、移動方向と距離をWRAM 10dなどに一時的に記憶する(状態D)。   In addition, the moving direction of the viewpoint is specified by the user moving in the specified direction while touching the touch panel 20, for example. In the movement while contacting, the direction designation receiving unit 204 continuously detects the contact coordinates. The direction designation receiving unit 204 compares the previous coordinate value and the current coordinate value among the coordinate values detected in succession, and calculates the distance and direction the touch has moved. When the distance moved is equal to or greater than the predetermined distance, the direction designation receiving unit 204 accepts an operation by the user as a direction designation input, and temporarily stores the movement direction and distance in the WRAM 10d or the like (state D).

あるいは、上下左右の方向を示す操作キー17を操作(押下)して、方向指定を行ってもよい。この場合、方向指定受付部204は、押下された操作キー17の種類と、その押下された時間によって、視点の移動方向と移動距離を算出するようにすればよい。   Alternatively, the direction may be designated by operating (pressing) the operation key 17 indicating the up / down / left / right directions. In this case, the direction designation receiving unit 204 may calculate the moving direction and the moving distance of the viewpoint based on the type of the pressed operation key 17 and the pressed time.

このように、ユーザが、表示されたオブジェクトのうちから1つを選択する指示を入力し、さらに、視点の移動方向を指定する入力を行った状態で、ステップS101が実行されると、処理制御部10は、視点の移動方向を指定する入力があったと判断する(ステップS101;Y)。そして、処理はステップS102へ進められる。   As described above, when step S101 is executed in a state where the user inputs an instruction to select one of the displayed objects and further inputs an instruction for specifying the moving direction of the viewpoint, the process control is performed. The unit 10 determines that there has been an input for designating the moving direction of the viewpoint (step S101; Y). Then, the process proceeds to step S102.

続いて、回転部205が、選択されたオブジェクトを、WRAM 10dから取得し、当該オブジェクトを中心(例えば、当該オブジェクトの重心など)に、指定された方向に基づいて、仮想空間に配置されるオブジェクトを回転させる(ステップS102)。即ち、受け付けられた指定方向とは逆の方向に、仮想空間内のオブジェクトを、移動距離に応じた角度だけ回転させる。   Subsequently, the rotation unit 205 acquires the selected object from the WRAM 10d, and the object placed in the virtual space based on the designated direction with the object as the center (for example, the center of gravity of the object). Is rotated (step S102). That is, the object in the virtual space is rotated by an angle corresponding to the movement distance in the direction opposite to the accepted designated direction.

そして、ステップS103からS105を実行して、上述と同様の手順で所定形状の面の透明領域に投影された仮想空間の画像を表示する。   Then, Steps S103 to S105 are executed to display an image of the virtual space projected on the transparent area of the surface having a predetermined shape in the same procedure as described above.

例えば、図8(A)は、透明領域420A内のオブジェクト401Aが選択され、視点の移動方向として、方向701が指定された場合を示す。回転部205は、図8(B)に示すように、視点とオブジェクト401Aの中心を通るベクトル720、および、方向701とに垂直であり、かつ、オブジェクト401Aの中心を通る軸730を求める。回転部205は、この軸730に対して、方向701とは逆向き(即ち、図8(B)では左回転)に、移動距離に応じた角度だけ仮想空間内のオブジェクトを回転させる。回転後に画面に表示される画像の例を、図9に示す。   For example, FIG. 8A shows a case where the object 401A in the transparent area 420A is selected and the direction 701 is designated as the viewpoint movement direction. As shown in FIG. 8B, the rotation unit 205 obtains a vector 720 passing through the viewpoint and the center of the object 401A and an axis 730 perpendicular to the direction 701 and passing through the center of the object 401A. The rotation unit 205 rotates the object in the virtual space with respect to the axis 730 in an opposite direction to the direction 701 (that is, left rotation in FIG. 8B) by an angle corresponding to the movement distance. An example of an image displayed on the screen after rotation is shown in FIG.

例えば、記憶部201には、移動距離に応じた回転角度を定義するテーブルを備えるようにして、回転部205は、当該テーブルを参照して回転角度を決定してもよい。このように回転部205が仮想空間内のオブジェクトを回転させることにより、ユーザによって指定された透明領域内に対応する画面上の領域には、ユーザによって指定された方向に視点が移動したかのように、仮想空間内の様子を示す画像が表示される(図9参照)。   For example, the storage unit 201 may include a table that defines a rotation angle according to the movement distance, and the rotation unit 205 may determine the rotation angle with reference to the table. As the rotation unit 205 rotates the object in the virtual space in this way, the viewpoint moves in the direction specified by the user in the area on the screen corresponding to the transparent area specified by the user. An image showing the state in the virtual space is displayed (see FIG. 9).

ユーザは、さらに視点の移動方向を指定して、オブジェクトをさらに回転させてもよい(状態D→Dの遷移)。あるいは、透明領域の指定を解除させてもよい(状態B、C、Dのいずれかから、状態Eへの遷移)。本実施の形態においては、仮想空間の一部を回転させて観察しているかのように見せるために、透明領域の指定が解除された場合には、回転部205によって回転が行われる前の状態に仮想空間を戻す。よって、回転部205は、回転を行う前に、その時点の仮想空間内の状態(オブジェクトの位置や向き)を、WRAM 10dに退避させておく。そして、透明領域の解除が行われた際に、退避させた仮想空間の状態を、現在の仮想空間の状態としてロードする。   The user may further specify the moving direction of the viewpoint and further rotate the object (transition from state D to D). Alternatively, the designation of the transparent area may be canceled (transition from state B, C, or D to state E). In this embodiment, in order to make it appear as if a part of the virtual space is rotated and observed, when the designation of the transparent area is canceled, the state before the rotation by the rotation unit 205 is performed. Return the virtual space to. Therefore, the rotating unit 205 saves the state (position and orientation of the object) in the virtual space at that time in the WRAM 10d before the rotation. Then, when the transparent area is released, the saved virtual space state is loaded as the current virtual space state.

次に透明領域が指定され、オブジェクトの選択指示、および視点の移動方向がユーザにより入力された場合、回転部205は、ロードされた状態から、オブジェクトを回転させる。   Next, when a transparent area is designated and an object selection instruction and a viewpoint movement direction are input by the user, the rotation unit 205 rotates the object from the loaded state.

以上説明したように、本実施の形態においては、表示装置200は、オブジェクトの回転が行われた後の仮想空間の様子が、所定形状の面における、ユーザの注目する透明領域部分に投影された画像を、画面上の透明領域に対応する位置に表示する。
したがって、本実施の形態によれば、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できる。
As described above, in the present embodiment, the display device 200 projects the state of the virtual space after the object has been rotated onto the transparent region portion of the predetermined shape on which the user is focused. The image is displayed at a position corresponding to the transparent area on the screen.
Therefore, according to the present embodiment, it is possible to easily observe details of an object that the user pays attention to among objects arranged in the virtual space.

以上、本実施の形態について説明したが、本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。また、上述した実施例の各構成要素を自由に組み合わせることも可能である。   Although the present embodiment has been described above, the present invention is not limited to the above-described embodiment, and various modifications and applications are possible. Moreover, it is also possible to freely combine the components of the above-described embodiments.

例えば、上記実施の形態では、指定されたオブジェクトを中心に、仮想空間に配置された全てのオブジェクトを回転させた。そうではなく、透明領域指定後の、回転を一度でも開始する以前に透明領域に投影されるオブジェクト(以下、原可視オブジェクトと呼ぶ)のみを、ステップS102で回転させて透明領域に描画するようにしてもよい。これにより回転させるオブジェクトが少なくなり、描画処理を軽減する。   For example, in the above embodiment, all the objects arranged in the virtual space are rotated around the specified object. Instead, after the transparent area is designated, only the object projected to the transparent area (hereinafter referred to as the original visible object) before starting the rotation even once is rotated and drawn in the transparent area in step S102. May be. This reduces the number of objects to be rotated and reduces the drawing process.

また、本発明は、暗闇の中で探し物をするゲーム以外にも、例えば、ゲーム画面に表示された一部分を詳細に調べるような場合についても、適用することができる。   The present invention can also be applied to a case where, for example, a part displayed on a game screen is examined in detail, in addition to a game for searching in the dark.

例えば、ゲーム画像上に表示されている一部分を調べるために、ユーザが当該部分を囲むように、透明領域を指定し、続いて、回転の中心となるオブジェクト、および、視点の移動方向を指定すると、画面に表示される当該透明領域に対応する部分には、上述のように、指定された透明領域に投影された指定された方向に応じて回転されたオブジェクトを表示する。一方、画面に表示される不透明領域に対応する部分には、領域が指定された時点の当該不透明領域に投影された仮想空間の様子を表示してもよい。   For example, in order to examine a part displayed on the game image, when the user designates a transparent region so as to surround the part, and subsequently designates an object as a center of rotation and a moving direction of the viewpoint. In the portion corresponding to the transparent area displayed on the screen, the object rotated according to the designated direction projected on the designated transparent area is displayed as described above. On the other hand, in the portion corresponding to the opaque area displayed on the screen, the state of the virtual space projected on the opaque area at the time when the area is designated may be displayed.

これを実現するために、例えば、表示部は、領域が指定された時点(且つ回転が行われる前)における、仮想空間の状態を所定形状の面に投影した画像を生成する。そして、表示部は、上述するステップS104において、当該生成した画像のうち、不透明領域に一致する部分を、フレームメモリの不透明領域に一致する位置に書き込めばよい。   In order to realize this, for example, the display unit generates an image obtained by projecting the state of the virtual space onto a plane having a predetermined shape at the time when the region is designated (and before the rotation is performed). In step S104 described above, the display unit may write a portion of the generated image that matches the opaque region at a position that matches the opaque region of the frame memory.

例えば、図7(A)に示す仮想空間を投影して、図10(A)に示すような画像が表示されている状態で、図10(B)に示すような入力をユーザが行なった場合について説明する。即ち、ユーザは、透明領域420Aを指定し、回転の中心となるオブジェクトとしてオブジェクト401Aを選択し、視点を移動する方向として、方向710を指定する。この結果、図10(C)に示すように、透明領域には、オブジェクト401Aを中心に回転された後の様子が表示される。一方、不透明領域には、透明領域を指定した時点において、不透明領域に表示されたものと同じ画像が表示される。   For example, when the user performs an input as shown in FIG. 10B while projecting the virtual space shown in FIG. 7A and displaying an image as shown in FIG. Will be described. That is, the user designates the transparent area 420A, selects the object 401A as the object to be rotated, and designates the direction 710 as the direction in which the viewpoint is moved. As a result, as shown in FIG. 10C, the state after being rotated around the object 401A is displayed in the transparent area. On the other hand, in the opaque region, the same image as that displayed in the opaque region is displayed when the transparent region is designated.

このように、現在注目している部分以外も同時に表示することで、注目していない部分を見たいというようなユーザの要望にも対応できる。また、注目している指定領域部分のみが回転されて、他の部分は変化しない画像が生成されるため、注目部分が浮き出ているかのような効果を得られ、当該注目部分をさらに判別し易くなる。   In this way, by displaying other than the part of interest at the same time, it is possible to respond to the user's request to see the part that is not of interest. In addition, since only the designated area portion of interest is rotated and an image is generated in which other portions do not change, an effect as if the attention portion is raised is obtained, and the attention portion can be more easily discriminated. Become.

このほかにも、本発明を、例えば、事件の謎を解き明かすような推理ゲームに用いることができる。不透明領域に表示される画像を、現在の状況を示す現場写真の画像とする。そして、透明領域には、過去の状況を示す現場写真の画像を投影する。これにより、ユーザが現場写真の任意の場所(透明領域)を指定すると、表示装置はその部分だけまるで“時空に穴を掘った”かのように演出しながら現場付近の過去の画像を、現在の画像に部分的に合成した画像を表示する。ユーザは、どこに注目したいか、どこに注目すべきか、を考えながら、過去の現場付近の様子を回転しながら表示させ、現在と過去の現場の相違を探さねばならず、推理力が試される。このように、ユーザに対してより考えさせるゲーム、頭を使わせるゲームを創出することができる。   In addition, the present invention can be used, for example, in an inference game that solves the mystery of the incident. The image displayed in the opaque region is an on-site photo image showing the current situation. Then, an on-site photo image showing the past situation is projected onto the transparent area. As a result, when the user designates an arbitrary location (transparent area) of the site photograph, the display device displays the past image near the site as if it were “digging a hole in the space-time” as if it was a part of the display device. An image partially synthesized with the image is displayed. The user must rotate and display the state near the past site while thinking where to focus and where to focus, and search for the difference between the current site and the past site, and the reasoning ability is tested. In this way, it is possible to create a game that makes the user think more and a game that uses the head.

また、上記実施の形態においては、回転部が仮想空間に配置されるオブジェクトを回転できる角度について制限を与えなかった。しかし、例えば、指定された方向に基づいて、回転部が仮想空間内のオブジェクトを回転した際に、透明領域の指定後直後(且つ回転が行われる以前)に当該透明領域に表示されていなかったオブジェクト(以下、原不可視オブジェクトと呼ぶ)のいずれかが、原可視オブジェクトと所定形状の面との間に配置されてしまうことがある。この結果、原可視オブジェクトが原不可視オブジェクトによって隠れてしまう。原可視オブジェクトは、ユーザが注目しているオブジェクトであるため、原不可視オブジェクトに隠されてしまうのは望ましくない。   Moreover, in the said embodiment, the restriction | limiting was not given about the angle which a rotation part can rotate the object arrange | positioned in virtual space. However, for example, when the rotating unit rotates the object in the virtual space based on the specified direction, it is not displayed in the transparent area immediately after the transparent area is specified (and before the rotation is performed). Any of the objects (hereinafter referred to as original invisible objects) may be disposed between the original visible object and a surface having a predetermined shape. As a result, the original visible object is hidden by the original invisible object. Since the original visible object is an object that the user is paying attention to, the original visible object is not desirably hidden by the original invisible object.

したがって、回転部は、全てのオブジェクトに対して、まず試回転を行う。そして、試回転後の視点と原不可視オブジェクトとを結ぶいずれかの線分が、透明領域を通過する場合(即ち、原不可視オブジェクトが透明領域に投影される場合)、次の判定を行う。即ち、試回転後の、透明領域を通過する、視点と原不可視オブジェクトとを結ぶ線分のそれぞれの長さを、視点と原可視オブジェクトとのそれぞれの距離と比較して短いか否かを判定する。
短いものがある場合は、原不可視オブジェクトのいずれかが原可視オブジェクトのいずれかより視点に近い位置にあり、原不可視オブジェクトが原可視オブジェクトを隠す可能性がある。よって、回転部は、全てのオブジェクトの試回転を確定せずにオブジェクトの位置や向きを試回転を始める前の状態に戻す。あるいは、試回転を始める前の状態に戻すのではなく、当該視点と原不可視オブジェクトとの距離のいずれかが、視点と原可視オブジェクトとの距離より短くなる直前の位置で、試回転を確定してもよい。一方、短いものがない場合、回転部は、試回転を確定させる。
Therefore, the rotation unit first performs trial rotation on all objects. Then, when any line segment connecting the viewpoint after the trial rotation and the original invisible object passes through the transparent area (that is, when the original invisible object is projected onto the transparent area), the following determination is performed. That is, it is determined whether the length of each line segment connecting the viewpoint and the original invisible object passing through the transparent area after the trial rotation is shorter than the distance between the viewpoint and the original visible object. To do.
If there is a short object, any of the original invisible objects may be closer to the viewpoint than any of the original visible objects, and the original invisible object may hide the original visible object. Therefore, the rotation unit returns the position and orientation of the object to the state before starting the trial rotation without confirming the trial rotation of all the objects. Alternatively, instead of returning to the state before starting the trial rotation, the trial rotation is confirmed at a position immediately before one of the distances between the viewpoint and the original invisible object becomes shorter than the distance between the viewpoint and the original visible object. May be. On the other hand, when there is no short thing, a rotation part finalizes trial rotation.

例えば、図11A(A)に示すように配置されたオブジェクトが、ユーザにより指定された視点の移動方向に基づいて、回転部によって、軸1001の周りを右周りに回転された場合について説明する。   For example, a case will be described in which an object arranged as shown in FIG. 11A (A) is rotated clockwise around the axis 1001 by the rotation unit based on the moving direction of the viewpoint specified by the user.

図11(A)に示されるように、オブジェクト401Cは、透明領域420Aの指定直後において当該透明領域420Aに投影されない、原不可視オブジェクトである。一方、オブジェクト401Aおよび401Bは当該指定直後の透明領域401Aに投影される、原可視オブジェクトである。   As shown in FIG. 11A, the object 401C is an original invisible object that is not projected onto the transparent area 420A immediately after the transparent area 420A is designated. On the other hand, the objects 401A and 401B are original visible objects projected onto the transparent area 401A immediately after the designation.

図11(A)から、図11(B)のようなオブジェクトの配置が、試回転により得られた場合、原不可視オブジェクト401Cは、透明領域420Bに投影される位置に移動する。この状態で仮想空間の様子を所定形状の面の透明領域420Aに投影すれば、図11(C)のような画像が得られる。即ち、原不可視オブジェクト401Cの投影された像401C’が、原可視オブジェクト401Aの投影された像401A’を一部隠してしまう。   From FIG. 11A, when the object arrangement as shown in FIG. 11B is obtained by trial rotation, the original invisible object 401C moves to a position projected on the transparent region 420B. If the state of the virtual space is projected onto the transparent area 420A having a predetermined shape in this state, an image as shown in FIG. 11C is obtained. That is, the projected image 401C ′ of the original invisible object 401C partially hides the projected image 401A ′ of the original visible object 401A.

回転部は、このような状況を防ぐために、原不可視オブジェクトと視点との距離(例えば、距離1012)を、原不可視オブジェクトと視点との距離(例えば、距離1011)と比較する。   In order to prevent such a situation, the rotation unit compares the distance between the original invisible object and the viewpoint (for example, distance 1012) with the distance between the original invisible object and the viewpoint (for example, distance 1011).

図11(B)では、距離1012は距離1011より短いため、回転部は、試回転を確定せずにとりやめる。   In FIG. 11B, since the distance 1012 is shorter than the distance 1011, the rotating unit stops without confirming the trial rotation.

これにより、投影されたオブジェクトの重なりなどを求めずとも、簡易に原可視オブジェクトが隠れないように表示することが可能となる。   As a result, it is possible to easily display the original visible object so as not to be hidden without obtaining an overlap of the projected objects.

また、透明領域として指定できる所定形状の面内における面積の大きさを制限してもよい。例えば、透明領域が指定された際に、領域指定受付部は、当該透明領域の、最大の横幅、および縦幅のそれぞれを求め、当該最大横幅、および、最大縦幅のいずれかが、記憶部などに記憶される所定の閾値以下でない場合、領域指定を受け付けないようにしてもよい。   Moreover, you may restrict | limit the magnitude | size of the area in the surface of the predetermined shape which can be designated as a transparent area | region. For example, when a transparent area is designated, the area designation receiving unit obtains the maximum horizontal width and vertical width of the transparent area, and either the maximum horizontal width or the maximum vertical width is stored in the storage unit. The area designation may not be accepted if it is not less than or equal to a predetermined threshold stored in the above.

これにより、例えば、原可視オブジェクトのみを回転させる変形例においては、原可視オブジェクトの数が多くなることを防ぎ、回転処理に係る計算量を抑えることが可能となる。また、原可視オブジェクトのみを回転させるのではなく、仮想空間内の全オブジェクトを回転させる場合についても、回転表示される領域が小さくなるため、所謂3D酔いを防止することもできる。あるいは、同様の効果を得るために、原可視オブジェクトの数が所定の閾値以上となる場合に、領域指定受付部は、領域指定を受け付けないようにしてもよい。   Thereby, for example, in a modification in which only the original visible object is rotated, it is possible to prevent the number of original visible objects from increasing, and to suppress the calculation amount related to the rotation process. Also, in the case where not only the original visible object is rotated but all the objects in the virtual space are rotated, the area to be rotated and displayed is small, so that so-called 3D sickness can be prevented. Alternatively, in order to obtain the same effect, the region designation receiving unit may not accept the region designation when the number of original visible objects is equal to or greater than a predetermined threshold.

また、上記実施の形態においては、仮想空間内のオブジェクトを回転させて、視点が移動したかのような画像が、画面の透明領域に対応する位置に表示される。そうではなく、回転させる際に許容される計算精度などに応じて、ユーザによって指定される方向に、視点自体(および所定形状の面)の位置を移動させるようにしてもよい。或いは、オブジェクトの回転と、視点の移動の両方を行ってもよい。   Further, in the above embodiment, an image as if the viewpoint is moved by rotating an object in the virtual space is displayed at a position corresponding to the transparent area of the screen. Instead, the position of the viewpoint itself (and the surface of the predetermined shape) may be moved in the direction specified by the user according to the calculation accuracy allowed when rotating. Alternatively, both the rotation of the object and the movement of the viewpoint may be performed.

本発明の表示装置が実現される典型的な携帯型ゲーム機の概要構成を示す図である。It is a figure which shows schematic structure of the typical portable game machine with which the display apparatus of this invention is implement | achieved. 本発明の表示装置が実現される典型的な携帯型ゲーム機の外観図を示す図である。It is a figure which shows the external view of the typical portable game machine with which the display apparatus of this invention is implement | achieved. 表示装置の機能的構成を説明するための図である。It is a figure for demonstrating the functional structure of a display apparatus. 仮想空間の構成の例を示す図である。It is a figure which shows the example of a structure of virtual space. 表示装置が受け付ける入力の状態遷移図である。It is a state transition diagram of the input which a display apparatus receives. 表示処理を説明するためのフロー図である。It is a flowchart for demonstrating a display process. (A)は、仮想空間の様子を所定形状の面に投影した様子を示す図であり、(B)は、その結果生成される画像の例を示す図である。(A) is a figure which shows a mode that the state of virtual space was projected on the surface of predetermined shape, (B) is a figure which shows the example of the image produced | generated as a result. (A)は、回転前に表示された画像上で、透明領域内のオブジェクトが選択され、視点の移動方向が指定された例を示す図であり、(B)は指定された視点の移動方向に対して、回転部がオブジェクトを回転する軸と方向を求める方法の一例を示す図である。(A) is a figure showing an example in which an object in a transparent area is selected on an image displayed before rotation, and a viewpoint movement direction is designated, and (B) is a movement direction of the designated viewpoint. On the other hand, it is a figure which shows an example of the method for a rotation part to obtain | require the axis and direction which rotate an object. 図8(A)に示される視点の移動方向に基づいてオブジェクトが回転された際に、表示される画像の例を示す図である。It is a figure which shows the example of the image displayed when an object is rotated based on the moving direction of the viewpoint shown to FIG. 8 (A). 変形例において、(A)は、回転前に表示される画像の例、(B)は、透明領域内のオブジェクトが選択され、視点の移動方向が指定された例、(C)は、回転部によって指定された移動方向にオブジェクトを回転した後に、表示される画像の例、を示す図である。In the modified example, (A) is an example of an image displayed before rotation, (B) is an example in which an object in a transparent region is selected and a viewpoint moving direction is specified, and (C) is a rotating unit. FIG. 6 is a diagram illustrating an example of an image displayed after an object is rotated in a movement direction designated by the item (1). (A)は仮想空間の構成の例を示す図であり、(B)は、(A)を軸1001に対して、右周りに回転させた後の仮想空間の様子を示す図であり、(C)は、(B)を投影させた結果を示す図である。(A) is a figure which shows the example of a structure of virtual space, (B) is a figure which shows the mode of the virtual space after rotating (A) clockwise with respect to the axis | shaft 1001, C) is a diagram showing a result of projecting (B).

符号の説明Explanation of symbols

1 携帯型ゲーム機
10 処理制御部
11 コネクタ
12 カートリッジ
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 第1の表示部
19 第2の表示部
20 タッチパネル
200 表示装置
201 記憶部
202 表示部
203 選択指示受付部
204 方向指定受付部
205 回転部
206 領域指定受付部
DESCRIPTION OF SYMBOLS 1 Portable game machine 10 Processing control part 11 Connector 12 Cartridge 13 Wireless communication part 14 Communication controller 15 Sound amplifier 16 Speaker 17 Operation key 18 1st display part 19 2nd display part 20 Touch panel 200 Display apparatus 201 Storage part 202 Display Unit 203 Selection instruction receiving unit 204 Direction designation receiving unit 205 Rotating unit 206 Area designation receiving unit

Claims (10)

仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部、
前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部、
前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部、
前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部、
前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部、
を備え
前記回転部は、前記可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと前記視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、前記透明領域を通過してしまう場合、前記回転を中止する、
とを特徴とする表示装置。
A storage unit for storing the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region;
Generate and display an image in which an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) is projected at the intersection of the line segment and the transparent area Display section,
A selection instruction receiving unit for receiving a selection instruction input for instructing to select one of the visible objects;
A direction designation receiving unit for receiving a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space;
A rotation unit that rotates the position and orientation of an object arranged in the virtual space according to the designated direction, with the selected visible object as a center,
Equipped with a,
If the rotation unit rotates the position and orientation of an object other than the visible object (hereinafter referred to as invisible object), the distance between the invisible object and the viewpoint is shorter than the distance between the visible object and the viewpoint. If the line connecting the invisible object and the viewpoint passes through the transparent area, the rotation is stopped.
Display device comprising a call.
仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部、  A storage unit for storing the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region;
前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部、  Generate and display an image in which an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) is projected at the intersection of the line segment and the transparent area Display section,
前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部、  A selection instruction receiving unit for receiving a selection instruction input for instructing to select one of the visible objects;
前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部、  A direction designation receiving unit for receiving a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space;
前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部、  A rotation unit that rotates the position and orientation of an object arranged in the virtual space according to the designated direction, with the selected visible object as a center,
を備え、  With
前記所定形状の面において、前記透明領域と前記不透明領域とを指定する領域指定入力を受け付ける領域指定受付部、  An area designation receiving unit for receiving an area designation input for designating the transparent area and the opaque area on the surface of the predetermined shape;
をさらに備え、  Further comprising
前記表示部は、前記位置および向きが回転されたオブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、前記回転が行われる以前のオブジェクトの位置と前記視点の位置とを結ぶ線分が前記不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、前記画像を生成する、  The display unit projects an object in which a line segment connecting the position of the object whose position and orientation has been rotated and the position of the viewpoint passes through the transparent region to an intersection of the line segment and the transparent region, An object in which a line segment connecting the position of the object before the rotation and the position of the viewpoint passes through the opaque region is projected to the intersection of the line segment and the opaque region to generate the image. ,
ことを特徴とする表示装置。  A display device characterized by that.
請求項に記載の表示装置であって、
前記所定形状の面において、前記透明領域と前記不透明領域とを指定する領域指定入力を受け付ける領域指定受付部
をさらに備え、
前記表示部は、前記位置および向きが回転されたオブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、前記回転が行われる以前のオブジェクトの位置と前記視点の位置とを結ぶ線分が前記不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、前記画像を生成する、
ことを特徴とする表示装置。
The display device according to claim 1 ,
An area designation receiving unit for receiving an area designation input for designating the transparent area and the opaque area on the surface of the predetermined shape;
The display unit projects an object in which a line segment connecting the position of the object whose position and orientation has been rotated and the position of the viewpoint passes through the transparent region to an intersection of the line segment and the transparent region, An object in which a line segment connecting the position of the object before the rotation and the position of the viewpoint passes through the opaque region is projected to the intersection of the line segment and the opaque region to generate the image. ,
A display device characterized by that.
請求項2または3に記載の表示装置であって、
前記領域指定受付部は、前記受け付けた透明領域が、所定の面積以上である場合、前記領域指定入力を受け付けない、
ことを特徴とする表示装置。
The display device according to claim 2 or 3 ,
The area designation receiving unit does not accept the area designation input when the received transparent area is a predetermined area or more.
A display device characterized by that.
請求項2または3に記載の表示装置であって、
前記領域指定受付部は、前記領域指定入力を受け付けると、前記可視オブジェクトの数が所定の数以上となる場合、当該領域指定入力を受け付けない、
ことを特徴とする表示装置。
The display device according to claim 2 or 3 ,
The area designation receiving unit, when receiving the area designation input, does not accept the area designation input when the number of the visible objects is a predetermined number or more.
A display device characterized by that.
請求項1から5のいずれか1項に記載の表示装置であって、
前記回転部が、位置および向きを回転させるオブジェクトは、前記可視オブジェクトである、
ことを特徴とする表示装置。
A display device according to any one of claims 1 to 5 ,
The object that the rotation unit rotates the position and orientation is the visible object.
A display device characterized by that.
記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える表示装置による表示方法であって、
前記記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶しており、
前記表示方法は、
前記表示部が、前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示工程、
前記選択指示受付部が、前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、
前記方向指定受付部が、前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、
前記回転部が、前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転工程、
を備え
前記回転工程では、前記回転部が、前記可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと前記視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、前記透明領域を通過してしまう場合、前記回転を中止する、
とを特徴とする表示方法。
A display method by a display device comprising a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit,
The storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region,
The display method is:
An image obtained by projecting an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) to the intersection of the line segment and the transparent area. Display process to generate and display
A selection instruction receiving step for receiving a selection instruction input instructing the selection instruction receiving unit to select one of the visible objects;
A direction designation accepting step in which the direction designation accepting unit accepts a direction designation input for designating a direction to move the viewpoint in the virtual space;
A rotation step in which the rotation unit rotates the position and orientation of an object arranged in the virtual space according to the specified direction, with the selected visible object as a center;
Equipped with a,
In the rotation step, if the rotation unit rotates the position and orientation of an object other than the visible object (hereinafter referred to as invisible object), the distance between the invisible object and the viewpoint is determined by the distance between the visible object and the viewpoint. If the line segment connecting the invisible object and the viewpoint passes through the transparent region, the rotation is stopped.
Display wherein a call.
記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、領域指定受付部と、を備える表示装置による表示方法であって、  A display method comprising a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, a rotating unit, and a region designation receiving unit,
前記記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶しており、  The storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region,
前記表示方法は、  The display method is:
前記表示部が、前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示工程、  An image obtained by projecting an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) to the intersection of the line segment and the transparent area. Display process to generate and display
前記選択指示受付部が、前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、  A selection instruction receiving step for receiving a selection instruction input instructing the selection instruction receiving unit to select one of the visible objects;
前記方向指定受付部が、前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、  A direction designation accepting step in which the direction designation accepting unit accepts a direction designation input for designating a direction to move the viewpoint in the virtual space;
前記回転部が、前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転工程、  A rotation step in which the rotation unit rotates the position and orientation of an object arranged in the virtual space according to the specified direction, with the selected visible object as a center;
前記領域指定受付部が、前記所定形状の面において、前記透明領域と前記不透明領域とを指定する領域指定入力を受け付ける領域指定受付工程、  An area designation accepting step in which the area designation accepting unit accepts an area designation input for designating the transparent area and the opaque area on the surface of the predetermined shape;
を備え、  With
前記表示工程では、前記表示部が、前記位置および向きが回転されたオブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、前記回転が行われる以前のオブジェクトの位置と前記視点の位置とを結ぶ線分が前記不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、前記画像を生成する、  In the display step, the display unit detects an object in which a line segment connecting the position of the object whose position and orientation is rotated and the position of the viewpoint passes through the transparent area, and the line segment and the transparent area Projecting to the intersection point between the line segment and the opaque region, projecting the object through which the line segment connecting the position of the object before the rotation and the position of the viewpoint passes through the opaque region. Generating the image,
ことを特徴とする表示方法。  A display method characterized by that.
コンピュータを、
仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部、
前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部、
前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部、
前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部、
前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部、
として機能させ
前記回転部は、前記可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと前記視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、前記透明領域を通過してしまう場合、前記回転を中止する、
ように機能させることを特徴とするプログラム。
Computer
A storage unit for storing the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region;
Generate and display an image in which an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) is projected at the intersection of the line segment and the transparent area Display section,
A selection instruction receiving unit for receiving a selection instruction input for instructing to select one of the visible objects;
A direction designation receiving unit for receiving a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space;
A rotation unit that rotates the position and orientation of an object arranged in the virtual space according to the designated direction, with the selected visible object as a center,
To function as,
If the rotation unit rotates the position and orientation of an object other than the visible object (hereinafter referred to as invisible object), the distance between the invisible object and the viewpoint is shorter than the distance between the visible object and the viewpoint. If the line connecting the invisible object and the viewpoint passes through the transparent area, the rotation is stopped.
A program characterized by functioning as follows.
コンピュータを、  Computer
仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部、  A storage unit for storing the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent region and an opaque region;
前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部、  Generate and display an image in which an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) is projected at the intersection of the line segment and the transparent area Display section,
前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部、  A selection instruction receiving unit for receiving a selection instruction input for instructing to select one of the visible objects;
前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部、  A direction designation receiving unit for receiving a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space;
前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部、  A rotation unit that rotates the position and orientation of an object arranged in the virtual space according to the designated direction, with the selected visible object as a center,
前記所定形状の面において、前記透明領域と前記不透明領域とを指定する領域指定入力を受け付ける領域指定受付部、  An area designation receiving unit for receiving an area designation input for designating the transparent area and the opaque area on the surface of the predetermined shape;
として機能させ、  Function as
前記表示部は、前記位置および向きが回転されたオブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、前記回転が行われる以前のオブジェクトの位置と前記視点の位置とを結ぶ線分が前記不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、前記画像を生成する、  The display unit projects an object in which a line segment connecting the position of the object whose position and orientation has been rotated and the position of the viewpoint passes through the transparent region to an intersection of the line segment and the transparent region, An object in which a line segment connecting the position of the object before the rotation and the position of the viewpoint passes through the opaque region is projected to the intersection of the line segment and the opaque region to generate the image. ,
ように機能させることを特徴とするプログラム。  A program characterized by functioning as follows.
JP2008260979A 2008-10-07 2008-10-07 Display device, display method, and program Active JP4912377B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008260979A JP4912377B2 (en) 2008-10-07 2008-10-07 Display device, display method, and program
PCT/JP2009/066602 WO2010041557A1 (en) 2008-10-07 2009-09-25 Display device, display method, information recording medium, and program
TW098133438A TW201030673A (en) 2008-10-07 2009-10-01 Display device, display method, information recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008260979A JP4912377B2 (en) 2008-10-07 2008-10-07 Display device, display method, and program

Publications (3)

Publication Number Publication Date
JP2010092233A JP2010092233A (en) 2010-04-22
JP2010092233A5 JP2010092233A5 (en) 2010-09-16
JP4912377B2 true JP4912377B2 (en) 2012-04-11

Family

ID=42100511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008260979A Active JP4912377B2 (en) 2008-10-07 2008-10-07 Display device, display method, and program

Country Status (3)

Country Link
JP (1) JP4912377B2 (en)
TW (1) TW201030673A (en)
WO (1) WO2010041557A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304701B2 (en) 2019-01-28 2023-07-07 株式会社コーエーテクモゲームス Game program, recording medium, game processing method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5634765B2 (en) * 2010-06-24 2014-12-03 東芝機械株式会社 Pulse laser machining method and pulse laser machining data creation method
JP2012103746A (en) * 2010-11-05 2012-05-31 Avix Inc Method for display control for fascinating viewer, digital signage system, and computer program
JP2014238621A (en) * 2013-06-06 2014-12-18 カルソニックカンセイ株式会社 Input receiving device
JP6087453B1 (en) * 2016-02-04 2017-03-01 株式会社コロプラ Method and program for providing virtual space
CN106975219B (en) * 2017-03-27 2019-02-12 网易(杭州)网络有限公司 Display control method and device, storage medium, the electronic equipment of game picture
JP6684746B2 (en) * 2017-05-12 2020-04-22 株式会社コロプラ Information processing method, computer and program
JP6393387B1 (en) * 2017-10-17 2018-09-19 株式会社コロプラ Programs, computers, and methods for providing a virtual experience

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111001A (en) * 1992-09-25 1994-04-22 Toshiba Corp Three-dimensional graphic image system
JPH07225859A (en) * 1994-02-14 1995-08-22 Toshiba Corp Object display device
JP3491832B2 (en) * 2001-01-30 2004-01-26 株式会社ナムコ GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4825594B2 (en) * 2005-07-07 2011-11-30 株式会社リコー Parts selection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304701B2 (en) 2019-01-28 2023-07-07 株式会社コーエーテクモゲームス Game program, recording medium, game processing method

Also Published As

Publication number Publication date
JP2010092233A (en) 2010-04-22
WO2010041557A1 (en) 2010-04-15
TW201030673A (en) 2010-08-16

Similar Documents

Publication Publication Date Title
KR102577051B1 (en) Electronic device and method for providing split screen
JP4912377B2 (en) Display device, display method, and program
KR102487389B1 (en) Foldable electronic device and method for controlling screen using gesture
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
WO2019153824A1 (en) Virtual object control method, device, computer apparatus, and storage medium
US10296189B2 (en) Information processing device and program
JP5951781B2 (en) Multidimensional interface
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
US9530232B2 (en) Augmented reality surface segmentation
CN113748407A (en) Electronic device and method for displaying split screen providing object
US20100208033A1 (en) Personal Media Landscapes in Mixed Reality
US20120102438A1 (en) Display system and method of displaying based on device interactions
TW201101144A (en) A user interface
JP5295839B2 (en) Information processing apparatus, focus movement control method, and focus movement control program
KR20220028131A (en) Indicating out-of-view augmented reality images
JP5859298B2 (en) Information processing system, information processing apparatus, information processing method, and information processing program
CN108710525A (en) Map methods of exhibiting, device, equipment and storage medium in virtual scene
US20130176202A1 (en) Menu selection using tangible interaction with mobile devices
JPWO2015025345A1 (en) Information display device, information display method, and information display program
EP3791253B1 (en) Electronic device and method for providing virtual input tool
JP2006146440A (en) Electronic equipment and information display selection method
JP5247907B1 (en) Data acquisition device, data acquisition system, data acquisition device control method, and program
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP6894566B1 (en) program
US20240062279A1 (en) Method of displaying products in a virtual environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

R150 Certificate of patent or registration of utility model

Ref document number: 4912377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250