WO2013121807A1 - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
WO2013121807A1
WO2013121807A1 PCT/JP2013/050071 JP2013050071W WO2013121807A1 WO 2013121807 A1 WO2013121807 A1 WO 2013121807A1 JP 2013050071 W JP2013050071 W JP 2013050071W WO 2013121807 A1 WO2013121807 A1 WO 2013121807A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
operation target
unit
target image
Prior art date
Application number
PCT/JP2013/050071
Other languages
English (en)
French (fr)
Inventor
玲 若月
薫 八田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP13749076.9A priority Critical patent/EP2816456A1/en
Priority to CN201380008561.XA priority patent/CN104094209A/zh
Priority to US14/366,426 priority patent/US10409446B2/en
Publication of WO2013121807A1 publication Critical patent/WO2013121807A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a computer program that can operate a display position of a three-dimensional image displayed on a display unit.
  • display devices such as 3D displays that can display a stereoscopic image in which a subject has a sense of depth in depth and width information are displayed as display devices that display images of television programs, movies, games, and the like. It's getting on. Three-dimensional images enable the expression of reality and realism by allowing viewers to recognize depth and three-dimensionality using a mechanism in which humans see objects with both eyes. Further, for example, OSD (On Screen Display) images such as menus and icons displayed together with images of TV programs, movies, games, and the like can be displayed three-dimensionally (for example, Patent Document 1).
  • OSD On Screen Display
  • the 3D image has depth information as display position information of the image in addition to the vertical and horizontal position information of the display surface. For this reason, if an OSD image is displayed while a three-dimensional image is displayed, the OSD image may be buried in the three-dimensional image depending on the combination of these images. Since it is difficult to predict the case where the OSD image is buried in the three-dimensional image and adjust the display position of the OSD image, it is necessary to adjust the display position at the time of display.
  • the display position in the depth direction of subtitle information displayed in a three-dimensional image has been adjusted by an operation input from a dial-type operation unit, a finger movement on a touch panel, or the like. It can only be adjusted within the specified range. Therefore, it is desired that information in the three-dimensional image can be freely operated by an intuitive operation.
  • an operation target image that is an operation target is identified from a three-dimensional image displayed on the display unit based on a detection result by an input detection unit that detects a position of an operation body that performs an operation input in a three-dimensional space.
  • An information processing apparatus comprising: a calculation unit that calculates a target display position of the operation target image; and a display processing unit that displays the operation target image on the display unit so that the operation target image is displayed at the target display position calculated by the calculation unit.
  • the information processing apparatus specifies an operation target image from the three-dimensional image displayed on the display unit based on the position of the operation tool detected by the input detection unit, and operates the operation target image. Display processing is performed so as to move according to the movement of the body. Thereby, the user can adjust the display position of a part of the three-dimensional image by an intuitive operation.
  • the position of the operation body that performs the operation input is detected in the three-dimensional space, and the operation target is determined from the three-dimensional image displayed on the display unit based on the detection result of the position of the operation body.
  • an information processing method including specifying an operation target image, calculating a target display position of the operation target image, and causing the display unit to display the operation target image so as to be displayed at the calculated target display position. Is done.
  • the computer becomes an operation target from the three-dimensional image displayed on the display unit based on the detection result by the input detection unit that detects the position of the operation body that performs the operation input in the three-dimensional space.
  • a calculation unit that identifies an operation target image and calculates a target display position of the operation target image; and a display processing unit that displays the operation target image on the display unit so as to be displayed at the target display position calculated by the calculation unit.
  • a computer program that functions as an information processing apparatus is provided.
  • information in a three-dimensional image can be freely operated by an intuitive operation.
  • FIG. 2 is an explanatory diagram illustrating a schematic configuration of a display device including an information processing device according to a first embodiment of the present disclosure.
  • FIG. 3 is a functional block diagram illustrating a functional configuration of the display device according to the embodiment.
  • FIG. It is a flowchart which shows the display process by the display apparatus which concerns on the embodiment. It is explanatory drawing which shows an example of the three-dimensional image and OSD image which were displayed on the display part.
  • FIG. 5 is an explanatory diagram illustrating an operation of moving a part of the OSD image of FIG. 4.
  • 14 is a functional block diagram illustrating a functional configuration of a display device according to a second embodiment of the present disclosure.
  • FIG. It is a flowchart which shows the display process by the display apparatus which concerns on the embodiment. It is explanatory drawing which shows operation which moves a part of 3D image.
  • It is a hardware block diagram which shows the hardware structural example of the display apparatus which concerns on the same embodiment.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of the display device 100 according to the present embodiment.
  • the display device 100 is an output device including a 3D display 102 that can display a three-dimensional image.
  • the display device 100 can be provided in a device including a display unit such as a television or an imaging device.
  • the display device 100 has an input detection device 104 for detecting the position of the operating tool with respect to the display surface for an operating tool (for example, a user's finger) that operates information displayed on the 3D display 102. It has.
  • the input detection device 104 is a sensor that can detect the position of the operating body with respect to the input device 104, and is installed at a position where information can be shared on the same coordinate axis as the 3D display 102. The positional relationship with the body can be acquired.
  • the input detection device 104 can acquire the proximity state of the operating body with respect to the input detection device 104 as depth information (position in the z direction) in addition to the position information in the plane coordinates (xy coordinates) of the input detection device 104.
  • the input detection device 104 acquires the position information of the operating tool at a predetermined timing and outputs it to the calculation unit 120.
  • the calculation unit 120 recognizes the movement of the operating body based on the position information of the operating body input from the input detection device 104. For example, the calculation unit 120 recognizes an operation input by the operating body such as pinching, moving, and releasing based on a change in position information of the operating body.
  • the display device 100 includes the input detection device 104 that can detect the position of the operation tool in the three-dimensional space, and can move the position of the three-dimensionally displayed image using the operation tool. Become. Thereby, the user can freely adjust the display position of the image by an intuitive operation.
  • the configuration and function of the display device 100 according to the present embodiment will be described in detail.
  • FIG. 2 is a functional block diagram showing a functional configuration of the display device 100 according to the present embodiment.
  • the display device 100 according to the present embodiment includes an input detection unit 110, a calculation unit 120, a display processing unit 130, and a display unit 140.
  • the calculation unit 120 and the display processing unit 130 function as an information processing apparatus that performs display processing for adjusting the display position of a three-dimensional image.
  • the input detection unit 110 detects the position of the operation body with respect to the display surface for the operation body that operates the information displayed on the display unit 140.
  • the input detection unit 110 corresponds to the input detection device 104 in FIG.
  • the input detection unit 110 can detect position information and a proximity state in a plane coordinate with respect to a detection surface of the input detection unit 110 by sensing an electric signal due to static electricity, for example. Detection of the proximity state includes detection of a contact state. The proximity state can be recognized from the magnitude of the electric signal.
  • the proximity detection method of the input detection unit 110 is not limited to this example, and other detection methods may be used.
  • the input detection unit 110 outputs a detection result (for example, an electric signal due to static electricity) to the calculation unit 120 every time a predetermined value, for example, a detection value is acquired.
  • the calculation unit 120 specifies the position of the operation tool based on the detection result from the input detection unit 110, and calculates the target display position of the image to be operated.
  • the calculation unit 120 includes an operation position calculation unit 122 and an operation target operation position calculation unit 124.
  • the operation position calculation unit 122 calculates the position of the operation body from the detection result of the input detection unit 110.
  • the operation position calculation unit 122 calculates the position information in the xy plane coordinates and the distance from the detection surface of the input detection unit 110 as the operation position information of the operation body based on the magnitude of the electrical signal input from the input detection unit 110, for example.
  • the input detection unit 110 and the display unit 140 are installed at positions where information can be shared on the same coordinate axis, and the distance from the detection surface of the input detection unit 110 to the operation body is the display surface of the display unit 140 and the operation body. And the distance.
  • the operation position calculation unit 122 records the calculated operation position information of the operating tool in a storage unit (not shown) and manages the history.
  • the operation position calculation unit 122 determines the action performed by the user based on the change in the operation position information of the operation tool.
  • the user can directly operate and move the displayed image. For example, the user can adjust the display position of an image by picking and moving an image to be moved among displayed images.
  • the operation position calculation unit 122 recognizes that the user has performed the action of pinching
  • the operation position calculation unit 122 specifies the image displayed at the position as the operation target.
  • the operation position calculation part 122 monitors the operation
  • the user's pinching operation can be recognized when two or more operation object areas detected by the input detection unit 110 become one operation object area.
  • the operation of pinching the operation target is usually performed by bringing a thumb and a finger other than the thumb into contact with each other. From this, when the operation object region indicating the presence of the operation object represented by the detection result of the input detection unit 110 is changed from a plurality to one, it can be determined that a pinch operation has been performed.
  • the pinching operation is performed, the plurality of operation body regions before the operation target is pinched become one operation body region smaller than this.
  • the operation position calculation unit 122 compares the parallax information of the display unit 140 with the operation position information of the operation tool.
  • the operation position calculation unit 122 specifies the image as an operation target.
  • the operation position calculation unit 122 outputs information for specifying the operation target image and operation position information of the operation tool to the operation target target display position calculation unit 124. These pieces of information are continuously output to the operation target target display position calculation unit 124 until an operation for releasing the image pinched by the operating tool is performed.
  • the operation target target display position calculation unit 124 calculates the position at which the operation target image is displayed according to the change in the operation position information of the operation tool.
  • the operation target target display position calculation unit 124 receives the information of the image specified as the operation target from the operation position calculation unit 122, the operation target target display position calculation unit 124 moves the operation target image according to the change in the operation position information of the operation tool. Accordingly, an operation of moving the image to a desired position can be realized by the user pinching the image and moving his / her hand.
  • the operation target target display position calculation unit 124 displays the image at the position of the operation body when the image is released. The display position is fixed until the next operation.
  • the operation target target display position calculation unit 124 outputs the calculated target display position of the operation target image to the display processing unit 130.
  • the image processing unit 130 performs processing so that the image is displayed at the target display position of the operation target image input from the operation target target display position calculation unit 124.
  • the image processing unit 130 outputs display information after the image processing to the display unit 140 to display a three-dimensional image.
  • the display unit 140 is an output device capable of displaying a three-dimensional image, and corresponds to the 3D display 102 in FIG.
  • the display unit 140 displays the input display information in accordance with the output instruction from the image processing unit 130.
  • FIG. 3 is a flowchart showing display processing by the display device 100 according to the present embodiment.
  • FIG. 4 is an explanatory diagram illustrating an example of a three-dimensional image and an OSD image displayed on the display unit 140.
  • FIG. 5 is an explanatory diagram showing an operation of moving a part of the OSD image of FIG.
  • a 3D image 300 that is an image (content image) of a television program, a movie, a game, or the like, and an OSD image 310 are displayed.
  • the 3D image 300 includes a house 302 and trees 304 and 306.
  • the OSD image 310 includes an icon 312 for executing an event associated with the OSD image 310 and an explanatory character 314 of the displayed 3D image 300.
  • These OSD images are desirably displayed so as not to interfere with the display of the 3D image 300.
  • the OSD images are displayed on the back side of the 3D image, and the contents may not be visually recognized.
  • the user moves the OSD image 310 displayed on the back side from the 3D image 300 by hand so that the information of the OSD image 310 can be visually recognized.
  • an operation input for selecting, with an operating tool for example, a hand
  • an operation of pinching a displayed image with a hand is a selection operation.
  • the user performs an operation of pinching the image to be moved from the image displayed in the space in front of the display unit 140. For example, when the explanatory character 314 by OSD shown in FIG. 4 is moved to the front side (z-axis positive direction side) to a position where the user can visually recognize, the user moves his / her hand to the position where the explanatory character 314 is displayed, and the image Do the action of pinching.
  • the input detection unit 110 continues to detect the position of the operation tool.
  • the operation position calculation unit 122 detects the operation target based on the operation position information of the operation tool. It is determined whether or not an operation for selecting an image (for example, an operation for pinching an image) has been performed.
  • the operation target image can be specified by comparing the operation position information of the operation tool and the parallax information of the display unit 140. When the operation position information of the operating body and the parallax information of the display unit 140 match, the user can determine that the image displayed at the position is specified as the operation target (S110).
  • the operation position calculation unit 122 calculates the operation position information of the operation tool based on the detection result from the input detection unit 110, and whether the operation object is moved or the operation target image is released. Monitor whether or not.
  • the operation target target display position calculation unit 124 calculates display position information based on the operation position information of the operation tool calculated by the operation position calculation unit 122 so that the operation target image is displayed at the position of the operation tool (S120). ).
  • the image processing unit 130 displays the 3D image 300 and the OSD image 310 on the display unit 140 based on the display position information of the operation target image (S130).
  • the operation position calculation unit 122 determines whether or not the operation body has performed an operation of ending the movement of the operation target image based on the detection result of the input detection unit 110 (S140).
  • the operation for ending the movement of the operation target image for example, a release operation can be used.
  • the action of releasing the image is recognized, for example, based on a recognition condition opposite to the recognition condition of the action of pinching the image, that is, when one operating body area detected by the input detection unit 110 becomes two or more operating body areas. be able to.
  • the operation target image remains displayed at the display position when the user releases the image, and the processing in FIG. 3 ends.
  • the processing from step S120 is repeated.
  • the user pinches the image at the position where the explanatory character 314 is displayed as shown in FIG. In this state, the hand is moved to the front side (z-axis positive direction side). Thereby, the explanatory character 314 is also moved according to the change in the position of the hand.
  • the explanatory character 314 is released from the image when the explanatory character 314 is positioned on the front side of the 3D image 310, the explanatory character 314 that is the operation target is fixed at the position where the releasing operation is performed.
  • the display position of the image can be changed according to the movement of the user's hand.
  • the explanatory character 314 that is the OSD image 310 is moved only in the depth direction (z direction), but the present technology is not limited to such an example.
  • the image to be operated can also be moved in the x and y directions.
  • a movable region may be provided in the depth direction (z direction) so that the image can be moved only within the range.
  • the movable range can be, for example, a range in which a 3D image can be easily displayed or a range in which a 3D image can be clearly displayed.
  • the display device 100 may notify the user by a pop-up display or a voice that the movable area has been exceeded. This can prompt the user to change the moving direction of the operation target image.
  • the display device 200 including the information processing device according to the second embodiment of the present disclosure will be described.
  • the display device 200 is in a state where the user cannot visually recognize another image (the 3D image 300 or the OSD image 310) when the user moves the operation target image. Is different in that the display position of the operation target image is automatically adjusted.
  • the configuration and functions of the display device 200 according to the present embodiment will be described mainly with respect to differences from the display device 100 according to the first embodiment.
  • FIG. 6 is a functional block diagram showing a functional configuration of the display device 200 according to the present embodiment.
  • the display device 100 according to the present embodiment includes an input detection unit 110, a calculation unit 220, a display processing unit 130, and a display unit 140. Since the input detection unit 110, the display processing unit 130, and the display unit 140 have the same functions as those in the first embodiment, description thereof is omitted here.
  • the calculation unit 220 and the display processing unit 130 function as an information processing apparatus that performs display processing for adjusting the display position of a three-dimensional image.
  • the calculation unit 220 identifies the position of the operation tool based on the detection result from the input detection unit 110, and calculates the target display position of the image to be operated.
  • the calculation unit 220 includes an operation position calculation unit 222, an operation target operation position calculation unit 224, and a display position adjustment unit 226.
  • the operation position calculation unit 222 and the operation target operation position calculation unit 224 function in the same manner as the operation position calculation unit 122 and the operation target operation position calculation unit 124 according to the first embodiment.
  • the operation position calculation unit 222 calculates the position of the operation body from the detection result of the input detection unit 110 and outputs the operation object target display position calculation unit 224 to the operation target target display position calculation unit 224.
  • the operation target target display position calculation unit 224 calculates a position for displaying the operation target image according to a change in the operation position information of the operation tool, and outputs the position to the display position adjustment unit 226.
  • the display position adjustment unit 226 is configured to display the operation target image calculated by the operation target target display position calculation unit 224 and the positional relationship in the depth direction between the other image displayed on the display unit 140. Adjust the target display position of the operation target image. Even after the display position of the operation target image is changed by the user, the operation target image may still be located on the back side of another image, and the operation target image may not be visible. Therefore, the display position adjustment unit 226 compares the position in the depth direction between the operation object moved by the user and another image displayed on the display unit 140, and the operation object is positioned on the back side of the other image. If so, adjust it so that it is automatically displayed on the front side.
  • the automatic adjustment of the target display position by the display position adjustment unit 226 may display the operation target image on the forefront, and a movable area is provided in the depth direction (z direction), and the front is within the range. It may be located. For example, in a three-dimensional image, if the position of the user and the image is too close, it becomes difficult to see the image. Therefore, the operation target image may be adjusted within a range in which an easy-to-see image can be provided. In addition, when there is a region where the three-dimensional image cannot be clearly recognized, the target display position of the operation target image may be adjusted within a range where the operation target does not move to the region.
  • the display position adjustment unit 226 When the target display position of the operation target image is adjusted, the display position adjustment unit 226 outputs the adjusted target display position information to the display processing unit 130.
  • the display processing unit 130 displays a 3D image on the display unit based on the display position information.
  • FIG. 7 is a flowchart showing display processing by the display device 100 according to the present embodiment.
  • the user performs an operation of selecting an operation target (for example, a hand) from among the displayed images that is an operation target whose display position is to be changed.
  • Input is performed (S200).
  • an operation of pinching a displayed image with a hand is a selection operation.
  • the user performs an operation of pinching the image to be moved from the image displayed in the space in front of the display unit 140.
  • the input detection unit 110 continues to detect the position of the operation tool.
  • the operation position calculation unit 222 detects the operation target based on the operation position information of the operation tool. It is determined whether or not an operation for selecting an image (for example, an operation for pinching an image) has been performed.
  • the operation target image can be specified by comparing the operation position information of the operation tool and the parallax information of the display unit 140 as in the first embodiment.
  • the user can determine that the image displayed at the position is specified as the operation target (S210). For example, in the example of FIG. 4, it is assumed that the explanatory character 314 that is the OSD image 310 is specified as the operation target.
  • the operation position calculation unit 222 calculates the operation position information of the operation tool from the detection result from the input detection unit 110, and whether the operation object is moved or the operation target image is released. Monitor whether or not.
  • the operation target target display position calculation unit 224 calculates display position information based on the operation position information of the operation tool calculated by the operation position calculation unit 122 so that the operation target image is displayed at the position of the operation tool (S220). ).
  • the operation position calculation unit 222 determines whether or not the operation body has finished moving the operation target image based on the detection result of the input detection unit 110.
  • a release operation can be used as the operation for ending the movement of the operation target image.
  • the display position adjustment unit 226 determines whether the operation target image is on the back side (z-axis negative direction side) with respect to the other images.
  • the explanatory character 314 that is the OSD image 310 is selected as the operation target, another image (at least 3D) is displayed on the front side of the display position of the explanatory character 314 after the user moves. It is determined whether there is an image 300). This is performed so that the user can visually recognize the content of the explanatory character 314. If there is another image on the front side of the explanatory character 314, the explanatory character 314 is displayed as another image (3D image 300).
  • the display position of the explanatory character 314 in the depth direction is adjusted so as to be positioned more in front (S240). When the explanatory character 314 is in the foreground, the display position of the explanatory character 314 is not changed.
  • the image processing unit 130 causes the display unit 140 to display the 3D image 300 and the OSD image 310 based on the display position information of the operation target image adjusted by the display position adjustment unit 226 (S250).
  • the operation position calculation unit 222 determines whether or not the operation body has performed an operation for ending the movement of the operation target image based on the detection result of the input detection unit 110 (S260).
  • the operation for ending the movement of the operation target image for example, a release operation can be used.
  • the operation target image remains in the state displayed in step S250, and the process in FIG. 7 ends.
  • the processing from step S220 is repeated.
  • the display processing by the display device 200 according to the present embodiment has been described above. According to the present embodiment, it is possible to intuitively adjust the display position of an image by picking and moving an arbitrary image by hand among images displayed as a three-dimensional image. Further, in the present embodiment, when the operation target image is still buried in another image even after being moved by the user, the adjustment is performed so that the operation target image is automatically displayed on the front side. Thereby, the user can surely visually recognize the operation target image.
  • not only the description character 314 that is the OSD image 310 is not only in the depth direction (z direction) but also in the x direction and the y direction when the operation object is operated and during automatic correction. It is also possible to move it.
  • the operation of waving a finger or enclosing an operation target image can be stored in advance in a storage unit (not shown) of the display device by the user as an arbitrary gesture operation.
  • an arbitrary gesture for example, there is an operation of shaking a finger up and down twice on an image to be operated and then shaking left and right once.
  • only one image or a plurality of images to be operated may be selected.
  • these images can be selected by moving the operating body so as to surround the plurality of images with one frame. Then, by moving the operating body, it is possible to simultaneously move the selected plurality of images. At this time, each image may be moved by the amount of movement of the operating body.
  • One image to be operated for example, the image displayed in the forefront, the image selected first, or the user
  • the image of the other operation target may be moved to the same position as the position in the depth direction after the movement of the image or the like that is pinched.
  • Hardware configuration example The processing by the display device 100 according to the present embodiment can be executed by hardware or can be executed by software.
  • the display device 100 can also be configured as shown in FIG.
  • a hardware configuration example of the display device 100 according to the present embodiment will be described with reference to FIG. Note that the display device 200 shown in FIG. 6 can be configured similarly.
  • the display device 100 can be realized by a processing device such as a computer as described above.
  • the display device 100 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the display device 100 includes a bridge 904, an external bus 904 b, an interface 905, an input device 906, an output device 907, a storage device (HDD) 908, a drive 909, a connection port 911, and a communication device 913.
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the display device 100 according to various programs. Further, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904a including a CPU bus.
  • the host bus 904a is connected to an external bus 904b such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 904.
  • an external bus 904b such as a PCI (Peripheral Component Interconnect / Interface) bus
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904a, the bridge 904, and the external bus 904b are not necessarily separated from each other, and these functions may be mounted on one bus.
  • the input device 906 includes an input means for inputting information by the user such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. Etc.
  • the output device 907 includes, for example, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device and a display device such as a lamp, and an audio output device such as a speaker.
  • LCD liquid crystal display
  • OLED Organic Light Emitting Diode
  • the storage device 908 is an example of a storage unit of the display device 100 and is a device for storing data.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 is composed of, for example, an HDD (Hard Disk Drive).
  • the storage device 908 drives a hard disk and stores programs executed by the CPU 901 and various data.
  • the drive 909 is a reader / writer for a storage medium, and is built in or externally attached to the display device 100.
  • the drive 909 reads information recorded on a mounted removable recording medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903.
  • the connection port 911 is an interface connected to an external device, and is a connection port with an external device capable of transmitting data by USB (Universal Serial Bus), for example.
  • the communication device 913 is a communication interface configured by a communication device or the like for connecting to the communication network 5, for example.
  • the communication device 913 may be a wireless LAN (Local Area Network) compatible communication device, a wireless USB compatible communication device, or a wire communication device that performs wired communication.
  • the calculation unit and the display processing unit are provided in the display device, but the present technology is not limited to such an example.
  • a calculation unit and a display processing unit are provided in a device that is communicably connected to a display device including an input detection unit and a display unit, and each display position of a three-dimensional image displayed on the display unit by the device is calculated. A three-dimensional image may be displayed on the display unit based on the calculated display position.
  • An input detection unit for detecting a position in a three-dimensional space of an operating body for performing an operation input;
  • An operation unit that specifies an operation target image to be operated from a three-dimensional image displayed on the display unit based on a detection result by the input detection unit, and calculates a target display position of the operation target image;
  • a display processing unit that causes the display unit to display the operation target image so that the operation target image is displayed at the target display position calculated by the calculation unit;
  • An information processing apparatus comprising: (2)
  • the computing unit is An operation position calculation unit that calculates the position of the operation body with respect to the display unit based on the detection result of the input detection unit and identifies the operation target image;
  • An operation target target display position calculation unit that calculates the target display position of the operation target image based on a change in position of the operation tool;
  • the information processing apparatus including: (3)
  • the operation position calculator is It is determined whether or not a selection operation for selecting the operation target image has been performed from the detection result of the
  • the information processing apparatus calculates the target display position in at least a depth direction of the operation target image.
  • the display device further includes a display position adjustment unit that automatically adjusts the target display position of the operation target image by comparing the target display position of the operation target image with the display position of another three-dimensional image.
  • the information processing apparatus according to any one of (4) to (4).
  • the display position adjustment unit displays the operation target image on the front side of the other three-dimensional image when the operation target image after being moved by the operating body is positioned on the rear side of the other three-dimensional image.
  • the information processing apparatus according to (5), wherein the target display position is adjusted as described above.
  • the information processing apparatus according to any one of (1) to (6), wherein the operation target image is movable only within a movable region in which the operation target image is movable.
  • the three-dimensional image includes a content image displayed in three dimensions and an OSD image displayed together with the content image.
  • the information processing apparatus according to any one of (1) to (7), wherein the operation target image is an OSD image.

Abstract

 直感的な操作で3次元画像内の情報を自由に操作できる情報処理装置を提供する。 本技術の情報処理装置は、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える。

Description

情報処理装置、情報処理方法およびコンピュータプログラム
 本開示は、表示部に表示された3次元画像の表示位置を操作可能な情報処理装置、情報処理方法およびコンピュータプログラムに関する。
 近年、テレビ番組や映画、ゲーム等の画像を表示する表示装置として、被写体を縦横の情報に奥行感を持たせて3次元で表現した立体画像を表示可能な3Dディスプレイ等の表示装置が普及しつつある。3次元画像は、人間が両目で物を見る仕組みを利用して視聴者に奥行感や立体感を認識させることで、リアリティや臨場感の表現を可能にしている。また、例えばテレビ番組や映画、ゲーム等の画像と共に表示されるメニューやアイコン等のOSD(On Screen Display)画像も3次元表示することも可能となっている(例えば、特許文献1)。
特開2010-252055号公報
 3次元画像は、画像の表示位置情報として、表示面の縦横の位置情報に加えて奥行情報を有する。このため、3次元画像を表示させているときにOSD画像を表示させると、これらの画像の組み合わせによってはOSD画像が3次元画像中に埋もれてしまうこともある。OSD画像が3次元画像に埋もれるケースを予測してOSD画像の表示位置を調整することは困難であるため、表示を行う時点でその表示位置を調整する必要がある。
 従来、例えば3次元画像内に表示されている字幕情報の奥行方向における表示位置は、ダイヤル型操作部からの操作入力やタッチパネル上での指の動き等によって調整されているが、奥行方向という限られた範囲での調整しかできない。そこで、直感的な操作で3次元画像内の情報を自由に操作できることが望まれる。
 本開示によれば、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える、情報処理装置が提供される。
 本開示によれば、情報処理装置は、入力検出部により検出された操作体の位置に基づいて、表示部に表示されている3次元画像から操作対象画像を特定し、当該操作対象画像を操作体の動きに応じて移動させるように表示処理を行う。これにより、ユーザは直感的な操作で3次元画像の一部の表示位置を調整することができる。
 また、本開示によれば、操作入力を行う操作体の3次元空間における位置を検出すること、操作体の位置の検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出すること、操作対象画像を算出された目標表示位置に表示されるように表示部に表示させること、を含む、情報処理方法が提供される。
 さらに、本開示によれば、コンピュータを、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える、情報処理装置として機能させるコンピュータプログラムが提供される。
 以上説明したように本開示によれば、直感的な操作で3次元画像内の情報を自由に操作できるようになる。
本開示の第1の実施形態に係る情報処理装置を備える表示装置の概略構成を示す説明図である。 同実施形態に係る表示装置の機能構成を示す機能ブロック図である。 同実施形態に係る表示装置による表示処理を示すフローチャートである。 表示部に表示された3次元画像およびOSD画像の一例を示す説明図である。 図4のOSD画像の一部を移動させる操作を示す説明図である。 本開示の第2の実施形態に係る表示装置の機能構成を示す機能ブロック図である。 同実施形態に係る表示装置による表示処理を示すフローチャートである。 3D画像の一部を移動させる操作を示す説明図である。 同実施形態に係る表示装置の一ハードウェア構成例を示すハードウェア構成図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態(ユーザによる操作対象画像の表示位置調整)
  1-1.表示装置の概要
  1-2.機能構成
  1-3.表示処理
 2.第2の実施形態(操作対象画像の表示位置の自動調整)
  2-1.機能構成
  2-2.表示処理
 3.変形例
  3-1.操作対象となる画像について
  3-2.操作対象となる画像の選択
 4.ハードウェア構成例
 <1.第1の実施形態>
 [1-1.表示装置の概要]
 まず、図1を参照して、本開示の第1の実施形態に係る表示装置100の概略構成について説明する。なお、図1は、本実施形態に係る表示装置100の概略構成を示す説明図である。
 本実施形態に係る表示装置100は、3次元画像を表示可能な3Dディスプレイ102を備える出力装置である。かかる表示装置100は、例えばテレビや撮像装置等、表示部を備える機器に設けることができる。
 本実施形態に係る表示装置100は、3Dディスプレイ102に表示されている情報を操作する操作体(例えば、ユーザの指等)について、表示面に対する操作体の位置を検出するための入力検出デバイス104を備えている。入力検出デバイス104は、当該入力デバイス104に対する操作体の位置を検出可能なセンサであり、3Dディスプレイ102と同位置座標軸で情報を共有できる位置に設置することで、3Dディスプレイ102の表示面と操作体との位置関係を取得できる。入力検出デバイス104は、当該入力検出デバイス104の平面座標(xy座標)における位置情報に加えて、入力検出デバイス104に対する操作体の近接状態を奥行情報(z方向の位置)として取得できる。
 入力検出デバイス104は、所定のタイミングで操作体の位置情報を取得し、演算部120に出力する。演算部120は、入力検出デバイス104から入力された操作体の位置情報に基づき操作体の動きを認識する。例えば、演算部120は、操作体の位置情報の変化に基づいて、つまむ、動かす、放すといった操作体による操作入力を認識する。
 本実施形態に係る表示装置100は、3次元空間における操作体の位置を検出可能な入力検出デバイス104を備えることで、立体的に表示された画像の位置を操作体によって移動させることが可能となる。これにより、ユーザは直感的な操作で画像の表示位置を自由に調整できる。以下、本実施形態に係る表示装置100の構成とその機能について詳細に説明していく。
 [1-2.機能構成]
 まず、図2に基づいて、本実施形態に係る表示装置100の機能構成を説明する。なお、図2は、本実施形態に係る表示装置100の機能構成を示す機能ブロック図である。本実施形態に係る表示装置100は、図2に示すように、入力検出部110と、演算部120と、表示処理部130と、表示部140とを備える。本実施形態において、演算部120および表示処理部130は、3次元画像の表示位置を調整する表示処理を行う情報処理装置として機能する。
 入力検出部110は、表示部140に表示されている情報を操作する操作体について、表示面に対する操作体の位置を検出する。入力検出部110は、図1の入力検出デバイス104に相当する。入力検出部110は、例えば静電気による電気信号を感知することで入力検出部110の検出面に対する平面座標における位置情報および近接状態を検出できる。近接状態の検出には接触状態の検出も含まれる。近接状態は、電気信号の大きさより認識することができる。なお、入力検出部110の近接状態の検知方式はかかる例に限定されず、他の検出方式であってもよい。入力検出部110は、検出結果(例えば静電気による電気信号)を所定の周期、例えば検出値を取得する度に、演算部120へ出力する。
 演算部120は、入力検出部110からの検出結果に基づいて、操作体の位置を特定し、操作対象となる画像の目標表示位置を算出する。演算部120は、操作位置算出部122と、操作対象操作位置算出部124とからなる。
 操作位置算出部122は、入力検出部110の検出結果より操作体の位置を算出する。操作位置算出部122は、入力検出部110から入力された例えば電気信号の大きさより、xy平面座標における位置情報および入力検出部110の検出面からの距離を操作体の操作位置情報として算出する。なお、入力検出部110と表示部140とは同位置座標軸で情報を共有できる位置に設置されており、入力検出部110の検出面から操作体までの距離は表示部140の表示面と操作体との距離とすることができる。操作位置算出部122は、算出した操作体の操作位置情報を記憶部(図示せず。)に記録して履歴管理している。
 操作位置算出部122は、操作体の操作位置情報の変化に基づき、ユーザが行った動作を判定する。本実施形態に係る表示装置100では、ユーザが表示されている画像を直接操作して移動することを可能にする。例えば、ユーザは、表示されている画像のうち移動させたい画像をつまみ、移動させるという操作入力を行うことで、画像の表示位置を調整することができる。このとき操作位置算出部122は、ユーザがつまむという動作を行ったことを認識すると、その動作を位置に表示されている画像を操作対象として特定する。そして、操作位置算出部122は、入力検出部110の検出結果より、つまむ動作が行われている状態での操作体の移動を監視しながら、つまむ動作から放す動作が行われるのを監視する。
 なお、ユーザのつまむ動作は、入力検出部110が検出する2つ以上の操作体領域が1つの操作体領域となった時点で認識することができる。操作対象をつまむ動作は、通常、親指と親指以外の指とを接触させることで行われる。これより、入力検出部110の検出結果より表される操作体の存在を示す操作体領域が複数から1つになったとき、つまむ動作が行われたと判定することができる。つまむ動作が行われたとき、操作対象をつまむ前に複数あった操作体領域は、これよりも小さい1つの操作体領域となる。
 操作位置算出部122は、ユーザによりつまむ動作が行われたことを認識すると、表示部140の視差情報と操作体の操作位置情報とを照らし合わせる。そして、操作体の操作位置情報に画像が表示されている場合には、操作位置算出部122は、当該画像を操作対象に特定する。操作位置算出部122は、操作対象を特定すると、操作対象の画像を特定する情報および操作体の操作位置情報を操作対象目標表示位置算出部124へ出力する。これらの情報は、操作体がつまんでいる画像を放す動作が行われるまで、継続して操作対象目標表示位置算出部124へ出力される。
 操作対象目標表示位置算出部124は、操作体の操作位置情報の変化に応じて操作対象の画像を表示させる位置を算出する。操作対象目標表示位置算出部124は、操作位置算出部122から操作対象として特定された画像の情報を受けると、操作体の操作位置情報の変化に応じて操作対象の画像を移動させる。これにより、ユーザが画像をつまんで手を動かすことで、画像を所望の位置に移動させる操作を実現できる。また、操作位置算出部122よりユーザが画像を放す動作を行ったことが通知されると、操作対象目標表示位置算出部124は、画像を放したときの操作体の位置に当該画像を表示し、次に操作されるまで表示位置を固定する。操作対象目標表示位置算出部124は、算出した操作対象の画像の目標表示位置を表示処理部130へ出力する。
 画像処理部130は、操作対象目標表示位置算出部124から入力された操作対象の画像の目標表示位置に当該画像が表示されるように処理を行う。画像処理部130は、画像処理後の表示情報を表示部140に出力し、3次元画像を表示させる。
 表示部140は、3次元画像を表示可能な出力装置であって、図1の3Dディスプレイ102に相当する。表示部140は、画像処理部130の出力指示に従って、入力された表示情報を表示する。
 [1-3.表示処理]
 次に、図3~図5に基づいて、本実施形態に係る表示装置100による表示処理について説明する。なお、図3は、本実施形態に係る表示装置100による表示処理を示すフローチャートである。図4は、表示部140に表示された3次元画像およびOSD画像の一例を示す説明図である。図5は、図4のOSD画像の一部を移動させる操作を示す説明図である。
 本実施形態では、表示部140に表示される立体的な画像の一例として、図4に示すように、テレビ番組や映画、ゲーム等の画像(コンテンツ画像)である3D画像300と、OSD画像310とが表示されている場合を考える。ユーザは、図4の前面側から画像を視認しているものとする。3D画像300は、家302や木304、306から構成されている。また、OSD画像310には、それに関連付けられたイベントを実行するためのアイコン312や、表示されている3D画像300の説明文字314がある。これらのOSD画像は3D画像300の表示を妨げないように表示されることが望ましいが、図4に示すように、3D画像より背面側に表示されてしまい、その内容を視認できないことも生じる。
 そこで、本実施形態に係る表示装置100では、3D画像300より背面側に表示されているOSD画像310をユーザが手で移動させ、OSD画像310の情報を視認できるようにする。
 まず、ユーザは、表示されている画像のうち表示位置を変更したい操作対象となる画像を、操作体(例えば手)で選択する操作入力を行う(S100)。本実施形態では、例えば表示されている画像を手でつまむ動作を選択の動作とする。ユーザは表示部140の前の空間に表示されている画像から、移動させる画像をつまむ動作を行う。例えば図4に示すOSDによる説明文字314をユーザが視認できる位置まで前面側(z軸正方向側)に移動させる場合、ユーザは説明文字314が表示されている位置に手を移動させ、当該画像をつまむ動作を行う。
 このとき、入力検出部110は操作体の位置を検出し続けており、入力検出部110が操作体を検出すると、操作位置算出部122は、操作体の操作位置情報に基づいて、操作対象の画像を選択する動作(例えば画像をつまむ動作)が行われたか否かを判定する。操作対象の画像の特定は、例えば上述したように、操作体の操作位置情報と表示部140の視差情報とを照らし合わせることにより行うことができる。操作体の操作位置情報と表示部140の視差情報とが一致するとき、ユーザはその位置に表示されている画像を操作対象として特定したと判断できる(S110)。
 操作対象の画像を特定すると、操作位置算出部122は、入力検出部110からの検出結果より操作体の操作位置情報を算出し、操作体の移動や操作対象の画像を放す動作が行われたか否かを監視する。操作対象目標表示位置算出部124は、操作位置算出部122の算出した操作体の操作位置情報に基づき、操作体の位置に操作対象の画像が表示されるように表示位置情報を算出する(S120)。画像処理部130は、操作対象の画像の表示位置情報に基づき、表示部140に3D画像300およびOSD画像310を表示させる(S130)。
 一方、操作位置算出部122は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する(S140)。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。画像を放す動作は、例えば画像をつまむ動作の認識条件と逆の認識条件により、すなわち、入力検出部110が検出する1つの操作体領域が2つ以上の操作体領域となった時点で認識することができる。ステップS140にて画像を放す動作が行われたと判定されたとき、操作対象の画像は、ユーザが当該画像を放した時点での表示位置に表示させたままとして、図3の処理を終了する。一方、ステップS140にて画像を放す動作は行われていないと判定されたとき、ステップS120からの処理が繰り返される。
 例えば、図4にて、3D画像300の背面側にある説明文字314を移動するとき、ユーザは、図5に示すように、説明文字314が表示されている位置で当該画像をつまみ、つまんだ状態で手を前面側(z軸正方向側)に移動させる。これにより、手の位置の変化に応じて説明文字314も移動される。そして、説明文字314が3D画像310よりも前面側に位置したときに画像から手を放すと、手を放す動作を行った位置に操作対象であった説明文字314が固定される。このように、ユーザの手の動きに応じて画像の表示位置を変更することができる。
 なお、図4および図5に示した例では、OSD画像310である説明文字314を奥行方向(z方向)のみに移動させたが、本技術はかかる例に限定されない。操作体の位置を移動させることによって、操作対象の画像もx方向およびy方向についても移動させることができる。
 また、操作対象の画像の移動は、奥行方向(z方向)において移動可能領域を設け、その範囲内のみ移動できるようにしてもよい。移動可能範囲は、例えば3次元画像を見易く表示できる範囲や3次元画像を鮮明に表示できる範囲とすることができる。ユーザが移動可能領域を超えて操作対象の画像を移動させようとしたときには、表示装置100は、ユーザに対して移動可能領域を超えた旨をポップアップ表示や音声により通知してもよい。これにより、ユーザに操作対象の画像の移動方向の変更を促すことができる。
 <2.第2の実施形態>
 次に、図6および図7に基づいて、本開示の第2の実施形態に係る情報処理装置を備える表示装置200について説明する。表示装置200は、第1の実施形態の表示装置100と比較して、ユーザが操作対象の画像を移動させたとき、他の画像(3D画像300やOSD画像310)と重複して視認できない状態である場合には自動的に操作対象の画像の表示位置を調整する点で相違する。以下、第1の実施形態に係る表示装置100との相違点を主に、本実施形態に係る表示装置200の構成とその機能について説明する。
 [2-1.機能構成]
 まず、図6に基づいて、本実施形態に係る表示装置200の機能構成を説明する。なお、図6は、本実施形態に係る表示装置200の機能構成を示す機能ブロック図である。本実施形態に係る表示装置100は、図2に示すように、入力検出部110と、演算部220と、表示処理部130と、表示部140とを備える。入力検出部110、表示処理部130、および表示部140については第1の実施形態と同様の機能を有するため、ここでは説明を省略する。本実施形態において、演算部220および表示処理部130は、3次元画像の表示位置を調整する表示処理を行う情報処理装置として機能する。
 演算部220は、入力検出部110からの検出結果に基づいて、操作体の位置を特定し、操作対象となる画像の目標表示位置を算出する。演算部220は、操作位置算出部222と、操作対象操作位置算出部224と、表示位置調整部226とからなる。
 操作位置算出部222および操作対象操作位置算出部224は、第1の実施形態に係る操作位置算出部122および操作対象操作位置算出部124と同様に機能する。操作位置算出部222は入力検出部110の検出結果より操作体の位置を算出し、操作対象目標表示位置算出部224へ出力する。また、操作対象目標表示位置算出部224は、操作体の操作位置情報の変化に応じて操作対象の画像を表示させる位置を算出し、表示位置調整部226へ出力する。
 表示位置調整部226は、操作対象目標表示位置算出部224により算出した操作対象の画像を表示させる位置と、表示部140に表示されている他の画像との奥行方向の位置関係に応じて、操作対象の画像の目標表示位置を調整する。操作対象の画像の表示位置がユーザによって変更された後であっても、依然として操作対象の画像が他の画像の背面側に位置しており操作対象の画像を視認できない場合もある。そこで、表示位置調整部226は、ユーザにより移動された操作対象と表示部140に表示されている他の画像との奥行方向の位置を比較して、操作対象が他の画像の背面側に位置する場合には自動的にそれよりも前面側に表示されるように調整する。
 表示位置調整部226による目標表示位置の自動調整は、操作対象の画像を最前面に表示するようにしてもよく、奥行方向(z方向)において移動可能領域を設け、その範囲内で最前面に位置するようにしてもよい。例えば、3次元画像では、ユーザと画像との位置が近付き過ぎると画像が見難くなる。そこで、見易い画像を提供できる範囲内で操作対象の画像を調整するようにしてもよい。また、3次元画像を鮮明に認識できなくなる領域がある場合には、当該領域に操作対象が移動しない範囲で操作対象の画像の目標表示位置を調整してもよい。
 表示位置調整部226は、操作対象の画像の目標表示位置を調整すると、調整後の目標表示位置情報を表示処理部130へ出力する。表示処理部130は当該表示位置情報に基づき、表示部に3次元画像を表示させる。
 [2-2.表示処理]
 次に、図7に基づいて、本実施形態に係る表示装置200による表示処理について説明する。なお、図7は、本実施形態に係る表示装置100による表示処理を示すフローチャートである。
 本実施形態における表示処理でも、第1の実施形態と同様、まず、ユーザは、表示されている画像のうち表示位置を変更したい操作対象となる画像を、操作体(例えば手)で選択する操作入力を行う(S200)。本実施形態では、例えば表示されている画像を手でつまむ動作を選択の動作とする。ユーザは表示部140の前の空間に表示されている画像から、移動させる画像をつまむ動作を行う。
 このとき、入力検出部110は操作体の位置を検出し続けており、入力検出部110が操作体を検出すると、操作位置算出部222は、操作体の操作位置情報に基づいて、操作対象の画像を選択する動作(例えば画像をつまむ動作)が行われたか否かを判定する。操作対象の画像の特定は、第1の実施形態と同様、操作体の操作位置情報と表示部140の視差情報とを照らし合わせることにより行うことができる。操作体の操作位置情報と表示部140の視差情報とが一致するとき、ユーザはその位置に表示されている画像を操作対象として特定したと判断できる(S210)。例えば、図4の例において、OSD画像310である説明文字314が操作対象として特定されたとする。
 操作対象の画像を特定すると、操作位置算出部222は、入力検出部110からの検出結果より操作体の操作位置情報を算出し、操作体の移動や操作対象の画像を放す動作が行われたか否かを監視する。操作対象目標表示位置算出部224は、操作位置算出部122の算出した操作体の操作位置情報に基づき、操作体の位置に操作対象の画像が表示されるように表示位置情報を算出する(S220)。
 一方、操作位置算出部222は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。画像を放す動作が行われたと判定されたとき、表示位置調整部226は、操作対象の画像が他の画像より背面側(z軸負方向側)にあるか否かを判定する。
 例えば、図4の例においては、OSD画像310である説明文字314が操作対象として選択されているとき、ユーザが移動した後の説明文字314の表示位置よりも前面側に他の画像(少なくとも3D画像300)があるかが判定される。これは、説明文字314の内容をユーザが視認できるようにするために行われ、説明文字314よりも前面側に他の画像がある場合には、説明文字314が他の画像(3D画像300)より前面に位置するように、説明文字314の奥行方向の表示位置を調整する(S240)。なお、説明文字314が最前面にある場合には、当該説明文字314の表示位置は変更されない。
 その後、画像処理部130は、表示位置調整部226により調整された操作対象の画像の表示位置情報に基づき、表示部140に3D画像300およびOSD画像310を表示させる(S250)。
 また、操作位置算出部222は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する(S260)。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。ステップS260にて画像を放す動作が行われたと判定されたとき、操作対象の画像は、ステップS250にて表示した状態のままとして、図7の処理を終了する。一方、ステップS260にて画像を放す動作は行われていないと判定されたとき、ステップS220からの処理が繰り返される。
 以上、本実施形態に係る表示装置200による表示処理について説明した。本実施形態によれば、3次元画像として表示された画像のうち、手で任意の画像をつまんで選択し移動させることで、直感的に画像の表示位置を調整することができる。また、本実施形態では、操作対象の画像が、ユーザが移動させた後もなお他の画像に埋もれてしまう場合には、自動的に操作対象の画像を前面側に表示するように調整する。これにより、ユーザは操作対象の画像を確実に視認できるようになる。
 なお、本実施形態においても、OSD画像310である説明文字314を奥行方向(z方向)のみだけでなく、操作体による操作時および自動補正時において、操作対象の画像をx方向およびy方向に移動させることも可能である。
 <3.変形例>
 [3-1.操作対象となる画像について]
 上記実施形態では、図4および図5に示すように、3次元画像のうち、メニューやアイコン、文字説明等のようなOSD画像310を移動させる場合について説明したが、本技術はかかる例に限定されない。例えば、図8に示すように、3D画像300を構成する画像の一部を移動することも可能である。図8の例では、3D画像300を構成する木306を手でつまみ、前面側に移動させている。このときの表示装置の処理は、上記実施形態のいずれの方法を用いてもよい。また、操作対象の画像は前面側だけでなく背面側に移動させることも可能である。これにより、操作対象の画像を他の画像に意図的に隠すことができる。このように、上記実施形態の表示処理を用いることで、画像毎に柔軟に表示位置を変更することができる。
 [3-2.操作対象となる画像の選択]
 上記実施形態では、操作対象となる画像を選択する動作として、手で移動させたい画像をつまむ動作を行う場合を説明したが、本技術はかかる例に限定されない。例えば、表示部140に表示されている3次元画像のうち操作対象とする画像上で指を所定の方向(例えば上下、左右等)に素早く振る動作を、操作対象の画像を選択する動作としてもよい。あるいは、操作体を動かして選択対象とする画像を円や四角等の枠で囲む操作を、操作対象の画像を選択する動作としてもよい。
 指を振ったり操作対象の画像を囲んだりする動作は、予めユーザが任意のジェスチャ操作として表示装置の記憶部(図示せず。)に記憶しておくこともできる。任意のジェスチャとしては、例えば、操作対象とする画像上で指を上下に2回振った後、左右に1回振る動作等がある。このように任意のジェスチャ操作を設定することで、ユーザの好みの操作によって操作対象の画像を選択することができる。
 また、操作対象とする画像は、1つのみ選択してもよく、複数選択してもよい。複数の画像を操作対象とする場合、例えば複数の画像を1つの枠で囲むように操作体を動かすことで、これらの画像を選択することができる。そして、操作体を移動させることで、選択された複数の画像を同時に移動させることができる。このとき、各画像の移動は、操作体の移動量だけそれぞれ移動させてもよく、ある1つの操作対象の画像(例えば最前面に表示されている画像や、最初に選択された画像、あるいはユーザがつまんでいる画像等)の移動後の奥行方向の位置と同位置に他の操作対象の画像を移動させてもよい。
 <4.ハードウェア構成例>
 本実施形態に係る表示装置100による処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、表示装置100は、図9に示すように構成することもできる。以下、図9に基づいて、本実施形態に係る表示装置100の一ハードウェア構成例について説明する。なお、図6に示す表示装置200も同様に構成できる。
 本実施形態に係る表示装置100は、上述したように、コンピュータ等の処理装置により実現することができる。表示装置100は、図9に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、表示装置100は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置(HDD)908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って表示装置100内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
 ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
 入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
 ストレージ装置908は、表示装置100の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置908は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
 ドライブ909は、記憶媒体用リーダライタであり、表示装置100に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、表示装置に演算部および表示処理部を設けたが、本技術はかかる例に限定されない。例えば、例えば入力検出部および表示部を備える表示装置と通信可能に接続された機器に演算部および表示処理部を設け、当該機器で表示部に表示する3次元画像の各表示位置を算出し、算出された表示位置に基づいて表示部に3次元画像を表示させてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 操作入力を行う操作体の3次元空間における位置を検出する入力検出部と、
 前記入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
 前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
を備える、情報処理装置。
(2)
 前記演算部は、
 前記入力検出部の検出結果に基づいて、前記表示部に対する前記操作体の位置を算出し、前記操作対象画像を特定する操作位置算出部と、
 前記操作体の位置変化に基づいて、前記操作対象画像の前記目標表示位置を算出する操作対象目標表示位置算出部と、
からなる、前記(1)に記載の情報処理装置。
(3)
 前記操作位置算出部は、
 前記入力検出部の検出結果から前記操作対象画像を選択する選択動作が行われたか否かを判定し、
 前記選択動作が行われたとき、前記操作体の位置と表示位置が一致する前記表示部に表示されている3次元画像の少なくとも一部を前記操作対象画像として特定する、前記(2)に記載の情報処理装置。
(4)
 前記演算部は、前記操作対象画像の少なくとも奥行方向における前記目標表示位置を算出する、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
 前記操作対象画像の前記目標表示位置と他の3次元画像の表示位置とを比較して、前記操作対象画像の前記目標表示位置を自動的に調整する表示位置調整部をさらに備える、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記表示位置調整部は、操作体による移動後の前記操作対象画像が前記他の3次元画像より背面側に位置するとき、当該操作対象画像を前記他の3次元画像より前面側に表示されるように前記目標表示位置を調整する、前記(5)に記載の情報処理装置。
(7)
 前記操作対象画像は、前記操作対象画像を移動可能な移動可能領域内でのみ移動可能である、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記3次元画像は、3次元表示されるコンテンツ画像と、前記コンテンツ画像と共に表示されるOSD画像とからなり、
 前記操作対象画像はOSD画像である、前記(1)~(7)のいずれか1項に記載の情報処理装置。
 100、200  表示装置
 102      3Dディスプレイ
 104      入力検出デバイス
 110      入力検出部
 120、220  演算部
 122、222  操作位置算出部
 124、224  操作対象目標表示位置算出部
 130      表示処理部
 140      表示部
 226      表示位置調整部
 300      3D画像
 310      OSD画像
 

Claims (10)

  1.  操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
     前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
    を備える、情報処理装置。
  2.  前記演算部は、
     前記入力検出部の検出結果に基づいて、前記表示部に対する前記操作体の位置を算出し、前記操作対象画像を特定する操作位置算出部と、
     前記操作体の位置変化に基づいて、前記操作対象画像の前記目標表示位置を算出する操作対象目標表示位置算出部と、
    からなる、請求項1に記載の情報処理装置。
  3.  前記操作位置算出部は、
     前記入力検出部の検出結果から前記操作対象画像を選択する選択動作が行われたか否かを判定し、
     前記選択動作が行われたとき、前記操作体の位置と表示位置が一致する前記表示部に表示されている3次元画像の少なくとも一部を前記操作対象画像として特定する、請求項2に記載の情報処理装置。
  4.  前記演算部は、前記操作対象画像の少なくとも奥行方向における前記目標表示位置を算出する、請求項1に記載の情報処理装置。
  5.  前記操作対象画像の前記目標表示位置と他の3次元画像の表示位置とを比較して、前記操作対象画像の前記目標表示位置を自動的に調整する表示位置調整部をさらに備える、請求項1に記載の情報処理装置。
  6.  前記表示位置調整部は、操作体による移動後の前記操作対象画像が前記他の3次元画像より背面側に位置するとき、当該操作対象画像を前記他の3次元画像より前面側に表示されるように前記目標表示位置を調整する、請求項5に記載の情報処理装置。
  7.  前記操作対象画像は、前記操作対象画像を移動可能な移動可能領域内でのみ移動可能である、請求項1に記載の情報処理装置。
  8.  前記3次元画像は、3次元表示されるコンテンツ画像と、前記コンテンツ画像と共に表示されるOSD画像とからなり、
     前記操作対象画像はOSD画像である、請求項1に記載の情報処理装置。
  9.  操作入力を行う操作体の3次元空間における位置を検出すること、
     前記操作体の位置の検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出すること、
     前記操作対象画像を前記算出された前記目標表示位置に表示されるように前記表示部に表示させること、
    を含む、情報処理方法。
  10.  コンピュータを、
     操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
     前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
    を備える、情報処理装置として機能させるコンピュータプログラム。
     
PCT/JP2013/050071 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム WO2013121807A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13749076.9A EP2816456A1 (en) 2012-02-17 2013-01-08 Information processing device, information processing method, and computer program
CN201380008561.XA CN104094209A (zh) 2012-02-17 2013-01-08 信息处理设备、信息处理方法和计算机程序
US14/366,426 US10409446B2 (en) 2012-02-17 2013-01-08 Information processing apparatus and method for manipulating display position of a three-dimensional image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-032484 2012-02-17
JP2012032484 2012-02-17

Publications (1)

Publication Number Publication Date
WO2013121807A1 true WO2013121807A1 (ja) 2013-08-22

Family

ID=48983935

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/050071 WO2013121807A1 (ja) 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US10409446B2 (ja)
EP (1) EP2816456A1 (ja)
JP (1) JPWO2013121807A1 (ja)
CN (1) CN104094209A (ja)
WO (1) WO2013121807A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114762A (ja) * 2013-12-10 2015-06-22 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
WO2015108112A1 (ja) * 2014-01-15 2015-07-23 株式会社Juice Design 操作判定装置、操作判定方法、および、プログラム
EP3169068A4 (en) * 2014-07-09 2018-03-07 LG Electronics Inc. Portable device that controls photography mode, and control method therefor
JP2019128726A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2816456A1 (en) * 2012-02-17 2014-12-24 Sony Corporation Information processing device, information processing method, and computer program
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
WO2015186069A2 (en) * 2014-06-03 2015-12-10 Realitygate (Pty) Ltd Display and interaction method in a user interface
WO2016197247A1 (en) 2015-06-12 2016-12-15 Nureva, Inc. Method and apparatus for managing and organizing objects in a virtual repository
US20170278308A1 (en) * 2016-03-23 2017-09-28 Intel Corporation Image modification and enhancement using 3-dimensional object model based recognition
US11442591B2 (en) * 2018-04-09 2022-09-13 Lockheed Martin Corporation System, method, computer readable medium, and viewer-interface for prioritized selection of mutually occluding objects in a virtual environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04257014A (ja) * 1991-02-12 1992-09-11 Matsushita Electric Ind Co Ltd 入力装置
JPH0573661A (ja) * 1991-03-12 1993-03-26 Matsushita Electric Ind Co Ltd 3次元情報会話システム
JP2004029979A (ja) * 2002-06-21 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> 多量数情報の配置補正方法およびその装置
JP2004192294A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> オブジェクト表示方法及びその実施装置
JP2010252055A (ja) 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
JP4248584B2 (ja) * 2006-07-31 2009-04-02 シャープ株式会社 表示装置、表示プログラムおよびコンピュータ読み取り可能な記録媒体
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP5589625B2 (ja) * 2010-07-08 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20120020477A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 입체영상표시장치 및 그 구동 방법
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
AU2011265428B2 (en) * 2011-12-21 2014-08-14 Canon Kabushiki Kaisha Method, apparatus and system for selecting a user interface object
EP2816456A1 (en) * 2012-02-17 2014-12-24 Sony Corporation Information processing device, information processing method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04257014A (ja) * 1991-02-12 1992-09-11 Matsushita Electric Ind Co Ltd 入力装置
JPH0573661A (ja) * 1991-03-12 1993-03-26 Matsushita Electric Ind Co Ltd 3次元情報会話システム
JP2004029979A (ja) * 2002-06-21 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> 多量数情報の配置補正方法およびその装置
JP2004192294A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> オブジェクト表示方法及びその実施装置
JP2010252055A (ja) 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114762A (ja) * 2013-12-10 2015-06-22 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
WO2015108112A1 (ja) * 2014-01-15 2015-07-23 株式会社Juice Design 操作判定装置、操作判定方法、および、プログラム
EP3169068A4 (en) * 2014-07-09 2018-03-07 LG Electronics Inc. Portable device that controls photography mode, and control method therefor
US10334233B2 (en) 2014-07-09 2019-06-25 Lg Electronics Inc. Portable device that controls photography mode, and control method therefor
JP2019128726A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP7040041B2 (ja) 2018-01-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
CN104094209A (zh) 2014-10-08
JPWO2013121807A1 (ja) 2015-05-11
EP2816456A1 (en) 2014-12-24
US10409446B2 (en) 2019-09-10
US20150234567A1 (en) 2015-08-20

Similar Documents

Publication Publication Date Title
WO2013121807A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11816330B2 (en) Display device, display controlling method, and computer program
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
KR101981822B1 (ko) 전-공간적 제스쳐 입력
RU2689412C2 (ru) Устройство отображения и способ отображения
EP2287809A1 (en) Image processing device, image processing method, and computer program
US11714540B2 (en) Remote touch detection enabled by peripheral device
JP2013258573A5 (ja)
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
KR101352329B1 (ko) 리모트 컨트롤러를 이용하여 사용자 인터페이스를 제공하는 장치 및 방법
US11803233B2 (en) IMU for touch detection
KR102542913B1 (ko) 회전체를 구비한 전자 장치 및 이의 동작 방법
KR101872272B1 (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
EP3759711B1 (en) Methods, systems, and media for object grouping and manipulation in immersive environments
US20140035813A1 (en) Input device, input method and recording medium
CN113396378A (zh) 针对用于二维和三维环境的多用途输入装置的系统和方法
JP5865615B2 (ja) 電子機器および制御方法
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
JP2013152529A (ja) 情報処理装置及びその制御方法
CN115690306A (zh) 用于对象的三维预览的设备、方法和图形用户界面
EP3088991B1 (en) Wearable device and method for enabling user interaction
WO2015059992A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230367468A1 (en) Information processing device, information processing method, and information processing program
US20190212891A1 (en) Electronic apparatus, information processing method, program, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13749076

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14366426

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013749076

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014500118

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE