JP6970797B2 - 情報処理装置、情報処理装置の制御方法、及びプログラム - Google Patents
情報処理装置、情報処理装置の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6970797B2 JP6970797B2 JP2020130686A JP2020130686A JP6970797B2 JP 6970797 B2 JP6970797 B2 JP 6970797B2 JP 2020130686 A JP2020130686 A JP 2020130686A JP 2020130686 A JP2020130686 A JP 2020130686A JP 6970797 B2 JP6970797 B2 JP 6970797B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- finger
- virtual object
- information processing
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/577—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/643—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
本実施の形態の一例は以上の構成を備え、次のように動作する。すなわち本実施の形態の情報処理装置1は、例えばゲーム等のアプリケーションプログラムを実行しており、その実行中に、仮想空間内にメニュー(選択項目のインタフェース部品を配列した画像)を表示する処理を行う。
Xtl≦Xf≦Xrb、かつ、
Ytl≦Yf≦Yrb、かつ、
Zj−ΔZ≦Zf≦Zj+ΔZ
の条件(接触条件と呼ぶ)を満足するか否かを判断する。
なお、ここまでの説明では、表示装置2が表示する対象仮想オブジェクトをユーザの指が突き抜けてしまわないよう、対象仮想オブジェクトの、指の位置に対応する部分を、ユーザの指の位置より遠方に位置することとなるように対象仮想オブジェクトの一部を変形することとしていたが、本実施の形態はこれに限られるものではない。
Zth>Zf−Zj(Xf,Yf)>0
であれば、対象仮想オブジェクトの、指の位置に対応する部分を、ユーザの指の位置より遠方に位置することとなるように対象仮想オブジェクトの一部を変形し、
Zf−Zj(Xf,Yf)≧Zth
であれば、対象仮想オブジェクト全体の位置をZ軸方向に平行移動して、指Fよりも遠方に当該対象仮想オブジェクトの、当該指Fに対応する部分が、当該指Fよりも奥側にあるように設定することとしてもよい。なお、ここでZthは予め設定されたしきい値(Zth>0とする)である。
また本実施の形態において、情報処理装置1は、表示装置2が出力する深度情報を参照し、対象仮想オブジェクトJ上の点(x,y,Zj(x,y))よりも手前側にユーザの手指がある場合、つまり、視野内の点(x,y)における深度情報が表す実空間での対象物までのZ軸上の距離に対応する仮想空間上のZ軸の値Zvが、Zj(x,y)>Zvであるときには、オブジェクトJの(x,y)の位置における画像をマスクして描画しないこととしてもよい。これにより、手前側にある対象物によりオブジェクトが隠蔽された状態を表現できる。
また本実施の形態の情報処理装置1は、腹側(爪とは反対側)を向いたユーザの指Fが、対象仮想オブジェクトJ上の点(x,y,Zj(x,y))よりも奥側である場合、つまり当該指Fの指先の位置のZ軸方向の成分Zfが、Zf>Zj(x,y)である場合は、当該ユーザの指Fに対応する位置のオブジェクトJの描画をマスクしないよう制御してもよい。この場合、当該腹側がユーザに向いているユーザ自身の指の像には、表示装置2により、オブジェクトJの対応部分が半透明合成されてユーザに提示されることとなる。
さらに本実施の形態では、情報処理装置1は、ユーザの複数の指の位置及び向きをそれぞれ認識する。さらに、本実施の形態の情報処理装置1は、ユーザの左右のそれぞれの手の指の位置及び向き(ユーザに背側を向けているか腹側を向けているか)の情報を取得してもよい。
また本実施の形態の情報処理装置1は、ユーザの手指だけでなく、実空間上に配されている壁や机等の面の位置及び範囲を認識してもよい。このような平面の認識処理は、表示装置2が出力する深度情報を用いて判断する処理等の広く知られた方法を採用できる。
本実施の形態の情報処理装置1は、さらに、表示装置2が撮像して得た画像データから、ユーザの指の側面を認識してもよい。ユーザの指の側面を認識する場合、情報処理装置1は、指の側面を含む領域が、対象仮想オブジェクトの外周のいずれかの辺に接しつつ、対象仮想オブジェクトの中心方向へ移動している場合(対象仮想オブジェクトの左辺に指の側面を含む領域が接触し、さらに右側へ移動している場合など)には、対象仮想オブジェクトを、当該指の側面を含む領域の移動に合わせて平行移動してもよい。
さらに本実施の形態の情報処理装置1は、ユーザの手のポーズ(各指の状態)に応じて、対象仮想オブジェクトの表示・表示停止制御や、表示態様の制御を行ってもよい。
さらに本実施の形態の一例では、情報処理装置1は、複数の対象仮想オブジェクトの相対的位置を変化させる操作(例えば一方の対象仮想オブジェクトを、他方の対象仮想オブジェクトの位置まで移動させる操作)をユーザが行ったときに、当該複数の対象仮想オブジェクトに関する所定の処理を実行してもよい。
また本実施の形態の一例では、情報処理装置1は、対象仮想オブジェクトに重ね合わせて、別の対象仮想オブジェクトを生成して表示させてもよい。
さらに、ここで情報処理装置1が表示する対象仮想オブジェクトの形状は、シート状あるいは直方体状に限られない。例えば、この対象仮想オブジェクトJは筒状をなし、筒状の表面に、図8に例示するように、ユーザインタフェース部品の画像を連続的に配してもよい。
また情報処理装置1は、仮想空間内の対象仮想オブジェクトと、ユーザの指とが接触している状態と、していない状態とで、対象仮想オブジェクトの表示態様が互いに異なるよう、対象仮想オブジェクトの表示態様を設定してもよい。
さらに本実施の形態の一例では、情報処理装置1は、実空間内の壁面や机等のオブジェクト(実オブジェクト)の位置及び形状を識別し(この方法は広く知られているため、ここでの詳しい説明を省略する)、仮想空間内の対応する位置(ユーザからの相対的位置を一致させて配置する)に、対応する仮想的なオブジェクト(対応オブジェクト)を配置してもよい。
Claims (15)
- ユーザに対し、仮想空間の画像を提示する表示装置に接続され、
実空間のユーザの各指先の位置の情報を取得する取得手段と、
仮想空間内に、仮想的なオブジェクトの位置及び画像を設定するオブジェクト設定手段と、
前記仮想空間内に設定された仮想的なオブジェクトと、ユーザの指との接触を判定する判定手段と、
前記判定手段が、前記仮想的なオブジェクトの複数の位置のそれぞれにユーザの第1の指と第2の指とが接触していると判定している状態で、ユーザにより所定の操作が行われたときに、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する処理制御手段と、
を有し、
前記処理制御手段は、ユーザが前記仮想的なオブジェクトの複数の位置をそれぞれ挟んだ状態で所定の操作を行うことにより、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記指を移動する操作には、ピンチイン、ピンチアウトの操作が含まれる情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記取得手段は、前記実空間のユーザの各指先の位置及び向きの情報を取得し、
前記処理制御手段は、前記判定手段が、前記仮想的なオブジェクトの複数の位置のそれぞれにユーザの第1の指と第2の指とが接触していると判定している状態で、前記第1の指が腹側を向けていると判断され、前記第2の指が背側を向けていると判断され、かつ、前記第1の指と第2の指との仮想空間内での距離が予め定めたしきい値を下回っているときに、前記仮想的なオブジェクトが前記第1の指と第2の指とで仮想的に挟まれていると判断し、前記第1の指と第2の指とで仮想的に挟まれていると判断されてるときに、ユーザにより所定の操作が行われると、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する情報処理装置。 - 請求項1から3のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、ユーザが前記仮想的なオブジェクトの両端部を、左右の手の指でそれぞれ挟んだ状態で所定の操作を行うことにより、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する情報処理装置。 - 請求項1から4のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、前記所定の操作として、両手を離すよう移動することにより、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記処理制御手段は、両手の距離がもとの距離LからL+ΔLだけ変化したときには、前記仮想的なオブジェクトの仮想空間内でのサイズを(L+ΔL)/L倍する情報処理装置。 - 請求項1から6のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、ユーザの手のポーズに応じて、前記仮想的なオブジェクトの表示態様を制御する情報処理装置。 - 請求項7に記載の情報処理装置であって、
前記処理制御手段は、ユーザが手を握った状態で、当該手を移動したと判断したときに、前記仮想的なオブジェクトの仮想空間内での表示位置を制御する情報処理装置。 - 請求項1から8のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、複数の仮想的なオブジェクトの相対的位置を変化させる操作に基づいて所定の処理を実行する情報処理装置。 - 請求項1から9のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、前記仮想的なオブジェクトとは異なる仮想的なオブジェクトを用いて前記仮想的なオブジェクトを操作する情報処理装置。 - 請求項10に記載の情報処理装置であって、
前記処理制御手段は、前記仮想的なオブジェクトとは異なる仮想的なオブジェクトを用いて前記仮想的なオブジェクトの移動を操作する情報処理装置。 - 請求項1から11のいずれか一項に記載の情報処理装置であって、
前記処理制御手段は、ユーザが仮想的なオブジェクトの表面をなでる動作を行ったときに、当該なでた方向に、仮想的なオブジェクトを、仮想空間内で回転移動する情報処理装置。 - 請求項12に記載の情報処理装置であって、
前記仮想的なオブジェクトが回転移動されると、当該回転により前記仮想的なオブジェクト上に配されたユーザインタフェース部品を視認可能に制御する情報処理装置。 - ユーザに対し、仮想空間の画像を提示する表示装置に接続される情報処理装置を用い、
取得手段が、実空間のユーザの各指先の位置の情報を取得し、
オブジェクト設定手段が、仮想空間内に、仮想的なオブジェクトの位置及び画像を設定し、
判定手段が、前記仮想空間内に設定された仮想的なオブジェクトと、ユーザの指との接触を判定し、
処理制御手段が、前記仮想的なオブジェクトの複数の位置のそれぞれにユーザの第1の指と第2の指とが接触していると判定されている状態で、ユーザにより所定の操作が行われたときに、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する処理制御手段であって、ユーザが前記仮想的なオブジェクトの複数の位置をそれぞれ挟んだ状態で所定の操作を行うことにより、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する
情報処理装置の制御方法。 - ユーザに対し、仮想空間の画像を提示する表示装置に接続されたコンピュータを、
実空間のユーザの各指先の位置の情報を取得する取得手段と、
仮想空間内に、仮想的なオブジェクトの位置及び画像を設定するオブジェクト設定手段と、
前記仮想空間内に設定された仮想的なオブジェクトと、ユーザの指との接触を判定する判定手段と、
前記判定手段が、前記仮想的なオブジェクトの複数の位置のそれぞれにユーザの第1の指と第2の指とが接触していると判定している状態で、ユーザにより所定の操作が行われたときに、前記仮想的なオブジェクトの仮想空間内でのサイズを変更する処理制御手段と、
として機能させ、
前記処理制御手段として機能させる際には、ユーザが前記仮想的なオブジェクトの複数の位置をそれぞれ挟んだ状態で所定の操作を行ったときに、コンピュータに、前記仮想的なオブジェクトの仮想空間内でのサイズを変更させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021177997A JP7524153B2 (ja) | 2017-04-28 | 2021-10-29 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2023168614A JP2023169411A (ja) | 2017-04-28 | 2023-09-28 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017090171 | 2017-04-28 | ||
JP2017090171 | 2017-04-28 | ||
JP2019514429A JP6744990B2 (ja) | 2017-04-28 | 2018-04-18 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514429A Division JP6744990B2 (ja) | 2017-04-28 | 2018-04-18 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021177997A Division JP7524153B2 (ja) | 2017-04-28 | 2021-10-29 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020198108A JP2020198108A (ja) | 2020-12-10 |
JP6970797B2 true JP6970797B2 (ja) | 2021-11-24 |
Family
ID=63920244
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514429A Active JP6744990B2 (ja) | 2017-04-28 | 2018-04-18 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2020130686A Active JP6970797B2 (ja) | 2017-04-28 | 2020-07-31 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2021177997A Active JP7524153B2 (ja) | 2017-04-28 | 2021-10-29 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2023168614A Pending JP2023169411A (ja) | 2017-04-28 | 2023-09-28 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514429A Active JP6744990B2 (ja) | 2017-04-28 | 2018-04-18 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021177997A Active JP7524153B2 (ja) | 2017-04-28 | 2021-10-29 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP2023168614A Pending JP2023169411A (ja) | 2017-04-28 | 2023-09-28 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (5) | US11077360B2 (ja) |
JP (4) | JP6744990B2 (ja) |
WO (1) | WO2018198910A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6744990B2 (ja) * | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
CN116328317A (zh) * | 2018-02-06 | 2023-06-27 | 日本聚逸株式会社 | 应用处理系统、应用处理方法以及应用处理程序 |
US10635895B2 (en) * | 2018-06-27 | 2020-04-28 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
CN113168735B (zh) * | 2018-10-22 | 2024-05-28 | 犹尼蒂知识产权有限公司 | 用于在混合现实环境中针对视觉数字创作处理和划分真实世界的部分的方法和系统 |
WO2020209624A1 (en) | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head mounted display device and operating method thereof |
US11334212B2 (en) * | 2019-06-07 | 2022-05-17 | Facebook Technologies, Llc | Detecting input in artificial reality systems based on a pinch and pull gesture |
US11189099B2 (en) | 2019-09-20 | 2021-11-30 | Facebook Technologies, Llc | Global and local mode virtual object interactions |
JP7379052B2 (ja) * | 2019-09-30 | 2023-11-14 | キヤノン株式会社 | 表示制御装置、方法及びプログラム |
US11175730B2 (en) * | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US20230409264A1 (en) * | 2020-12-11 | 2023-12-21 | Semiconductor Energy Laboratory Co., Ltd. | Method for operating display system |
US11461973B2 (en) * | 2020-12-22 | 2022-10-04 | Meta Platforms Technologies, Llc | Virtual reality locomotion via hand gesture |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11470439B1 (en) | 2021-06-02 | 2022-10-11 | Meta Platforms Technologies, Llc | Adjustment of acoustic map and presented sound in artificial reality systems |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JP4926799B2 (ja) * | 2006-10-23 | 2012-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5109853B2 (ja) | 2008-07-25 | 2012-12-26 | 株式会社ニコン | 電子カメラ |
JP5205187B2 (ja) * | 2008-09-11 | 2013-06-05 | 株式会社エヌ・ティ・ティ・ドコモ | 入力システム及び入力方法 |
JP5262681B2 (ja) * | 2008-12-22 | 2013-08-14 | ブラザー工業株式会社 | ヘッドマウントディスプレイ及びそのプログラム |
JP5158007B2 (ja) | 2009-04-28 | 2013-03-06 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
JP5564300B2 (ja) * | 2010-03-19 | 2014-07-30 | 富士フイルム株式会社 | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
JP2012194492A (ja) | 2011-03-17 | 2012-10-11 | Brother Ind Ltd | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
JP2012252386A (ja) | 2011-05-31 | 2012-12-20 | Ntt Docomo Inc | 表示装置 |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
US9541997B2 (en) | 2012-07-27 | 2017-01-10 | Nec Solution Innovators, Ltd. | Three-dimensional user interface apparatus and three-dimensional operation method |
JP5690317B2 (ja) | 2012-11-01 | 2015-03-25 | シャープ株式会社 | 情報表示装置及び情報表示方法 |
EP2951811A4 (en) * | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
JP6251957B2 (ja) | 2013-01-23 | 2017-12-27 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置および表示装置の制御方法 |
JP6165485B2 (ja) * | 2013-03-28 | 2017-07-19 | 国立大学法人埼玉大学 | 携帯端末向けarジェスチャユーザインタフェースシステム |
JP2014191718A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
WO2014162762A1 (ja) | 2013-04-02 | 2014-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20160147308A1 (en) * | 2013-07-10 | 2016-05-26 | Real View Imaging Ltd. | Three dimensional user interface |
JP6524589B2 (ja) | 2013-08-30 | 2019-06-05 | 国立大学法人山梨大学 | クリック動作検出装置,方法およびプログラム |
JP6265027B2 (ja) | 2014-04-22 | 2018-01-24 | 富士通株式会社 | 表示装置、位置特定プログラム、および位置特定方法 |
EP3699736B1 (en) * | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10477090B2 (en) | 2015-02-25 | 2019-11-12 | Kyocera Corporation | Wearable device, control method and non-transitory storage medium |
US10156908B2 (en) | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
JP6742701B2 (ja) * | 2015-07-06 | 2020-08-19 | キヤノン株式会社 | 情報処理装置、その制御方法及びプログラム |
US20170131775A1 (en) * | 2015-11-10 | 2017-05-11 | Castar, Inc. | System and method of haptic feedback by referral of sensation |
IL310337A (en) | 2016-08-11 | 2024-03-01 | Magic Leap Inc | Automatic positioning of a virtual object in 3D space |
JP6744990B2 (ja) * | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
-
2018
- 2018-04-18 JP JP2019514429A patent/JP6744990B2/ja active Active
- 2018-04-18 WO PCT/JP2018/016032 patent/WO2018198910A1/ja active Application Filing
- 2018-04-18 US US16/605,667 patent/US11077360B2/en active Active
-
2020
- 2020-07-31 JP JP2020130686A patent/JP6970797B2/ja active Active
-
2021
- 2021-05-18 US US17/323,184 patent/US11260287B2/en active Active
- 2021-10-29 JP JP2021177997A patent/JP7524153B2/ja active Active
-
2022
- 2022-01-19 US US17/579,174 patent/US11617942B2/en active Active
-
2023
- 2023-02-27 US US18/114,565 patent/US11896893B2/en active Active
- 2023-09-28 JP JP2023168614A patent/JP2023169411A/ja active Pending
- 2023-12-20 US US18/390,097 patent/US20240115934A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210268368A1 (en) | 2021-09-02 |
US11260287B2 (en) | 2022-03-01 |
JP2023169411A (ja) | 2023-11-29 |
US20230218983A1 (en) | 2023-07-13 |
US20200129850A1 (en) | 2020-04-30 |
US11896893B2 (en) | 2024-02-13 |
JP2020198108A (ja) | 2020-12-10 |
JP6744990B2 (ja) | 2020-08-19 |
US20240115934A1 (en) | 2024-04-11 |
US11617942B2 (en) | 2023-04-04 |
US11077360B2 (en) | 2021-08-03 |
JP2022028692A (ja) | 2022-02-16 |
US20220143496A1 (en) | 2022-05-12 |
JPWO2018198910A1 (ja) | 2019-11-07 |
JP7524153B2 (ja) | 2024-07-29 |
WO2018198910A1 (ja) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6970797B2 (ja) | 情報処理装置、情報処理装置の制御方法、及びプログラム | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
US8290210B2 (en) | Method and system for gesture recognition | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
CN108681399B (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
US11047691B2 (en) | Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications | |
US9841821B2 (en) | Methods for automatically assessing user handedness in computer systems and the utilization of such information | |
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6524589B2 (ja) | クリック動作検出装置,方法およびプログラム | |
JP2016224686A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN107179876B (zh) | 基于虚拟现实系统的人机交互装置 | |
Matlani et al. | Virtual mouse using hand gestures | |
US20210055784A1 (en) | Information processing apparatus | |
CN117784926A (zh) | 控制装置、控制方法和计算机可读存储介质 | |
JP5456817B2 (ja) | 表示制御装置、表示制御方法、情報表示システム及びプログラム | |
CN111095394A (zh) | 显示处理设备、显示处理方法和程序 | |
Pullan et al. | High Resolution Touch Screen Module | |
Miyachi et al. | Development of Mouse System for Physically Disabled Person by Face Movement Using Kinect | |
Ahn et al. | A VR/AR Interface Design based on Unaligned Hand Position and Gaze Direction | |
CN115877946A (zh) | 信息处理装置、信息处理系统、存储介质及信息处理方法 | |
Van den Bergh et al. | Perceptive user interface, a generic approach | |
CN114003122A (zh) | 一种ar界面交互方法与基于该方法的智能指环 | |
WO2015198366A1 (ja) | 電子機器、モード判定方法およびモード判定プログラム | |
Takaki et al. | 3D direct manipulation interface by human body posture and gaze |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970797 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |