JPWO2018150831A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents
情報処理装置、情報処理方法及び記録媒体 Download PDFInfo
- Publication number
- JPWO2018150831A1 JPWO2018150831A1 JP2018568067A JP2018568067A JPWO2018150831A1 JP WO2018150831 A1 JPWO2018150831 A1 JP WO2018150831A1 JP 2018568067 A JP2018568067 A JP 2018568067A JP 2018568067 A JP2018568067 A JP 2018568067A JP WO2018150831 A1 JPWO2018150831 A1 JP WO2018150831A1
- Authority
- JP
- Japan
- Prior art keywords
- observation
- user
- screen
- display device
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
1.概要
2.各装置の構成例
2.1.表示装置の構成例
2.2.出力装置の構成例
2.3.観察装置の構成例
3.処理の流れ
4.各処理の詳細
4.1.初期画面の表示
4.2.選択画面の表示
4.3.観察画面の表示
4.4.ユーザ操作
4.5.ユーザ間の相互作用
5.ハードウェア構成例
6.まとめ
まず、図1を参照して、本開示の一実施形態に係るシステムの概要を説明する。
以下、図1〜図9を参照して、システム1に含まれる各装置の構成例を説明する。
(1)外観構成例
図3は、本実施形態に係る表示装置100の論理的な構成の一例を示すブロック図である。図3に示すように、本実施形態に係る表示装置100は、センサ部110、出力部120、通信部130、記憶部140及び制御部150を含む。
センサ部110は、ユーザの動作や状態に関するセンシング情報を取得する。例えば、センサ部110は、ユーザが表示装置100を装着した状態において、ユーザの目を撮像対象とする内向きカメラ111、及びユーザが向く方向を撮像方向として撮像する外向きカメラ112を含み得る。また、センサ部110は、ユーザが表示装置100を装着した状態でユーザの顔の横に接触する圧力センサを含み得る。また、センサ部110は、対象物の温度を非接触で取得する赤外線センサ又は対象物の深度情報を取得する深度センサを含み得る。また、センサ部110は、ジャイロセンサ、又は加速度センサ等の、ユーザの姿勢を取得するセンサを含み得る。また、センサ部110は、筋電センサ、脈拍センサ、又は体温センサ等のユーザの生体情報を取得するセンサを含み得る。また、センサ部110は、ユーザの音声を収音するマイクを含み得る。また、センサ部110は、GPS(Global Positioning System)等のユーザの位置情報を取得するセンサを含み得る。
出力部120は、ユーザに情報を出力する。例えば、出力部120は、画像を表示する表示部121を含み得る。また、出力部120は、音声を出力するスピーカを含み得る。また、出力部120は、アロマディフューザ等の匂いを出力する装置を含み得る。
通信部130は、他の装置との通信を行う。
記憶部140は、表示装置100の動作のための情報を一時的に又は恒久的に記憶する。
制御部150は、表示装置100の様々な機能を提供する。制御部150は、認識部151及び出力制御部153を含む。なお、制御部150は、これらの構成要素以外の他の構成要素をさらに含み得る。即ち、制御部150は、これらの構成要素の動作以外の動作も行い得る。
認識部151は、表示装置100を装着したユーザの操作を認識する処理を行う。
出力制御部153は、出力制御部153は、表示装置100又は出力装置200によるユーザへの出力を制御する処理を行う。
出力制御部153は、観察情報に基づく画面を生成して、生成した画面を表示するよう表示部121を制御する。
出力制御部153は、記憶部140に記憶された触覚情報を提供する。詳しくは、出力制御部153は、出力部120により表示される仮想空間においてユーザが触れる操作(以下、接触操作とも称する)を行った観察対象物の、触れた部位に応じた触覚情報を、出力装置200に送信して出力させる。
図4は、本実施形態に係る出力装置200の論理的な構成の一例を示すブロック図である。図4に示すように、本実施形態に係る出力装置200は、センサ部210、出力部220、通信部230、記憶部240及び制御部250を含む。以下では、出力装置200が、図1に示したようなユーザの手に装着される、グローブ型として実現されるものとする。
センサ部210は、出力装置200を装着したユーザの動作や状態に関するセンシング情報を取得する。例えば、センサ部210は、ジャイロセンサ、又は加速度センサ等の、出力装置200を装着したユーザの手の姿勢を取得するセンサを含み得る。また、センサ部210は、指先同士の接触を検出する接触センサを含み、後述するユーザのズーム操作を精度よく検出し得る。
出力部220は、ユーザに触覚情報を出力する。
通信部230は、他の装置との通信を行う。
記憶部240は、出力装置200の動作のための情報を一時的に又は恒久的に記憶する。
制御部250は、出力装置200の様々な機能を提供する。例えば、制御部250は、表示装置100から受信した触覚情報を出力するよう出力部220を制御する。
(1)外観構成例
図5は、本実施形態に係る観察装置300の外観構成の一例を示す図である。図5に示すように、観察装置300は、複数のカメラ311A〜311C及び312を含み得る。カメラ312は、ズームレンズを有し、ズームしての撮像が可能である。なお、カメラ311A〜311Cとカメラ312とで用途が異なっていてもよい。例えばカメラ311A〜311Cが撮像した撮像画像は後述する選択画面の生成のために用いられ、カメラ312が撮像した撮像画像は後述する観察画面の生成のために用いられてもよい。
図6は、本実施形態に係る観察装置300の論理的な構成の一例を示すブロック図である。図6に示すように、本実施形態に係る観察装置300は、センサ部310、通信部320、記憶部330及び制御部340を含む。
センサ部310は、観察対象物に関するセンシング情報(即ち、観察情報)を取得する。センサ部310は、観察対象物の撮像画像(動画/静止画)及び音声等の観察情報を取得する。センサ部310は、例えばカメラ311A〜311C及び312等の画像センサ、深度センサ、及びマイク等を含み得る。センサ部310は、ズームしての撮像、及びマイク指向性を形成しての収音等を行ってもよい。
通信部320は、他の装置との通信を行う。
記憶部330は、観察装置300の動作のための情報を一時的に又は恒久的に記憶する。
制御部340は、観察装置300の様々な機能を提供する。例えば、制御部340は、表示装置100からの指示に基づきズーム又はマイク指向性を形成するようセンサ部310を制御する。
以下、図7〜図9を参照して、観察装置300の設置例を説明する。
以下、図10を参照して、動物園におけるユーザ体験提供処理の流れの一例を説明する。
以下では、上記説明したユーザ体験提供処理における各処理の詳細を説明する。
初期画面とは、ユーザ体験提供処理において最初に表示される画面である。初期画面の一例を、図11を参照して説明する。
表示装置100は、選択画面を表示する。選択画面とは、後述する観察画面において提供するユーザ体験の元となる観察処理を行う観察装置300を選択する画面である。
カメラマップモードでは、表示装置100は、画面内の候補の観察装置300の設置位置に対応する位置に当該候補の観察装置300に対応する表示オブジェクトを表示させる。以下、図12及び図13を参照して、カメラマップモードの選択画面の具体例を説明する。
一覧表示モードでは、表示装置100は、候補の観察装置300により撮像された撮像画像を含む表示オブジェクトを、候補の観察装置300の撮像方向の鉛直方向との角度に対応する高さに並べて表示させる。以下、図14及び図15を参照して、一覧表示モードの選択画面の具体例を説明する。
観察画面とは、選択画面において選択された観察装置300による観察情報に基づく出力を行う画面である。具体的には、観察画面は、選択された観察装置300によりリアルタイムに撮像された撮像画像を含む画面である。とりわけ、観察画面では、ユーザが接触操作を行った場合に、対応する触覚情報が出力される。
(1)ズーム操作
以下、図19〜図24を参照して、ズーム操作について説明する。
表示装置100は、観察対象物の撮像画像を含む画面(例えば、観察画面)を表示しつつ、表示装置100を装着したユーザが操作する認識対象物と基準位置との距離に基づいて、上記画面における観察対象物の大きさを制御する。より簡易には、表示装置100は、ユーザが操作する認識対象物と基準位置との距離に応じて、観察画面におけるズーム率を制御する。
表示装置100は、他の情報にさらに基づいて、ズーム率を制御してもよい。これにより、ズーム操作の認識精度を向上させることが可能である。
表示装置100は、観察画面における観察対象物の大きさの制御、即ちズーム率の制御の中心位置を制御する。この、中心位置を、以下ではズームの中心位置とも称する。
表示装置100は、ズーム倍率の最大値又は最小値を設定してもよい。ズーム倍率の最大値は、例えば実空間において観察対象物に手を伸ばせば触れられる位置にユーザがいる場合に見えるであろう観察対象物の大きさと、同等の大きさで観察対象物を表示する倍率に設定され得る。また、ズーム倍率の最小値は、例えば実空間においてユーザが現在の位置から観察対象物を見た場合に見えるであろう観察対象物の大きさと、同等の大きさで観察対象物を表示する倍率に設定され得る。
ズームスピードは、認識対象物の基準方向における速度又は加速度に応じて設定され得る。ズームスピードは、認識対象物の基準方向における移動可能距離を考慮して設定されてもよい。例えば、認識対象物が指で輪を形成したユーザの手である場合、ズームスピードは腕の長さを考慮して設定されてもよい。具体的には、腕の伸縮の速度又は加速度を腕の長さで割り算した値が、ズームスピードとして設定され得る。これにより、子供と大人とで腕の長さが異なり腕の伸縮のスピードが異なっていても、同等のズームスピードが実現される。腕の長さ情報が無い場合、身長情報で代替されてもよい。身長情報は、ユーザにより入力されてもよいし、画像認識により得られる外向きカメラ112の地上からの高さ情報であってもよい。
表示装置100は、観察画面に表示される仮想空間においてユーザが観察対象物に触れる操作を、接触操作として認識する。
表示装置100は、キャンセル操作を認識する。表示装置100は、例えば、観察画面においてキャンセル操作を認識すると、ズーム率をデフォルト値に戻す、又は画面を選択画面若しくは初期画面に戻す。
表示装置100を装着したユーザが複数いる場合、表示装置100は、ユーザ間の関係に基づく表示を行ってもよい。
最後に、図28を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図28は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図28に示す情報処理装置900は、例えば、図3、図4又は図6にそれぞれ示した表示装置100、出力装置200又は観察装置300を実現し得る。本実施形態に係る表示装置100、出力装置200又は観察装置300による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上、図1〜図28を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る表示装置100は、観察対象物の撮像画像を含む画面を表示させつつ、表示装置100を装着したユーザの操作を認識する。とりわけ、表示装置100は、ユーザが操作する認識対象物と基準位置との距離に基づいて、画面における観察対象物の大きさを制御する。ユーザは、認識対象物を操作して基準位置との距離を変えることで、画面内の観察対象物の大きさを容易に変えることが可能である。このようにして、仮想空間における対象物との距離感の円滑な制御が実現される。
(1)
表示装置を装着したユーザの操作を認識する認識部と、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御する出力制御部と、
を備える情報処理装置。
(2)
前記出力制御部は、前記認識対象物と基準位置との距離が大きいほど前記画面における前記観察対象物を大きくし、認識対象物と基準位置との距離が小さいほど前記画面における前記観察対象物を小さくする、前記(1)に記載の情報処理装置。
(3)
前記認識対象物と前記基準位置との距離は、前記基準位置と前記認識対象物との基準方向における距離であり、
前記出力制御部は、前記基準方向に直交する方向における前記認識対象物の位置に基づいて前記画面における前記観察対象物の大きさの制御の中心位置を制御する、前記(1)又は(2)に記載の情報処理装置。
(4)
前記出力制御部は、前記中心位置を示す情報を表示する、前記(3)に記載の情報処理装置。
(5)
前記基準位置は、前記ユーザに装着された前記表示装置の位置である、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記認識対象物は、所定の形状となった前記ユーザの手である、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記認識対象物は、指で輪を形成した前記ユーザの手であり、
前記出力制御部は、前記輪の姿勢にさらに基づいて、前記画面における前記観察対象物の大きさを制御する、前記(6)に記載の情報処理装置。
(8)
前記出力制御部は、前記撮像画像の撮像倍率を制御することで、前記画面における前記観察対象物の大きさを制御する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記出力制御部は、前記観察対象物の所定の部位への所定の操作が認識された場合、前記観察対象物を触れた場合に得られる触覚を模した触覚情報を出力装置により出力させる、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記出力制御部は、前記観察対象物への前記所定の操作を行う前記ユーザの手を示す画像を前記観察対象物に重畳させて表示させる、前記(9)に記載の情報処理装置。
(11)
前記観察対象物は、動物であり、
前記触覚情報は、前記観察対象物の心拍、体温又は体表面の感触の少なくともいずれかを含む、前記(9)又は(10)に記載の情報処理装置。
(12)
前記出力制御部は、前記所定の操作が可能であることを示す情報を、前記所定の部位に関連付けて表示させる、前記(9)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記出力制御部は、前記画面における前記観察対象物の大きさに基づいて、前記所定の操作が可能であることを示す情報の詳細度を制御する、前記(12)に記載の情報処理装置。
(14)
前記出力装置は、ユーザの手に装着され、振動生成装置、熱生成装置又は感触生成装置の少なくともいずれかを含む、前記(9)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記出力制御部は、前記表示装置に表示させる前記撮像画像の提供元となり得る複数の候補の撮像装置に対応する複数の表示オブジェクトを含む画面を表示させ、
前記認識部は、表示された複数の前記表示オブジェクトのうちひとつの前記表示オブジェクトへの前記ユーザの所定の操作を、前記候補の撮像装置の選択操作として認識する、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記出力制御部は、画面内の前記候補の撮像装置の設置位置に対応する位置に当該候補の撮像装置に対応する前記表示オブジェクトを表示させる、前記(15)に記載の情報処理装置。
(17)
前記出力制御部は、候補の撮像装置により撮像された撮像画像を含む前記表示オブジェクトを、前記候補の撮像装置の撮像方向と鉛直方向との角度に対応する高さに並べて表示させる、前記(15)に記載の情報処理装置。
(18)
前記表示装置は、ユーザの目を撮像する第1の画像センサ及び前記認識対象物を撮像する第2の画像センサを含む、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
表示装置を装着したユーザの操作を認識することと、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御することと、
を含む、プロセッサにより実行される情報処理方法。
(20)
コンピュータを、
表示装置を装着したユーザの操作を認識する認識部と、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御する出力制御部と、
として機能させるためのプログラムが記録された記録媒体。
10 柵
100 表示装置
110 センサ部
111 内向きカメラ
112 外向きカメラ
120 出力部
121 表示部
130 通信部
140 記憶部
150 制御部
151 認識部
153 出力制御部
200 出力装置
210 センサ部
220 出力部
230 通信部
240 記憶部
250 制御部
300 観察装置
310 センサ部
320 通信部
330 記憶部
340 制御部
700 認識対象物
Claims (20)
- 表示装置を装着したユーザの操作を認識する認識部と、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御する出力制御部と、
を備える情報処理装置。 - 前記出力制御部は、前記認識対象物と基準位置との距離が大きいほど前記画面における前記観察対象物を大きくし、前記認識対象物と基準位置との距離が小さいほど前記画面における前記観察対象物を小さくする、請求項1に記載の情報処理装置。
- 前記認識対象物と前記基準位置との距離は、前記基準位置と前記認識対象物との基準方向における距離であり、
前記出力制御部は、前記基準方向に直交する方向における前記認識対象物の位置に基づいて前記画面における前記観察対象物の大きさの制御の中心位置を制御する、請求項1に記載の情報処理装置。 - 前記出力制御部は、前記中心位置を示す情報を表示する、請求項3に記載の情報処理装置。
- 前記基準位置は、前記ユーザに装着された前記表示装置の位置である、請求項1に記載の情報処理装置。
- 前記認識対象物は、所定の形状となった前記ユーザの手である、請求項1に記載の情報処理装置。
- 前記認識対象物は、指で輪を形成した前記ユーザの手であり、
前記出力制御部は、前記輪の姿勢にさらに基づいて、前記画面における前記観察対象物の大きさを制御する、請求項6に記載の情報処理装置。 - 前記出力制御部は、前記撮像画像の撮像倍率を制御することで、前記画面における前記観察対象物の大きさを制御する、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記観察対象物の所定の部位への所定の操作が認識された場合、前記観察対象物を触れた場合に得られる触覚を模した触覚情報を出力装置により出力させる、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記観察対象物への前記所定の操作を行う前記ユーザの手を示す画像を前記観察対象物に重畳させて表示させる、請求項9に記載の情報処理装置。
- 前記観察対象物は、動物であり、
前記触覚情報は、前記観察対象物の心拍、体温又は体表面の感触の少なくともいずれかを含む、請求項9に記載の情報処理装置。 - 前記出力制御部は、前記所定の操作が可能であることを示す情報を、前記所定の部位に関連付けて表示させる、請求項9に記載の情報処理装置。
- 前記出力制御部は、前記画面における前記観察対象物の大きさに基づいて、前記所定の操作が可能であることを示す情報の詳細度を制御する、請求項12に記載の情報処理装置。
- 前記出力装置は、前記ユーザの手に装着され、振動生成装置、熱生成装置又は感触生成装置の少なくともいずれかを含む、請求項9に記載の情報処理装置。
- 前記出力制御部は、前記表示装置に表示させる前記撮像画像の提供元となり得る複数の候補の撮像装置に対応する複数の表示オブジェクトを含む画面を表示させ、
前記認識部は、表示された複数の前記表示オブジェクトのうちひとつの前記表示オブジェクトへの前記ユーザの所定の操作を、前記候補の撮像装置の選択操作として認識する、請求項1に記載の情報処理装置。 - 前記出力制御部は、画面内の前記候補の撮像装置の設置位置に対応する位置に当該候補の撮像装置に対応する前記表示オブジェクトを表示させる、請求項15に記載の情報処理装置。
- 前記出力制御部は、前記候補の撮像装置により撮像された撮像画像を含む前記表示オブジェクトを、前記候補の撮像装置の撮像方向と鉛直方向との角度に対応する高さに並べて表示させる、請求項15に記載の情報処理装置。
- 前記表示装置は、前記ユーザの目を撮像する第1の画像センサ及び前記認識対象物を撮像する第2の画像センサを含む、請求項1に記載の情報処理装置。
- 表示装置を装着したユーザの操作を認識することと、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御することと、
を含む、プロセッサにより実行される情報処理方法。 - コンピュータを、
表示装置を装着したユーザの操作を認識する認識部と、
前記表示装置により観察対象物の撮像画像を含む画面を表示させつつ、前記ユーザが操作する認識対象物と基準位置との距離に基づいて、前記画面における前記観察対象物の大きさを制御する出力制御部と、
として機能させるためのプログラムが記録された記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017027238 | 2017-02-16 | ||
JP2017027238 | 2017-02-16 | ||
PCT/JP2018/002198 WO2018150831A1 (ja) | 2017-02-16 | 2018-01-25 | 情報処理装置、情報処理方法及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018150831A1 true JPWO2018150831A1 (ja) | 2019-12-12 |
JP7095602B2 JP7095602B2 (ja) | 2022-07-05 |
Family
ID=62982701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018568067A Active JP7095602B2 (ja) | 2017-02-16 | 2018-01-25 | 情報処理装置、情報処理方法及び記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11170580B2 (ja) |
JP (1) | JP7095602B2 (ja) |
CN (1) | CN110506249B (ja) |
DE (1) | DE102018103572A1 (ja) |
WO (1) | WO2018150831A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
JP7210153B2 (ja) * | 2018-04-04 | 2023-01-23 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 |
USD902221S1 (en) * | 2019-02-01 | 2020-11-17 | Apple Inc. | Electronic device with animated graphical user interface |
JP7377615B2 (ja) * | 2019-03-27 | 2023-11-10 | 株式会社Subaru | 車両の非接触操作装置、および車両 |
CN110124305B (zh) * | 2019-05-15 | 2023-05-12 | 网易(杭州)网络有限公司 | 虚拟场景调整方法、装置、存储介质与移动终端 |
US11042746B2 (en) * | 2019-06-05 | 2021-06-22 | International Business Machines Corporation | Presenting information on object to be observed |
US11321927B1 (en) * | 2019-09-23 | 2022-05-03 | Apple Inc. | Temporal segmentation |
DE202022002753U1 (de) | 2021-02-25 | 2023-03-29 | DAYHOLI GmbH | System zur Darstellung einer virtuellen Realität |
JP2024509401A (ja) | 2021-02-25 | 2024-03-01 | デイホリ ゲーエムベーハー | 仮想現実を表示する方法及びシステム |
WO2023276116A1 (ja) * | 2021-07-01 | 2023-01-05 | 三菱電機ビルソリューションズ株式会社 | 遠隔支援装置および遠隔支援方法 |
KR20240051157A (ko) * | 2021-08-26 | 2024-04-19 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 표시 장치 및 전자 기기 |
US20230221566A1 (en) * | 2022-01-08 | 2023-07-13 | Sony Interactive Entertainment Inc. | Vr headset with integrated thermal/motion sensors |
WO2023223933A1 (ja) * | 2022-05-18 | 2023-11-23 | ソニーグループ株式会社 | 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム |
JP2024047795A (ja) * | 2022-09-27 | 2024-04-08 | 株式会社Jvcケンウッド | 仮想空間インターフェース装置、クライアント端末およびプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1188869A (ja) * | 1997-09-04 | 1999-03-30 | Canon Inc | 映像通信システム及び情報表示装置 |
JP2003308141A (ja) * | 2002-04-17 | 2003-10-31 | Seiko Epson Corp | 力覚提示装置 |
WO2015170520A1 (ja) * | 2014-05-09 | 2015-11-12 | ソニー株式会社 | 情報処理システムおよび情報処理方法 |
US20150347080A1 (en) * | 2014-05-30 | 2015-12-03 | Samsung Electronics Co., Ltd. | Data processing method and electronic device thereof |
WO2016029183A1 (en) * | 2014-08-22 | 2016-02-25 | Sony Computer Entertainment Inc. | Glove interface object |
WO2016136838A1 (ja) * | 2015-02-25 | 2016-09-01 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3517190B1 (en) * | 2013-02-01 | 2022-04-20 | Sony Group Corporation | Information processing device, terminal device, information processing method, and programme |
US9411160B2 (en) * | 2013-02-12 | 2016-08-09 | Seiko Epson Corporation | Head mounted display, control method for head mounted display, and image display system |
WO2014162852A1 (ja) | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2014178228A1 (ja) * | 2013-04-30 | 2014-11-06 | ソニー株式会社 | クライアント端末、表示制御方法、プログラム、およびシステム |
JP6217244B2 (ja) * | 2013-08-29 | 2017-10-25 | セイコーエプソン株式会社 | 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム |
US20160224123A1 (en) * | 2015-02-02 | 2016-08-04 | Augumenta Ltd | Method and system to control electronic devices through gestures |
JP6525617B2 (ja) * | 2015-02-03 | 2019-06-05 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
KR20160139727A (ko) * | 2015-05-28 | 2016-12-07 | 엘지전자 주식회사 | 글래스타입 단말기 및 이의 제어방법 |
WO2017086508A1 (ko) * | 2015-11-19 | 2017-05-26 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
CN105653029A (zh) * | 2015-12-25 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 在虚拟现实系统中获得沉浸感的方法、系统及智能手套 |
US9990815B2 (en) * | 2016-02-18 | 2018-06-05 | Immersion Corporation | Wearable haptic effects with permissions settings |
-
2018
- 2018-01-25 CN CN201880011754.3A patent/CN110506249B/zh active Active
- 2018-01-25 US US16/474,407 patent/US11170580B2/en active Active
- 2018-01-25 JP JP2018568067A patent/JP7095602B2/ja active Active
- 2018-01-25 WO PCT/JP2018/002198 patent/WO2018150831A1/ja active Application Filing
- 2018-02-16 DE DE102018103572.1A patent/DE102018103572A1/de active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1188869A (ja) * | 1997-09-04 | 1999-03-30 | Canon Inc | 映像通信システム及び情報表示装置 |
JP2003308141A (ja) * | 2002-04-17 | 2003-10-31 | Seiko Epson Corp | 力覚提示装置 |
WO2015170520A1 (ja) * | 2014-05-09 | 2015-11-12 | ソニー株式会社 | 情報処理システムおよび情報処理方法 |
US20150347080A1 (en) * | 2014-05-30 | 2015-12-03 | Samsung Electronics Co., Ltd. | Data processing method and electronic device thereof |
WO2016029183A1 (en) * | 2014-08-22 | 2016-02-25 | Sony Computer Entertainment Inc. | Glove interface object |
WO2016136838A1 (ja) * | 2015-02-25 | 2016-09-01 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018150831A1 (ja) | 2018-08-23 |
US20200258314A1 (en) | 2020-08-13 |
JP7095602B2 (ja) | 2022-07-05 |
US11170580B2 (en) | 2021-11-09 |
DE102018103572A1 (de) | 2018-08-16 |
CN110506249A (zh) | 2019-11-26 |
CN110506249B (zh) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7095602B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
US11340694B2 (en) | Visual aura around field of view | |
KR102316327B1 (ko) | 가상 공간의 캡쳐 방법 및 그 전자장치 | |
JP6244593B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2022502800A (ja) | 拡張現実のためのシステムおよび方法 | |
US11481025B2 (en) | Display control apparatus, display apparatus, and display control method | |
JP2022549853A (ja) | 共有空間内の個々の視認 | |
CN117008720A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 | |
JP2017220032A (ja) | 情報処理装置、情報処理方法、およびコンピュータプログラム | |
KR102110208B1 (ko) | 안경형 단말기 및 이의 제어방법 | |
WO2019187862A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
US20220262080A1 (en) | Interfaces for presenting avatars in three-dimensional environments | |
CN115917474A (zh) | 在三维环境中呈现化身 | |
JPWO2018216355A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPWO2018074045A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113498531A (zh) | 头戴式信息处理装置以及头戴式显示系统 | |
KR20180094875A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 | |
WO2021061310A1 (en) | Displaying representations of environments | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
US20240095877A1 (en) | System and method for providing spatiotemporal visual guidance within 360-degree video | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
US20240104871A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
US20240005623A1 (en) | Positioning content within 3d environments | |
CN117331434A (zh) | 在3d环境内定位内容 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7095602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |