JP2023117420A - 情報処理方法、プログラム、及びシステム - Google Patents

情報処理方法、プログラム、及びシステム Download PDF

Info

Publication number
JP2023117420A
JP2023117420A JP2020122143A JP2020122143A JP2023117420A JP 2023117420 A JP2023117420 A JP 2023117420A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2023117420 A JP2023117420 A JP 2023117420A
Authority
JP
Japan
Prior art keywords
information processing
processing method
virtual viewpoint
operable range
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020122143A
Other languages
English (en)
Inventor
厚史 泉原
Atsushi Izumihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020122143A priority Critical patent/JP2023117420A/ja
Priority to US18/002,663 priority patent/US20230245397A1/en
Priority to PCT/JP2021/025582 priority patent/WO2022014429A1/ja
Publication of JP2023117420A publication Critical patent/JP2023117420A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作における高い直観性を発揮可能な情報処理方法、プログラム、及びシステムを提供すること。【解決手段】上記目的を達成するため、本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御することを含む。これにより、操作における高い直観性を発揮させることが可能となる。また操作可能範囲がユーザの持つコントローラの届く範囲、すなわち、ユーザの手の届く範囲に設定されるため、人間の身体的な空間把握能力を利用することができる。【選択図】図1

Description

本技術は、仮想表現等に適用可能な情報処理方法、プログラム、及びシステムに関する。
特許文献1に記載の映像表示システムは、設定された測定対象と観察視点との実位置関係が同じ位置関係となる仮想現実映像を表示する。実空間で観察された測定対象の長さと仮想現実で観察された測定対象の長さとの相違が入力される。入力された値に基づいて、仮想現実映像を拡大又は縮小させる比率が演算され、仮想現実映像が拡大又は縮小される。これにより、観察者の印象と映像内の物体の印象との乖離を解消した仮想現実映像を表示することが開示されている(特許文献1の段落[0032]~[0035]図7等)。
特開2008-52641号公報
このような仮想表現に関して、操作における高い直観性を発揮可能な技術が求められている。
以上のような事情に鑑み、本技術の目的は、操作における高い直観性を発揮させることが可能な情報処理方法、プログラム、及びシステムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御することを含む。
この情報処理方法では、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定が制御される。これにより、操作における高い直観性を発揮させることが可能となる。
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定してもよい。
前記制御ステップは、前記操作可能範囲のスケールを変更してもよい。
前記情報処理方法は、さらに、前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含んでもよい。
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定してもよい。
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定してもよい。
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御してもよい。
前記情報処理方法は、さらに、前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含んでもよい。この場合、前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更してもよい。
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出してもよい。
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更してもよい。
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定してもよい。
前記情報処理方法は、さらに、前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含んでもよい。
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示してもよい。この場合、前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能であってもよい。
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能であってもよい。
前記現実の空間は、センサにより作成される3次元マップであってもよい。
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更してもよい。
前記センサは、移動体に搭載されてもよい。
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能であってもよい。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ。
本技術の一形態に係る情報処理システムは、移動体と、情報処理装置とを具備する。
前記移動体は、現実の空間内を移動する。
前記情報処理装置は、前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する。
仮想表現システムの外観を模式的に示す図である。 仮想表現システムの機能的な構成例を示すブロック図である。 仮想視点及び操作可能範囲の制御を示すフローチャートである。 仮想視点及び操作可能範囲の制御を示す模式図である。 設定された仮想視点から新たな仮想視点を設定するための制御を示すフローチャートである。 第2の基準点を設定するための制御例を示す模式図である。 GUIの例を示す模式図である。 仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。 候補平面の選択の例を示す模式図である。 仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。 仮想身体の設定の制御例を示すフローチャートである。 仮想身体の例を示す模式図である。 仮想身体から新たな仮想身体を設定するための制御例を示すフローチャートである。 第2の仮想身体を設定するための制御例を示す模式図である。 仮想身体の設定例を示す模式図である。 仮想視点及び操作可能範囲の制御の他の例を示す模式図である。 HMDの外観を示す模式図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
図1は、本技術の第1の実施形態に係る仮想表現システムの外観を模式的に示す図である。
図1に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。移動体10、情報処理装置20、及びユーザデバイス30は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
移動体10は、例えば、自律飛行が可能なドローンである。
本実施形態では、移動体10は、周囲を観測可能なセンサ部14を有する。例えば、センサ部14は、ステレオカメラ、デジタルカメラ、単眼カメラ等の撮像装置を含む。また例えば、センサ部14は、移動体10の360度を撮影可能な360度カメラやステレオカメラが前後左右上下(各々異なる方向)に配置されてもよい。これ以外にも、ToF(Time of Flight)センサ、レーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
なお、移動体10はドローンに限定されず、例えば、車輪型のロボット、多足歩行型のロボット、及び多関節構造を有する脚部を備えるロボットでもよい
また本実施形態では、移動体10に搭載されたセンサ部14のセンシング結果が情報処理装置20に供給される。
情報処理装置20は、移動体10から供給されたセンシング結果に基づいて、移動体10の周囲の3次元マップを生成する。
3次元マップとは、移動体10の周囲の環境を表示する立体的な地図である。例えば、図1では、情報処理装置20により、人1、車2、及び歩道橋3を含む3次元マップが生成される。
なお、3次元マップを生成する方法は限定されない。例えば、CAD(Computer Aided Design)等が用いられてもよい。
また情報処理装置20は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対する操作可能範囲7の設定を制御する。本実施形態では、情報処理装置20は、ユーザ5の操作に応じて、仮想視点6の位置の設定、及び操作可能範囲7のスケールを変更する。
仮想視点とは、3次元マップ内の任意の場所(座標)に設定されるユーザ5の仮想的な視点である。例えば、ユーザ5は、設定した仮想視点6から、移動体10や歩道橋3を俯瞰的に見ることが可能である。
操作可能範囲とは、3次元マップ内のユーザ5の3次元マップに関する操作が及ぶ範囲である。また操作可能範囲のスケールとは、操作可能範囲の体積や面積等の大きさ、円、円筒、直方体等の形状を含む。
ユーザの操作とは、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の移動する経路の生成を含む。
なお、操作可能範囲7のスケールは限定されず、任意の大きさ及び形状に設定されてもよい。
ユーザデバイス30は、ユーザ5により操作される端末である。本実施形態では、ユーザデバイス30は、VRヘッドセット等のHMD31(Head Mounted Display)及びコントローラ32が用いられる。
HMD31は、例えば、ユーザ5の姿勢や眼の位置、視線等を検出できる各種センサを有する。
コントローラ32は、例えば、ボタンやユーザ5の操作による加速度及び角速度等を検出する慣性計測装置(IMU)等を搭載する。
ユーザ5は、HMD31を介して仮想視点6から3次元マップを視認可能である。またユーザ5は、コントローラ32を介して、操作可能範囲7内における、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の経路の生成が可能である。
例えば、ユーザ5は、コントローラ32を握る右手を動かした際の軌跡を移動体10の経路として生成することが可能である。また例えば、ユーザ5の手の位置を新たな仮想視点として設定することが可能である。すなわち、操作可能範囲7とは、コントローラ32を握るユーザ5の手の届く距離ともいえる。
図2は、仮想表現システム100の機能的な構成例を示すブロック図である。
図2に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。
移動体10は、駆動系制御部11、外部情報検出部12、状態検出部13、及びセンサ部14を有する。
駆動系制御部11は、移動体10の各種の制御信号を生成し、移動体10の駆動系に関わる各種の装置の制御を行う。
例えば、移動体10は、4本の足の各関節に備わった角度やトルクを指定可能なサーボモータ、ロボット自体の移動の動きを4本の足の動きに分解・置換するモーションコントローラ並びに、各モータ内のセンサや足裏面のセンサによるフィードバック制御装置を備える。
また例えば、移動体10は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備えてもよい。
外部情報検出部12は、センサ部14のセンシング結果に基づいて、移動体10の外部の情報の検出処理を行う。例えば、外部情報検出部12は、移動体10の周囲の物体の検出処理、認識処理、及び追跡処理、並びに、物体までの距離の検出処理を行う。
また例えば、外部情報検出部12は、移動体10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び路面の状態等が含まれる。
本実施形態では、外部情報検出部12は、検出処理の結果を示すデータを情報取得部21に供給する。
状態検出部13は、駆動系制御部11からのデータ又は信号に基づいて、移動体10の状態を検出する。例えば、状態検出部13は、移動体10の速度、加速度、舵角、異常の有無及び内容、並びに、その他の移動体搭載機器の状態等の検出をする。
本実施形態では、状態検出部13は、検出処理の結果を示すデータを情報取得部21に供給する。
センサ部14は、移動体10の周囲を観測する。本実施形態では、センサ部14により取得されたセンシング結果が外部情報検出部12及び情報取得部21に出力される。
情報処理装置20は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図18参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC等の任意のコンピュータにより、情報処理装置20を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての操作可能範囲変更部及び仮想視点設定部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
図2に示すように、情報処理装置20は、情報取得部21、地図生成部22、候補平面検出部23、基準点設定部24、操作可能範囲変更部25、仮想視点設定部26、及びGUI(Graphical User Interface)提示部27を有する。
情報取得部21は、種々の情報を取得する。本実施形態では、情報取得部21は、移動体10及びユーザデバイス30から種々の情報を取得する。例えば、移動体10周辺の物体や壁等の障害物に関するセンシング結果が取得される。また例えば、ユーザデバイス30により入力されたユーザ5の操作情報が取得される。
また本実施形態では、情報取得部21は、取得された種々の情報を地図生成部22に供給する。また情報取得部21は、ユーザデバイス30に入力された操作情報を駆動系制御部11に供給する。
地図生成部22は、移動体10の周囲の3次元マップを取得する。本実施形態では、地図生成部22は、情報取得部21により取得されたセンシング結果に基づいて、3次元マップを生成する。例えば、地図生成部22は、SLAM(Simultaneous Localization and Mapping)等により、移動体10の自己位置及び3次元マップを生成してもよい。
具体的には、地図生成部22は、センサ部14より供給される検出結果に基づいて、時系列に供給される時系列情報をデータベースに蓄積すると共に、蓄積した時系列の情報に基づいて、自己位置を推定し、時系列情報自己位置として出力する。
また地図生成部22は、センサ部14より供給される現在の検出結果に基づいて、自己位置を推定し、現在情報自己位置として出力する。そして、地図生成部22は、時系列情報自己位置と、現在情報自己位置とを統合する、または、切り替えることにより自己位置推定結果として出力する。さらに、地図生成部22は、状態検出部13より供給される検出結果に基づいて、移動体10の姿勢を検出し、姿勢の変化が検出されて、自己位置が大きく変化し、時系列情報自己位置の推定精度が低下するとみなされるとき、現在情報自己位置のみから自己位置を推定してもよい。
また地図生成部22は、予め用意された3次元マップを取得してもよい。例えば、移動体10に建物の1階を移動させる場合、該建物の1階の地図が取得されてもよい。
候補平面検出部23は、3次元マップから候補平面を検出する。
候補平面とは、仮想視点又は操作可能範囲を設定するための面である。本実施形態では、地図生成部22により生成された3次元マップ内の所定の面が候補平面として検出される。例えば、3次元マップ内のX平面、Y平面、及びZ平面が候補平面として検出される。また例えば、3次元マップ内の所定の方向を重力方向として設定し、該重力方向と垂直な平面が候補平面として検出される。
また本実施形態では、候補平面検出部23により、検出された候補平面が基準点設定部24及び仮想視点設定部26に供給される。
基準点設定部24は、操作可能範囲の基準となる基準点を設定する。本実施形態では、基準点設定部24は、候補平面検出部23により検出された候補平面に基づいて、基準点を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が基準点として設定される。この場合、候補平面の重心から垂直方向に基準点が設定されてもよいし、ユーザにより候補平面と基準点との距離や位置が設定されてもよい。
本実施形態では、基準点設定部24により設定された基準点の位置情報が操作可能範囲変更部25及び仮想視点設定部26に供給される。
操作可能範囲変更部25は、設定された基準点に基づいて、操作可能範囲のスケールを変更する。本実施形態では、操作可能範囲変更部25は、基準点を中心に球状の操作可能範囲のスケールを変更する。すなわち、操作可能範囲変更部25は、球の半径の大きさを変更する。
また操作可能範囲変更部25は、基準点の位置情報に対して、操作可能範囲のスケールを紐づける。例えば、基準点が候補平面から遠ざかるほど、操作可能範囲のスケールが大きくなるような制御がされてもよい。
仮想視点設定部26は、検出された候補平面に基づいて、仮想視点の位置を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定される。この場合、候補平面の重心から垂直方向に仮想視点が設定されてもよいし、ユーザにより候補平面と仮想視点との距離や位置が設定されてもよい。
また仮想視点設定部26は、操作可能範囲のスケールに対応した仮想視点の位置を設定する。例えば、操作可能範囲のスケールが大きくなるほど、仮想視点の位置が候補平面から遠ざかるように設定されてもよい。同様に基準点の位置情報に対応した仮想視点の位置が設定されてもよい。例えば、設定された基準点から候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定されてもよい。
すなわち、基準点の位置情報に対して、操作可能範囲のスケール及び仮想視点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、基準点が設定されることにより、操作可能範囲のスケール及び仮想視点の位置が一意に決定される。
なお、仮想視点の設定には、VR(Virtual Reality)での仮想的な瞳孔間距離(IPD:Inter pupillary distance)の調整も含まれる。例えば、操作可能領域のスケールの大小に応じて、瞳孔間距離が適宜設定される。
GUI提示部27は、ユーザ5にGUIを提示する。本実施形態では、GUI提示部27は、仮想視点から3次元マップを視認でき、仮想視点及び操作可能範囲を制御できるGUIを提示する。例えば、ユーザ5は、GUIを介して、検出された候補平面を選択し、基準点の位置を設定することが可能である。
またGUI提示部27は、移動体10の経路を生成可能なGUIを提示する。例えば、ユーザ5は、GUIを介して、仮想視点から3次元マップ及び移動体10を観察し、移動体10の現在地から目的地点までの経路を生成することが可能である。
なお、本実施形態において、操作可能範囲変更部25及び仮想視点設定部26は、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップに相当するステップを実行する。
なお、本実施形態において、候補平面検出部23は、現実の空間から仮想視点又は操作可能範囲を設定するための候補平面を検出する検出ステップに相当するステップを実行する。
なお、本実施形態において、基準点設定部24、操作可能範囲変更部25、及び仮想視点設定部26は、現実の空間の大きさに基づいて、仮想視点の位置及び操作可能範囲のスケールを設定する設定ステップに相当するステップを実行する。
なお、本実施形態において、GUI提示部27は、仮想視点及び操作可能範囲を制御可能なGUIを提示する提示ステップに相当するステップを実行する。
なお、本実施形態において、3次元マップは、現実の空間に相当する。
図3は、仮想視点及び操作可能範囲の制御を示すフローチャートである。
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ101)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ102)。例えば、候補平面検出部23は、所定の軸方向(例えばZ軸方向)に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ103)。ユーザ5は、提示された候補平面を選択する(ステップ104)。
基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ105)。例えば、基準点設定部24は、選択されたXY平面の候補平面におけるX座標及びY座標を設定する。また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ106)。すなわち、ステップ105及びステップ106により、基準点が設定される。
なお、ステップ105及びステップ106の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から基準点の2次元の位置が設定されてもよい。
操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ107)。
仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ108)。例えば、仮想視点設定部26は、基準点よりも候補平面から垂直方向に、基準点よりも離れた位置に仮想視点を設定する。
図4は、仮想視点及び操作可能範囲の制御を示す模式図である。図4では、簡略化のため3次元マップが省略されて図示される。
図4Aは、ステップ102を示す模式図である。すなわち、移動体10のセンサ部14により、測定された3次元マップ40から候補平面41が検出される。例えば、3次元マップ内40の所定の方向(重力方向)が設定されることで、重力方向と垂直な平面が候補平面41として検出される。
図4Bは、ステップ103~106を示す模式図である。
ユーザは、検出された候補平面41を選択し、選択された候補平面上で、基準点42の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を基準点42として設定できる。
図4Cは、ステップ107及びステップ108を示す模式図である。
操作可能範囲変更部25により、設定された基準点42に基づいて、操作可能範囲43のスケールが変更される。例えば図4Cでは、基準点32を中心に3次元マップ40を覆うようなスケールの操作可能範囲43が設定される。また仮想視点設定部26により、基準点42から重力方向とは反対方向に所定の距離離れた位置に仮想視点44が設定される。
図5は、設定された仮想視点から新たな仮想視点を設定するための制御を示すフローチャートである。
図3に示すステップ101~ステップ108により、仮想視点の位置及び操作可能範囲のスケールが決定される(ステップ201)。ここで、ステップ201で決定された基準点、仮想視点、及び操作可能範囲を、便宜上、第1の基準点、第1の仮想視点、及び第1の操作可能範囲と記載する。また新たに決定される基準点、仮想視点、及び操作可能範囲を、第2の基準点、第2の仮想視点、及び第2の操作可能範囲と記載する。
操作可能範囲変更部25及び仮想視点設定部26により、第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲が制御される(ステップ202)。具体的な方法は、図6を用いて説明する。
基準点設定部24により、制御された第1の仮想視点及び第1の操作可能範囲から新たな基準点が設定される(ステップ203)。例えば、ユーザ5が選択した位置又は候補平面に基づいて、第2の基準点が設定される。
操作可能範囲変更部25により、第2の操作可能範囲のスケールが変更される(ステップ204)。
仮想視点設定部26により、第2の仮想視点が設定される(ステップ205)。例えば、仮想視点設定部26は、第2の基準点の位置及び操作可能範囲のスケールに基づいて、仮想視点の位置を設定する。
ユーザ5は、第1の仮想視点から第2の仮想視点へ移動することができる。すなわち、第2の仮想視点から3次元マップを視認することが可能となる。
図6は、第2の基準点を設定するための制御例を示す模式図である。図6では、ステップ202の第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲の制御の例を説明する。
図6Aは、第1の操作可能範囲53から第2の基準点54を設定する模式図である。図6Aに示す例は、第1の仮想視点の位置及び第1の操作可能範囲のスケールの制御を実行しない場合の例である。
図6Aに示すように、3次元マップ50内に第1の基準点51、第1の仮想視点52、及び第1の操作可能範囲53が図示される。ユーザ5は、第1の仮想視点52から3次元マップ50を視認しており、第1の操作可能範囲53内をコントローラ32を介して種々の操作が可能である。
本実施形態では、ユーザ5は、コントローラ32を介して第1の操作可能範囲53内に、第2の基準点54を設定する。例えば、ユーザ5は、コントローラ32を持つ手で所定の位置に手を置くことで、該位置を第2の基準点54の座標として設定することができる。
またユーザ5は、設定した第2の基準点54から第2の仮想視点55及び第2の操作可能範囲56を制御する。例えば、ユーザ5は、コントローラ32を介して、第2の仮想視点55及び第2の操作可能範囲56を制御する。具体的には、第2の仮想視点55の位置がコントローラ32を持つ手の位置に設定されてもよい。また第2の操作可能範囲56のスケールが、コントローラ32で円を描く等のコントローラ32を用いた様々な操作により変更されてもよい。
図6Bは、第1の仮想視点及び第1の操作可能範囲を制御する制御例を示す模式図である。また図6Bでは、簡略化のため3次元マップが省略されて図示される。
図6Bに示す例では、ユーザ5の望む第2の基準点64の位置が、第1の操作可能範囲63よりも遠い場合を例とする。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の制御例である。
この場合、仮想視点設定部26により、3次元マップ60全体を俯瞰できるように第1の仮想視点62の位置が設定される。例えば、生成された3次元マップのXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角(ユーザ5の視野)に収まる位置が第1の仮想視点62として設定される。
この場合、第1の基準点61の位置及び第1の操作可能範囲63のスケールは、予め決められた数値に設定される。
ユーザ5は、3次元マップ60全体を俯瞰できるように設定された第1の仮想視点62から、第1の操作可能範囲63内に第2の基準点64を設定する。またユーザ5は、設定した第2の基準点64から第2の仮想視点65及び第2の操作可能範囲66を制御する。
図6Cは、第1の仮想視点及び第1の操作可能範囲を制御する他の制御例を示す模式図である。
図6Cに示す例では、生成された3次元マップ70全体を包含するように第1の操作可能範囲73が変更される。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の他の制御例である。
また図6Cでは、地図生成部22により、直方体の3次元マップ70が生成される。
操作可能範囲変更部25により、生成された3次元マップ70の大きさに基づいて、第1の操作可能範囲73のスケールが変更される。例えば、操作可能範囲変更部25は、生成された3次元マップ70を包含する直方体の体積に基づいて、第1の操作可能範囲73のスケールを変更する。
この場合、第1の基準点71の位置及び第1の仮想視点72の位置は、予め決められた数値に設定される。
ユーザ5は、3次元マップ70全体を包含するように設定された第1の仮想視点72から、第1の操作可能範囲73内に第2の基準点74を設定する。またユーザ5は、設定した第2の基準点74から第2の仮想視点75及び第2の操作可能範囲76を制御する。
なお、第2の基準点を設定するための制御例は限定されず、例えば、生成された3次元マップの重心を第1の基準点とし、予め設定された第1の仮想視点の位置及び第1の操作可能範囲のスケールに制御されてもよい。
図7は、GUIの例を示す模式図である。
図7に示すように、GUI提示部27により、種々のGUIが提示される。図7では、ユーザ5が、地図生成部22により生成された3次元マップを第1の仮想視点から観察している状態の図である。また図7では、ユーザ5に用いられるコントローラ32の位置に対応する箇所に、手の形状をした仮想コントローラが3次元マップに表示される。
図7Aは、仮想視点及び操作可能範囲を制御するための制御GUIの例を示す模式図である。
図7Aに示すように、制御GUI80は、第2の仮想視点及び第2の操作可能範囲を制御するために、検出された候補平面81を提示する。ユーザ5は、仮想コントローラ82を介して、候補平面81を選択することができる。例えば、ユーザ5は、仮想コントローラ82を候補平面81に重畳させるように手(コントローラ32)を動かすことで、候補平面81を選択することができる。
またユーザ5は、選択した候補平面81から第2の基準点83を設定することができる。例えば、選択された候補平面81から仮想コントローラ82を移動させた距離が第2の基準点83の位置となる。同様にユーザ5は、第2の仮想視点84及び第2の操作可能範囲86を制御することが可能である。
なお、仮想視点及び操作可能範囲を制御するための表示及び操作は限定されない。例えば、検出された複数の候補平面が点滅するようにユーザ5に提示されてもよい。また例えば、人差し指を伸ばした状態や手を開いた状態等の仮想コントローラ82の形状ごとに、基準点、仮想視点、及び操作可能範囲の制御が実行されてもよい。
なお、仮想コントローラ82の形状は限定されない。例えば、コントローラ32の形状を模した形状でもよい。
図7Bは、移動体10の経路を生成するための経路GUIの例を示す模式図である。
ユーザ5は、経路GUI85を介して、移動体10の経路86を生成する。例えば、ユーザ5は、仮想コントローラ82を動かした際の軌跡を移動体10の経路として生成する。本実施形態では、ユーザ5の右手を示す仮想コントローラ82により、移動体10の経路が生成される。
なお、経路GUI85を介して移動体10の種々の操作が実行されてもよい。例えば、移動体10に搭載されたカメラの撮影タイミングを設定できてもよい。また例えば、移動体10の速度や飛行パターン等が制御できてもよい。すなわち、旋回や8の字といった、パターンとして規定された軌跡や速度等が制御できる。例えば、旋回や8の字といった飛行パターンに対して、旋回や8の字を行う際の移動体10の速度や曲率等を設定できる。
飛行パターンに関連付けられる速度や姿勢等のパラメータが、デフォルト設定される場合もあり得る。すなわち所定の飛行パターンをどのように移動するかは、デフォルトで設定されていてもよい。
また制御GUI80及び経路GUI85を操作する際の仮想視点は、移動体10に搭載されたカメラの位置に設定されてもよい。その場合、ユーザ5は、カメラの画角から3次元マップ又は実際に撮影される画像を視認できる。また移動体10に搭載されるカメラが360度カメラの場合、ユーザ5の操作に応じて視界を回転させることも可能である。
以上、第1の実施形態に係る情報処理方法は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対するユーザ5により3次元マップに関する操作が実行可能である操作可能範囲7の設定を制御する。これにより、操作における高い直観性を発揮させることが可能となる。
従来、移動体の主観視点での操作は、視界が限られ、移動体の運動特性を理解した上で複雑な操作を行う必要がある。一方、地図を用いた事前の飛行計画は、GPS(Global Positioning System、Global Positioning Satellite)が必要であったり、事前に地図を持っている必要があり、それが適用できる状況が限られる。加えて事前の地図による経路指定は2次元のものが多い。
そこで本技術では、空間内に設定された、ユーザの仮想視点及びユーザの空間に関する操作が実行可能な操作可能範囲が制御される。これにより、予め空間的なマップが得られていない場合でも、3次元の範囲において移動体の経路が指定できる。また仮想視点や操作可能範囲を柔軟に選ぶことが可能となり、指定したい場所の範囲や求められる指定精度を得ることが可能となる。
<第2の実施形態>
本技術に係る第2の実施形態の仮想表現システムについて説明する。これ以降の説明では、上記の実施形態で説明した仮想表現システムにおける構成及び作用と同様な部分については、その説明を省略又は簡略化する。
第1の実施形態では、候補平面から基準点が設定された。第2の実施形態では、候補平面から仮想視点が設定される。また仮想視点が設定された後、操作可能範囲のスケールが変更される。
図8は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ301)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ302)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ303)。ユーザ5は、提示された候補平面を選択する(ステップ304)。
仮想視点設定部26により、選択された候補平面上で仮想視点の2次元の位置が設定される(ステップ305)。例えば、仮想視点設定部26は、選択された候補平面(XY平面)におけるX座標及びY座標を設定する。また仮想視点設定部26により、設定された仮想視点の2次元の位置から所定の距離に垂直方向に移動される(ステップ306)。すなわち、ステップ305及びステップ306により、仮想視点が設定される。
なお、ステップ305及びステップ306の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から仮想視点の2次元の位置が設定されてもよい。
操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲のスケールが変更される(ステップ307)。
基準点設定部24により、仮想視点の位置及び操作可能範囲のスケールに基づいて、基準点の位置が設定される(ステップ308)。例えば、基準点設定部24は、操作可能範囲の中心、もしくは仮想視点の2次元の位置と同じ位置かつ候補平面の垂直方向に所定の距離離れた位置に設定する。
なお、ステップ307及びステップ308の順番は入れ替えてもよい。例えば、操作可能範囲変更部25は、仮想視点の位置と基準点の位置とに基づいて、操作可能範囲を変更してもよい。
なお、仮想視点の位置に対して、操作可能範囲のスケール及び基準点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、仮想視点が設定されることにより、操作可能範囲のスケール及び基準点の位置が一意に決定される。
第1の実施形態では、候補平面として重力方向と垂直な平面が検出された。これに限定されず、3次元マップの任意の面が候補平面として検出されてもよい。
図9は、候補平面の選択の例を示す模式図である。なお図9では、簡略化のため3次元マップが省略されて図示される。
図9Aは、候補平面の検出を示す模式図である。
候補平面検出部23は、3次元マップ90の任意の面を候補平面として検出する。本実施形態では、3次元マップ90の各平面に応じて複数の候補平面が検出される。
図9Bは、仮想視点の位置の設定を示す模式図である。
ユーザは、検出された候補平面91を選択し、選択された候補平面91上で、仮想視点92の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を仮想視点92として設定できる。
図9Cは、操作可能範囲及び基準点の制御を示す模式図である。
操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲93のスケールが変更される。また基準点設定部24により、仮想視点92から候補平面91方向に所定の距離離れた位置に基準点94が設定される。もしくは基準点設定部24により操作可能範囲93の中心に基準点94が設定されてもよい。
図10は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。
図10では、3次元マップにおける所定の方向が選択されることで、候補平面が決定される場合の例である。例えば、重力方向が選択された際に、重力方向とは垂直の平面が自動で選択される場合、ユーザは候補平面を選択する制御を行わなくてよい。
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ401)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
ユーザ5により、3次元マップから所定の方向が選択される(ステップ402)。候補平面検出部23は、選択された所定の方向に基づいて、候補平面を選択する。
基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ403)。
また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ404)。
操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ405)。
仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ406)。
<第3の実施形態>
第1の実施形態では、ユーザ5は、仮想視点から3次元マップを観察し、仮想コントローラを用いることで種々の操作が実行できた。第3の実施形態では、GUI提示部27によりユーザの仮想視点及び仮想コントローラを含む仮想身体が表示されるGUIが提示される。
図11は、仮想身体の設定の制御例を示すフローチャートである。
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ501)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ502)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ503)。ユーザ5は、提示された候補平面を選択する(ステップ504)。
仮想視点設定部26により、選択された候補平面が軸上に移動される(ステップ505)。例えば、ユーザ5により設定された重力方向等の所定の軸に従って、候補平面が軸上に正又は負の方向へ移動される。
また仮想視点設定部26により、移動された候補平面上の仮想身体の頭部(仮想視点)の2次元の位置が指定される(ステップ506)。
操作可能範囲変更部25により、仮想身体の身長が指定される(ステップ507)。
仮想身体は、仮想視点を含む頭部、胴体、両腕、及び両足を有する。特に両腕は、仮想コントローラである両手を含む。例えば、ユーザ5がコントローラを動かすことで、仮想身体の手を操作することができる。すなわち、仮想身体の腕の長さが操作可能範囲のスケールとなる。また仮想身体は、ユーザ5のアバターとも言える。
本実施形態では、仮想身体の身長に基づいて、両腕の長さが予め設定されている。例えば、身長と両腕の長さとが紐づけられたテーブル等が記録され、操作可能範囲変更部25が該テーブルに従い、指定された身長から両腕の長さ(操作可能範囲のスケール)が変更される。もちろんこれに限定されず、例えば、ユーザ5の装着するHMD31の位置とコントローラ32の位置との関係に応じて、仮想身体の身長及び両腕の長さが決定されてもよい。
仮想視点設定部26及び操作可能範囲変更部25により、指定された仮想身体に基づいて、仮想身体が設定される(ステップ508)。
なお、仮想身体の設定の方法は限定されない。例えば、ステップ506の代わりに、候補平面上における仮想身体の立つ位置が指定されてもよい。また例えば、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が所定のアルゴリズムに従い設定されてもよい。また例えば、候補平面の2次元の位置から、仮想身体の頭部の位置が指定されてもよい。
図12は、仮想身体の例を示す模式図である。なお図12では、仮想身体の腰や足等の下半身が省略されて図示される。
図12に示すように、ユーザ5は、候補平面110上の仮想身体111の頭部112の位置を指定する。例えば、ユーザ5により、候補平面110における所定の軸113上に仮想身体111の頭部112の中心が設定される。
ユーザ5は、仮想身体の身長を指定する。例えば、候補平面110に仮想身体111の足が接触するような身長に指定することができる。また本実施形態では、仮想身体の身長が指定されることで、仮想身体の大きさが決定される。例えば、仮想身体116の身長が大きい程、仮想身体116の頭部117、両腕118の長さ等が大きくなるように決定される。同様に、仮想身体111(小さい方)の身長が小さい程、仮想身体111の頭部112、両腕113の長さ等が小さくなるように決定される。
また仮想身体111(116)の目114(119)の位置も、仮想身体の身長に基づいて決定されてもよい。例えば、ユーザ5の装着したHMD31から瞳孔間距離が取得され、HMD31の位置(高さ)と該瞳孔間距離との位置関係から、仮想身体の目(仮想視点)の位置が決定されてもよい。
すなわち、仮想身体の身長に応じた、仮想視点の位置及び操作可能範囲のスケールが紐づけられてもよい。
また仮想身体111(116)の手115(120)は、仮想コントローラの機能を有する。ユーザ5は、仮想身体111(116)の手115(120)を用いて、候補平面の選択や移動体10の経路の生成等が可能となる。
例えば、ユーザ5が腕を最大限に伸ばした際、仮想身体111(116)も腕113(118)を最大限に伸ばす。その際の仮想身体111(116)の腕113(118)の長さがユーザ5の操作可能範囲121となる。この場合、仮想身体の身長に基づいて、操作可能範囲121のスケールが変更される。もちろん、腕が短い(仮想身体の身長が小さい)と操作可能範囲121のスケールも小さくなる。
なお、仮想身体における仮想視点及び操作可能範囲の制御は限定されない。例えば、仮想身体の身長が小さくても、仮想身体の腕が長く設定されてもよい。また例えば、操作可能範囲が仮想身体の腕の長さ以上に設定されてもよい。この場合、ユーザ5が体を傾けることにより、HMD31に搭載されたジャイロセンサ等が体の傾きに関する情報を取得し、仮想身体が同様に傾いてもよい。
図13は、仮想身体から新たな仮想身体を設定するための制御例を示すフローチャートである。
図11に示すステップ501~ステップ508により、仮想身体の身長が決定される(ステップ601)。すなわち、仮想視点の位置、及び操作可能範囲のスケールが決定される。
ここで、ステップ601で決定された仮想身体を、便宜上、第1の仮想身体と記載する。また新たに決定される仮想身体を、第2の仮想身体と記載する。
操作可能範囲変更部25及び仮想視点設定部26により、新たな仮想身体を設定するために、第1の仮想身体が制御される(ステップ602)。
仮想身体を介したユーザ5の操作により、第2の仮想身体の位置が設定される(ステップ603)。具体的な方法は、図14を用いて説明する。
ユーザ5により、第2の仮想身体の身長が指定される(ステップ604)。具体的には、操作可能範囲変更部25及び仮想視点設定部26により、指定された仮想身体の身長に基づいて、仮想視点及び操作可能範囲が制御される。
ユーザ5は、第1の仮想身体から第2の仮想身体へ操作を変更することができる。すなわち、第2の仮想身体を用いて種々の操作が可能となる。
図14は、第2の仮想身体を設定するための制御例を示す模式図である。図14では、ステップ602及びステップ603における具体例を説明する。
図14Aは、候補平面上に仮想身体を設定する場合の模式図である。
図14Aに示すように、ユーザ5は、第1の仮想身体130が指131(仮想コントローラ)で指定した箇所を候補平面132として選択することが可能である。例えば、ユーザ5は、仮想身体130の手131から直線状の位置を候補平面として選択できる。この場合、GUI提示部27により、仮想身体130の手131からレーザポインタのような点線133が射出される様子が提示される。この点線133が3次元マップ内の面と交差することで、候補平面132が選択される。
選択された候補平面からステップ505~ステップ508に従い、第2の仮想身体134が設定される。
図14Bは、候補平面の設定の例を示す模式図である。
図14Bに示すように、ユーザ5は、第1の仮想身体140の手141を用いて候補平面142を生成する事が可能である。例えば、ユーザ5は、仮想身体140の手141で空中に四角を描くように動かした場合、四角を候補平面142として生成できる。
生成された候補平面から第2の仮想身体143の立つ位置及び身長が指定されることで、第2の仮想身体143が設定される。
なお、候補平面を生成する方法は限定されない。例えば、ユーザ5は、コントローラ32を用いて、候補平面生成モードを選択することで、任意の箇所に候補平面を生成する。また例えば、仮想身体の手を広げる等の所定の動作を実行することで、候補平面が生成されてもよい。
図14Cは、第1の仮想身体を制御する制御例を示す模式図である。また図14Cでは、簡略化のため3次元マップが省略されて図示される。
図14Cに示す例では、第1の仮想身体150の手の届かない位置に、第2の仮想身体を設定する場合を例とする。
図14Cに示すように、3次元マップ150全体を俯瞰できるように第1の仮想身体が制御される。例えば、仮想視点設定部26により、生成された3次元マップ150のXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角に収まる位置が第1の仮想身体151の目の位置(仮想視点の位置)として設定される。また例えば、操作可能範囲変更部25により、生成された3次元マップ150を包含する直方体の体積に基づいて、第1の仮想身体の腕の長さ(操作可能範囲のスケール)が設定されてもよい。
ユーザ5は、制御された第1の仮想身体151を介して、第2の仮想身体152を設定する。例えば、第1の仮想身体151の手により指定された箇所が候補平面又は第2の仮想身体152の頭部の位置として設定されてもよい。
図14Dは、第1の仮想身体を制御する制御例を示す模式図である。
図14Dでは、第1の仮想身体161の腕が3次元マップ160全体に届くように、第1の仮想身体161が拡大される。具体的には、操作可能範囲変更部25により、3次元マップ160の大きさに基づいて、操作可能範囲のスケールが変更される。すなわち、第1の仮想身体161の腕の長さが変更される。また変更された第1の仮想身体161の腕の長さに基づいて、第1の仮想身体161の身長が決定される。
この場合、制御された第1の仮想身体161の一部が3次元マップ160と干渉してもよい。例えば、図14Dでは、第1の仮想身体161の下半身が3次元マップ160を貫通るように描写(表現)されてもよい。
ユーザ5は、制御された第1の仮想身体161を介して、第2の仮想身体162を設定する。
ここで、仮想身体による操作時の位置を決定するアルゴリズムの一例を示す。なお、本アルゴリズムにおける位置とは、ユーザの目の位置及び仮想視点の位置、又はコントローラの位置及び仮想コントローラの位置を示す。
仮想身体が設定される際に、その時点の現実におけるユーザの位置Pr0、その時点の3次元マップにおけるユーザの位置Pv0、及び仮想身体のスケールSが決定される。
またユーザが、手を動かす、移動する等の仮想身体を操作した際に、現在の現実におけるユーザの位置Prc、及び現在の3次元マップにおけるユーザの位置Pvcが計測される。
仮想身体のスケールとは、設定された仮想身体の倍率を示す。例えば、ユーザの身長を1とした場合の、設定された仮想身体の身長がSとなる。具体的には、ユーザが170cmの場合に、仮想身体の身長が340cmに拡大された時は、スケールが2となる。
ここで、現在の3次元マップにおけるユーザの位置Pvcを求める式は、下記のように表す。
Pvc=S×(Prc-Pr0)+Pv0
上記の式が、レンダリングされた毎フレームごとに実行される。これにより、ユーザ5のコントローラ32の操作と連動して、仮想コントローラの操作が可能となる。
これにより、3次元マップ等の仮想的な空間であっても、直感的な操作が可能となる。
また操作可能範囲がユーザの持つコントローラの届く範囲、すなわち、ユーザの手の届く範囲に設定されるため、人間の身体的な空間把握能力を利用することができる。このため、3次元的な位置姿勢の指定を、少ない手数で正確に学習コストも低く実行できる。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記の実施形態では、仮想視点が仮想身体の目、操作可能範囲が仮想身体の腕の長さとして用いられた。これに限定されず、基準点の座標が仮想身体の腰の位置として設定されてもよい。
上記の実施形態では、仮想視点が操作可能範囲内に設定された。これに限定されず、仮想視点は操作可能範囲外の任意の位置に設定されてもよい。
上記の実施形態では、重力方向に基づく候補平面上に仮想身体が設定された。これに限定されず、任意の候補平面上に仮想身体が設定されてもよい。例えば、仮想身体が壁や天井に両足が接触するように設定されてもよい。この場合、ユーザは、3次元マップの天井を仮想視点から見る際に、見上げる必要がなくなる。すなわち、ユーザへの身体的な負担を減らすことが可能となる。
上記の実施形態では、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が決定された。これに限定されず、3次元マップの大きさに基づいて、仮想身体が決定されてもよい。
図15は、仮想身体の設定例を示す模式図である。
図15に示すように、地図生成部22は、移動体10に搭載されたセンサ部14により取得されたセンシング結果に基づいて、3次元マップ170を生成する。
候補平面検出部23は、3次元マップ170を包含する候補平面171を検出する。例えば、候補平面検出部23は、3次元マップのXY平面、YZ平面、又はXZ平面における面積に基づいて、候補平面171を検出する。
基準点設定部24は、検出された候補平面の重心に基準点を設定する。本実施形態では、設定された基準点の座標を仮想身体の腰の高さとする。
操作可能範囲変更部25は、3次元マップ170の大きさに基づいて、操作可能範囲を変更する。例えば、操作可能範囲変更部25は、仮想身体172の両腕173を広げた状態から一歩移動した際の、仮想身体の手が届くまでの長さを操作可能範囲174として設定する。
設定された仮想身体の腰の高さ及び腕の長さから、仮想身体172の身長が決定される。
上記の実施形態では、候補平面から基準点、仮想視点、及び操作可能範囲が制御された。これに限定されず、ユーザが指定した領域が操作可能範囲となるように制御されてもよい。
図16は、仮想視点及び操作可能範囲の制御の他の例を示す模式図である。
図16に示すように、ユーザ5は、地図生成部22により生成された3次元マップ180内に、操作を行いたい領域181を指定する。
操作可能範囲変更部25は、指定された領域181が含まれるように、操作可能範囲182のスケールを変更する。例えば、領域181を底面とした円筒の長軸と一致するように操作可能範囲182のスケールが変更される。
基準点設定部24は、変更された操作可能範囲182に基づいて、基準点183を設定する。例えば、基準点設定部24は、操作可能範囲182の中心を基準点183として設定する。
仮想視点設定部26は、操作可能範囲182のスケール及び基準点の位置に基づいて、仮想視点184の位置を設定する。
または指定された領域181に仮想身体の手が届くように仮想身体の身長が決定されてもよい。この場合、操作可能範囲変更部25により変更された操作可能範囲182のスケールが仮想身体の腕の長さとなる。また基準点設定部24により設定された基準点183の位置が仮想身体の腰の高さとなる。また仮想視点設定部26により設定された仮想視点184の位置が仮想身体の頭部となる。
上記の実施形態では、3次元マップが地図生成部22により生成された。これに限定されず、移動体10に地図生成部22が搭載されてもよい。すなわち、移動体10により3次元マップが生成され、該3次元マップが情報処理装置20に供給されてもよい。
上記の実施形態では、仮想身体が用いられユーザ5の操作や仮想視点のイメージが表現された。これに限定されず、任意の表現が行われてもよい。例えば、仮想視点と同じ高さ(同じZ座標)を飛ぶ鳥の視点から3次元マップを観察できてもよい。
上記の実施形態では、ユーザデバイス30としてHMD31が用いられた。これに限定されず、AR(Augmented Reality)グラスやスマートフォン、タブレット端末等の形態端末が用いられてもよい。
図17は、HMD31の外観を示す模式図である。図17AはHMD31の外観を模式的に示す斜視図であり、図17BはHMD31を分解した様子を模式的に示す斜視図である。
HMD31は、基体部190と、装着バンド部191と、ヘッドフォン部192と、前方カメラ193と、ディスプレイユニット194と、カバー部195とを有する。
基体部190は、ユーザの左右の眼の前方に配置される部材であり、ユーザの前頭部と当接される前頭支持部196が設けられる。
装着バンド部191は、ユーザの頭部に装着される。図8に示すように、装着バンド部191は、側頭バンド197と、頭頂バンド198とを有する。側頭バンド197は、基体部190に接続され、側頭部から後頭部にかけてユーザの頭部を囲むように装着される。頭頂バンド198は、側頭バンド197に接続され、側頭部から頭頂部にかけてユーザの頭部を囲むように装着される。
ヘッドフォン部192は、基体部190に接続され、ユーザの左右の耳を覆うように配置される。ヘッドフォン部192には、左用及び右用のスピーカが設けられる。ヘッドフォン部192の位置は、手動又は自動により制御可能となっている。そのための構成は限定されず、任意の構成が採用されてよい。
前方カメラ193は、ユーザの前方側の実空間を撮像することが可能なステレオカメラとして設けられる。前方カメラ193により、実空間が撮像されたカメラ画像を生成することが可能である。
ディスプレイユニット195は、基体部190に挿入され、ユーザの眼の前方に配置される。ディスプレイユニット195の内部には、ディスプレイが配置される。ディスプレイとしては、例えば液晶、EL(Electro-Luminescence)等を用いた任意の表示デバイスが用いられてよい。またディスプレイユニット195には、ディスプレイにより表示された画像をユーザの左右の眼に導くレンズ系(図示は省略)が配置される。
カバー部196は、基体部190に取付けられ、ディスプレイユニット195を覆うように構成される。このように構成されたHMD31は、ユーザの視野を覆うように構成された没入型のヘッドマウントディスプレイとして機能する。例えばHMD31により、3次元的な仮想空間が表示される。ユーザはHMD31を装着することで、仮想現実(VR)等を体験することが可能となる。
図18は、情報処理装置20のハードウェア構成例を示すブロック図である。
情報処理装置20は、CPU201、ROM202、RAM203、入出力インタフェース205、及びこれらを互いに接続するバス204を備える。入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。
表示部206は、例えば液晶、EL等を用いた表示デバイスである。入力部207は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。
記憶部208は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部210は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。
通信部209は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、情報処理装置20とは別体で使用される場合が多い。
本実施形態では、通信部209により、ネットワークを介した他の装置との通信が可能となる。
上記のようなハードウェア構成を有する情報処理装置20による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、情報処理装置20のハードウェア資源との協働により実現される。具体的には、ROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより、本技術に係る情報処理方法が実現される。
プログラムは、例えば記録媒体211を介して情報処理装置20にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置20にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、プログラム、及びシステムが実行され、本技術に係る情報処理装置が構築されてもよい。
すなわち本技術に係る情報処理方法、プログラム、及びシステムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理方法、プログラム、及びシステムの実行は、例えば、候補平面の検出、操作可能範囲の変更、及び仮想視点の設定等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理方法、プログラム、及びシステムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
各図面を参照して説明した候補平面検出部、操作可能範囲変更部、仮想視点設定部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムが実行する情報処理方法。
(2)(1)に記載の情報処理方法であって、
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
情報処理方法。
(3)(1)又は(2)に記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールを変更する
情報処理方法。
(4)(1)から(3)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
情報処理方法。
(5)(4)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
情報処理方法。
(6)(4)又は(5)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
情報処理方法。
(7)(6)に記載の情報処理方法であって、
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
情報処理方法。
(8)(6)に記載の情報処理方法であって、さらに、
前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
情報処理方法。
(9)(4)に記載の情報処理方法であって、
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
情報処理方法。
(10)(1)から(9)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(11)(1)から(10)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
情報処理方法。
(12)(1)から(11)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
情報処理方法。
(13)(12)に記載の情報処理方法であって、
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
情報処理方法。
(14)(12)又は(13)に記載の情報処理方法であって、
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
情報処理方法。
(15)(1)から(14)のうちいずれか1つに記載の情報処理方法であって、
前記現実の空間は、センサにより作成される3次元マップである
情報処理方法。
(16)(15)に記載の情報処理方法であって、
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(17)(15)に記載の情報処理方法であって、
前記センサは、移動体に搭載される
情報処理方法。
(18)(17)に記載の情報処理方法であって、
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
情報処理方法。
(19)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムに実行させるプログラム。
(20)
現実の空間内を移動する移動体と、
前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
を具備する情報処理システム。
5…ユーザ
6…仮想視点
7…操作可能範囲
10…移動体
14…センサ部
20…情報処理装置
23…候補平面検出部
24…基準点設定部
25…操作可能範囲変更部
26…仮想視点設定部
100…仮想表現システム

Claims (20)

  1. 現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
    をコンピュータシステムが実行する情報処理方法。
  2. 請求項1に記載の情報処理方法であって、
    前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
    情報処理方法。
  3. 請求項1に記載の情報処理方法であって、
    前記制御ステップは、前記操作可能範囲のスケールを変更する
    情報処理方法。
  4. 請求項1に記載の情報処理方法であって、さらに、
    前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
    情報処理方法。
  5. 請求項4に記載の情報処理方法であって、
    前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
    情報処理方法。
  6. 請求項4に記載の情報処理方法であって、
    前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
    情報処理方法。
  7. 請求項6に記載の情報処理方法であって、
    前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
    情報処理方法。
  8. 請求項6に記載の情報処理方法であって、さらに、
    前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
    前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
    情報処理方法。
  9. 請求項4に記載の情報処理方法であって、
    前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
    情報処理方法。
  10. 請求項1に記載の情報処理方法であって、
    前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
    情報処理方法。
  11. 請求項1に記載の情報処理方法であって、
    前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
    情報処理方法。
  12. 請求項1に記載の情報処理方法であって、さらに、
    前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
    情報処理方法。
  13. 請求項12に記載の情報処理方法であって、
    前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
    前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
    情報処理方法。
  14. 請求項12に記載の情報処理方法であって、
    前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
    情報処理方法。
  15. 請求項1に記載の情報処理方法であって、
    前記現実の空間は、センサにより作成される3次元マップである
    情報処理方法。
  16. 請求項15に記載の情報処理方法であって、
    前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
    情報処理方法。
  17. 請求項15に記載の情報処理方法であって、
    前記センサは、移動体に搭載される
    情報処理方法。
  18. 請求項17に記載の情報処理方法であって、
    前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
    情報処理方法。
  19. 現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
    をコンピュータシステムに実行させるプログラム。
  20. 現実の空間内を移動する移動体と、
    前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
    を具備する情報処理システム。
JP2020122143A 2020-07-16 2020-07-16 情報処理方法、プログラム、及びシステム Pending JP2023117420A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020122143A JP2023117420A (ja) 2020-07-16 2020-07-16 情報処理方法、プログラム、及びシステム
US18/002,663 US20230245397A1 (en) 2020-07-16 2021-07-07 Information processing method, program, and system
PCT/JP2021/025582 WO2022014429A1 (ja) 2020-07-16 2021-07-07 情報処理方法、プログラム、及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122143A JP2023117420A (ja) 2020-07-16 2020-07-16 情報処理方法、プログラム、及びシステム

Publications (1)

Publication Number Publication Date
JP2023117420A true JP2023117420A (ja) 2023-08-24

Family

ID=79554804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122143A Pending JP2023117420A (ja) 2020-07-16 2020-07-16 情報処理方法、プログラム、及びシステム

Country Status (3)

Country Link
US (1) US20230245397A1 (ja)
JP (1) JP2023117420A (ja)
WO (1) WO2022014429A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2363775A1 (en) * 2000-05-01 2011-09-07 iRobot Corporation Method and system for remote control of mobile robot
JP6018480B2 (ja) * 2012-11-05 2016-11-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP6290754B2 (ja) * 2014-09-11 2018-03-07 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
JP6387782B2 (ja) * 2014-10-17 2018-09-12 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING
CN109997091B (zh) * 2016-12-01 2022-08-09 深圳市大疆创新科技有限公司 用于管理3d飞行路径的方法和相关系统

Also Published As

Publication number Publication date
WO2022014429A1 (ja) 2022-01-20
US20230245397A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
US9947230B2 (en) Planning a flight path by identifying key frames
US9928649B2 (en) Interface for planning flight path
EP3430498B1 (en) Virtual object pathing
US10754496B2 (en) Virtual reality input
KR102236339B1 (ko) 이미징 기기로 캡처한 이미지를 제어하기 위한 시스템 및 방법
US9361732B2 (en) Transitions between body-locked and world-locked augmented reality
US10627860B2 (en) Headset computer that uses motion and voice commands to control information display and remote devices
CA3062101A1 (en) Systems and methods for remotely controlling a robotic device
KR20160148557A (ko) 월드 락 디스플레이의 품질 피드백 기법
WO2017213070A1 (ja) 情報処理装置および方法、並びに記録媒体
CN113448343B (zh) 用于设定飞行器的目标飞行路径的方法、系统和可读介质
US10377487B2 (en) Display device and display control method
JP2018526716A (ja) 媒介現実
JP2023126474A (ja) 拡張現実のためのシステムおよび方法
Chen et al. Pinpointfly: An egocentric position-control drone interface using mobile ar
JP2021060627A (ja) 情報処理装置、情報処理方法、およびプログラム
CN113677412B (zh) 信息处理装置、信息处理方法和程序
WO2022014429A1 (ja) 情報処理方法、プログラム、及びシステム
KR20220165948A (ko) 원격 협업 방법 및 그 시스템
KR20180060403A (ko) 영상 기반의 드론 제어장치
US20230214004A1 (en) Information processing apparatus, information processing method, and information processing program
WO2023021757A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023172180A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20240071359A (ko) 원격 협업 방법 및 그 시스템
JP2023083072A (ja) 方法、システムおよびプログラム