JP2023117420A - Information processing method, program, and system - Google Patents
Information processing method, program, and system Download PDFInfo
- Publication number
- JP2023117420A JP2023117420A JP2020122143A JP2020122143A JP2023117420A JP 2023117420 A JP2023117420 A JP 2023117420A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2023117420 A JP2023117420 A JP 2023117420A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing method
- virtual viewpoint
- operable range
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 119
- 238000003672 processing method Methods 0.000 title claims abstract description 88
- 238000001514 detection method Methods 0.000 claims description 36
- 238000010586 diagram Methods 0.000 description 39
- 238000005516 engineering process Methods 0.000 description 22
- 230000005484 gravity Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 210000003128 head Anatomy 0.000 description 12
- 238000000034 method Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000001936 parietal effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Abstract
Description
本技術は、仮想表現等に適用可能な情報処理方法、プログラム、及びシステムに関する。 The present technology relates to an information processing method, program, and system applicable to virtual representation and the like.
特許文献1に記載の映像表示システムは、設定された測定対象と観察視点との実位置関係が同じ位置関係となる仮想現実映像を表示する。実空間で観察された測定対象の長さと仮想現実で観察された測定対象の長さとの相違が入力される。入力された値に基づいて、仮想現実映像を拡大又は縮小させる比率が演算され、仮想現実映像が拡大又は縮小される。これにより、観察者の印象と映像内の物体の印象との乖離を解消した仮想現実映像を表示することが開示されている(特許文献1の段落[0032]~[0035]図7等)。 The image display system described in Patent Literature 1 displays a virtual reality image in which the set measurement object and the observation viewpoint have the same actual positional relationship. A difference between the length of the object observed in real space and the length of the object observed in virtual reality is input. A ratio for enlarging or reducing the virtual reality image is calculated based on the input value, and the virtual reality image is enlarged or reduced. Thus, it is disclosed to display a virtual reality image in which the difference between the impression of the observer and the impression of the object in the image is eliminated (paragraphs [0032] to [0035] FIG. 7 of Patent Document 1, etc.).
このような仮想表現に関して、操作における高い直観性を発揮可能な技術が求められている。 There is a demand for a technology capable of exhibiting high intuitiveness in operations for such virtual representations.
以上のような事情に鑑み、本技術の目的は、操作における高い直観性を発揮させることが可能な情報処理方法、プログラム、及びシステムを提供することにある。 In view of the circumstances as described above, an object of the present technology is to provide an information processing method, a program, and a system capable of exhibiting high intuition in operation.
上記目的を達成するため、本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御することを含む。 In order to achieve the above object, an information processing method according to an embodiment of the present technology is an information processing method executed by a computer system, which includes setting a user's virtual viewpoint for a real space, and setting a user's virtual viewpoint for the real space. and controlling the setting of the operable range in which the operation related to the real space is executable.
この情報処理方法では、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定が制御される。これにより、操作における高い直観性を発揮させることが可能となる。 In this information processing method, the setting of the user's virtual viewpoint for the real space and the setting of the operable range in which the user can perform an operation regarding the real space are controlled. This makes it possible to exhibit high intuition in operation.
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定してもよい。 The control step may set a first virtual viewpoint within the real space, and set a second virtual viewpoint different from the first virtual viewpoint within the operable range.
前記制御ステップは、前記操作可能範囲のスケールを変更してもよい。 The controlling step may change a scale of the operable range.
前記情報処理方法は、さらに、前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含んでもよい。 The information processing method may further include a detection step of detecting candidate planes for setting the virtual viewpoint or the operable range from the real space.
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定してもよい。 The control step may set a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定してもよい。 The control step may set a position a predetermined distance away from the detected candidate plane as a reference point that serves as a reference of the operable range.
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御してもよい。 The control step may control the virtual viewpoint or the operable range based on the set reference point.
前記情報処理方法は、さらに、前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含んでもよい。この場合、前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更してもよい。 The information processing method may further include a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space. In this case, the control step may change the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出してもよい。 The detecting step may detect the candidate plane based on a predetermined axis of the real space.
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更してもよい。 The control step may change the scale of the operable range based on the position of the virtual viewpoint.
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定してもよい。 The control step may set the position of the virtual viewpoint based on the scale of the operable range.
前記情報処理方法は、さらに、前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含んでもよい。 The information processing method may further include a presentation step of presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示してもよい。この場合、前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能であってもよい。 The presenting step may present a virtual viewpoint image when the user views the real space from the virtual viewpoint. In this case, the GUI can set a first virtual viewpoint within the real space and set a second virtual viewpoint different from the first virtual viewpoint within the operable range. may
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能であってもよい。 The GUI may be capable of setting the candidate plane within the operable range.
前記現実の空間は、センサにより作成される3次元マップであってもよい。 The real space may be a three-dimensional map created by sensors.
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更してもよい。 The control step may change the scale of the operable range based on the three-dimensional map created by the sensor.
前記センサは、移動体に搭載されてもよい。 The sensor may be mounted on a mobile object.
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能であってもよい。 The GUI may be capable of generating a route along which the moving body travels according to the user's operation.
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ。
A program according to an embodiment of the present technology causes a computer system to execute the following steps.
A control step of controlling the setting of a user's virtual viewpoint with respect to the real space and the setting of an operable range in which the user can perform an operation with respect to the real space.
本技術の一形態に係る情報処理システムは、移動体と、情報処理装置とを具備する。
前記移動体は、現実の空間内を移動する。
前記情報処理装置は、前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する。
An information processing system according to one embodiment of the present technology includes a mobile body and an information processing device.
The mobile body moves in the real space.
The information processing device has a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation regarding the real space. .
以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
<第1の実施形態>
図1は、本技術の第1の実施形態に係る仮想表現システムの外観を模式的に示す図である。
図1に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。移動体10、情報処理装置20、及びユーザデバイス30は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
<First Embodiment>
FIG. 1 is a diagram schematically showing the appearance of a virtual representation system according to a first embodiment of the present technology.
As shown in FIG. 1 , the
移動体10は、例えば、自律飛行が可能なドローンである。
本実施形態では、移動体10は、周囲を観測可能なセンサ部14を有する。例えば、センサ部14は、ステレオカメラ、デジタルカメラ、単眼カメラ等の撮像装置を含む。また例えば、センサ部14は、移動体10の360度を撮影可能な360度カメラやステレオカメラが前後左右上下(各々異なる方向)に配置されてもよい。これ以外にも、ToF(Time of Flight)センサ、レーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
なお、移動体10はドローンに限定されず、例えば、車輪型のロボット、多足歩行型のロボット、及び多関節構造を有する脚部を備えるロボットでもよい
The
In this embodiment, the
Note that the
また本実施形態では、移動体10に搭載されたセンサ部14のセンシング結果が情報処理装置20に供給される。
Further, in this embodiment, the sensing result of the
情報処理装置20は、移動体10から供給されたセンシング結果に基づいて、移動体10の周囲の3次元マップを生成する。
3次元マップとは、移動体10の周囲の環境を表示する立体的な地図である。例えば、図1では、情報処理装置20により、人1、車2、及び歩道橋3を含む3次元マップが生成される。
なお、3次元マップを生成する方法は限定されない。例えば、CAD(Computer Aided Design)等が用いられてもよい。
The
A three-dimensional map is a three-dimensional map that displays the environment around the
Note that the method of generating the three-dimensional map is not limited. For example, CAD (Computer Aided Design) or the like may be used.
また情報処理装置20は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対する操作可能範囲7の設定を制御する。本実施形態では、情報処理装置20は、ユーザ5の操作に応じて、仮想視点6の位置の設定、及び操作可能範囲7のスケールを変更する。
仮想視点とは、3次元マップ内の任意の場所(座標)に設定されるユーザ5の仮想的な視点である。例えば、ユーザ5は、設定した仮想視点6から、移動体10や歩道橋3を俯瞰的に見ることが可能である。
操作可能範囲とは、3次元マップ内のユーザ5の3次元マップに関する操作が及ぶ範囲である。また操作可能範囲のスケールとは、操作可能範囲の体積や面積等の大きさ、円、円筒、直方体等の形状を含む。
ユーザの操作とは、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の移動する経路の生成を含む。
なお、操作可能範囲7のスケールは限定されず、任意の大きさ及び形状に設定されてもよい。
The
A virtual viewpoint is a virtual viewpoint of the user 5 set at an arbitrary location (coordinates) within the three-dimensional map. For example, the user 5 can see the
The operable range is a range within which the user 5 can operate the 3D map. Also, the scale of the operable range includes the size of the operable range such as volume and area, and the shape of a circle, cylinder, rectangular parallelepiped, and the like.
The user's operation includes setting the
Note that the scale of the
ユーザデバイス30は、ユーザ5により操作される端末である。本実施形態では、ユーザデバイス30は、VRヘッドセット等のHMD31(Head Mounted Display)及びコントローラ32が用いられる。
HMD31は、例えば、ユーザ5の姿勢や眼の位置、視線等を検出できる各種センサを有する。
コントローラ32は、例えば、ボタンやユーザ5の操作による加速度及び角速度等を検出する慣性計測装置(IMU)等を搭載する。
ユーザ5は、HMD31を介して仮想視点6から3次元マップを視認可能である。またユーザ5は、コントローラ32を介して、操作可能範囲7内における、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の経路の生成が可能である。
例えば、ユーザ5は、コントローラ32を握る右手を動かした際の軌跡を移動体10の経路として生成することが可能である。また例えば、ユーザ5の手の位置を新たな仮想視点として設定することが可能である。すなわち、操作可能範囲7とは、コントローラ32を握るユーザ5の手の届く距離ともいえる。
The
The
The user 5 can visually recognize the 3D map from the
For example, the user 5 can generate the trajectory of the moving
図2は、仮想表現システム100の機能的な構成例を示すブロック図である。
図2に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。
FIG. 2 is a block diagram showing a functional configuration example of the
As shown in FIG. 2 , the
移動体10は、駆動系制御部11、外部情報検出部12、状態検出部13、及びセンサ部14を有する。
The moving
駆動系制御部11は、移動体10の各種の制御信号を生成し、移動体10の駆動系に関わる各種の装置の制御を行う。
例えば、移動体10は、4本の足の各関節に備わった角度やトルクを指定可能なサーボモータ、ロボット自体の移動の動きを4本の足の動きに分解・置換するモーションコントローラ並びに、各モータ内のセンサや足裏面のセンサによるフィードバック制御装置を備える。
また例えば、移動体10は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備えてもよい。
The driving
For example, the moving
Further, for example, the moving
外部情報検出部12は、センサ部14のセンシング結果に基づいて、移動体10の外部の情報の検出処理を行う。例えば、外部情報検出部12は、移動体10の周囲の物体の検出処理、認識処理、及び追跡処理、並びに、物体までの距離の検出処理を行う。
また例えば、外部情報検出部12は、移動体10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び路面の状態等が含まれる。
本実施形態では、外部情報検出部12は、検出処理の結果を示すデータを情報取得部21に供給する。
The external
Further, for example, the external
In this embodiment, the external
状態検出部13は、駆動系制御部11からのデータ又は信号に基づいて、移動体10の状態を検出する。例えば、状態検出部13は、移動体10の速度、加速度、舵角、異常の有無及び内容、並びに、その他の移動体搭載機器の状態等の検出をする。
本実施形態では、状態検出部13は、検出処理の結果を示すデータを情報取得部21に供給する。
The
In this embodiment, the
センサ部14は、移動体10の周囲を観測する。本実施形態では、センサ部14により取得されたセンシング結果が外部情報検出部12及び情報取得部21に出力される。
The
情報処理装置20は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図18参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC等の任意のコンピュータにより、情報処理装置20を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての操作可能範囲変更部及び仮想視点設定部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
The
For example, the
In the present embodiment, the operable range changing unit and the virtual viewpoint setting unit are configured as functional blocks by the CPU executing a predetermined program. Of course, dedicated hardware such as an IC (integrated circuit) may be used to implement the functional blocks.
The program is installed in the
The type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any computer-readable non-transitory storage medium may be used.
図2に示すように、情報処理装置20は、情報取得部21、地図生成部22、候補平面検出部23、基準点設定部24、操作可能範囲変更部25、仮想視点設定部26、及びGUI(Graphical User Interface)提示部27を有する。
As shown in FIG. 2, the
情報取得部21は、種々の情報を取得する。本実施形態では、情報取得部21は、移動体10及びユーザデバイス30から種々の情報を取得する。例えば、移動体10周辺の物体や壁等の障害物に関するセンシング結果が取得される。また例えば、ユーザデバイス30により入力されたユーザ5の操作情報が取得される。
また本実施形態では、情報取得部21は、取得された種々の情報を地図生成部22に供給する。また情報取得部21は、ユーザデバイス30に入力された操作情報を駆動系制御部11に供給する。
The
In addition, in the present embodiment, the
地図生成部22は、移動体10の周囲の3次元マップを取得する。本実施形態では、地図生成部22は、情報取得部21により取得されたセンシング結果に基づいて、3次元マップを生成する。例えば、地図生成部22は、SLAM(Simultaneous Localization and Mapping)等により、移動体10の自己位置及び3次元マップを生成してもよい。
具体的には、地図生成部22は、センサ部14より供給される検出結果に基づいて、時系列に供給される時系列情報をデータベースに蓄積すると共に、蓄積した時系列の情報に基づいて、自己位置を推定し、時系列情報自己位置として出力する。
また地図生成部22は、センサ部14より供給される現在の検出結果に基づいて、自己位置を推定し、現在情報自己位置として出力する。そして、地図生成部22は、時系列情報自己位置と、現在情報自己位置とを統合する、または、切り替えることにより自己位置推定結果として出力する。さらに、地図生成部22は、状態検出部13より供給される検出結果に基づいて、移動体10の姿勢を検出し、姿勢の変化が検出されて、自己位置が大きく変化し、時系列情報自己位置の推定精度が低下するとみなされるとき、現在情報自己位置のみから自己位置を推定してもよい。
また地図生成部22は、予め用意された3次元マップを取得してもよい。例えば、移動体10に建物の1階を移動させる場合、該建物の1階の地図が取得されてもよい。
The
Specifically, based on the detection results supplied from the
The
The
候補平面検出部23は、3次元マップから候補平面を検出する。
候補平面とは、仮想視点又は操作可能範囲を設定するための面である。本実施形態では、地図生成部22により生成された3次元マップ内の所定の面が候補平面として検出される。例えば、3次元マップ内のX平面、Y平面、及びZ平面が候補平面として検出される。また例えば、3次元マップ内の所定の方向を重力方向として設定し、該重力方向と垂直な平面が候補平面として検出される。
また本実施形態では、候補平面検出部23により、検出された候補平面が基準点設定部24及び仮想視点設定部26に供給される。
The candidate
A candidate plane is a plane for setting a virtual viewpoint or an operable range. In this embodiment, a predetermined plane within the three-dimensional map generated by the
Further, in the present embodiment, the candidate planes detected by the candidate
基準点設定部24は、操作可能範囲の基準となる基準点を設定する。本実施形態では、基準点設定部24は、候補平面検出部23により検出された候補平面に基づいて、基準点を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が基準点として設定される。この場合、候補平面の重心から垂直方向に基準点が設定されてもよいし、ユーザにより候補平面と基準点との距離や位置が設定されてもよい。
本実施形態では、基準点設定部24により設定された基準点の位置情報が操作可能範囲変更部25及び仮想視点設定部26に供給される。
The reference
In this embodiment, the positional information of the reference point set by the reference
操作可能範囲変更部25は、設定された基準点に基づいて、操作可能範囲のスケールを変更する。本実施形態では、操作可能範囲変更部25は、基準点を中心に球状の操作可能範囲のスケールを変更する。すなわち、操作可能範囲変更部25は、球の半径の大きさを変更する。
また操作可能範囲変更部25は、基準点の位置情報に対して、操作可能範囲のスケールを紐づける。例えば、基準点が候補平面から遠ざかるほど、操作可能範囲のスケールが大きくなるような制御がされてもよい。
The operable
Further, the operable
仮想視点設定部26は、検出された候補平面に基づいて、仮想視点の位置を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定される。この場合、候補平面の重心から垂直方向に仮想視点が設定されてもよいし、ユーザにより候補平面と仮想視点との距離や位置が設定されてもよい。
また仮想視点設定部26は、操作可能範囲のスケールに対応した仮想視点の位置を設定する。例えば、操作可能範囲のスケールが大きくなるほど、仮想視点の位置が候補平面から遠ざかるように設定されてもよい。同様に基準点の位置情報に対応した仮想視点の位置が設定されてもよい。例えば、設定された基準点から候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定されてもよい。
すなわち、基準点の位置情報に対して、操作可能範囲のスケール及び仮想視点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、基準点が設定されることにより、操作可能範囲のスケール及び仮想視点の位置が一意に決定される。
なお、仮想視点の設定には、VR(Virtual Reality)での仮想的な瞳孔間距離(IPD:Inter pupillary distance)の調整も含まれる。例えば、操作可能領域のスケールの大小に応じて、瞳孔間距離が適宜設定される。
The virtual
The virtual
That is, a table in which the scale of the operable range and the position of the virtual viewpoint are associated with the position information of the reference point may be prepared in advance. In this case, by setting the reference point, the scale of the operable range and the position of the virtual viewpoint are uniquely determined.
The setting of the virtual viewpoint includes adjustment of a virtual inter-pupillary distance (IPD) in VR (Virtual Reality). For example, the interpupillary distance is appropriately set according to the size of the scale of the operable region.
GUI提示部27は、ユーザ5にGUIを提示する。本実施形態では、GUI提示部27は、仮想視点から3次元マップを視認でき、仮想視点及び操作可能範囲を制御できるGUIを提示する。例えば、ユーザ5は、GUIを介して、検出された候補平面を選択し、基準点の位置を設定することが可能である。
またGUI提示部27は、移動体10の経路を生成可能なGUIを提示する。例えば、ユーザ5は、GUIを介して、仮想視点から3次元マップ及び移動体10を観察し、移動体10の現在地から目的地点までの経路を生成することが可能である。
The
Also, the
なお、本実施形態において、操作可能範囲変更部25及び仮想視点設定部26は、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップに相当するステップを実行する。
なお、本実施形態において、候補平面検出部23は、現実の空間から仮想視点又は操作可能範囲を設定するための候補平面を検出する検出ステップに相当するステップを実行する。
なお、本実施形態において、基準点設定部24、操作可能範囲変更部25、及び仮想視点設定部26は、現実の空間の大きさに基づいて、仮想視点の位置及び操作可能範囲のスケールを設定する設定ステップに相当するステップを実行する。
なお、本実施形態において、GUI提示部27は、仮想視点及び操作可能範囲を制御可能なGUIを提示する提示ステップに相当するステップを実行する。
なお、本実施形態において、3次元マップは、現実の空間に相当する。
Note that, in the present embodiment, the operable
In this embodiment, the candidate
In this embodiment, the reference
In this embodiment, the
In addition, in this embodiment, the three-dimensional map corresponds to the actual space.
図3は、仮想視点及び操作可能範囲の制御を示すフローチャートである。 FIG. 3 is a flow chart showing control of the virtual viewpoint and the operable range.
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ101)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
Three-dimensional measurement of the actual space is performed by the
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ102)。例えば、候補平面検出部23は、所定の軸方向(例えばZ軸方向)に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ103)。ユーザ5は、提示された候補平面を選択する(ステップ104)。
A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 102). For example, the candidate
基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ105)。例えば、基準点設定部24は、選択されたXY平面の候補平面におけるX座標及びY座標を設定する。また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ106)。すなわち、ステップ105及びステップ106により、基準点が設定される。
なお、ステップ105及びステップ106の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から基準点の2次元の位置が設定されてもよい。
The reference
Note that the order of steps 105 and 106 may be exchanged. For example, it may be moved vertically from the selected candidate plane, and the two-dimensional position of the reference point may be set from the moved plane.
操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ107)。
The operable
仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ108)。例えば、仮想視点設定部26は、基準点よりも候補平面から垂直方向に、基準点よりも離れた位置に仮想視点を設定する。
The virtual
図4は、仮想視点及び操作可能範囲の制御を示す模式図である。図4では、簡略化のため3次元マップが省略されて図示される。
図4Aは、ステップ102を示す模式図である。すなわち、移動体10のセンサ部14により、測定された3次元マップ40から候補平面41が検出される。例えば、3次元マップ内40の所定の方向(重力方向)が設定されることで、重力方向と垂直な平面が候補平面41として検出される。
FIG. 4 is a schematic diagram showing control of the virtual viewpoint and the operable range. In FIG. 4, the three-dimensional map is omitted for simplification.
FIG. 4A is a schematic diagram showing step 102. FIG. That is, the
図4Bは、ステップ103~106を示す模式図である。
ユーザは、検出された候補平面41を選択し、選択された候補平面上で、基準点42の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を基準点42として設定できる。
FIG. 4B is a schematic diagram showing steps 103-106.
The user selects the detected
図4Cは、ステップ107及びステップ108を示す模式図である。
操作可能範囲変更部25により、設定された基準点42に基づいて、操作可能範囲43のスケールが変更される。例えば図4Cでは、基準点32を中心に3次元マップ40を覆うようなスケールの操作可能範囲43が設定される。また仮想視点設定部26により、基準点42から重力方向とは反対方向に所定の距離離れた位置に仮想視点44が設定される。
FIG. 4C is a schematic diagram showing steps 107 and 108. FIG.
The operable
図5は、設定された仮想視点から新たな仮想視点を設定するための制御を示すフローチャートである。 FIG. 5 is a flow chart showing control for setting a new virtual viewpoint from the set virtual viewpoint.
図3に示すステップ101~ステップ108により、仮想視点の位置及び操作可能範囲のスケールが決定される(ステップ201)。ここで、ステップ201で決定された基準点、仮想視点、及び操作可能範囲を、便宜上、第1の基準点、第1の仮想視点、及び第1の操作可能範囲と記載する。また新たに決定される基準点、仮想視点、及び操作可能範囲を、第2の基準点、第2の仮想視点、及び第2の操作可能範囲と記載する。
The position of the virtual viewpoint and the scale of the operable range are determined by steps 101 to 108 shown in FIG. 3 (step 201). Here, for convenience, the reference point, virtual viewpoint, and operable range determined in
操作可能範囲変更部25及び仮想視点設定部26により、第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲が制御される(ステップ202)。具体的な方法は、図6を用いて説明する。
The operable
基準点設定部24により、制御された第1の仮想視点及び第1の操作可能範囲から新たな基準点が設定される(ステップ203)。例えば、ユーザ5が選択した位置又は候補平面に基づいて、第2の基準点が設定される。
A new reference point is set by the reference
操作可能範囲変更部25により、第2の操作可能範囲のスケールが変更される(ステップ204)。
The operable
仮想視点設定部26により、第2の仮想視点が設定される(ステップ205)。例えば、仮想視点設定部26は、第2の基準点の位置及び操作可能範囲のスケールに基づいて、仮想視点の位置を設定する。
ユーザ5は、第1の仮想視点から第2の仮想視点へ移動することができる。すなわち、第2の仮想視点から3次元マップを視認することが可能となる。
A second virtual viewpoint is set by the virtual viewpoint setting unit 26 (step 205). For example, the virtual
User 5 can move from a first virtual viewpoint to a second virtual viewpoint. That is, it becomes possible to view the three-dimensional map from the second virtual viewpoint.
図6は、第2の基準点を設定するための制御例を示す模式図である。図6では、ステップ202の第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲の制御の例を説明する。
FIG. 6 is a schematic diagram showing a control example for setting the second reference point. FIG. 6 illustrates an example of controlling the first virtual viewpoint and the first operable range in order to set the second reference point in
図6Aは、第1の操作可能範囲53から第2の基準点54を設定する模式図である。図6Aに示す例は、第1の仮想視点の位置及び第1の操作可能範囲のスケールの制御を実行しない場合の例である。
FIG. 6A is a schematic diagram of setting the
図6Aに示すように、3次元マップ50内に第1の基準点51、第1の仮想視点52、及び第1の操作可能範囲53が図示される。ユーザ5は、第1の仮想視点52から3次元マップ50を視認しており、第1の操作可能範囲53内をコントローラ32を介して種々の操作が可能である。
本実施形態では、ユーザ5は、コントローラ32を介して第1の操作可能範囲53内に、第2の基準点54を設定する。例えば、ユーザ5は、コントローラ32を持つ手で所定の位置に手を置くことで、該位置を第2の基準点54の座標として設定することができる。
As shown in FIG. 6A, a
In this embodiment, the user 5 sets the
またユーザ5は、設定した第2の基準点54から第2の仮想視点55及び第2の操作可能範囲56を制御する。例えば、ユーザ5は、コントローラ32を介して、第2の仮想視点55及び第2の操作可能範囲56を制御する。具体的には、第2の仮想視点55の位置がコントローラ32を持つ手の位置に設定されてもよい。また第2の操作可能範囲56のスケールが、コントローラ32で円を描く等のコントローラ32を用いた様々な操作により変更されてもよい。
The user 5 also controls the second
図6Bは、第1の仮想視点及び第1の操作可能範囲を制御する制御例を示す模式図である。また図6Bでは、簡略化のため3次元マップが省略されて図示される。 FIG. 6B is a schematic diagram showing a control example for controlling the first virtual viewpoint and the first operable range. Also, in FIG. 6B, the three-dimensional map is omitted for simplification.
図6Bに示す例では、ユーザ5の望む第2の基準点64の位置が、第1の操作可能範囲63よりも遠い場合を例とする。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の制御例である。
In the example shown in FIG. 6B, it is assumed that the position of the
この場合、仮想視点設定部26により、3次元マップ60全体を俯瞰できるように第1の仮想視点62の位置が設定される。例えば、生成された3次元マップのXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角(ユーザ5の視野)に収まる位置が第1の仮想視点62として設定される。
この場合、第1の基準点61の位置及び第1の操作可能範囲63のスケールは、予め決められた数値に設定される。
In this case, the virtual
In this case, the position of the
ユーザ5は、3次元マップ60全体を俯瞰できるように設定された第1の仮想視点62から、第1の操作可能範囲63内に第2の基準点64を設定する。またユーザ5は、設定した第2の基準点64から第2の仮想視点65及び第2の操作可能範囲66を制御する。
The user 5 sets a
図6Cは、第1の仮想視点及び第1の操作可能範囲を制御する他の制御例を示す模式図である。
図6Cに示す例では、生成された3次元マップ70全体を包含するように第1の操作可能範囲73が変更される。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の他の制御例である。
また図6Cでは、地図生成部22により、直方体の3次元マップ70が生成される。
FIG. 6C is a schematic diagram showing another control example for controlling the first virtual viewpoint and the first operable range.
In the example shown in FIG. 6C, the first
Further, in FIG. 6C, the
操作可能範囲変更部25により、生成された3次元マップ70の大きさに基づいて、第1の操作可能範囲73のスケールが変更される。例えば、操作可能範囲変更部25は、生成された3次元マップ70を包含する直方体の体積に基づいて、第1の操作可能範囲73のスケールを変更する。
この場合、第1の基準点71の位置及び第1の仮想視点72の位置は、予め決められた数値に設定される。
The operable
In this case, the position of the
ユーザ5は、3次元マップ70全体を包含するように設定された第1の仮想視点72から、第1の操作可能範囲73内に第2の基準点74を設定する。またユーザ5は、設定した第2の基準点74から第2の仮想視点75及び第2の操作可能範囲76を制御する。
The user 5 sets a
なお、第2の基準点を設定するための制御例は限定されず、例えば、生成された3次元マップの重心を第1の基準点とし、予め設定された第1の仮想視点の位置及び第1の操作可能範囲のスケールに制御されてもよい。 Note that the control example for setting the second reference point is not limited. It may be controlled to a scale of 1 operable range.
図7は、GUIの例を示す模式図である。
図7に示すように、GUI提示部27により、種々のGUIが提示される。図7では、ユーザ5が、地図生成部22により生成された3次元マップを第1の仮想視点から観察している状態の図である。また図7では、ユーザ5に用いられるコントローラ32の位置に対応する箇所に、手の形状をした仮想コントローラが3次元マップに表示される。
FIG. 7 is a schematic diagram showing an example of a GUI.
As shown in FIG. 7, the
図7Aは、仮想視点及び操作可能範囲を制御するための制御GUIの例を示す模式図である。
図7Aに示すように、制御GUI80は、第2の仮想視点及び第2の操作可能範囲を制御するために、検出された候補平面81を提示する。ユーザ5は、仮想コントローラ82を介して、候補平面81を選択することができる。例えば、ユーザ5は、仮想コントローラ82を候補平面81に重畳させるように手(コントローラ32)を動かすことで、候補平面81を選択することができる。
またユーザ5は、選択した候補平面81から第2の基準点83を設定することができる。例えば、選択された候補平面81から仮想コントローラ82を移動させた距離が第2の基準点83の位置となる。同様にユーザ5は、第2の仮想視点84及び第2の操作可能範囲86を制御することが可能である。
FIG. 7A is a schematic diagram showing an example of a control GUI for controlling the virtual viewpoint and the operable range.
As shown in FIG. 7A, the
The user 5 can also set a
なお、仮想視点及び操作可能範囲を制御するための表示及び操作は限定されない。例えば、検出された複数の候補平面が点滅するようにユーザ5に提示されてもよい。また例えば、人差し指を伸ばした状態や手を開いた状態等の仮想コントローラ82の形状ごとに、基準点、仮想視点、及び操作可能範囲の制御が実行されてもよい。
なお、仮想コントローラ82の形状は限定されない。例えば、コントローラ32の形状を模した形状でもよい。
Note that the display and operation for controlling the virtual viewpoint and the operable range are not limited. For example, the plurality of detected candidate planes may be presented to the user 5 so as to blink. Further, for example, control of the reference point, virtual viewpoint, and operable range may be executed for each shape of the
Note that the shape of the
図7Bは、移動体10の経路を生成するための経路GUIの例を示す模式図である。
FIG. 7B is a schematic diagram showing an example of a route GUI for generating the route of the
ユーザ5は、経路GUI85を介して、移動体10の経路86を生成する。例えば、ユーザ5は、仮想コントローラ82を動かした際の軌跡を移動体10の経路として生成する。本実施形態では、ユーザ5の右手を示す仮想コントローラ82により、移動体10の経路が生成される。
The user 5 creates a
なお、経路GUI85を介して移動体10の種々の操作が実行されてもよい。例えば、移動体10に搭載されたカメラの撮影タイミングを設定できてもよい。また例えば、移動体10の速度や飛行パターン等が制御できてもよい。すなわち、旋回や8の字といった、パターンとして規定された軌跡や速度等が制御できる。例えば、旋回や8の字といった飛行パターンに対して、旋回や8の字を行う際の移動体10の速度や曲率等を設定できる。
飛行パターンに関連付けられる速度や姿勢等のパラメータが、デフォルト設定される場合もあり得る。すなわち所定の飛行パターンをどのように移動するかは、デフォルトで設定されていてもよい。
Various operations of the moving
Parameters such as speed and attitude associated with the flight pattern may be defaulted. That is, how to move a predetermined flight pattern may be set by default.
また制御GUI80及び経路GUI85を操作する際の仮想視点は、移動体10に搭載されたカメラの位置に設定されてもよい。その場合、ユーザ5は、カメラの画角から3次元マップ又は実際に撮影される画像を視認できる。また移動体10に搭載されるカメラが360度カメラの場合、ユーザ5の操作に応じて視界を回転させることも可能である。
Also, the virtual viewpoint when operating the
以上、第1の実施形態に係る情報処理方法は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対するユーザ5により3次元マップに関する操作が実行可能である操作可能範囲7の設定を制御する。これにより、操作における高い直観性を発揮させることが可能となる。
As described above, in the information processing method according to the first embodiment, setting of the
従来、移動体の主観視点での操作は、視界が限られ、移動体の運動特性を理解した上で複雑な操作を行う必要がある。一方、地図を用いた事前の飛行計画は、GPS(Global Positioning System、Global Positioning Satellite)が必要であったり、事前に地図を持っている必要があり、それが適用できる状況が限られる。加えて事前の地図による経路指定は2次元のものが多い。 Conventionally, when operating a mobile object from a subjective viewpoint, the field of view is limited, and it is necessary to understand the motion characteristics of the mobile object before performing complicated operations. On the other hand, prior flight planning using a map requires a GPS (Global Positioning System, Global Positioning Satellite) or requires a map in advance, which limits the circumstances in which it can be applied. In addition, many pre-mapped routings are two-dimensional.
そこで本技術では、空間内に設定された、ユーザの仮想視点及びユーザの空間に関する操作が実行可能な操作可能範囲が制御される。これにより、予め空間的なマップが得られていない場合でも、3次元の範囲において移動体の経路が指定できる。また仮想視点や操作可能範囲を柔軟に選ぶことが可能となり、指定したい場所の範囲や求められる指定精度を得ることが可能となる。 Therefore, in the present technology, an operable range in which an operation regarding the user's virtual viewpoint and the user's space, which is set in the space, is executable is controlled. As a result, even if a spatial map has not been obtained in advance, the route of the moving object can be designated within a three-dimensional range. In addition, it is possible to flexibly select the virtual viewpoint and the operable range, and it is possible to obtain the range of the place to be designated and the required designation accuracy.
<第2の実施形態>
本技術に係る第2の実施形態の仮想表現システムについて説明する。これ以降の説明では、上記の実施形態で説明した仮想表現システムにおける構成及び作用と同様な部分については、その説明を省略又は簡略化する。
<Second embodiment>
A virtual representation system of a second embodiment according to the present technology will be described. In the following description, descriptions of parts similar to the configuration and operation of the virtual representation system described in the above embodiment will be omitted or simplified.
第1の実施形態では、候補平面から基準点が設定された。第2の実施形態では、候補平面から仮想視点が設定される。また仮想視点が設定された後、操作可能範囲のスケールが変更される。 In the first embodiment, the reference point was set from the candidate plane. In the second embodiment, virtual viewpoints are set from candidate planes. Also, after the virtual viewpoint is set, the scale of the operable range is changed.
図8は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。 FIG. 8 is a flow chart showing another control example of the virtual viewpoint and the operable range.
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ301)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
Three-dimensional measurement of the actual space is performed by the
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ302)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ303)。ユーザ5は、提示された候補平面を選択する(ステップ304)。
A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 302). For example, the
仮想視点設定部26により、選択された候補平面上で仮想視点の2次元の位置が設定される(ステップ305)。例えば、仮想視点設定部26は、選択された候補平面(XY平面)におけるX座標及びY座標を設定する。また仮想視点設定部26により、設定された仮想視点の2次元の位置から所定の距離に垂直方向に移動される(ステップ306)。すなわち、ステップ305及びステップ306により、仮想視点が設定される。
なお、ステップ305及びステップ306の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から仮想視点の2次元の位置が設定されてもよい。
The virtual
Note that the order of steps 305 and 306 may be interchanged. For example, the virtual viewpoint may be moved vertically from the selected candidate plane and the two-dimensional position of the virtual viewpoint may be set from the moved plane.
操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲のスケールが変更される(ステップ307)。
The operable
基準点設定部24により、仮想視点の位置及び操作可能範囲のスケールに基づいて、基準点の位置が設定される(ステップ308)。例えば、基準点設定部24は、操作可能範囲の中心、もしくは仮想視点の2次元の位置と同じ位置かつ候補平面の垂直方向に所定の距離離れた位置に設定する。
なお、ステップ307及びステップ308の順番は入れ替えてもよい。例えば、操作可能範囲変更部25は、仮想視点の位置と基準点の位置とに基づいて、操作可能範囲を変更してもよい。
なお、仮想視点の位置に対して、操作可能範囲のスケール及び基準点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、仮想視点が設定されることにより、操作可能範囲のスケール及び基準点の位置が一意に決定される。
The reference
Note that the order of steps 307 and 308 may be exchanged. For example, the operable
A table in which the scale of the operable range and the position of the reference point are associated with the position of the virtual viewpoint may be prepared in advance. In this case, the scale of the operable range and the position of the reference point are uniquely determined by setting the virtual viewpoint.
第1の実施形態では、候補平面として重力方向と垂直な平面が検出された。これに限定されず、3次元マップの任意の面が候補平面として検出されてもよい。 In the first embodiment, planes perpendicular to the direction of gravity are detected as candidate planes. Any surface on the three-dimensional map may be detected as a candidate plane without being limited to this.
図9は、候補平面の選択の例を示す模式図である。なお図9では、簡略化のため3次元マップが省略されて図示される。 FIG. 9 is a schematic diagram showing an example of selection of candidate planes. Note that the three-dimensional map is omitted in FIG. 9 for the sake of simplification.
図9Aは、候補平面の検出を示す模式図である。
候補平面検出部23は、3次元マップ90の任意の面を候補平面として検出する。本実施形態では、3次元マップ90の各平面に応じて複数の候補平面が検出される。
FIG. 9A is a schematic diagram illustrating detection of candidate planes.
The candidate
図9Bは、仮想視点の位置の設定を示す模式図である。
ユーザは、検出された候補平面91を選択し、選択された候補平面91上で、仮想視点92の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を仮想視点92として設定できる。
FIG. 9B is a schematic diagram showing setting of the position of the virtual viewpoint.
The user selects the detected
図9Cは、操作可能範囲及び基準点の制御を示す模式図である。
操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲93のスケールが変更される。また基準点設定部24により、仮想視点92から候補平面91方向に所定の距離離れた位置に基準点94が設定される。もしくは基準点設定部24により操作可能範囲93の中心に基準点94が設定されてもよい。
FIG. 9C is a schematic diagram showing control of the operable range and reference points.
The operable
図10は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。
図10では、3次元マップにおける所定の方向が選択されることで、候補平面が決定される場合の例である。例えば、重力方向が選択された際に、重力方向とは垂直の平面が自動で選択される場合、ユーザは候補平面を選択する制御を行わなくてよい。
FIG. 10 is a flow chart showing another control example of the virtual viewpoint and the operable range.
FIG. 10 shows an example in which candidate planes are determined by selecting a predetermined direction in the three-dimensional map. For example, when a plane perpendicular to the direction of gravity is automatically selected when the direction of gravity is selected, the user need not perform control to select a candidate plane.
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ401)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
Three-dimensional measurement of the actual space is performed by the
ユーザ5により、3次元マップから所定の方向が選択される(ステップ402)。候補平面検出部23は、選択された所定の方向に基づいて、候補平面を選択する。
A predetermined direction is selected from the three-dimensional map by the user 5 (step 402). The
基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ403)。
また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ404)。
The reference
Also, the reference
操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ405)。
The operable
仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ406)。
The virtual
<第3の実施形態>
第1の実施形態では、ユーザ5は、仮想視点から3次元マップを観察し、仮想コントローラを用いることで種々の操作が実行できた。第3の実施形態では、GUI提示部27によりユーザの仮想視点及び仮想コントローラを含む仮想身体が表示されるGUIが提示される。
<Third Embodiment>
In the first embodiment, the user 5 was able to observe the three-dimensional map from a virtual viewpoint and perform various operations using the virtual controller. In the third embodiment, the
図11は、仮想身体の設定の制御例を示すフローチャートである。 FIG. 11 is a flowchart showing an example of control for setting the virtual body.
移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ501)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。
Three-dimensional measurement of the actual space is performed by the
候補平面検出部23により、3次元マップから候補平面が検出される(ステップ502)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ503)。ユーザ5は、提示された候補平面を選択する(ステップ504)。
A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 502). For example, the
仮想視点設定部26により、選択された候補平面が軸上に移動される(ステップ505)。例えば、ユーザ5により設定された重力方向等の所定の軸に従って、候補平面が軸上に正又は負の方向へ移動される。
また仮想視点設定部26により、移動された候補平面上の仮想身体の頭部(仮想視点)の2次元の位置が指定される(ステップ506)。
The selected candidate plane is moved on the axis by the virtual viewpoint setting unit 26 (step 505). For example, according to a predetermined axis such as the direction of gravity set by the user 5, the candidate plane is moved on the axis in the positive or negative direction.
The virtual
操作可能範囲変更部25により、仮想身体の身長が指定される(ステップ507)。
仮想身体は、仮想視点を含む頭部、胴体、両腕、及び両足を有する。特に両腕は、仮想コントローラである両手を含む。例えば、ユーザ5がコントローラを動かすことで、仮想身体の手を操作することができる。すなわち、仮想身体の腕の長さが操作可能範囲のスケールとなる。また仮想身体は、ユーザ5のアバターとも言える。
本実施形態では、仮想身体の身長に基づいて、両腕の長さが予め設定されている。例えば、身長と両腕の長さとが紐づけられたテーブル等が記録され、操作可能範囲変更部25が該テーブルに従い、指定された身長から両腕の長さ(操作可能範囲のスケール)が変更される。もちろんこれに限定されず、例えば、ユーザ5の装着するHMD31の位置とコントローラ32の位置との関係に応じて、仮想身体の身長及び両腕の長さが決定されてもよい。
The height of the virtual body is specified by the operable range changing unit 25 (step 507).
A virtual body has a head, a torso, arms and legs that contain a virtual viewpoint. Specifically, both arms include both hands that are virtual controllers. For example, the user 5 can operate the hands of the virtual body by moving the controller. That is, the arm length of the virtual body becomes the scale of the operable range. Also, the virtual body can be said to be an avatar of the user 5 .
In this embodiment, the length of both arms is preset based on the height of the virtual body. For example, a table or the like in which the height and the length of both arms are linked is recorded, and the operable
仮想視点設定部26及び操作可能範囲変更部25により、指定された仮想身体に基づいて、仮想身体が設定される(ステップ508)。
A virtual body is set by the virtual
なお、仮想身体の設定の方法は限定されない。例えば、ステップ506の代わりに、候補平面上における仮想身体の立つ位置が指定されてもよい。また例えば、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が所定のアルゴリズムに従い設定されてもよい。また例えば、候補平面の2次元の位置から、仮想身体の頭部の位置が指定されてもよい。 Note that the method of setting the virtual body is not limited. For example, instead of step 506, the position where the virtual body stands on the candidate plane may be designated. Further, for example, the height of the virtual body may be designated, and the virtual viewpoint and the operable range may be set according to a predetermined algorithm. Further, for example, the position of the head of the virtual body may be designated from the two-dimensional position of the candidate plane.
図12は、仮想身体の例を示す模式図である。なお図12では、仮想身体の腰や足等の下半身が省略されて図示される。 FIG. 12 is a schematic diagram showing an example of a virtual body. Note that FIG. 12 omits the lower half of the body such as the waist and legs of the virtual body.
図12に示すように、ユーザ5は、候補平面110上の仮想身体111の頭部112の位置を指定する。例えば、ユーザ5により、候補平面110における所定の軸113上に仮想身体111の頭部112の中心が設定される。
As shown in FIG. 12, user 5 specifies the position of
ユーザ5は、仮想身体の身長を指定する。例えば、候補平面110に仮想身体111の足が接触するような身長に指定することができる。また本実施形態では、仮想身体の身長が指定されることで、仮想身体の大きさが決定される。例えば、仮想身体116の身長が大きい程、仮想身体116の頭部117、両腕118の長さ等が大きくなるように決定される。同様に、仮想身体111(小さい方)の身長が小さい程、仮想身体111の頭部112、両腕113の長さ等が小さくなるように決定される。
また仮想身体111(116)の目114(119)の位置も、仮想身体の身長に基づいて決定されてもよい。例えば、ユーザ5の装着したHMD31から瞳孔間距離が取得され、HMD31の位置(高さ)と該瞳孔間距離との位置関係から、仮想身体の目(仮想視点)の位置が決定されてもよい。
すなわち、仮想身体の身長に応じた、仮想視点の位置及び操作可能範囲のスケールが紐づけられてもよい。
User 5 specifies the height of the virtual body. For example, the height can be specified so that the feet of the
The position of the eyes 114 (119) of the virtual body 111 (116) may also be determined based on the height of the virtual body. For example, the interpupillary distance may be obtained from the
That is, the position of the virtual viewpoint and the scale of the operable range may be associated with the height of the virtual body.
また仮想身体111(116)の手115(120)は、仮想コントローラの機能を有する。ユーザ5は、仮想身体111(116)の手115(120)を用いて、候補平面の選択や移動体10の経路の生成等が可能となる。
例えば、ユーザ5が腕を最大限に伸ばした際、仮想身体111(116)も腕113(118)を最大限に伸ばす。その際の仮想身体111(116)の腕113(118)の長さがユーザ5の操作可能範囲121となる。この場合、仮想身体の身長に基づいて、操作可能範囲121のスケールが変更される。もちろん、腕が短い(仮想身体の身長が小さい)と操作可能範囲121のスケールも小さくなる。
Also, the hand 115 (120) of the virtual body 111 (116) has the function of a virtual controller. The user 5 can use the hand 115 (120) of the virtual body 111 (116) to select a candidate plane, generate a route for the moving
For example, when the user 5 stretches the arm to the maximum, the virtual body 111 (116) also stretches the arm 113 (118) to the maximum. The length of the arm 113 (118) of the virtual body 111 (116) at that time becomes the
なお、仮想身体における仮想視点及び操作可能範囲の制御は限定されない。例えば、仮想身体の身長が小さくても、仮想身体の腕が長く設定されてもよい。また例えば、操作可能範囲が仮想身体の腕の長さ以上に設定されてもよい。この場合、ユーザ5が体を傾けることにより、HMD31に搭載されたジャイロセンサ等が体の傾きに関する情報を取得し、仮想身体が同様に傾いてもよい。
Note that control of the virtual viewpoint and the operable range of the virtual body is not limited. For example, even if the height of the virtual body is short, the arms of the virtual body may be set long. Further, for example, the operable range may be set to be equal to or longer than the arm length of the virtual body. In this case, when the user 5 tilts the body, the gyro sensor or the like mounted on the
図13は、仮想身体から新たな仮想身体を設定するための制御例を示すフローチャートである。 FIG. 13 is a flowchart showing a control example for setting a new virtual body from virtual bodies.
図11に示すステップ501~ステップ508により、仮想身体の身長が決定される(ステップ601)。すなわち、仮想視点の位置、及び操作可能範囲のスケールが決定される。
ここで、ステップ601で決定された仮想身体を、便宜上、第1の仮想身体と記載する。また新たに決定される仮想身体を、第2の仮想身体と記載する。
The height of the virtual body is determined by steps 501 to 508 shown in FIG. 11 (step 601). That is, the position of the virtual viewpoint and the scale of the operable range are determined.
Here, the virtual body determined in step 601 is referred to as the first virtual body for convenience. A newly determined virtual body is referred to as a second virtual body.
操作可能範囲変更部25及び仮想視点設定部26により、新たな仮想身体を設定するために、第1の仮想身体が制御される(ステップ602)。
仮想身体を介したユーザ5の操作により、第2の仮想身体の位置が設定される(ステップ603)。具体的な方法は、図14を用いて説明する。
The first virtual body is controlled by the operable
The position of the second virtual body is set by the operation of the user 5 via the virtual body (step 603). A specific method will be described with reference to FIG.
ユーザ5により、第2の仮想身体の身長が指定される(ステップ604)。具体的には、操作可能範囲変更部25及び仮想視点設定部26により、指定された仮想身体の身長に基づいて、仮想視点及び操作可能範囲が制御される。
ユーザ5は、第1の仮想身体から第2の仮想身体へ操作を変更することができる。すなわち、第2の仮想身体を用いて種々の操作が可能となる。
User 5 specifies the height of the second virtual body (step 604). Specifically, the operable
The user 5 can change the operation from the first virtual body to the second virtual body. That is, various operations are possible using the second virtual body.
図14は、第2の仮想身体を設定するための制御例を示す模式図である。図14では、ステップ602及びステップ603における具体例を説明する。 FIG. 14 is a schematic diagram showing a control example for setting the second virtual body. In FIG. 14, a specific example in steps 602 and 603 will be described.
図14Aは、候補平面上に仮想身体を設定する場合の模式図である。 FIG. 14A is a schematic diagram when setting a virtual body on a candidate plane.
図14Aに示すように、ユーザ5は、第1の仮想身体130が指131(仮想コントローラ)で指定した箇所を候補平面132として選択することが可能である。例えば、ユーザ5は、仮想身体130の手131から直線状の位置を候補平面として選択できる。この場合、GUI提示部27により、仮想身体130の手131からレーザポインタのような点線133が射出される様子が提示される。この点線133が3次元マップ内の面と交差することで、候補平面132が選択される。
As shown in FIG. 14A, the user 5 can select, as a
選択された候補平面からステップ505~ステップ508に従い、第2の仮想身体134が設定される。
A second
図14Bは、候補平面の設定の例を示す模式図である。 FIG. 14B is a schematic diagram showing an example of setting candidate planes.
図14Bに示すように、ユーザ5は、第1の仮想身体140の手141を用いて候補平面142を生成する事が可能である。例えば、ユーザ5は、仮想身体140の手141で空中に四角を描くように動かした場合、四角を候補平面142として生成できる。
As shown in FIG. 14B, user 5 can generate
生成された候補平面から第2の仮想身体143の立つ位置及び身長が指定されることで、第2の仮想身体143が設定される。
なお、候補平面を生成する方法は限定されない。例えば、ユーザ5は、コントローラ32を用いて、候補平面生成モードを選択することで、任意の箇所に候補平面を生成する。また例えば、仮想身体の手を広げる等の所定の動作を実行することで、候補平面が生成されてもよい。
The second
Note that the method for generating candidate planes is not limited. For example, the user 5 uses the
図14Cは、第1の仮想身体を制御する制御例を示す模式図である。また図14Cでは、簡略化のため3次元マップが省略されて図示される。 FIG. 14C is a schematic diagram showing a control example for controlling the first virtual body. Also, in FIG. 14C, the three-dimensional map is omitted for simplification.
図14Cに示す例では、第1の仮想身体150の手の届かない位置に、第2の仮想身体を設定する場合を例とする。
In the example shown in FIG. 14C, the case of setting the second virtual body at a position out of reach of the first
図14Cに示すように、3次元マップ150全体を俯瞰できるように第1の仮想身体が制御される。例えば、仮想視点設定部26により、生成された3次元マップ150のXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角に収まる位置が第1の仮想身体151の目の位置(仮想視点の位置)として設定される。また例えば、操作可能範囲変更部25により、生成された3次元マップ150を包含する直方体の体積に基づいて、第1の仮想身体の腕の長さ(操作可能範囲のスケール)が設定されてもよい。
As shown in FIG. 14C, the first virtual body is controlled so that the entire three-
ユーザ5は、制御された第1の仮想身体151を介して、第2の仮想身体152を設定する。例えば、第1の仮想身体151の手により指定された箇所が候補平面又は第2の仮想身体152の頭部の位置として設定されてもよい。
User 5 sets second
図14Dは、第1の仮想身体を制御する制御例を示す模式図である。
図14Dでは、第1の仮想身体161の腕が3次元マップ160全体に届くように、第1の仮想身体161が拡大される。具体的には、操作可能範囲変更部25により、3次元マップ160の大きさに基づいて、操作可能範囲のスケールが変更される。すなわち、第1の仮想身体161の腕の長さが変更される。また変更された第1の仮想身体161の腕の長さに基づいて、第1の仮想身体161の身長が決定される。
FIG. 14D is a schematic diagram showing a control example for controlling the first virtual body.
In FIG. 14D, the first
この場合、制御された第1の仮想身体161の一部が3次元マップ160と干渉してもよい。例えば、図14Dでは、第1の仮想身体161の下半身が3次元マップ160を貫通るように描写(表現)されてもよい。
ユーザ5は、制御された第1の仮想身体161を介して、第2の仮想身体162を設定する。
In this case, part of the controlled first
The user 5 sets the second
ここで、仮想身体による操作時の位置を決定するアルゴリズムの一例を示す。なお、本アルゴリズムにおける位置とは、ユーザの目の位置及び仮想視点の位置、又はコントローラの位置及び仮想コントローラの位置を示す。 Here, an example of an algorithm for determining a position during manipulation by a virtual body will be shown. Note that the position in this algorithm indicates the position of the user's eyes and the position of the virtual viewpoint, or the position of the controller and the position of the virtual controller.
仮想身体が設定される際に、その時点の現実におけるユーザの位置Pr0、その時点の3次元マップにおけるユーザの位置Pv0、及び仮想身体のスケールSが決定される。
またユーザが、手を動かす、移動する等の仮想身体を操作した際に、現在の現実におけるユーザの位置Prc、及び現在の3次元マップにおけるユーザの位置Pvcが計測される。
When the virtual body is set, the user's position Pr0 in reality at that time, the user's position Pv0 in the three-dimensional map at that time, and the scale S of the virtual body are determined.
Also, when the user manipulates the virtual body such as by moving the hand or moving, the user's current position Prc in reality and the user's current position Pvc in the three-dimensional map are measured.
仮想身体のスケールとは、設定された仮想身体の倍率を示す。例えば、ユーザの身長を1とした場合の、設定された仮想身体の身長がSとなる。具体的には、ユーザが170cmの場合に、仮想身体の身長が340cmに拡大された時は、スケールが2となる。 The virtual body scale indicates the set magnification of the virtual body. For example, when the height of the user is 1, the height of the set virtual body is S. Specifically, when the user is 170 cm and the height of the virtual body is increased to 340 cm, the scale is 2.
ここで、現在の3次元マップにおけるユーザの位置Pvcを求める式は、下記のように表す。
Pvc=S×(Prc-Pr0)+Pv0
Here, the formula for obtaining the user's position Pvc on the current three-dimensional map is expressed as follows.
Pvc=S×(Prc−Pr0)+Pv0
上記の式が、レンダリングされた毎フレームごとに実行される。これにより、ユーザ5のコントローラ32の操作と連動して、仮想コントローラの操作が可能となる。
The above formula is executed for every rendered frame. As a result, the virtual controller can be operated in conjunction with the operation of the
これにより、3次元マップ等の仮想的な空間であっても、直感的な操作が可能となる。
また操作可能範囲がユーザの持つコントローラの届く範囲、すなわち、ユーザの手の届く範囲に設定されるため、人間の身体的な空間把握能力を利用することができる。このため、3次元的な位置姿勢の指定を、少ない手数で正確に学習コストも低く実行できる。
This enables intuitive operation even in a virtual space such as a three-dimensional map.
In addition, since the operable range is set within the reach of the controller held by the user, that is, within the reach of the user's hand, it is possible to utilize the physical ability of humans to perceive space. Therefore, the three-dimensional position and orientation can be specified accurately with a small number of steps and at a low learning cost.
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
<Other embodiments>
The present technology is not limited to the embodiments described above, and various other embodiments can be implemented.
上記の実施形態では、仮想視点が仮想身体の目、操作可能範囲が仮想身体の腕の長さとして用いられた。これに限定されず、基準点の座標が仮想身体の腰の位置として設定されてもよい。 In the above embodiment, the virtual viewpoint is used as the eyes of the virtual body, and the operable range is used as the arm length of the virtual body. Instead of being limited to this, the coordinates of the reference point may be set as the waist position of the virtual body.
上記の実施形態では、仮想視点が操作可能範囲内に設定された。これに限定されず、仮想視点は操作可能範囲外の任意の位置に設定されてもよい。 In the above embodiment, the virtual viewpoint was set within the operable range. The virtual viewpoint is not limited to this, and the virtual viewpoint may be set at an arbitrary position outside the operable range.
上記の実施形態では、重力方向に基づく候補平面上に仮想身体が設定された。これに限定されず、任意の候補平面上に仮想身体が設定されてもよい。例えば、仮想身体が壁や天井に両足が接触するように設定されてもよい。この場合、ユーザは、3次元マップの天井を仮想視点から見る際に、見上げる必要がなくなる。すなわち、ユーザへの身体的な負担を減らすことが可能となる。 In the above embodiment, the virtual body was set on the candidate plane based on the direction of gravity. The virtual body is not limited to this, and the virtual body may be set on any candidate plane. For example, the virtual body may be set so that both feet are in contact with the wall or ceiling. In this case, the user does not need to look up when viewing the ceiling of the 3D map from the virtual viewpoint. That is, it becomes possible to reduce the physical burden on the user.
上記の実施形態では、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が決定された。これに限定されず、3次元マップの大きさに基づいて、仮想身体が決定されてもよい。 In the above embodiment, the virtual viewpoint and the operable range are determined by specifying the height of the virtual body. Without being limited to this, the virtual body may be determined based on the size of the 3D map.
図15は、仮想身体の設定例を示す模式図である。 FIG. 15 is a schematic diagram showing a setting example of a virtual body.
図15に示すように、地図生成部22は、移動体10に搭載されたセンサ部14により取得されたセンシング結果に基づいて、3次元マップ170を生成する。
As shown in FIG. 15 , the
候補平面検出部23は、3次元マップ170を包含する候補平面171を検出する。例えば、候補平面検出部23は、3次元マップのXY平面、YZ平面、又はXZ平面における面積に基づいて、候補平面171を検出する。
The candidate
基準点設定部24は、検出された候補平面の重心に基準点を設定する。本実施形態では、設定された基準点の座標を仮想身体の腰の高さとする。
操作可能範囲変更部25は、3次元マップ170の大きさに基づいて、操作可能範囲を変更する。例えば、操作可能範囲変更部25は、仮想身体172の両腕173を広げた状態から一歩移動した際の、仮想身体の手が届くまでの長さを操作可能範囲174として設定する。
設定された仮想身体の腰の高さ及び腕の長さから、仮想身体172の身長が決定される。
A reference
The operable
The height of the
上記の実施形態では、候補平面から基準点、仮想視点、及び操作可能範囲が制御された。これに限定されず、ユーザが指定した領域が操作可能範囲となるように制御されてもよい。 In the above embodiments, the reference point, virtual viewpoint, and operable range were controlled from the candidate plane. The control is not limited to this, and control may be performed so that a region specified by the user becomes the operable range.
図16は、仮想視点及び操作可能範囲の制御の他の例を示す模式図である。
図16に示すように、ユーザ5は、地図生成部22により生成された3次元マップ180内に、操作を行いたい領域181を指定する。
FIG. 16 is a schematic diagram showing another example of control of the virtual viewpoint and the operable range.
As shown in FIG. 16, the user 5 designates an
操作可能範囲変更部25は、指定された領域181が含まれるように、操作可能範囲182のスケールを変更する。例えば、領域181を底面とした円筒の長軸と一致するように操作可能範囲182のスケールが変更される。
基準点設定部24は、変更された操作可能範囲182に基づいて、基準点183を設定する。例えば、基準点設定部24は、操作可能範囲182の中心を基準点183として設定する。
仮想視点設定部26は、操作可能範囲182のスケール及び基準点の位置に基づいて、仮想視点184の位置を設定する。
または指定された領域181に仮想身体の手が届くように仮想身体の身長が決定されてもよい。この場合、操作可能範囲変更部25により変更された操作可能範囲182のスケールが仮想身体の腕の長さとなる。また基準点設定部24により設定された基準点183の位置が仮想身体の腰の高さとなる。また仮想視点設定部26により設定された仮想視点184の位置が仮想身体の頭部となる。
The operable
The reference
The virtual
Alternatively, the height of the virtual body may be determined so that the hand of the virtual body can reach the designated
上記の実施形態では、3次元マップが地図生成部22により生成された。これに限定されず、移動体10に地図生成部22が搭載されてもよい。すなわち、移動体10により3次元マップが生成され、該3次元マップが情報処理装置20に供給されてもよい。
In the above embodiment, the 3D map was generated by the
上記の実施形態では、仮想身体が用いられユーザ5の操作や仮想視点のイメージが表現された。これに限定されず、任意の表現が行われてもよい。例えば、仮想視点と同じ高さ(同じZ座標)を飛ぶ鳥の視点から3次元マップを観察できてもよい。 In the above-described embodiment, a virtual body is used to express the operation of the user 5 and the image of the virtual viewpoint. It is not limited to this, and any expression may be used. For example, it may be possible to observe a 3D map from the viewpoint of a bird flying at the same height (same Z coordinate) as the virtual viewpoint.
上記の実施形態では、ユーザデバイス30としてHMD31が用いられた。これに限定されず、AR(Augmented Reality)グラスやスマートフォン、タブレット端末等の形態端末が用いられてもよい。
In the above embodiment, the
図17は、HMD31の外観を示す模式図である。図17AはHMD31の外観を模式的に示す斜視図であり、図17BはHMD31を分解した様子を模式的に示す斜視図である。
FIG. 17 is a schematic diagram showing the appearance of the
HMD31は、基体部190と、装着バンド部191と、ヘッドフォン部192と、前方カメラ193と、ディスプレイユニット194と、カバー部195とを有する。
The
基体部190は、ユーザの左右の眼の前方に配置される部材であり、ユーザの前頭部と当接される前頭支持部196が設けられる。
The
装着バンド部191は、ユーザの頭部に装着される。図8に示すように、装着バンド部191は、側頭バンド197と、頭頂バンド198とを有する。側頭バンド197は、基体部190に接続され、側頭部から後頭部にかけてユーザの頭部を囲むように装着される。頭頂バンド198は、側頭バンド197に接続され、側頭部から頭頂部にかけてユーザの頭部を囲むように装着される。
The wearing
ヘッドフォン部192は、基体部190に接続され、ユーザの左右の耳を覆うように配置される。ヘッドフォン部192には、左用及び右用のスピーカが設けられる。ヘッドフォン部192の位置は、手動又は自動により制御可能となっている。そのための構成は限定されず、任意の構成が採用されてよい。
The
前方カメラ193は、ユーザの前方側の実空間を撮像することが可能なステレオカメラとして設けられる。前方カメラ193により、実空間が撮像されたカメラ画像を生成することが可能である。
The
ディスプレイユニット195は、基体部190に挿入され、ユーザの眼の前方に配置される。ディスプレイユニット195の内部には、ディスプレイが配置される。ディスプレイとしては、例えば液晶、EL(Electro-Luminescence)等を用いた任意の表示デバイスが用いられてよい。またディスプレイユニット195には、ディスプレイにより表示された画像をユーザの左右の眼に導くレンズ系(図示は省略)が配置される。
The
カバー部196は、基体部190に取付けられ、ディスプレイユニット195を覆うように構成される。このように構成されたHMD31は、ユーザの視野を覆うように構成された没入型のヘッドマウントディスプレイとして機能する。例えばHMD31により、3次元的な仮想空間が表示される。ユーザはHMD31を装着することで、仮想現実(VR)等を体験することが可能となる。
The
図18は、情報処理装置20のハードウェア構成例を示すブロック図である。
FIG. 18 is a block diagram showing a hardware configuration example of the
情報処理装置20は、CPU201、ROM202、RAM203、入出力インタフェース205、及びこれらを互いに接続するバス204を備える。入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。
The
表示部206は、例えば液晶、EL等を用いた表示デバイスである。入力部207は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。
The
記憶部208は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部210は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。
The
通信部209は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、情報処理装置20とは別体で使用される場合が多い。
本実施形態では、通信部209により、ネットワークを介した他の装置との通信が可能となる。
A
In this embodiment, the
上記のようなハードウェア構成を有する情報処理装置20による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、情報処理装置20のハードウェア資源との協働により実現される。具体的には、ROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより、本技術に係る情報処理方法が実現される。
Information processing by the
プログラムは、例えば記録媒体211を介して情報処理装置20にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置20にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
The program is installed in the
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、プログラム、及びシステムが実行され、本技術に係る情報処理装置が構築されてもよい。 An information processing method, a program, and a system according to the present technology are executed by linking a computer installed in a communication terminal with another computer that can communicate via a network, etc., and an information processing apparatus according to the present technology is constructed. may be
すなわち本技術に係る情報処理方法、プログラム、及びシステムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。 That is, the information processing method, program, and system according to the present technology can be executed not only in a computer system configured by a single computer, but also in a computer system in which a plurality of computers operate in conjunction with each other. In the present disclosure, a system means a set of multiple components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules within a single housing, are both systems.
コンピュータシステムによる本技術に係る情報処理方法、プログラム、及びシステムの実行は、例えば、候補平面の検出、操作可能範囲の変更、及び仮想視点の設定等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。 Execution of the information processing method, program, and system according to the present technology by a computer system, for example, when detection of a candidate plane, change of an operable range, setting of a virtual viewpoint, etc. are executed by a single computer, and It includes both cases where each process is executed by a different computer. Execution of each process by a predetermined computer includes causing another computer to execute part or all of the process and obtaining the result.
すなわち本技術に係る情報処理方法、プログラム、及びシステムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。 That is, the information processing method, program, and system according to the present technology can also be applied to a configuration of cloud computing in which a plurality of devices share and jointly process one function via a network.
各図面を参照して説明した候補平面検出部、操作可能範囲変更部、仮想視点設定部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。 The configurations of the candidate plane detection unit, the operable range change unit, the virtual viewpoint setting unit, and the like, the control flow of the communication system, and the like, which have been described with reference to the drawings, are merely one embodiment, and are within the scope of the present technology. and can be arbitrarily transformed. That is, any other configuration, algorithm, or the like for implementing the present technology may be employed.
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。 Note that the effects described in the present disclosure are merely examples and are not limited, and other effects may be provided. The description of a plurality of effects above does not mean that those effects are necessarily exhibited at the same time. It means that at least one of the above-described effects can be obtained depending on the conditions, etc., and of course, effects not described in the present disclosure may also be exhibited.
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。 It is also possible to combine at least two characteristic portions among the characteristic portions of the respective forms described above. That is, various characteristic portions described in each embodiment may be combined arbitrarily without distinguishing between each embodiment.
なお、本技術は以下のような構成も採ることができる。
(1)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムが実行する情報処理方法。
(2)(1)に記載の情報処理方法であって、
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
情報処理方法。
(3)(1)又は(2)に記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールを変更する
情報処理方法。
(4)(1)から(3)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
情報処理方法。
(5)(4)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
情報処理方法。
(6)(4)又は(5)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
情報処理方法。
(7)(6)に記載の情報処理方法であって、
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
情報処理方法。
(8)(6)に記載の情報処理方法であって、さらに、
前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
情報処理方法。
(9)(4)に記載の情報処理方法であって、
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
情報処理方法。
(10)(1)から(9)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(11)(1)から(10)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
情報処理方法。
(12)(1)から(11)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
情報処理方法。
(13)(12)に記載の情報処理方法であって、
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
情報処理方法。
(14)(12)又は(13)に記載の情報処理方法であって、
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
情報処理方法。
(15)(1)から(14)のうちいずれか1つに記載の情報処理方法であって、
前記現実の空間は、センサにより作成される3次元マップである
情報処理方法。
(16)(15)に記載の情報処理方法であって、
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(17)(15)に記載の情報処理方法であって、
前記センサは、移動体に搭載される
情報処理方法。
(18)(17)に記載の情報処理方法であって、
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
情報処理方法。
(19)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムに実行させるプログラム。
(20)
現実の空間内を移動する移動体と、
前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
を具備する情報処理システム。
Note that the present technology can also adopt the following configuration.
(1)
An information processing method in which a computer system executes a control step of controlling the setting of a user's virtual viewpoint with respect to a real space and the setting of an operable range in which the user can perform an operation related to the real space. .
(2) The information processing method according to (1),
The information processing method, wherein the control step sets a first virtual viewpoint within the real space, and sets a second virtual viewpoint different from the first virtual viewpoint within the operable range.
(3) The information processing method according to (1) or (2),
The information processing method, wherein the control step changes a scale of the operable range.
(4) The information processing method according to any one of (1) to (3), further comprising:
An information processing method, comprising: detecting a candidate plane for setting the virtual viewpoint or the operable range from the real space.
(5) The information processing method according to (4),
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.
(6) The information processing method according to (4) or (5),
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as a reference point serving as a reference of the operable range.
(7) The information processing method according to (6),
The information processing method, wherein the control step controls the virtual viewpoint or the operable range based on the set reference point.
(8) The information processing method according to (6), further comprising:
a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space;
In the information processing method, the control step changes the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.
(9) The information processing method according to (4),
The information processing method, wherein the detection step detects the candidate plane based on a predetermined axis of the real space.
(10) The information processing method according to any one of (1) to (9),
The information processing method, wherein the control step changes a scale of the operable range based on the position of the virtual viewpoint.
(11) The information processing method according to any one of (1) to (10),
The information processing method, wherein the control step sets the position of the virtual viewpoint based on the scale of the operable range.
(12) The information processing method according to any one of (1) to (11), further comprising:
An information processing method, comprising: presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.
(13) The information processing method according to (12),
The presenting step presents a virtual viewpoint image when the user views the real space from the virtual viewpoint,
The GUI is capable of setting a first virtual viewpoint within the real space and setting a second virtual viewpoint different from the first virtual viewpoint within the operable range. Information processing method .
(14) The information processing method according to (12) or (13),
The information processing method, wherein the GUI can set the candidate plane within the operable range.
(15) The information processing method according to any one of (1) to (14),
The information processing method, wherein the real space is a three-dimensional map created by a sensor.
(16) The information processing method according to (15),
The information processing method, wherein the control step changes a scale of the operable range based on the three-dimensional map created by the sensor.
(17) The information processing method according to (15),
The information processing method, wherein the sensor is mounted on a moving object.
(18) The information processing method according to (17),
The information processing method, wherein the GUI is capable of generating a moving route of the moving object by the user's operation.
(19)
A program for causing a computer system to execute a control step of controlling setting of a user's virtual viewpoint with respect to a real space and setting of an operable range in which the user can perform an operation related to the real space.
(20)
a moving body that moves in a real space;
an information processing apparatus having a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation regarding the real space. information processing system.
5…ユーザ
6…仮想視点
7…操作可能範囲
10…移動体
14…センサ部
20…情報処理装置
23…候補平面検出部
24…基準点設定部
25…操作可能範囲変更部
26…仮想視点設定部
100…仮想表現システム
5
Claims (20)
をコンピュータシステムが実行する情報処理方法。 An information processing method in which a computer system executes a control step of controlling the setting of a user's virtual viewpoint with respect to a real space and the setting of an operable range in which the user can perform an operation related to the real space. .
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
情報処理方法。 The information processing method according to claim 1,
The information processing method, wherein the control step sets a first virtual viewpoint within the real space, and sets a second virtual viewpoint different from the first virtual viewpoint within the operable range.
前記制御ステップは、前記操作可能範囲のスケールを変更する
情報処理方法。 The information processing method according to claim 1,
The information processing method, wherein the control step changes a scale of the operable range.
前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
情報処理方法。 The information processing method according to claim 1, further comprising:
An information processing method, comprising: detecting a candidate plane for setting the virtual viewpoint or the operable range from the real space.
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
情報処理方法。 The information processing method according to claim 4,
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
情報処理方法。 The information processing method according to claim 4,
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as a reference point serving as a reference of the operable range.
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
情報処理方法。 The information processing method according to claim 6,
The information processing method, wherein the control step controls the virtual viewpoint or the operable range based on the set reference point.
前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
情報処理方法。 The information processing method according to claim 6, further comprising:
a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space;
In the information processing method, the control step changes the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
情報処理方法。 The information processing method according to claim 4,
The information processing method, wherein the detection step detects the candidate plane based on a predetermined axis of the real space.
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。 The information processing method according to claim 1,
The information processing method, wherein the control step changes a scale of the operable range based on the position of the virtual viewpoint.
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
情報処理方法。 The information processing method according to claim 1,
The information processing method, wherein the control step sets the position of the virtual viewpoint based on the scale of the operable range.
前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
情報処理方法。 The information processing method according to claim 1, further comprising:
An information processing method, comprising: presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
情報処理方法。 The information processing method according to claim 12,
The presenting step presents a virtual viewpoint image when the user views the real space from the virtual viewpoint,
The GUI is capable of setting a first virtual viewpoint within the real space, and setting a second virtual viewpoint different from the first virtual viewpoint within the operable range. Information processing method .
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
情報処理方法。 The information processing method according to claim 12,
The information processing method, wherein the GUI can set the candidate plane within the operable range.
前記現実の空間は、センサにより作成される3次元マップである
情報処理方法。 The information processing method according to claim 1,
The information processing method, wherein the real space is a three-dimensional map created by a sensor.
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。 The information processing method according to claim 15,
The information processing method, wherein the control step changes a scale of the operable range based on the three-dimensional map created by the sensor.
前記センサは、移動体に搭載される
情報処理方法。 The information processing method according to claim 15,
The information processing method, wherein the sensor is mounted on a moving object.
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
情報処理方法。 The information processing method according to claim 17,
The information processing method, wherein the GUI is capable of generating a moving route of the moving object by the user's operation.
をコンピュータシステムに実行させるプログラム。 A program for causing a computer system to execute a control step of controlling setting of a user's virtual viewpoint with respect to a real space and setting of an operable range in which the user can perform an operation related to the real space.
前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
を具備する情報処理システム。 a moving body that moves in a real space;
an information processing apparatus having a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation related to the real space. information processing system.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020122143A JP2023117420A (en) | 2020-07-16 | 2020-07-16 | Information processing method, program, and system |
US18/002,663 US20230245397A1 (en) | 2020-07-16 | 2021-07-07 | Information processing method, program, and system |
PCT/JP2021/025582 WO2022014429A1 (en) | 2020-07-16 | 2021-07-07 | Information processing method, program, and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020122143A JP2023117420A (en) | 2020-07-16 | 2020-07-16 | Information processing method, program, and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023117420A true JP2023117420A (en) | 2023-08-24 |
Family
ID=79554804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020122143A Pending JP2023117420A (en) | 2020-07-16 | 2020-07-16 | Information processing method, program, and system |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230245397A1 (en) |
JP (1) | JP2023117420A (en) |
WO (1) | WO2022014429A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1279081B1 (en) * | 2000-05-01 | 2012-01-04 | iRobot Corporation | Method and system for remote control of mobile robot |
JP6018480B2 (en) * | 2012-11-05 | 2016-11-02 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP6290754B2 (en) * | 2014-09-11 | 2018-03-07 | 株式会社パスコ | Virtual space display device, virtual space display method and program |
JP6387782B2 (en) * | 2014-10-17 | 2018-09-12 | ソニー株式会社 | Control device, control method, and computer program |
CN107209854A (en) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | For the support system and method that smoothly target is followed |
CN109997091B (en) * | 2016-12-01 | 2022-08-09 | 深圳市大疆创新科技有限公司 | Method for managing 3D flight path and related system |
-
2020
- 2020-07-16 JP JP2020122143A patent/JP2023117420A/en active Pending
-
2021
- 2021-07-07 WO PCT/JP2021/025582 patent/WO2022014429A1/en active Application Filing
- 2021-07-07 US US18/002,663 patent/US20230245397A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022014429A1 (en) | 2022-01-20 |
US20230245397A1 (en) | 2023-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9947230B2 (en) | Planning a flight path by identifying key frames | |
US9928649B2 (en) | Interface for planning flight path | |
EP3430498B1 (en) | Virtual object pathing | |
US10754496B2 (en) | Virtual reality input | |
KR102236339B1 (en) | Systems and methods for controlling images captured by an imaging device | |
US10627860B2 (en) | Headset computer that uses motion and voice commands to control information display and remote devices | |
CA3062101A1 (en) | Systems and methods for remotely controlling a robotic device | |
US20150317831A1 (en) | Transitions between body-locked and world-locked augmented reality | |
KR20160148557A (en) | World-locked display quality feedback | |
WO2017213070A1 (en) | Information processing device and method, and recording medium | |
US10377487B2 (en) | Display device and display control method | |
JP2018526716A (en) | Intermediary reality | |
CN113448343B (en) | Method, system and readable medium for setting a target flight path of an aircraft | |
JP2023126474A (en) | Systems and methods for augmented reality | |
JP2021060627A (en) | Information processing apparatus, information processing method, and program | |
Chen et al. | Pinpointfly: An egocentric position-control drone interface using mobile ar | |
CN113677412B (en) | Information processing device, information processing method, and program | |
Ai et al. | Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment | |
WO2022014429A1 (en) | Information processing method, program, and system | |
KR20220165948A (en) | Method and system for remote collaboration | |
KR20180060403A (en) | Control apparatus for drone based on image | |
US20230214004A1 (en) | Information processing apparatus, information processing method, and information processing program | |
WO2023021757A1 (en) | Information processing device, information processing method, and program | |
JP2023172180A (en) | Image processing apparatus, image processing method, and program | |
JP2023083072A (en) | Method, system and program |