JP2023117420A - Information processing method, program, and system - Google Patents

Information processing method, program, and system Download PDF

Info

Publication number
JP2023117420A
JP2023117420A JP2020122143A JP2020122143A JP2023117420A JP 2023117420 A JP2023117420 A JP 2023117420A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2020122143 A JP2020122143 A JP 2020122143A JP 2023117420 A JP2023117420 A JP 2023117420A
Authority
JP
Japan
Prior art keywords
information processing
processing method
virtual viewpoint
operable range
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020122143A
Other languages
Japanese (ja)
Inventor
厚史 泉原
Atsushi Izumihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020122143A priority Critical patent/JP2023117420A/en
Priority to US18/002,663 priority patent/US20230245397A1/en
Priority to PCT/JP2021/025582 priority patent/WO2022014429A1/en
Publication of JP2023117420A publication Critical patent/JP2023117420A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

To provide an information processing method, a program, and a system that provide high intuitiveness of operation.SOLUTION: An information processing method that is executed by a computer system includes controlling: setting of a virtual viewpoint of a user for a real space; and setting of an operable range in which operation related to the real space can be executed for the real space by the user. This can provide high intuitiveness of operation. In addition, the operable range is set to a range that a controller held by the user can reach, that is, a range that a hand of the user can reach; and therefore, a human physical spatial-cognitive ability can be utilized.SELECTED DRAWING: Figure 1

Description

本技術は、仮想表現等に適用可能な情報処理方法、プログラム、及びシステムに関する。 The present technology relates to an information processing method, program, and system applicable to virtual representation and the like.

特許文献1に記載の映像表示システムは、設定された測定対象と観察視点との実位置関係が同じ位置関係となる仮想現実映像を表示する。実空間で観察された測定対象の長さと仮想現実で観察された測定対象の長さとの相違が入力される。入力された値に基づいて、仮想現実映像を拡大又は縮小させる比率が演算され、仮想現実映像が拡大又は縮小される。これにより、観察者の印象と映像内の物体の印象との乖離を解消した仮想現実映像を表示することが開示されている(特許文献1の段落[0032]~[0035]図7等)。 The image display system described in Patent Literature 1 displays a virtual reality image in which the set measurement object and the observation viewpoint have the same actual positional relationship. A difference between the length of the object observed in real space and the length of the object observed in virtual reality is input. A ratio for enlarging or reducing the virtual reality image is calculated based on the input value, and the virtual reality image is enlarged or reduced. Thus, it is disclosed to display a virtual reality image in which the difference between the impression of the observer and the impression of the object in the image is eliminated (paragraphs [0032] to [0035] FIG. 7 of Patent Document 1, etc.).

特開2008-52641号公報JP 2008-52641 A

このような仮想表現に関して、操作における高い直観性を発揮可能な技術が求められている。 There is a demand for a technology capable of exhibiting high intuitiveness in operations for such virtual representations.

以上のような事情に鑑み、本技術の目的は、操作における高い直観性を発揮させることが可能な情報処理方法、プログラム、及びシステムを提供することにある。 In view of the circumstances as described above, an object of the present technology is to provide an information processing method, a program, and a system capable of exhibiting high intuition in operation.

上記目的を達成するため、本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御することを含む。 In order to achieve the above object, an information processing method according to an embodiment of the present technology is an information processing method executed by a computer system, which includes setting a user's virtual viewpoint for a real space, and setting a user's virtual viewpoint for the real space. and controlling the setting of the operable range in which the operation related to the real space is executable.

この情報処理方法では、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定が制御される。これにより、操作における高い直観性を発揮させることが可能となる。 In this information processing method, the setting of the user's virtual viewpoint for the real space and the setting of the operable range in which the user can perform an operation regarding the real space are controlled. This makes it possible to exhibit high intuition in operation.

前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定してもよい。 The control step may set a first virtual viewpoint within the real space, and set a second virtual viewpoint different from the first virtual viewpoint within the operable range.

前記制御ステップは、前記操作可能範囲のスケールを変更してもよい。 The controlling step may change a scale of the operable range.

前記情報処理方法は、さらに、前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含んでもよい。 The information processing method may further include a detection step of detecting candidate planes for setting the virtual viewpoint or the operable range from the real space.

前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定してもよい。 The control step may set a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.

前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定してもよい。 The control step may set a position a predetermined distance away from the detected candidate plane as a reference point that serves as a reference of the operable range.

前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御してもよい。 The control step may control the virtual viewpoint or the operable range based on the set reference point.

前記情報処理方法は、さらに、前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含んでもよい。この場合、前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更してもよい。 The information processing method may further include a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space. In this case, the control step may change the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.

前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出してもよい。 The detecting step may detect the candidate plane based on a predetermined axis of the real space.

前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更してもよい。 The control step may change the scale of the operable range based on the position of the virtual viewpoint.

前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定してもよい。 The control step may set the position of the virtual viewpoint based on the scale of the operable range.

前記情報処理方法は、さらに、前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含んでもよい。 The information processing method may further include a presentation step of presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.

前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示してもよい。この場合、前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能であってもよい。 The presenting step may present a virtual viewpoint image when the user views the real space from the virtual viewpoint. In this case, the GUI can set a first virtual viewpoint within the real space and set a second virtual viewpoint different from the first virtual viewpoint within the operable range. may

前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能であってもよい。 The GUI may be capable of setting the candidate plane within the operable range.

前記現実の空間は、センサにより作成される3次元マップであってもよい。 The real space may be a three-dimensional map created by sensors.

前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更してもよい。 The control step may change the scale of the operable range based on the three-dimensional map created by the sensor.

前記センサは、移動体に搭載されてもよい。 The sensor may be mounted on a mobile object.

前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能であってもよい。 The GUI may be capable of generating a route along which the moving body travels according to the user's operation.

本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ。
A program according to an embodiment of the present technology causes a computer system to execute the following steps.
A control step of controlling the setting of a user's virtual viewpoint with respect to the real space and the setting of an operable range in which the user can perform an operation with respect to the real space.

本技術の一形態に係る情報処理システムは、移動体と、情報処理装置とを具備する。
前記移動体は、現実の空間内を移動する。
前記情報処理装置は、前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する。
An information processing system according to one embodiment of the present technology includes a mobile body and an information processing device.
The mobile body moves in the real space.
The information processing device has a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation regarding the real space. .

仮想表現システムの外観を模式的に示す図である。1 is a diagram schematically showing the appearance of a virtual representation system; FIG. 仮想表現システムの機能的な構成例を示すブロック図である。1 is a block diagram showing a functional configuration example of a virtual representation system; FIG. 仮想視点及び操作可能範囲の制御を示すフローチャートである。4 is a flow chart showing control of a virtual viewpoint and an operable range; 仮想視点及び操作可能範囲の制御を示す模式図である。FIG. 4 is a schematic diagram showing control of a virtual viewpoint and an operable range; 設定された仮想視点から新たな仮想視点を設定するための制御を示すフローチャートである。10 is a flow chart showing control for setting a new virtual viewpoint from a set virtual viewpoint; 第2の基準点を設定するための制御例を示す模式図である。FIG. 5 is a schematic diagram showing an example of control for setting a second reference point; GUIの例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a GUI; 仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。9 is a flow chart showing another control example of the virtual viewpoint and the operable range; 候補平面の選択の例を示す模式図である。FIG. 5 is a schematic diagram showing an example of selection of candidate planes; 仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。9 is a flow chart showing another control example of the virtual viewpoint and the operable range; 仮想身体の設定の制御例を示すフローチャートである。10 is a flow chart showing an example of control for setting a virtual body; 仮想身体の例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a virtual body; 仮想身体から新たな仮想身体を設定するための制御例を示すフローチャートである。FIG. 10 is a flow chart showing a control example for setting a new virtual body from a virtual body; FIG. 第2の仮想身体を設定するための制御例を示す模式図である。FIG. 10 is a schematic diagram showing an example of control for setting a second virtual body; 仮想身体の設定例を示す模式図である。FIG. 4 is a schematic diagram showing a setting example of a virtual body; 仮想視点及び操作可能範囲の制御の他の例を示す模式図である。FIG. 10 is a schematic diagram showing another example of control of the virtual viewpoint and the operable range; HMDの外観を示す模式図である。It is a schematic diagram which shows the external appearance of HMD. 情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of an information processing apparatus.

以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments according to the present technology will be described with reference to the drawings.

<第1の実施形態>
図1は、本技術の第1の実施形態に係る仮想表現システムの外観を模式的に示す図である。
図1に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。移動体10、情報処理装置20、及びユーザデバイス30は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
<First Embodiment>
FIG. 1 is a diagram schematically showing the appearance of a virtual representation system according to a first embodiment of the present technology.
As shown in FIG. 1 , the virtual representation system 100 has a mobile object 10 , an information processing device 20 and a user device 30 . The mobile object 10, the information processing apparatus 20, and the user device 30 are communicably connected via wires or wirelessly. The form of connection between devices is not limited, and wireless LAN communication such as WiFi or short-range wireless communication such as Bluetooth (registered trademark), for example, can be used.

移動体10は、例えば、自律飛行が可能なドローンである。
本実施形態では、移動体10は、周囲を観測可能なセンサ部14を有する。例えば、センサ部14は、ステレオカメラ、デジタルカメラ、単眼カメラ等の撮像装置を含む。また例えば、センサ部14は、移動体10の360度を撮影可能な360度カメラやステレオカメラが前後左右上下(各々異なる方向)に配置されてもよい。これ以外にも、ToF(Time of Flight)センサ、レーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
なお、移動体10はドローンに限定されず、例えば、車輪型のロボット、多足歩行型のロボット、及び多関節構造を有する脚部を備えるロボットでもよい
The mobile object 10 is, for example, a drone capable of autonomous flight.
In this embodiment, the moving body 10 has a sensor unit 14 capable of observing its surroundings. For example, the sensor unit 14 includes an imaging device such as a stereo camera, digital camera, or monocular camera. Further, for example, the sensor unit 14 may be arranged with a 360-degree camera capable of photographing the moving body 10 in 360 degrees or a stereo camera in front, back, left, right, up and down (different directions). In addition to this, sensor devices such as ToF (Time of Flight) sensors, laser ranging sensors, contact sensors, ultrasonic sensors, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), and sonar may be used. .
Note that the mobile object 10 is not limited to a drone, and may be, for example, a wheeled robot, a multi-legged robot, or a robot with legs having a multi-joint structure.

また本実施形態では、移動体10に搭載されたセンサ部14のセンシング結果が情報処理装置20に供給される。 Further, in this embodiment, the sensing result of the sensor unit 14 mounted on the moving body 10 is supplied to the information processing device 20 .

情報処理装置20は、移動体10から供給されたセンシング結果に基づいて、移動体10の周囲の3次元マップを生成する。
3次元マップとは、移動体10の周囲の環境を表示する立体的な地図である。例えば、図1では、情報処理装置20により、人1、車2、及び歩道橋3を含む3次元マップが生成される。
なお、3次元マップを生成する方法は限定されない。例えば、CAD(Computer Aided Design)等が用いられてもよい。
The information processing device 20 generates a three-dimensional map around the mobile object 10 based on the sensing results supplied from the mobile object 10 .
A three-dimensional map is a three-dimensional map that displays the environment around the mobile object 10 . For example, in FIG. 1, the information processing device 20 generates a three-dimensional map including a person 1, a car 2, and a pedestrian bridge 3. FIG.
Note that the method of generating the three-dimensional map is not limited. For example, CAD (Computer Aided Design) or the like may be used.

また情報処理装置20は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対する操作可能範囲7の設定を制御する。本実施形態では、情報処理装置20は、ユーザ5の操作に応じて、仮想視点6の位置の設定、及び操作可能範囲7のスケールを変更する。
仮想視点とは、3次元マップ内の任意の場所(座標)に設定されるユーザ5の仮想的な視点である。例えば、ユーザ5は、設定した仮想視点6から、移動体10や歩道橋3を俯瞰的に見ることが可能である。
操作可能範囲とは、3次元マップ内のユーザ5の3次元マップに関する操作が及ぶ範囲である。また操作可能範囲のスケールとは、操作可能範囲の体積や面積等の大きさ、円、円筒、直方体等の形状を含む。
ユーザの操作とは、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の移動する経路の生成を含む。
なお、操作可能範囲7のスケールは限定されず、任意の大きさ及び形状に設定されてもよい。
The information processing device 20 also controls the setting of the virtual viewpoint 6 of the user 5 with respect to the 3D map and the setting of the operable range 7 with respect to the 3D map. In this embodiment, the information processing apparatus 20 changes the setting of the position of the virtual viewpoint 6 and the scale of the operable range 7 according to the operation of the user 5 .
A virtual viewpoint is a virtual viewpoint of the user 5 set at an arbitrary location (coordinates) within the three-dimensional map. For example, the user 5 can see the mobile object 10 and the pedestrian bridge 3 from a bird's-eye view from the set virtual viewpoint 6 .
The operable range is a range within which the user 5 can operate the 3D map. Also, the scale of the operable range includes the size of the operable range such as volume and area, and the shape of a circle, cylinder, rectangular parallelepiped, and the like.
The user's operation includes setting the virtual viewpoint 6, changing the scale of the operable range 7, and generating a route along which the moving object 10 moves.
Note that the scale of the operable range 7 is not limited, and may be set to any size and shape.

ユーザデバイス30は、ユーザ5により操作される端末である。本実施形態では、ユーザデバイス30は、VRヘッドセット等のHMD31(Head Mounted Display)及びコントローラ32が用いられる。 User device 30 is a terminal operated by user 5 . In this embodiment, the user device 30 uses an HMD 31 (Head Mounted Display) such as a VR headset and a controller 32 .

HMD31は、例えば、ユーザ5の姿勢や眼の位置、視線等を検出できる各種センサを有する。
コントローラ32は、例えば、ボタンやユーザ5の操作による加速度及び角速度等を検出する慣性計測装置(IMU)等を搭載する。
ユーザ5は、HMD31を介して仮想視点6から3次元マップを視認可能である。またユーザ5は、コントローラ32を介して、操作可能範囲7内における、仮想視点6の設定、操作可能範囲7のスケールの変更、及び移動体10の経路の生成が可能である。
例えば、ユーザ5は、コントローラ32を握る右手を動かした際の軌跡を移動体10の経路として生成することが可能である。また例えば、ユーザ5の手の位置を新たな仮想視点として設定することが可能である。すなわち、操作可能範囲7とは、コントローラ32を握るユーザ5の手の届く距離ともいえる。
The HMD 31 has various sensors capable of detecting, for example, the posture of the user 5, the position of the eyes, the line of sight, and the like.
The controller 32 is equipped with, for example, an inertial measurement unit (IMU) or the like that detects acceleration, angular velocity, and the like due to button or user 5 operation.
The user 5 can visually recognize the 3D map from the virtual viewpoint 6 via the HMD 31 . Also, the user 5 can set the virtual viewpoint 6 within the operable range 7 , change the scale of the operable range 7 , and generate the route of the moving object 10 via the controller 32 .
For example, the user 5 can generate the trajectory of the moving body 10 when moving the right hand holding the controller 32 . Also, for example, it is possible to set the position of the hand of the user 5 as a new virtual viewpoint. That is, it can be said that the operable range 7 is a distance within which the user 5 holding the controller 32 can reach.

図2は、仮想表現システム100の機能的な構成例を示すブロック図である。
図2に示すように、仮想表現システム100は、移動体10、情報処理装置20、及びユーザデバイス30を有する。
FIG. 2 is a block diagram showing a functional configuration example of the virtual representation system 100. As shown in FIG.
As shown in FIG. 2 , the virtual representation system 100 has a mobile object 10 , an information processing device 20 and a user device 30 .

移動体10は、駆動系制御部11、外部情報検出部12、状態検出部13、及びセンサ部14を有する。 The moving body 10 has a driving system control section 11 , an external information detection section 12 , a state detection section 13 and a sensor section 14 .

駆動系制御部11は、移動体10の各種の制御信号を生成し、移動体10の駆動系に関わる各種の装置の制御を行う。
例えば、移動体10は、4本の足の各関節に備わった角度やトルクを指定可能なサーボモータ、ロボット自体の移動の動きを4本の足の動きに分解・置換するモーションコントローラ並びに、各モータ内のセンサや足裏面のセンサによるフィードバック制御装置を備える。
また例えば、移動体10は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備えてもよい。
The driving system control unit 11 generates various control signals for the moving body 10 and controls various devices related to the driving system of the moving body 10 .
For example, the moving body 10 includes servo motors that can specify angles and torques provided in the joints of four legs, a motion controller that decomposes and replaces the movement of the robot itself into movements of the four legs, and each Equipped with a feedback control device using a sensor in the motor and a sensor on the sole of the foot.
Further, for example, the moving body 10 includes a driving force generator for generating driving force such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, a steering mechanism for adjusting the steering angle, A braking device that generates a braking force, an ABS (Antilock Brake System), an ESC (Electronic Stability Control), an electric power steering device, and the like may be provided.

外部情報検出部12は、センサ部14のセンシング結果に基づいて、移動体10の外部の情報の検出処理を行う。例えば、外部情報検出部12は、移動体10の周囲の物体の検出処理、認識処理、及び追跡処理、並びに、物体までの距離の検出処理を行う。
また例えば、外部情報検出部12は、移動体10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び路面の状態等が含まれる。
本実施形態では、外部情報検出部12は、検出処理の結果を示すデータを情報取得部21に供給する。
The external information detection unit 12 detects information on the outside of the moving body 10 based on the sensing result of the sensor unit 14 . For example, the external information detection unit 12 performs detection processing, recognition processing, and tracking processing of an object around the moving body 10, and detection processing of the distance to the object.
Further, for example, the external information detection unit 12 performs detection processing of the environment around the moving object 10 . Surrounding environments to be detected include, for example, weather, temperature, humidity, brightness, and road conditions.
In this embodiment, the external information detection unit 12 supplies data indicating the result of detection processing to the information acquisition unit 21 .

状態検出部13は、駆動系制御部11からのデータ又は信号に基づいて、移動体10の状態を検出する。例えば、状態検出部13は、移動体10の速度、加速度、舵角、異常の有無及び内容、並びに、その他の移動体搭載機器の状態等の検出をする。
本実施形態では、状態検出部13は、検出処理の結果を示すデータを情報取得部21に供給する。
The state detector 13 detects the state of the moving body 10 based on data or signals from the driving system controller 11 . For example, the state detection unit 13 detects the speed, acceleration, steering angle, presence/absence and content of abnormality of the mobile body 10, and other states of devices mounted on the mobile body.
In this embodiment, the state detection unit 13 supplies data indicating the result of detection processing to the information acquisition unit 21 .

センサ部14は、移動体10の周囲を観測する。本実施形態では、センサ部14により取得されたセンシング結果が外部情報検出部12及び情報取得部21に出力される。 The sensor unit 14 observes the surroundings of the mobile object 10 . In this embodiment, the sensing result acquired by the sensor unit 14 is output to the external information detection unit 12 and the information acquisition unit 21 .

情報処理装置20は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図18参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC等の任意のコンピュータにより、情報処理装置20を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての操作可能範囲変更部及び仮想視点設定部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
The information processing apparatus 20 has hardware necessary for configuring a computer, such as processors such as CPU, GPU, and DSP, memories such as ROM and RAM, and storage devices such as HDD (see FIG. 18). For example, the information processing method according to the present technology is executed by the CPU loading a program according to the present technology pre-recorded in the ROM or the like into the RAM and executing the program.
For example, the information processing device 20 can be realized by any computer such as a PC. Of course, hardware such as FPGA and ASIC may be used.
In the present embodiment, the operable range changing unit and the virtual viewpoint setting unit are configured as functional blocks by the CPU executing a predetermined program. Of course, dedicated hardware such as an IC (integrated circuit) may be used to implement the functional blocks.
The program is installed in the information processing device 20 via various recording media, for example. Alternatively, program installation may be performed via the Internet or the like.
The type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any computer-readable non-transitory storage medium may be used.

図2に示すように、情報処理装置20は、情報取得部21、地図生成部22、候補平面検出部23、基準点設定部24、操作可能範囲変更部25、仮想視点設定部26、及びGUI(Graphical User Interface)提示部27を有する。 As shown in FIG. 2, the information processing apparatus 20 includes an information acquisition unit 21, a map generation unit 22, a candidate plane detection unit 23, a reference point setting unit 24, an operable range change unit 25, a virtual viewpoint setting unit 26, and a GUI. (Graphical User Interface) It has a presentation unit 27 .

情報取得部21は、種々の情報を取得する。本実施形態では、情報取得部21は、移動体10及びユーザデバイス30から種々の情報を取得する。例えば、移動体10周辺の物体や壁等の障害物に関するセンシング結果が取得される。また例えば、ユーザデバイス30により入力されたユーザ5の操作情報が取得される。
また本実施形態では、情報取得部21は、取得された種々の情報を地図生成部22に供給する。また情報取得部21は、ユーザデバイス30に入力された操作情報を駆動系制御部11に供給する。
The information acquisition unit 21 acquires various information. In this embodiment, the information acquisition unit 21 acquires various information from the mobile object 10 and the user device 30 . For example, sensing results regarding obstacles such as objects and walls around the moving body 10 are obtained. Further, for example, operation information of the user 5 input by the user device 30 is acquired.
In addition, in the present embodiment, the information acquisition unit 21 supplies various acquired information to the map generation unit 22 . The information acquisition unit 21 also supplies the operation information input to the user device 30 to the driving system control unit 11 .

地図生成部22は、移動体10の周囲の3次元マップを取得する。本実施形態では、地図生成部22は、情報取得部21により取得されたセンシング結果に基づいて、3次元マップを生成する。例えば、地図生成部22は、SLAM(Simultaneous Localization and Mapping)等により、移動体10の自己位置及び3次元マップを生成してもよい。
具体的には、地図生成部22は、センサ部14より供給される検出結果に基づいて、時系列に供給される時系列情報をデータベースに蓄積すると共に、蓄積した時系列の情報に基づいて、自己位置を推定し、時系列情報自己位置として出力する。
また地図生成部22は、センサ部14より供給される現在の検出結果に基づいて、自己位置を推定し、現在情報自己位置として出力する。そして、地図生成部22は、時系列情報自己位置と、現在情報自己位置とを統合する、または、切り替えることにより自己位置推定結果として出力する。さらに、地図生成部22は、状態検出部13より供給される検出結果に基づいて、移動体10の姿勢を検出し、姿勢の変化が検出されて、自己位置が大きく変化し、時系列情報自己位置の推定精度が低下するとみなされるとき、現在情報自己位置のみから自己位置を推定してもよい。
また地図生成部22は、予め用意された3次元マップを取得してもよい。例えば、移動体10に建物の1階を移動させる場合、該建物の1階の地図が取得されてもよい。
The map generation unit 22 acquires a three-dimensional map around the mobile object 10 . In this embodiment, the map generation unit 22 generates a three-dimensional map based on the sensing results acquired by the information acquisition unit 21 . For example, the map generating unit 22 may generate the self-location and three-dimensional map of the moving body 10 by SLAM (Simultaneous Localization and Mapping) or the like.
Specifically, based on the detection results supplied from the sensor unit 14, the map generation unit 22 accumulates time-series information supplied in time series in the database, and based on the accumulated time-series information, Estimate self-position and output as time-series information self-position.
The map generation unit 22 also estimates the self-position based on the current detection result supplied from the sensor unit 14 and outputs it as current information self-position. Then, the map generator 22 integrates or switches the time-series information self-position and the current information self-position, and outputs them as a self-position estimation result. Further, the map generation unit 22 detects the attitude of the moving body 10 based on the detection result supplied from the state detection unit 13, detects a change in the attitude, detects a large change in the self-position, When it is considered that the position estimation accuracy is degraded, the self-position may be estimated only from the current self-position information.
The map generation unit 22 may also acquire a three-dimensional map prepared in advance. For example, when moving the mobile object 10 on the first floor of a building, a map of the first floor of the building may be acquired.

候補平面検出部23は、3次元マップから候補平面を検出する。
候補平面とは、仮想視点又は操作可能範囲を設定するための面である。本実施形態では、地図生成部22により生成された3次元マップ内の所定の面が候補平面として検出される。例えば、3次元マップ内のX平面、Y平面、及びZ平面が候補平面として検出される。また例えば、3次元マップ内の所定の方向を重力方向として設定し、該重力方向と垂直な平面が候補平面として検出される。
また本実施形態では、候補平面検出部23により、検出された候補平面が基準点設定部24及び仮想視点設定部26に供給される。
The candidate plane detection unit 23 detects candidate planes from the three-dimensional map.
A candidate plane is a plane for setting a virtual viewpoint or an operable range. In this embodiment, a predetermined plane within the three-dimensional map generated by the map generation unit 22 is detected as a candidate plane. For example, the X plane, Y plane, and Z plane in the 3D map are detected as candidate planes. Alternatively, for example, a predetermined direction in the three-dimensional map is set as the direction of gravity, and planes perpendicular to the direction of gravity are detected as candidate planes.
Further, in the present embodiment, the candidate planes detected by the candidate plane detection unit 23 are supplied to the reference point setting unit 24 and the virtual viewpoint setting unit 26 .

基準点設定部24は、操作可能範囲の基準となる基準点を設定する。本実施形態では、基準点設定部24は、候補平面検出部23により検出された候補平面に基づいて、基準点を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が基準点として設定される。この場合、候補平面の重心から垂直方向に基準点が設定されてもよいし、ユーザにより候補平面と基準点との距離や位置が設定されてもよい。
本実施形態では、基準点設定部24により設定された基準点の位置情報が操作可能範囲変更部25及び仮想視点設定部26に供給される。
The reference point setting unit 24 sets a reference point that serves as a reference for the operable range. In this embodiment, the reference point setting unit 24 sets reference points based on the candidate planes detected by the candidate plane detection unit 23 . For example, a position separated by a predetermined distance in the vertical direction of the candidate plane is set as the reference point. In this case, the reference point may be set in the vertical direction from the center of gravity of the candidate plane, or the user may set the distance and position between the candidate plane and the reference point.
In this embodiment, the positional information of the reference point set by the reference point setting section 24 is supplied to the operable range changing section 25 and the virtual viewpoint setting section 26 .

操作可能範囲変更部25は、設定された基準点に基づいて、操作可能範囲のスケールを変更する。本実施形態では、操作可能範囲変更部25は、基準点を中心に球状の操作可能範囲のスケールを変更する。すなわち、操作可能範囲変更部25は、球の半径の大きさを変更する。
また操作可能範囲変更部25は、基準点の位置情報に対して、操作可能範囲のスケールを紐づける。例えば、基準点が候補平面から遠ざかるほど、操作可能範囲のスケールが大きくなるような制御がされてもよい。
The operable range changing unit 25 changes the scale of the operable range based on the set reference point. In this embodiment, the operable range changing unit 25 changes the scale of the spherical operable range around the reference point. That is, the operable range changing unit 25 changes the size of the radius of the sphere.
Further, the operable range changing unit 25 associates the scale of the operable range with the position information of the reference point. For example, control may be performed such that the farther the reference point is from the candidate plane, the larger the scale of the operable range.

仮想視点設定部26は、検出された候補平面に基づいて、仮想視点の位置を設定する。例えば、候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定される。この場合、候補平面の重心から垂直方向に仮想視点が設定されてもよいし、ユーザにより候補平面と仮想視点との距離や位置が設定されてもよい。
また仮想視点設定部26は、操作可能範囲のスケールに対応した仮想視点の位置を設定する。例えば、操作可能範囲のスケールが大きくなるほど、仮想視点の位置が候補平面から遠ざかるように設定されてもよい。同様に基準点の位置情報に対応した仮想視点の位置が設定されてもよい。例えば、設定された基準点から候補平面の垂直方向に所定の距離離れた位置が仮想視点として設定されてもよい。
すなわち、基準点の位置情報に対して、操作可能範囲のスケール及び仮想視点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、基準点が設定されることにより、操作可能範囲のスケール及び仮想視点の位置が一意に決定される。
なお、仮想視点の設定には、VR(Virtual Reality)での仮想的な瞳孔間距離(IPD:Inter pupillary distance)の調整も含まれる。例えば、操作可能領域のスケールの大小に応じて、瞳孔間距離が適宜設定される。
The virtual viewpoint setting unit 26 sets the position of the virtual viewpoint based on the detected candidate plane. For example, a position a predetermined distance away from the candidate plane in the vertical direction is set as the virtual viewpoint. In this case, the virtual viewpoint may be set in the vertical direction from the center of gravity of the candidate plane, or the user may set the distance and position between the candidate plane and the virtual viewpoint.
The virtual viewpoint setting unit 26 also sets the position of the virtual viewpoint corresponding to the scale of the operable range. For example, the larger the scale of the operable range, the farther the position of the virtual viewpoint is from the candidate plane. Similarly, the position of the virtual viewpoint corresponding to the positional information of the reference point may be set. For example, a virtual viewpoint may be set at a predetermined distance from the set reference point in the vertical direction of the candidate plane.
That is, a table in which the scale of the operable range and the position of the virtual viewpoint are associated with the position information of the reference point may be prepared in advance. In this case, by setting the reference point, the scale of the operable range and the position of the virtual viewpoint are uniquely determined.
The setting of the virtual viewpoint includes adjustment of a virtual inter-pupillary distance (IPD) in VR (Virtual Reality). For example, the interpupillary distance is appropriately set according to the size of the scale of the operable region.

GUI提示部27は、ユーザ5にGUIを提示する。本実施形態では、GUI提示部27は、仮想視点から3次元マップを視認でき、仮想視点及び操作可能範囲を制御できるGUIを提示する。例えば、ユーザ5は、GUIを介して、検出された候補平面を選択し、基準点の位置を設定することが可能である。
またGUI提示部27は、移動体10の経路を生成可能なGUIを提示する。例えば、ユーザ5は、GUIを介して、仮想視点から3次元マップ及び移動体10を観察し、移動体10の現在地から目的地点までの経路を生成することが可能である。
The GUI presenting unit 27 presents the GUI to the user 5 . In the present embodiment, the GUI presenting unit 27 presents a GUI that allows a three-dimensional map to be visually recognized from a virtual viewpoint and a virtual viewpoint and operable range to be controlled. For example, the user 5 can select the detected candidate plane and set the position of the reference point via the GUI.
Also, the GUI presentation unit 27 presents a GUI capable of generating the route of the moving object 10 . For example, the user 5 can observe the three-dimensional map and the moving body 10 from a virtual viewpoint via the GUI and generate a route from the current location of the moving body 10 to the destination point.

なお、本実施形態において、操作可能範囲変更部25及び仮想視点設定部26は、現実の空間に対するユーザの仮想視点の設定、及び現実の空間に対するユーザにより現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップに相当するステップを実行する。
なお、本実施形態において、候補平面検出部23は、現実の空間から仮想視点又は操作可能範囲を設定するための候補平面を検出する検出ステップに相当するステップを実行する。
なお、本実施形態において、基準点設定部24、操作可能範囲変更部25、及び仮想視点設定部26は、現実の空間の大きさに基づいて、仮想視点の位置及び操作可能範囲のスケールを設定する設定ステップに相当するステップを実行する。
なお、本実施形態において、GUI提示部27は、仮想視点及び操作可能範囲を制御可能なGUIを提示する提示ステップに相当するステップを実行する。
なお、本実施形態において、3次元マップは、現実の空間に相当する。
Note that, in the present embodiment, the operable range changing unit 25 and the virtual viewpoint setting unit 26 set the user's virtual viewpoint with respect to the real space, and perform an operation on the real space that allows the user to perform an operation related to the real space. A step corresponding to the control step for controlling the setting of the possible range is executed.
In this embodiment, the candidate plane detection unit 23 executes a step corresponding to a detection step of detecting a candidate plane for setting a virtual viewpoint or an operable range from the real space.
In this embodiment, the reference point setting unit 24, the operable range changing unit 25, and the virtual viewpoint setting unit 26 set the position of the virtual viewpoint and the scale of the operable range based on the size of the real space. Execute the steps corresponding to the setting steps to be performed.
In this embodiment, the GUI presenting unit 27 executes a step corresponding to a presenting step of presenting a GUI capable of controlling the virtual viewpoint and the operable range.
In addition, in this embodiment, the three-dimensional map corresponds to the actual space.

図3は、仮想視点及び操作可能範囲の制御を示すフローチャートである。 FIG. 3 is a flow chart showing control of the virtual viewpoint and the operable range.

移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ101)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。 Three-dimensional measurement of the actual space is performed by the sensor unit 14 of the moving body 10 (step 101). Alternatively, a known map prepared in advance is read by the information acquisition unit 21 . A three-dimensional map is generated by the map generation unit 22 based on the sensing result of the sensor unit 14 .

候補平面検出部23により、3次元マップから候補平面が検出される(ステップ102)。例えば、候補平面検出部23は、所定の軸方向(例えばZ軸方向)に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ103)。ユーザ5は、提示された候補平面を選択する(ステップ104)。 A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 102). For example, the candidate plane detection unit 23 detects a plurality of candidate planes from planes perpendicular to a predetermined axial direction (for example, Z-axis direction). Further, the candidate planes detected by the candidate plane detector 23 are presented to the user 5 (step 103). User 5 selects the presented candidate plane (step 104).

基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ105)。例えば、基準点設定部24は、選択されたXY平面の候補平面におけるX座標及びY座標を設定する。また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ106)。すなわち、ステップ105及びステップ106により、基準点が設定される。
なお、ステップ105及びステップ106の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から基準点の2次元の位置が設定されてもよい。
The reference point setting unit 24 sets the two-dimensional position of the reference point on the selected candidate plane (step 105). For example, the reference point setting unit 24 sets the X coordinate and the Y coordinate on the selected candidate plane of the XY plane. Also, the reference point setting unit 24 vertically moves the set reference point by a predetermined distance from the two-dimensional position (step 106). That is, a reference point is set by steps 105 and 106 .
Note that the order of steps 105 and 106 may be exchanged. For example, it may be moved vertically from the selected candidate plane, and the two-dimensional position of the reference point may be set from the moved plane.

操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ107)。 The operable range changing unit 25 changes the scale of the operable range based on the set reference point (step 107).

仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ108)。例えば、仮想視点設定部26は、基準点よりも候補平面から垂直方向に、基準点よりも離れた位置に仮想視点を設定する。 The virtual viewpoint setting unit 26 sets the position of the virtual viewpoint based on the reference point and the scale of the operable range (step 108). For example, the virtual viewpoint setting unit 26 sets the virtual viewpoint at a position that is vertically away from the candidate plane and further from the reference point than the reference point.

図4は、仮想視点及び操作可能範囲の制御を示す模式図である。図4では、簡略化のため3次元マップが省略されて図示される。
図4Aは、ステップ102を示す模式図である。すなわち、移動体10のセンサ部14により、測定された3次元マップ40から候補平面41が検出される。例えば、3次元マップ内40の所定の方向(重力方向)が設定されることで、重力方向と垂直な平面が候補平面41として検出される。
FIG. 4 is a schematic diagram showing control of the virtual viewpoint and the operable range. In FIG. 4, the three-dimensional map is omitted for simplification.
FIG. 4A is a schematic diagram showing step 102. FIG. That is, the candidate plane 41 is detected from the measured three-dimensional map 40 by the sensor unit 14 of the moving body 10 . For example, by setting a predetermined direction (direction of gravity) in the three-dimensional map 40 , planes perpendicular to the direction of gravity are detected as candidate planes 41 .

図4Bは、ステップ103~106を示す模式図である。
ユーザは、検出された候補平面41を選択し、選択された候補平面上で、基準点42の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を基準点42として設定できる。
FIG. 4B is a schematic diagram showing steps 103-106.
The user selects the detected candidate plane 41 and sets the two-dimensional position of the reference point 42 on the selected candidate plane. Also, the user can set a position, which is vertically moved by a predetermined distance from the set two-dimensional position, as the reference point 42 .

図4Cは、ステップ107及びステップ108を示す模式図である。
操作可能範囲変更部25により、設定された基準点42に基づいて、操作可能範囲43のスケールが変更される。例えば図4Cでは、基準点32を中心に3次元マップ40を覆うようなスケールの操作可能範囲43が設定される。また仮想視点設定部26により、基準点42から重力方向とは反対方向に所定の距離離れた位置に仮想視点44が設定される。
FIG. 4C is a schematic diagram showing steps 107 and 108. FIG.
The operable range changing unit 25 changes the scale of the operable range 43 based on the set reference point 42 . For example, in FIG. 4C, a scaled operable range 43 that covers the three-dimensional map 40 is set around the reference point 32 . Also, the virtual viewpoint setting unit 26 sets a virtual viewpoint 44 at a position a predetermined distance away from the reference point 42 in the direction opposite to the direction of gravity.

図5は、設定された仮想視点から新たな仮想視点を設定するための制御を示すフローチャートである。 FIG. 5 is a flow chart showing control for setting a new virtual viewpoint from the set virtual viewpoint.

図3に示すステップ101~ステップ108により、仮想視点の位置及び操作可能範囲のスケールが決定される(ステップ201)。ここで、ステップ201で決定された基準点、仮想視点、及び操作可能範囲を、便宜上、第1の基準点、第1の仮想視点、及び第1の操作可能範囲と記載する。また新たに決定される基準点、仮想視点、及び操作可能範囲を、第2の基準点、第2の仮想視点、及び第2の操作可能範囲と記載する。 The position of the virtual viewpoint and the scale of the operable range are determined by steps 101 to 108 shown in FIG. 3 (step 201). Here, for convenience, the reference point, virtual viewpoint, and operable range determined in step 201 are referred to as the first reference point, first virtual viewpoint, and first operable range. The newly determined reference point, virtual viewpoint, and operable range are referred to as a second reference point, second virtual viewpoint, and second operable range.

操作可能範囲変更部25及び仮想視点設定部26により、第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲が制御される(ステップ202)。具体的な方法は、図6を用いて説明する。 The operable range changing unit 25 and the virtual viewpoint setting unit 26 control the first virtual viewpoint and the first operable range in order to set the second reference point (step 202). A specific method will be described with reference to FIG.

基準点設定部24により、制御された第1の仮想視点及び第1の操作可能範囲から新たな基準点が設定される(ステップ203)。例えば、ユーザ5が選択した位置又は候補平面に基づいて、第2の基準点が設定される。 A new reference point is set by the reference point setting unit 24 from the controlled first virtual viewpoint and the first operable range (step 203). For example, a second reference point is set based on the position or candidate plane selected by the user 5 .

操作可能範囲変更部25により、第2の操作可能範囲のスケールが変更される(ステップ204)。 The operable range changing unit 25 changes the scale of the second operable range (step 204).

仮想視点設定部26により、第2の仮想視点が設定される(ステップ205)。例えば、仮想視点設定部26は、第2の基準点の位置及び操作可能範囲のスケールに基づいて、仮想視点の位置を設定する。
ユーザ5は、第1の仮想視点から第2の仮想視点へ移動することができる。すなわち、第2の仮想視点から3次元マップを視認することが可能となる。
A second virtual viewpoint is set by the virtual viewpoint setting unit 26 (step 205). For example, the virtual viewpoint setting unit 26 sets the position of the virtual viewpoint based on the position of the second reference point and the scale of the operable range.
User 5 can move from a first virtual viewpoint to a second virtual viewpoint. That is, it becomes possible to view the three-dimensional map from the second virtual viewpoint.

図6は、第2の基準点を設定するための制御例を示す模式図である。図6では、ステップ202の第2の基準点を設定するために、第1の仮想視点及び第1の操作可能範囲の制御の例を説明する。 FIG. 6 is a schematic diagram showing a control example for setting the second reference point. FIG. 6 illustrates an example of controlling the first virtual viewpoint and the first operable range in order to set the second reference point in step 202 .

図6Aは、第1の操作可能範囲53から第2の基準点54を設定する模式図である。図6Aに示す例は、第1の仮想視点の位置及び第1の操作可能範囲のスケールの制御を実行しない場合の例である。 FIG. 6A is a schematic diagram of setting the second reference point 54 from the first operable range 53. FIG. The example shown in FIG. 6A is an example in which the position of the first virtual viewpoint and the scale of the first operable range are not controlled.

図6Aに示すように、3次元マップ50内に第1の基準点51、第1の仮想視点52、及び第1の操作可能範囲53が図示される。ユーザ5は、第1の仮想視点52から3次元マップ50を視認しており、第1の操作可能範囲53内をコントローラ32を介して種々の操作が可能である。
本実施形態では、ユーザ5は、コントローラ32を介して第1の操作可能範囲53内に、第2の基準点54を設定する。例えば、ユーザ5は、コントローラ32を持つ手で所定の位置に手を置くことで、該位置を第2の基準点54の座標として設定することができる。
As shown in FIG. 6A, a first reference point 51, a first virtual viewpoint 52, and a first operable range 53 are illustrated in a three-dimensional map 50. FIG. The user 5 visually recognizes the three-dimensional map 50 from the first virtual viewpoint 52 and can perform various operations within the first operable range 53 via the controller 32 .
In this embodiment, the user 5 sets the second reference point 54 within the first operable range 53 via the controller 32 . For example, the user 5 can set the position as the coordinates of the second reference point 54 by placing the hand holding the controller 32 at a predetermined position.

またユーザ5は、設定した第2の基準点54から第2の仮想視点55及び第2の操作可能範囲56を制御する。例えば、ユーザ5は、コントローラ32を介して、第2の仮想視点55及び第2の操作可能範囲56を制御する。具体的には、第2の仮想視点55の位置がコントローラ32を持つ手の位置に設定されてもよい。また第2の操作可能範囲56のスケールが、コントローラ32で円を描く等のコントローラ32を用いた様々な操作により変更されてもよい。 The user 5 also controls the second virtual viewpoint 55 and the second operable range 56 from the set second reference point 54 . For example, user 5 controls second virtual viewpoint 55 and second operable range 56 via controller 32 . Specifically, the position of the second virtual viewpoint 55 may be set to the position of the hand holding the controller 32 . Also, the scale of the second operable range 56 may be changed by various operations using the controller 32 such as drawing a circle with the controller 32 .

図6Bは、第1の仮想視点及び第1の操作可能範囲を制御する制御例を示す模式図である。また図6Bでは、簡略化のため3次元マップが省略されて図示される。 FIG. 6B is a schematic diagram showing a control example for controlling the first virtual viewpoint and the first operable range. Also, in FIG. 6B, the three-dimensional map is omitted for simplification.

図6Bに示す例では、ユーザ5の望む第2の基準点64の位置が、第1の操作可能範囲63よりも遠い場合を例とする。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の制御例である。 In the example shown in FIG. 6B, it is assumed that the position of the second reference point 64 desired by the user 5 is farther than the first operable range 63 . That is, this is an example of control when the user 5 wants to set a position that cannot be set by the controller 32 as the second reference point.

この場合、仮想視点設定部26により、3次元マップ60全体を俯瞰できるように第1の仮想視点62の位置が設定される。例えば、生成された3次元マップのXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角(ユーザ5の視野)に収まる位置が第1の仮想視点62として設定される。
この場合、第1の基準点61の位置及び第1の操作可能範囲63のスケールは、予め決められた数値に設定される。
In this case, the virtual viewpoint setting unit 26 sets the position of the first virtual viewpoint 62 so that the entire three-dimensional map 60 can be overlooked. For example, the first virtual viewpoint 62 is set at a position where the area of the generated three-dimensional map on the XY plane, YZ plane, or XZ plane fits within the angle of view of the HMD 31 (the field of view of the user 5).
In this case, the position of the first reference point 61 and the scale of the first operable range 63 are set to predetermined numerical values.

ユーザ5は、3次元マップ60全体を俯瞰できるように設定された第1の仮想視点62から、第1の操作可能範囲63内に第2の基準点64を設定する。またユーザ5は、設定した第2の基準点64から第2の仮想視点65及び第2の操作可能範囲66を制御する。 The user 5 sets a second reference point 64 within a first operable range 63 from a first virtual viewpoint 62 set so as to overlook the entire three-dimensional map 60 . The user 5 also controls the second virtual viewpoint 65 and the second operable range 66 from the set second reference point 64 .

図6Cは、第1の仮想視点及び第1の操作可能範囲を制御する他の制御例を示す模式図である。
図6Cに示す例では、生成された3次元マップ70全体を包含するように第1の操作可能範囲73が変更される。すなわち、ユーザ5がコントローラ32で設定できない位置を第2の基準点としたい場合の他の制御例である。
また図6Cでは、地図生成部22により、直方体の3次元マップ70が生成される。
FIG. 6C is a schematic diagram showing another control example for controlling the first virtual viewpoint and the first operable range.
In the example shown in FIG. 6C, the first operable range 73 is changed so as to include the entire generated three-dimensional map 70 . That is, this is another example of control when the user 5 wants to set a position that cannot be set by the controller 32 as the second reference point.
Further, in FIG. 6C, the map generation unit 22 generates a rectangular parallelepiped three-dimensional map 70 .

操作可能範囲変更部25により、生成された3次元マップ70の大きさに基づいて、第1の操作可能範囲73のスケールが変更される。例えば、操作可能範囲変更部25は、生成された3次元マップ70を包含する直方体の体積に基づいて、第1の操作可能範囲73のスケールを変更する。
この場合、第1の基準点71の位置及び第1の仮想視点72の位置は、予め決められた数値に設定される。
The operable range changing unit 25 changes the scale of the first operable range 73 based on the size of the generated three-dimensional map 70 . For example, the operable range changing unit 25 changes the scale of the first operable range 73 based on the volume of the cuboid containing the generated three-dimensional map 70 .
In this case, the position of the first reference point 71 and the position of the first virtual viewpoint 72 are set to predetermined numerical values.

ユーザ5は、3次元マップ70全体を包含するように設定された第1の仮想視点72から、第1の操作可能範囲73内に第2の基準点74を設定する。またユーザ5は、設定した第2の基準点74から第2の仮想視点75及び第2の操作可能範囲76を制御する。 The user 5 sets a second reference point 74 within a first operable range 73 from a first virtual viewpoint 72 set to encompass the entire three-dimensional map 70 . The user 5 also controls the second virtual viewpoint 75 and the second operable range 76 from the set second reference point 74 .

なお、第2の基準点を設定するための制御例は限定されず、例えば、生成された3次元マップの重心を第1の基準点とし、予め設定された第1の仮想視点の位置及び第1の操作可能範囲のスケールに制御されてもよい。 Note that the control example for setting the second reference point is not limited. It may be controlled to a scale of 1 operable range.

図7は、GUIの例を示す模式図である。
図7に示すように、GUI提示部27により、種々のGUIが提示される。図7では、ユーザ5が、地図生成部22により生成された3次元マップを第1の仮想視点から観察している状態の図である。また図7では、ユーザ5に用いられるコントローラ32の位置に対応する箇所に、手の形状をした仮想コントローラが3次元マップに表示される。
FIG. 7 is a schematic diagram showing an example of a GUI.
As shown in FIG. 7, the GUI presentation unit 27 presents various GUIs. FIG. 7 shows a state in which the user 5 observes the three-dimensional map generated by the map generation unit 22 from the first virtual viewpoint. In FIG. 7, a hand-shaped virtual controller is displayed on the three-dimensional map at a location corresponding to the position of the controller 32 used by the user 5 .

図7Aは、仮想視点及び操作可能範囲を制御するための制御GUIの例を示す模式図である。
図7Aに示すように、制御GUI80は、第2の仮想視点及び第2の操作可能範囲を制御するために、検出された候補平面81を提示する。ユーザ5は、仮想コントローラ82を介して、候補平面81を選択することができる。例えば、ユーザ5は、仮想コントローラ82を候補平面81に重畳させるように手(コントローラ32)を動かすことで、候補平面81を選択することができる。
またユーザ5は、選択した候補平面81から第2の基準点83を設定することができる。例えば、選択された候補平面81から仮想コントローラ82を移動させた距離が第2の基準点83の位置となる。同様にユーザ5は、第2の仮想視点84及び第2の操作可能範囲86を制御することが可能である。
FIG. 7A is a schematic diagram showing an example of a control GUI for controlling the virtual viewpoint and the operable range.
As shown in FIG. 7A, the control GUI 80 presents detected candidate planes 81 for controlling the second virtual viewpoint and the second operable range. User 5 can select candidate plane 81 via virtual controller 82 . For example, the user 5 can select the candidate plane 81 by moving the hand (the controller 32 ) so as to superimpose the virtual controller 82 on the candidate plane 81 .
The user 5 can also set a second reference point 83 from the selected candidate plane 81 . For example, the distance by which the virtual controller 82 is moved from the selected candidate plane 81 is the position of the second reference point 83 . Similarly, user 5 can control second virtual viewpoint 84 and second operable range 86 .

なお、仮想視点及び操作可能範囲を制御するための表示及び操作は限定されない。例えば、検出された複数の候補平面が点滅するようにユーザ5に提示されてもよい。また例えば、人差し指を伸ばした状態や手を開いた状態等の仮想コントローラ82の形状ごとに、基準点、仮想視点、及び操作可能範囲の制御が実行されてもよい。
なお、仮想コントローラ82の形状は限定されない。例えば、コントローラ32の形状を模した形状でもよい。
Note that the display and operation for controlling the virtual viewpoint and the operable range are not limited. For example, the plurality of detected candidate planes may be presented to the user 5 so as to blink. Further, for example, control of the reference point, virtual viewpoint, and operable range may be executed for each shape of the virtual controller 82, such as the state in which the index finger is extended or the state in which the hand is open.
Note that the shape of the virtual controller 82 is not limited. For example, it may have a shape that imitates the shape of the controller 32 .

図7Bは、移動体10の経路を生成するための経路GUIの例を示す模式図である。 FIG. 7B is a schematic diagram showing an example of a route GUI for generating the route of the mobile object 10. FIG.

ユーザ5は、経路GUI85を介して、移動体10の経路86を生成する。例えば、ユーザ5は、仮想コントローラ82を動かした際の軌跡を移動体10の経路として生成する。本実施形態では、ユーザ5の右手を示す仮想コントローラ82により、移動体10の経路が生成される。 The user 5 creates a route 86 for the mobile object 10 via the route GUI 85 . For example, the user 5 generates a trajectory when moving the virtual controller 82 as the path of the moving object 10 . In this embodiment, the virtual controller 82 representing the right hand of the user 5 generates the route of the mobile object 10 .

なお、経路GUI85を介して移動体10の種々の操作が実行されてもよい。例えば、移動体10に搭載されたカメラの撮影タイミングを設定できてもよい。また例えば、移動体10の速度や飛行パターン等が制御できてもよい。すなわち、旋回や8の字といった、パターンとして規定された軌跡や速度等が制御できる。例えば、旋回や8の字といった飛行パターンに対して、旋回や8の字を行う際の移動体10の速度や曲率等を設定できる。
飛行パターンに関連付けられる速度や姿勢等のパラメータが、デフォルト設定される場合もあり得る。すなわち所定の飛行パターンをどのように移動するかは、デフォルトで設定されていてもよい。
Various operations of the moving body 10 may be performed via the route GUI 85 . For example, the imaging timing of the camera mounted on the moving body 10 may be set. Further, for example, the speed or flight pattern of the moving body 10 may be controlled. That is, it is possible to control the trajectory, speed, etc. defined as a pattern, such as a turn or a figure of eight. For example, for a flight pattern such as a turn or a figure of eight, the speed, curvature, etc. of the moving body 10 when performing a turn or a figure of eight can be set.
Parameters such as speed and attitude associated with the flight pattern may be defaulted. That is, how to move a predetermined flight pattern may be set by default.

また制御GUI80及び経路GUI85を操作する際の仮想視点は、移動体10に搭載されたカメラの位置に設定されてもよい。その場合、ユーザ5は、カメラの画角から3次元マップ又は実際に撮影される画像を視認できる。また移動体10に搭載されるカメラが360度カメラの場合、ユーザ5の操作に応じて視界を回転させることも可能である。 Also, the virtual viewpoint when operating the control GUI 80 and the route GUI 85 may be set at the position of the camera mounted on the moving body 10 . In that case, the user 5 can visually recognize the three-dimensional map or the actually captured image from the angle of view of the camera. Also, if the camera mounted on the moving object 10 is a 360-degree camera, it is possible to rotate the field of view according to the operation of the user 5 .

以上、第1の実施形態に係る情報処理方法は、3次元マップに対するユーザ5の仮想視点6の設定、及び3次元マップに対するユーザ5により3次元マップに関する操作が実行可能である操作可能範囲7の設定を制御する。これにより、操作における高い直観性を発揮させることが可能となる。 As described above, in the information processing method according to the first embodiment, setting of the virtual viewpoint 6 of the user 5 with respect to the 3D map, and setting of the operable range 7 in which the user 5 can perform operations regarding the 3D map. Control settings. This makes it possible to exhibit high intuition in operation.

従来、移動体の主観視点での操作は、視界が限られ、移動体の運動特性を理解した上で複雑な操作を行う必要がある。一方、地図を用いた事前の飛行計画は、GPS(Global Positioning System、Global Positioning Satellite)が必要であったり、事前に地図を持っている必要があり、それが適用できる状況が限られる。加えて事前の地図による経路指定は2次元のものが多い。 Conventionally, when operating a mobile object from a subjective viewpoint, the field of view is limited, and it is necessary to understand the motion characteristics of the mobile object before performing complicated operations. On the other hand, prior flight planning using a map requires a GPS (Global Positioning System, Global Positioning Satellite) or requires a map in advance, which limits the circumstances in which it can be applied. In addition, many pre-mapped routings are two-dimensional.

そこで本技術では、空間内に設定された、ユーザの仮想視点及びユーザの空間に関する操作が実行可能な操作可能範囲が制御される。これにより、予め空間的なマップが得られていない場合でも、3次元の範囲において移動体の経路が指定できる。また仮想視点や操作可能範囲を柔軟に選ぶことが可能となり、指定したい場所の範囲や求められる指定精度を得ることが可能となる。 Therefore, in the present technology, an operable range in which an operation regarding the user's virtual viewpoint and the user's space, which is set in the space, is executable is controlled. As a result, even if a spatial map has not been obtained in advance, the route of the moving object can be designated within a three-dimensional range. In addition, it is possible to flexibly select the virtual viewpoint and the operable range, and it is possible to obtain the range of the place to be designated and the required designation accuracy.

<第2の実施形態>
本技術に係る第2の実施形態の仮想表現システムについて説明する。これ以降の説明では、上記の実施形態で説明した仮想表現システムにおける構成及び作用と同様な部分については、その説明を省略又は簡略化する。
<Second embodiment>
A virtual representation system of a second embodiment according to the present technology will be described. In the following description, descriptions of parts similar to the configuration and operation of the virtual representation system described in the above embodiment will be omitted or simplified.

第1の実施形態では、候補平面から基準点が設定された。第2の実施形態では、候補平面から仮想視点が設定される。また仮想視点が設定された後、操作可能範囲のスケールが変更される。 In the first embodiment, the reference point was set from the candidate plane. In the second embodiment, virtual viewpoints are set from candidate planes. Also, after the virtual viewpoint is set, the scale of the operable range is changed.

図8は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。 FIG. 8 is a flow chart showing another control example of the virtual viewpoint and the operable range.

移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ301)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。 Three-dimensional measurement of the actual space is performed by the sensor unit 14 of the moving body 10 (step 301). Alternatively, a known map prepared in advance is read by the information acquisition unit 21 . A three-dimensional map is generated by the map generation unit 22 based on the sensing result of the sensor unit 14 .

候補平面検出部23により、3次元マップから候補平面が検出される(ステップ302)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ303)。ユーザ5は、提示された候補平面を選択する(ステップ304)。 A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 302). For example, the candidate plane detector 23 detects a plurality of candidate planes from planes perpendicular to a predetermined axial direction. Further, the candidate planes detected by the candidate plane detector 23 are presented to the user 5 (step 303). User 5 selects the presented candidate plane (step 304).

仮想視点設定部26により、選択された候補平面上で仮想視点の2次元の位置が設定される(ステップ305)。例えば、仮想視点設定部26は、選択された候補平面(XY平面)におけるX座標及びY座標を設定する。また仮想視点設定部26により、設定された仮想視点の2次元の位置から所定の距離に垂直方向に移動される(ステップ306)。すなわち、ステップ305及びステップ306により、仮想視点が設定される。
なお、ステップ305及びステップ306の順番は入れ替えてもよい。例えば、選択された候補平面から垂直に移動し、移動された面から仮想視点の2次元の位置が設定されてもよい。
The virtual viewpoint setting unit 26 sets the two-dimensional position of the virtual viewpoint on the selected candidate plane (step 305). For example, the virtual viewpoint setting unit 26 sets the X coordinate and the Y coordinate on the selected candidate plane (XY plane). Also, the virtual viewpoint setting unit 26 moves the set two-dimensional position of the virtual viewpoint in the vertical direction by a predetermined distance (step 306). That is, a virtual viewpoint is set by steps 305 and 306 .
Note that the order of steps 305 and 306 may be interchanged. For example, the virtual viewpoint may be moved vertically from the selected candidate plane and the two-dimensional position of the virtual viewpoint may be set from the moved plane.

操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲のスケールが変更される(ステップ307)。 The operable range changing unit 25 changes the scale of the operable range based on the set virtual viewpoint (step 307).

基準点設定部24により、仮想視点の位置及び操作可能範囲のスケールに基づいて、基準点の位置が設定される(ステップ308)。例えば、基準点設定部24は、操作可能範囲の中心、もしくは仮想視点の2次元の位置と同じ位置かつ候補平面の垂直方向に所定の距離離れた位置に設定する。
なお、ステップ307及びステップ308の順番は入れ替えてもよい。例えば、操作可能範囲変更部25は、仮想視点の位置と基準点の位置とに基づいて、操作可能範囲を変更してもよい。
なお、仮想視点の位置に対して、操作可能範囲のスケール及び基準点の位置が紐づけられたテーブルが予め用意されてもよい。この場合、仮想視点が設定されることにより、操作可能範囲のスケール及び基準点の位置が一意に決定される。
The reference point setting unit 24 sets the position of the reference point based on the position of the virtual viewpoint and the scale of the operable range (step 308). For example, the reference point setting unit 24 sets the center of the operable range, or a position that is the same as the two-dimensional position of the virtual viewpoint and is separated from the candidate plane by a predetermined distance in the vertical direction.
Note that the order of steps 307 and 308 may be exchanged. For example, the operable range changing unit 25 may change the operable range based on the position of the virtual viewpoint and the position of the reference point.
A table in which the scale of the operable range and the position of the reference point are associated with the position of the virtual viewpoint may be prepared in advance. In this case, the scale of the operable range and the position of the reference point are uniquely determined by setting the virtual viewpoint.

第1の実施形態では、候補平面として重力方向と垂直な平面が検出された。これに限定されず、3次元マップの任意の面が候補平面として検出されてもよい。 In the first embodiment, planes perpendicular to the direction of gravity are detected as candidate planes. Any surface on the three-dimensional map may be detected as a candidate plane without being limited to this.

図9は、候補平面の選択の例を示す模式図である。なお図9では、簡略化のため3次元マップが省略されて図示される。 FIG. 9 is a schematic diagram showing an example of selection of candidate planes. Note that the three-dimensional map is omitted in FIG. 9 for the sake of simplification.

図9Aは、候補平面の検出を示す模式図である。
候補平面検出部23は、3次元マップ90の任意の面を候補平面として検出する。本実施形態では、3次元マップ90の各平面に応じて複数の候補平面が検出される。
FIG. 9A is a schematic diagram illustrating detection of candidate planes.
The candidate plane detection unit 23 detects arbitrary planes of the three-dimensional map 90 as candidate planes. In this embodiment, multiple candidate planes are detected according to each plane of the three-dimensional map 90 .

図9Bは、仮想視点の位置の設定を示す模式図である。
ユーザは、検出された候補平面91を選択し、選択された候補平面91上で、仮想視点92の2次元の位置を設定する。またユーザは、設定した2次元の位置から所定の距離に垂直方向に移動した位置を仮想視点92として設定できる。
FIG. 9B is a schematic diagram showing setting of the position of the virtual viewpoint.
The user selects the detected candidate plane 91 and sets the two-dimensional position of the virtual viewpoint 92 on the selected candidate plane 91 . Also, the user can set a position, which is vertically moved by a predetermined distance from the set two-dimensional position, as the virtual viewpoint 92 .

図9Cは、操作可能範囲及び基準点の制御を示す模式図である。
操作可能範囲変更部25により、設定された仮想視点に基づいて、操作可能範囲93のスケールが変更される。また基準点設定部24により、仮想視点92から候補平面91方向に所定の距離離れた位置に基準点94が設定される。もしくは基準点設定部24により操作可能範囲93の中心に基準点94が設定されてもよい。
FIG. 9C is a schematic diagram showing control of the operable range and reference points.
The operable range changing unit 25 changes the scale of the operable range 93 based on the set virtual viewpoint. Also, the reference point setting unit 24 sets a reference point 94 at a position a predetermined distance away from the virtual viewpoint 92 in the direction of the candidate plane 91 . Alternatively, the reference point 94 may be set at the center of the operable range 93 by the reference point setting section 24 .

図10は、仮想視点及び操作可能範囲の他の制御例を示すフローチャートである。
図10では、3次元マップにおける所定の方向が選択されることで、候補平面が決定される場合の例である。例えば、重力方向が選択された際に、重力方向とは垂直の平面が自動で選択される場合、ユーザは候補平面を選択する制御を行わなくてよい。
FIG. 10 is a flow chart showing another control example of the virtual viewpoint and the operable range.
FIG. 10 shows an example in which candidate planes are determined by selecting a predetermined direction in the three-dimensional map. For example, when a plane perpendicular to the direction of gravity is automatically selected when the direction of gravity is selected, the user need not perform control to select a candidate plane.

移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ401)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。 Three-dimensional measurement of the actual space is performed by the sensor unit 14 of the moving body 10 (step 401). Alternatively, a known map prepared in advance is read by the information acquisition unit 21 . A three-dimensional map is generated by the map generation unit 22 based on the sensing result of the sensor unit 14 .

ユーザ5により、3次元マップから所定の方向が選択される(ステップ402)。候補平面検出部23は、選択された所定の方向に基づいて、候補平面を選択する。 A predetermined direction is selected from the three-dimensional map by the user 5 (step 402). The candidate plane detector 23 selects a candidate plane based on the selected predetermined direction.

基準点設定部24により、選択された候補平面上で基準点の2次元の位置が設定される(ステップ403)。
また基準点設定部24により、設定された基準点の2次元の位置から所定の距離に垂直方向に移動される(ステップ404)。
The reference point setting unit 24 sets the two-dimensional position of the reference point on the selected candidate plane (step 403).
Also, the reference point setting unit 24 vertically moves the set reference point by a predetermined distance from the two-dimensional position (step 404).

操作可能範囲変更部25により、設定された基準点に基づいて、操作可能範囲のスケールが変更される(ステップ405)。 The operable range changing unit 25 changes the scale of the operable range based on the set reference point (step 405).

仮想視点設定部26により、基準点及び操作可能範囲のスケールに基づいて、仮想視点の位置が設定される(ステップ406)。 The virtual viewpoint setting unit 26 sets the position of the virtual viewpoint based on the reference point and the scale of the operable range (step 406).

<第3の実施形態>
第1の実施形態では、ユーザ5は、仮想視点から3次元マップを観察し、仮想コントローラを用いることで種々の操作が実行できた。第3の実施形態では、GUI提示部27によりユーザの仮想視点及び仮想コントローラを含む仮想身体が表示されるGUIが提示される。
<Third Embodiment>
In the first embodiment, the user 5 was able to observe the three-dimensional map from a virtual viewpoint and perform various operations using the virtual controller. In the third embodiment, the GUI presenting unit 27 presents a GUI displaying a virtual body including a virtual viewpoint and a virtual controller of the user.

図11は、仮想身体の設定の制御例を示すフローチャートである。 FIG. 11 is a flowchart showing an example of control for setting the virtual body.

移動体10のセンサ部14により現実の空間の3次元計測が行われる(ステップ501)。または、情報取得部21により、予め用意された既知の地図が読込される。地図生成部22により、センサ部14のセンシング結果に基づいて、3次元マップが生成される。 Three-dimensional measurement of the actual space is performed by the sensor unit 14 of the moving body 10 (step 501). Alternatively, a known map prepared in advance is read by the information acquisition unit 21 . A three-dimensional map is generated by the map generation unit 22 based on the sensing result of the sensor unit 14 .

候補平面検出部23により、3次元マップから候補平面が検出される(ステップ502)。例えば、候補平面検出部23は、所定の軸方向に垂直な平面から複数の候補平面を検出する。また候補平面検出部23により、検出された候補平面がユーザ5に提示される(ステップ503)。ユーザ5は、提示された候補平面を選択する(ステップ504)。 A candidate plane is detected from the three-dimensional map by the candidate plane detector 23 (step 502). For example, the candidate plane detector 23 detects a plurality of candidate planes from planes perpendicular to a predetermined axial direction. Further, the candidate plane detected by the candidate plane detector 23 is presented to the user 5 (step 503). User 5 selects the presented candidate plane (step 504).

仮想視点設定部26により、選択された候補平面が軸上に移動される(ステップ505)。例えば、ユーザ5により設定された重力方向等の所定の軸に従って、候補平面が軸上に正又は負の方向へ移動される。
また仮想視点設定部26により、移動された候補平面上の仮想身体の頭部(仮想視点)の2次元の位置が指定される(ステップ506)。
The selected candidate plane is moved on the axis by the virtual viewpoint setting unit 26 (step 505). For example, according to a predetermined axis such as the direction of gravity set by the user 5, the candidate plane is moved on the axis in the positive or negative direction.
The virtual viewpoint setting unit 26 designates the two-dimensional position of the head (virtual viewpoint) of the virtual body on the moved candidate plane (step 506).

操作可能範囲変更部25により、仮想身体の身長が指定される(ステップ507)。
仮想身体は、仮想視点を含む頭部、胴体、両腕、及び両足を有する。特に両腕は、仮想コントローラである両手を含む。例えば、ユーザ5がコントローラを動かすことで、仮想身体の手を操作することができる。すなわち、仮想身体の腕の長さが操作可能範囲のスケールとなる。また仮想身体は、ユーザ5のアバターとも言える。
本実施形態では、仮想身体の身長に基づいて、両腕の長さが予め設定されている。例えば、身長と両腕の長さとが紐づけられたテーブル等が記録され、操作可能範囲変更部25が該テーブルに従い、指定された身長から両腕の長さ(操作可能範囲のスケール)が変更される。もちろんこれに限定されず、例えば、ユーザ5の装着するHMD31の位置とコントローラ32の位置との関係に応じて、仮想身体の身長及び両腕の長さが決定されてもよい。
The height of the virtual body is specified by the operable range changing unit 25 (step 507).
A virtual body has a head, a torso, arms and legs that contain a virtual viewpoint. Specifically, both arms include both hands that are virtual controllers. For example, the user 5 can operate the hands of the virtual body by moving the controller. That is, the arm length of the virtual body becomes the scale of the operable range. Also, the virtual body can be said to be an avatar of the user 5 .
In this embodiment, the length of both arms is preset based on the height of the virtual body. For example, a table or the like in which the height and the length of both arms are linked is recorded, and the operable range changing unit 25 changes the length of both arms (scale of the operable range) from the designated height according to the table. be done. Of course, the height and the length of both arms of the virtual body may be determined according to the relationship between the position of the HMD 31 worn by the user 5 and the position of the controller 32, for example.

仮想視点設定部26及び操作可能範囲変更部25により、指定された仮想身体に基づいて、仮想身体が設定される(ステップ508)。 A virtual body is set by the virtual viewpoint setting unit 26 and the operable range changing unit 25 based on the designated virtual body (step 508).

なお、仮想身体の設定の方法は限定されない。例えば、ステップ506の代わりに、候補平面上における仮想身体の立つ位置が指定されてもよい。また例えば、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が所定のアルゴリズムに従い設定されてもよい。また例えば、候補平面の2次元の位置から、仮想身体の頭部の位置が指定されてもよい。 Note that the method of setting the virtual body is not limited. For example, instead of step 506, the position where the virtual body stands on the candidate plane may be designated. Further, for example, the height of the virtual body may be designated, and the virtual viewpoint and the operable range may be set according to a predetermined algorithm. Further, for example, the position of the head of the virtual body may be designated from the two-dimensional position of the candidate plane.

図12は、仮想身体の例を示す模式図である。なお図12では、仮想身体の腰や足等の下半身が省略されて図示される。 FIG. 12 is a schematic diagram showing an example of a virtual body. Note that FIG. 12 omits the lower half of the body such as the waist and legs of the virtual body.

図12に示すように、ユーザ5は、候補平面110上の仮想身体111の頭部112の位置を指定する。例えば、ユーザ5により、候補平面110における所定の軸113上に仮想身体111の頭部112の中心が設定される。 As shown in FIG. 12, user 5 specifies the position of head 112 of virtual body 111 on candidate plane 110 . For example, the user 5 sets the center of the head 112 of the virtual body 111 on the predetermined axis 113 on the candidate plane 110 .

ユーザ5は、仮想身体の身長を指定する。例えば、候補平面110に仮想身体111の足が接触するような身長に指定することができる。また本実施形態では、仮想身体の身長が指定されることで、仮想身体の大きさが決定される。例えば、仮想身体116の身長が大きい程、仮想身体116の頭部117、両腕118の長さ等が大きくなるように決定される。同様に、仮想身体111(小さい方)の身長が小さい程、仮想身体111の頭部112、両腕113の長さ等が小さくなるように決定される。
また仮想身体111(116)の目114(119)の位置も、仮想身体の身長に基づいて決定されてもよい。例えば、ユーザ5の装着したHMD31から瞳孔間距離が取得され、HMD31の位置(高さ)と該瞳孔間距離との位置関係から、仮想身体の目(仮想視点)の位置が決定されてもよい。
すなわち、仮想身体の身長に応じた、仮想視点の位置及び操作可能範囲のスケールが紐づけられてもよい。
User 5 specifies the height of the virtual body. For example, the height can be specified so that the feet of the virtual body 111 are in contact with the candidate plane 110 . Also, in this embodiment, the size of the virtual body is determined by designating the height of the virtual body. For example, the lengths of the head 117 and both arms 118 of the virtual body 116 are determined to increase as the height of the virtual body 116 increases. Similarly, the smaller the height of the virtual body 111 (the smaller one), the smaller the lengths of the head 112 and both arms 113 of the virtual body 111 are determined.
The position of the eyes 114 (119) of the virtual body 111 (116) may also be determined based on the height of the virtual body. For example, the interpupillary distance may be obtained from the HMD 31 worn by the user 5, and the positions of the eyes (virtual viewpoint) of the virtual body may be determined from the positional relationship between the position (height) of the HMD 31 and the interpupillary distance. .
That is, the position of the virtual viewpoint and the scale of the operable range may be associated with the height of the virtual body.

また仮想身体111(116)の手115(120)は、仮想コントローラの機能を有する。ユーザ5は、仮想身体111(116)の手115(120)を用いて、候補平面の選択や移動体10の経路の生成等が可能となる。
例えば、ユーザ5が腕を最大限に伸ばした際、仮想身体111(116)も腕113(118)を最大限に伸ばす。その際の仮想身体111(116)の腕113(118)の長さがユーザ5の操作可能範囲121となる。この場合、仮想身体の身長に基づいて、操作可能範囲121のスケールが変更される。もちろん、腕が短い(仮想身体の身長が小さい)と操作可能範囲121のスケールも小さくなる。
Also, the hand 115 (120) of the virtual body 111 (116) has the function of a virtual controller. The user 5 can use the hand 115 (120) of the virtual body 111 (116) to select a candidate plane, generate a route for the moving body 10, and the like.
For example, when the user 5 stretches the arm to the maximum, the virtual body 111 (116) also stretches the arm 113 (118) to the maximum. The length of the arm 113 (118) of the virtual body 111 (116) at that time becomes the operable range 121 of the user 5. FIG. In this case, the scale of the operable range 121 is changed based on the height of the virtual body. Of course, if the arm is short (the height of the virtual body is small), the scale of the operable range 121 will also be small.

なお、仮想身体における仮想視点及び操作可能範囲の制御は限定されない。例えば、仮想身体の身長が小さくても、仮想身体の腕が長く設定されてもよい。また例えば、操作可能範囲が仮想身体の腕の長さ以上に設定されてもよい。この場合、ユーザ5が体を傾けることにより、HMD31に搭載されたジャイロセンサ等が体の傾きに関する情報を取得し、仮想身体が同様に傾いてもよい。 Note that control of the virtual viewpoint and the operable range of the virtual body is not limited. For example, even if the height of the virtual body is short, the arms of the virtual body may be set long. Further, for example, the operable range may be set to be equal to or longer than the arm length of the virtual body. In this case, when the user 5 tilts the body, the gyro sensor or the like mounted on the HMD 31 may acquire information about the body tilt, and the virtual body may similarly tilt.

図13は、仮想身体から新たな仮想身体を設定するための制御例を示すフローチャートである。 FIG. 13 is a flowchart showing a control example for setting a new virtual body from virtual bodies.

図11に示すステップ501~ステップ508により、仮想身体の身長が決定される(ステップ601)。すなわち、仮想視点の位置、及び操作可能範囲のスケールが決定される。
ここで、ステップ601で決定された仮想身体を、便宜上、第1の仮想身体と記載する。また新たに決定される仮想身体を、第2の仮想身体と記載する。
The height of the virtual body is determined by steps 501 to 508 shown in FIG. 11 (step 601). That is, the position of the virtual viewpoint and the scale of the operable range are determined.
Here, the virtual body determined in step 601 is referred to as the first virtual body for convenience. A newly determined virtual body is referred to as a second virtual body.

操作可能範囲変更部25及び仮想視点設定部26により、新たな仮想身体を設定するために、第1の仮想身体が制御される(ステップ602)。
仮想身体を介したユーザ5の操作により、第2の仮想身体の位置が設定される(ステップ603)。具体的な方法は、図14を用いて説明する。
The first virtual body is controlled by the operable range changing section 25 and the virtual viewpoint setting section 26 to set a new virtual body (step 602).
The position of the second virtual body is set by the operation of the user 5 via the virtual body (step 603). A specific method will be described with reference to FIG.

ユーザ5により、第2の仮想身体の身長が指定される(ステップ604)。具体的には、操作可能範囲変更部25及び仮想視点設定部26により、指定された仮想身体の身長に基づいて、仮想視点及び操作可能範囲が制御される。
ユーザ5は、第1の仮想身体から第2の仮想身体へ操作を変更することができる。すなわち、第2の仮想身体を用いて種々の操作が可能となる。
User 5 specifies the height of the second virtual body (step 604). Specifically, the operable range changing unit 25 and the virtual viewpoint setting unit 26 control the virtual viewpoint and the operable range based on the specified height of the virtual body.
The user 5 can change the operation from the first virtual body to the second virtual body. That is, various operations are possible using the second virtual body.

図14は、第2の仮想身体を設定するための制御例を示す模式図である。図14では、ステップ602及びステップ603における具体例を説明する。 FIG. 14 is a schematic diagram showing a control example for setting the second virtual body. In FIG. 14, a specific example in steps 602 and 603 will be described.

図14Aは、候補平面上に仮想身体を設定する場合の模式図である。 FIG. 14A is a schematic diagram when setting a virtual body on a candidate plane.

図14Aに示すように、ユーザ5は、第1の仮想身体130が指131(仮想コントローラ)で指定した箇所を候補平面132として選択することが可能である。例えば、ユーザ5は、仮想身体130の手131から直線状の位置を候補平面として選択できる。この場合、GUI提示部27により、仮想身体130の手131からレーザポインタのような点線133が射出される様子が提示される。この点線133が3次元マップ内の面と交差することで、候補平面132が選択される。 As shown in FIG. 14A, the user 5 can select, as a candidate plane 132, a location designated by the first virtual body 130 with a finger 131 (virtual controller). For example, the user 5 can select a linear position from the hand 131 of the virtual body 130 as a candidate plane. In this case, the GUI presenting unit 27 presents a state in which a dotted line 133 like a laser pointer is emitted from the hand 131 of the virtual body 130 . A candidate plane 132 is selected by intersecting the dotted line 133 with a plane in the three-dimensional map.

選択された候補平面からステップ505~ステップ508に従い、第2の仮想身体134が設定される。 A second virtual body 134 is set according to steps 505 to 508 from the selected candidate plane.

図14Bは、候補平面の設定の例を示す模式図である。 FIG. 14B is a schematic diagram showing an example of setting candidate planes.

図14Bに示すように、ユーザ5は、第1の仮想身体140の手141を用いて候補平面142を生成する事が可能である。例えば、ユーザ5は、仮想身体140の手141で空中に四角を描くように動かした場合、四角を候補平面142として生成できる。 As shown in FIG. 14B, user 5 can generate candidate plane 142 using hand 141 of first virtual body 140 . For example, when the user 5 moves the hand 141 of the virtual body 140 so as to draw a square in the air, the square can be generated as the candidate plane 142 .

生成された候補平面から第2の仮想身体143の立つ位置及び身長が指定されることで、第2の仮想身体143が設定される。
なお、候補平面を生成する方法は限定されない。例えば、ユーザ5は、コントローラ32を用いて、候補平面生成モードを選択することで、任意の箇所に候補平面を生成する。また例えば、仮想身体の手を広げる等の所定の動作を実行することで、候補平面が生成されてもよい。
The second virtual body 143 is set by designating the standing position and height of the second virtual body 143 from the generated candidate plane.
Note that the method for generating candidate planes is not limited. For example, the user 5 uses the controller 32 to select a candidate plane generation mode to generate candidate planes at arbitrary locations. Further, for example, candidate planes may be generated by performing a predetermined action such as spreading the hands of the virtual body.

図14Cは、第1の仮想身体を制御する制御例を示す模式図である。また図14Cでは、簡略化のため3次元マップが省略されて図示される。 FIG. 14C is a schematic diagram showing a control example for controlling the first virtual body. Also, in FIG. 14C, the three-dimensional map is omitted for simplification.

図14Cに示す例では、第1の仮想身体150の手の届かない位置に、第2の仮想身体を設定する場合を例とする。 In the example shown in FIG. 14C, the case of setting the second virtual body at a position out of reach of the first virtual body 150 is taken as an example.

図14Cに示すように、3次元マップ150全体を俯瞰できるように第1の仮想身体が制御される。例えば、仮想視点設定部26により、生成された3次元マップ150のXY平面、YZ平面、又はXZ平面における面積が、HMD31の画角に収まる位置が第1の仮想身体151の目の位置(仮想視点の位置)として設定される。また例えば、操作可能範囲変更部25により、生成された3次元マップ150を包含する直方体の体積に基づいて、第1の仮想身体の腕の長さ(操作可能範囲のスケール)が設定されてもよい。 As shown in FIG. 14C, the first virtual body is controlled so that the entire three-dimensional map 150 can be overlooked. For example, the eye position of the first virtual body 151 (virtual position of the viewpoint). Further, for example, the operable range changing unit 25 may set the arm length (operable range scale) of the first virtual body based on the volume of the cuboid containing the generated three-dimensional map 150. good.

ユーザ5は、制御された第1の仮想身体151を介して、第2の仮想身体152を設定する。例えば、第1の仮想身体151の手により指定された箇所が候補平面又は第2の仮想身体152の頭部の位置として設定されてもよい。 User 5 sets second virtual body 152 via controlled first virtual body 151 . For example, a point designated by the hand of the first virtual body 151 may be set as the candidate plane or the position of the head of the second virtual body 152 .

図14Dは、第1の仮想身体を制御する制御例を示す模式図である。
図14Dでは、第1の仮想身体161の腕が3次元マップ160全体に届くように、第1の仮想身体161が拡大される。具体的には、操作可能範囲変更部25により、3次元マップ160の大きさに基づいて、操作可能範囲のスケールが変更される。すなわち、第1の仮想身体161の腕の長さが変更される。また変更された第1の仮想身体161の腕の長さに基づいて、第1の仮想身体161の身長が決定される。
FIG. 14D is a schematic diagram showing a control example for controlling the first virtual body.
In FIG. 14D, the first virtual body 161 is enlarged so that the arms of the first virtual body 161 reach the entire three-dimensional map 160 . Specifically, the operable range changing unit 25 changes the scale of the operable range based on the size of the three-dimensional map 160 . That is, the arm length of the first virtual body 161 is changed. Also, the height of the first virtual body 161 is determined based on the changed arm length of the first virtual body 161 .

この場合、制御された第1の仮想身体161の一部が3次元マップ160と干渉してもよい。例えば、図14Dでは、第1の仮想身体161の下半身が3次元マップ160を貫通るように描写(表現)されてもよい。
ユーザ5は、制御された第1の仮想身体161を介して、第2の仮想身体162を設定する。
In this case, part of the controlled first virtual body 161 may interfere with the three-dimensional map 160 . For example, in FIG. 14D , the lower body of the first virtual body 161 may be drawn (represented) so as to penetrate the three-dimensional map 160 .
The user 5 sets the second virtual body 162 via the controlled first virtual body 161 .

ここで、仮想身体による操作時の位置を決定するアルゴリズムの一例を示す。なお、本アルゴリズムにおける位置とは、ユーザの目の位置及び仮想視点の位置、又はコントローラの位置及び仮想コントローラの位置を示す。 Here, an example of an algorithm for determining a position during manipulation by a virtual body will be shown. Note that the position in this algorithm indicates the position of the user's eyes and the position of the virtual viewpoint, or the position of the controller and the position of the virtual controller.

仮想身体が設定される際に、その時点の現実におけるユーザの位置Pr0、その時点の3次元マップにおけるユーザの位置Pv0、及び仮想身体のスケールSが決定される。
またユーザが、手を動かす、移動する等の仮想身体を操作した際に、現在の現実におけるユーザの位置Prc、及び現在の3次元マップにおけるユーザの位置Pvcが計測される。
When the virtual body is set, the user's position Pr0 in reality at that time, the user's position Pv0 in the three-dimensional map at that time, and the scale S of the virtual body are determined.
Also, when the user manipulates the virtual body such as by moving the hand or moving, the user's current position Prc in reality and the user's current position Pvc in the three-dimensional map are measured.

仮想身体のスケールとは、設定された仮想身体の倍率を示す。例えば、ユーザの身長を1とした場合の、設定された仮想身体の身長がSとなる。具体的には、ユーザが170cmの場合に、仮想身体の身長が340cmに拡大された時は、スケールが2となる。 The virtual body scale indicates the set magnification of the virtual body. For example, when the height of the user is 1, the height of the set virtual body is S. Specifically, when the user is 170 cm and the height of the virtual body is increased to 340 cm, the scale is 2.

ここで、現在の3次元マップにおけるユーザの位置Pvcを求める式は、下記のように表す。
Pvc=S×(Prc-Pr0)+Pv0
Here, the formula for obtaining the user's position Pvc on the current three-dimensional map is expressed as follows.
Pvc=S×(Prc−Pr0)+Pv0

上記の式が、レンダリングされた毎フレームごとに実行される。これにより、ユーザ5のコントローラ32の操作と連動して、仮想コントローラの操作が可能となる。 The above formula is executed for every rendered frame. As a result, the virtual controller can be operated in conjunction with the operation of the controller 32 by the user 5 .

これにより、3次元マップ等の仮想的な空間であっても、直感的な操作が可能となる。
また操作可能範囲がユーザの持つコントローラの届く範囲、すなわち、ユーザの手の届く範囲に設定されるため、人間の身体的な空間把握能力を利用することができる。このため、3次元的な位置姿勢の指定を、少ない手数で正確に学習コストも低く実行できる。
This enables intuitive operation even in a virtual space such as a three-dimensional map.
In addition, since the operable range is set within the reach of the controller held by the user, that is, within the reach of the user's hand, it is possible to utilize the physical ability of humans to perceive space. Therefore, the three-dimensional position and orientation can be specified accurately with a small number of steps and at a low learning cost.

<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
<Other embodiments>
The present technology is not limited to the embodiments described above, and various other embodiments can be implemented.

上記の実施形態では、仮想視点が仮想身体の目、操作可能範囲が仮想身体の腕の長さとして用いられた。これに限定されず、基準点の座標が仮想身体の腰の位置として設定されてもよい。 In the above embodiment, the virtual viewpoint is used as the eyes of the virtual body, and the operable range is used as the arm length of the virtual body. Instead of being limited to this, the coordinates of the reference point may be set as the waist position of the virtual body.

上記の実施形態では、仮想視点が操作可能範囲内に設定された。これに限定されず、仮想視点は操作可能範囲外の任意の位置に設定されてもよい。 In the above embodiment, the virtual viewpoint was set within the operable range. The virtual viewpoint is not limited to this, and the virtual viewpoint may be set at an arbitrary position outside the operable range.

上記の実施形態では、重力方向に基づく候補平面上に仮想身体が設定された。これに限定されず、任意の候補平面上に仮想身体が設定されてもよい。例えば、仮想身体が壁や天井に両足が接触するように設定されてもよい。この場合、ユーザは、3次元マップの天井を仮想視点から見る際に、見上げる必要がなくなる。すなわち、ユーザへの身体的な負担を減らすことが可能となる。 In the above embodiment, the virtual body was set on the candidate plane based on the direction of gravity. The virtual body is not limited to this, and the virtual body may be set on any candidate plane. For example, the virtual body may be set so that both feet are in contact with the wall or ceiling. In this case, the user does not need to look up when viewing the ceiling of the 3D map from the virtual viewpoint. That is, it becomes possible to reduce the physical burden on the user.

上記の実施形態では、仮想身体の身長が指定されることで、仮想視点及び操作可能範囲が決定された。これに限定されず、3次元マップの大きさに基づいて、仮想身体が決定されてもよい。 In the above embodiment, the virtual viewpoint and the operable range are determined by specifying the height of the virtual body. Without being limited to this, the virtual body may be determined based on the size of the 3D map.

図15は、仮想身体の設定例を示す模式図である。 FIG. 15 is a schematic diagram showing a setting example of a virtual body.

図15に示すように、地図生成部22は、移動体10に搭載されたセンサ部14により取得されたセンシング結果に基づいて、3次元マップ170を生成する。 As shown in FIG. 15 , the map generation unit 22 generates a three-dimensional map 170 based on the sensing results obtained by the sensor unit 14 mounted on the mobile object 10 .

候補平面検出部23は、3次元マップ170を包含する候補平面171を検出する。例えば、候補平面検出部23は、3次元マップのXY平面、YZ平面、又はXZ平面における面積に基づいて、候補平面171を検出する。 The candidate plane detection unit 23 detects candidate planes 171 that include the three-dimensional map 170 . For example, the candidate plane detection unit 23 detects the candidate plane 171 based on the area on the XY plane, YZ plane, or XZ plane of the three-dimensional map.

基準点設定部24は、検出された候補平面の重心に基準点を設定する。本実施形態では、設定された基準点の座標を仮想身体の腰の高さとする。
操作可能範囲変更部25は、3次元マップ170の大きさに基づいて、操作可能範囲を変更する。例えば、操作可能範囲変更部25は、仮想身体172の両腕173を広げた状態から一歩移動した際の、仮想身体の手が届くまでの長さを操作可能範囲174として設定する。
設定された仮想身体の腰の高さ及び腕の長さから、仮想身体172の身長が決定される。
A reference point setting unit 24 sets a reference point at the center of gravity of the detected candidate plane. In this embodiment, the coordinates of the set reference point are the waist height of the virtual body.
The operable range changing section 25 changes the operable range based on the size of the three-dimensional map 170 . For example, the operable range changing unit 25 sets, as the operable range 174, the length up to the reach of the virtual body 172 when the virtual body 172 moves one step from the state in which both arms 173 are spread.
The height of the virtual body 172 is determined from the set waist height and arm length of the virtual body.

上記の実施形態では、候補平面から基準点、仮想視点、及び操作可能範囲が制御された。これに限定されず、ユーザが指定した領域が操作可能範囲となるように制御されてもよい。 In the above embodiments, the reference point, virtual viewpoint, and operable range were controlled from the candidate plane. The control is not limited to this, and control may be performed so that a region specified by the user becomes the operable range.

図16は、仮想視点及び操作可能範囲の制御の他の例を示す模式図である。
図16に示すように、ユーザ5は、地図生成部22により生成された3次元マップ180内に、操作を行いたい領域181を指定する。
FIG. 16 is a schematic diagram showing another example of control of the virtual viewpoint and the operable range.
As shown in FIG. 16, the user 5 designates an area 181 to be operated within the three-dimensional map 180 generated by the map generation unit 22 .

操作可能範囲変更部25は、指定された領域181が含まれるように、操作可能範囲182のスケールを変更する。例えば、領域181を底面とした円筒の長軸と一致するように操作可能範囲182のスケールが変更される。
基準点設定部24は、変更された操作可能範囲182に基づいて、基準点183を設定する。例えば、基準点設定部24は、操作可能範囲182の中心を基準点183として設定する。
仮想視点設定部26は、操作可能範囲182のスケール及び基準点の位置に基づいて、仮想視点184の位置を設定する。
または指定された領域181に仮想身体の手が届くように仮想身体の身長が決定されてもよい。この場合、操作可能範囲変更部25により変更された操作可能範囲182のスケールが仮想身体の腕の長さとなる。また基準点設定部24により設定された基準点183の位置が仮想身体の腰の高さとなる。また仮想視点設定部26により設定された仮想視点184の位置が仮想身体の頭部となる。
The operable range changing unit 25 changes the scale of the operable range 182 so that the specified area 181 is included. For example, the scale of the operable range 182 is changed so that it coincides with the major axis of the cylinder with the region 181 as the bottom.
The reference point setting unit 24 sets the reference point 183 based on the changed operable range 182 . For example, the reference point setting unit 24 sets the center of the operable range 182 as the reference point 183 .
The virtual viewpoint setting unit 26 sets the position of the virtual viewpoint 184 based on the scale of the operable range 182 and the position of the reference point.
Alternatively, the height of the virtual body may be determined so that the hand of the virtual body can reach the designated area 181 . In this case, the scale of the operable range 182 changed by the operable range changing unit 25 becomes the arm length of the virtual body. Also, the position of the reference point 183 set by the reference point setting unit 24 is the waist height of the virtual body. The position of the virtual viewpoint 184 set by the virtual viewpoint setting unit 26 is the head of the virtual body.

上記の実施形態では、3次元マップが地図生成部22により生成された。これに限定されず、移動体10に地図生成部22が搭載されてもよい。すなわち、移動体10により3次元マップが生成され、該3次元マップが情報処理装置20に供給されてもよい。 In the above embodiment, the 3D map was generated by the map generator 22 . It is not limited to this, and the map generation unit 22 may be mounted on the moving body 10 . That is, a three-dimensional map may be generated by the moving body 10 and supplied to the information processing device 20 .

上記の実施形態では、仮想身体が用いられユーザ5の操作や仮想視点のイメージが表現された。これに限定されず、任意の表現が行われてもよい。例えば、仮想視点と同じ高さ(同じZ座標)を飛ぶ鳥の視点から3次元マップを観察できてもよい。 In the above-described embodiment, a virtual body is used to express the operation of the user 5 and the image of the virtual viewpoint. It is not limited to this, and any expression may be used. For example, it may be possible to observe a 3D map from the viewpoint of a bird flying at the same height (same Z coordinate) as the virtual viewpoint.

上記の実施形態では、ユーザデバイス30としてHMD31が用いられた。これに限定されず、AR(Augmented Reality)グラスやスマートフォン、タブレット端末等の形態端末が用いられてもよい。 In the above embodiment, the HMD 31 was used as the user device 30 . It is not limited to this, and a form terminal such as an AR (Augmented Reality) glass, a smartphone, or a tablet terminal may be used.

図17は、HMD31の外観を示す模式図である。図17AはHMD31の外観を模式的に示す斜視図であり、図17BはHMD31を分解した様子を模式的に示す斜視図である。 FIG. 17 is a schematic diagram showing the appearance of the HMD 31. As shown in FIG. FIG. 17A is a perspective view schematically showing the appearance of the HMD 31, and FIG. 17B is a perspective view schematically showing how the HMD 31 is disassembled.

HMD31は、基体部190と、装着バンド部191と、ヘッドフォン部192と、前方カメラ193と、ディスプレイユニット194と、カバー部195とを有する。 The HMD 31 has a base portion 190 , a wearing band portion 191 , a headphone portion 192 , a front camera 193 , a display unit 194 and a cover portion 195 .

基体部190は、ユーザの左右の眼の前方に配置される部材であり、ユーザの前頭部と当接される前頭支持部196が設けられる。 The base portion 190 is a member arranged in front of the left and right eyes of the user, and is provided with a forehead support portion 196 that contacts the forehead of the user.

装着バンド部191は、ユーザの頭部に装着される。図8に示すように、装着バンド部191は、側頭バンド197と、頭頂バンド198とを有する。側頭バンド197は、基体部190に接続され、側頭部から後頭部にかけてユーザの頭部を囲むように装着される。頭頂バンド198は、側頭バンド197に接続され、側頭部から頭頂部にかけてユーザの頭部を囲むように装着される。 The wearing band portion 191 is worn on the user's head. As shown in FIG. 8, the mounting band portion 191 has a temporal band 197 and a parietal band 198 . The temporal band 197 is connected to the base portion 190 and worn so as to surround the user's head from the temporal region to the occipital region. The parietal band 198 is connected to the temporal band 197 and worn to surround the user's head from the temporal region to the parietal region.

ヘッドフォン部192は、基体部190に接続され、ユーザの左右の耳を覆うように配置される。ヘッドフォン部192には、左用及び右用のスピーカが設けられる。ヘッドフォン部192の位置は、手動又は自動により制御可能となっている。そのための構成は限定されず、任意の構成が採用されてよい。 The headphone section 192 is connected to the base section 190 and arranged to cover the left and right ears of the user. The headphone section 192 is provided with left and right speakers. The position of the headphone section 192 can be controlled manually or automatically. The configuration for that purpose is not limited, and any configuration may be adopted.

前方カメラ193は、ユーザの前方側の実空間を撮像することが可能なステレオカメラとして設けられる。前方カメラ193により、実空間が撮像されたカメラ画像を生成することが可能である。 The front camera 193 is provided as a stereo camera capable of capturing an image of the real space in front of the user. The forward camera 193 can generate a camera image in which the real space is captured.

ディスプレイユニット195は、基体部190に挿入され、ユーザの眼の前方に配置される。ディスプレイユニット195の内部には、ディスプレイが配置される。ディスプレイとしては、例えば液晶、EL(Electro-Luminescence)等を用いた任意の表示デバイスが用いられてよい。またディスプレイユニット195には、ディスプレイにより表示された画像をユーザの左右の眼に導くレンズ系(図示は省略)が配置される。 The display unit 195 is inserted into the base portion 190 and positioned in front of the user's eyes. A display is arranged inside the display unit 195 . Any display device using liquid crystal, EL (Electro-Luminescence), or the like, for example, may be used as the display. Also, the display unit 195 is provided with a lens system (not shown) that guides the image displayed by the display to the left and right eyes of the user.

カバー部196は、基体部190に取付けられ、ディスプレイユニット195を覆うように構成される。このように構成されたHMD31は、ユーザの視野を覆うように構成された没入型のヘッドマウントディスプレイとして機能する。例えばHMD31により、3次元的な仮想空間が表示される。ユーザはHMD31を装着することで、仮想現実(VR)等を体験することが可能となる。 The cover portion 196 is attached to the base portion 190 and configured to cover the display unit 195 . The HMD 31 configured in this manner functions as an immersive head-mounted display configured to cover the user's field of view. For example, the HMD 31 displays a three-dimensional virtual space. By wearing the HMD 31, the user can experience virtual reality (VR) or the like.

図18は、情報処理装置20のハードウェア構成例を示すブロック図である。 FIG. 18 is a block diagram showing a hardware configuration example of the information processing device 20. As shown in FIG.

情報処理装置20は、CPU201、ROM202、RAM203、入出力インタフェース205、及びこれらを互いに接続するバス204を備える。入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。 The information processing apparatus 20 includes a CPU 201, a ROM 202, a RAM 203, an input/output interface 205, and a bus 204 that connects these to each other. A display unit 206, an input unit 207, a storage unit 208, a communication unit 209, a drive unit 210, and the like are connected to the input/output interface 205. FIG.

表示部206は、例えば液晶、EL等を用いた表示デバイスである。入力部207は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。 The display unit 206 is a display device using liquid crystal, EL, or the like, for example. The input unit 207 is, for example, a keyboard, pointing device, touch panel, or other operating device. When input unit 207 includes a touch panel, the touch panel can be integrated with display unit 206 .

記憶部208は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部210は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。 The storage unit 208 is a non-volatile storage device such as an HDD, flash memory, or other solid-state memory. The drive unit 210 is a device capable of driving a removable recording medium 211 such as an optical recording medium or a magnetic recording tape.

通信部209は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、情報処理装置20とは別体で使用される場合が多い。
本実施形態では、通信部209により、ネットワークを介した他の装置との通信が可能となる。
A communication unit 209 is a modem, a router, and other communication equipment for communicating with other devices that can be connected to a LAN, WAN, or the like. The communication unit 209 may use either wired or wireless communication. The communication unit 209 is often used separately from the information processing device 20 .
In this embodiment, the communication unit 209 enables communication with other devices via the network.

上記のようなハードウェア構成を有する情報処理装置20による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、情報処理装置20のハードウェア資源との協働により実現される。具体的には、ROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより、本技術に係る情報処理方法が実現される。 Information processing by the information processing apparatus 20 having the hardware configuration as described above is realized by cooperation of software stored in the storage unit 208 or the ROM 202 or the like and hardware resources of the information processing apparatus 20 . Specifically, the information processing method according to the present technology is realized by loading a program constituting software stored in the ROM 202 or the like into the RAM 203 and executing the program.

プログラムは、例えば記録媒体211を介して情報処理装置20にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置20にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。 The program is installed in the information processing device 20 via the recording medium 211, for example. Alternatively, the program may be installed in the information processing device 20 via a global network or the like. In addition, any computer-readable non-transitory storage medium may be used.

通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、プログラム、及びシステムが実行され、本技術に係る情報処理装置が構築されてもよい。 An information processing method, a program, and a system according to the present technology are executed by linking a computer installed in a communication terminal with another computer that can communicate via a network, etc., and an information processing apparatus according to the present technology is constructed. may be

すなわち本技術に係る情報処理方法、プログラム、及びシステムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。 That is, the information processing method, program, and system according to the present technology can be executed not only in a computer system configured by a single computer, but also in a computer system in which a plurality of computers operate in conjunction with each other. In the present disclosure, a system means a set of multiple components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules within a single housing, are both systems.

コンピュータシステムによる本技術に係る情報処理方法、プログラム、及びシステムの実行は、例えば、候補平面の検出、操作可能範囲の変更、及び仮想視点の設定等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。 Execution of the information processing method, program, and system according to the present technology by a computer system, for example, when detection of a candidate plane, change of an operable range, setting of a virtual viewpoint, etc. are executed by a single computer, and It includes both cases where each process is executed by a different computer. Execution of each process by a predetermined computer includes causing another computer to execute part or all of the process and obtaining the result.

すなわち本技術に係る情報処理方法、プログラム、及びシステムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。 That is, the information processing method, program, and system according to the present technology can also be applied to a configuration of cloud computing in which a plurality of devices share and jointly process one function via a network.

各図面を参照して説明した候補平面検出部、操作可能範囲変更部、仮想視点設定部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。 The configurations of the candidate plane detection unit, the operable range change unit, the virtual viewpoint setting unit, and the like, the control flow of the communication system, and the like, which have been described with reference to the drawings, are merely one embodiment, and are within the scope of the present technology. and can be arbitrarily transformed. That is, any other configuration, algorithm, or the like for implementing the present technology may be employed.

なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。 Note that the effects described in the present disclosure are merely examples and are not limited, and other effects may be provided. The description of a plurality of effects above does not mean that those effects are necessarily exhibited at the same time. It means that at least one of the above-described effects can be obtained depending on the conditions, etc., and of course, effects not described in the present disclosure may also be exhibited.

以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。 It is also possible to combine at least two characteristic portions among the characteristic portions of the respective forms described above. That is, various characteristic portions described in each embodiment may be combined arbitrarily without distinguishing between each embodiment.

なお、本技術は以下のような構成も採ることができる。
(1)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムが実行する情報処理方法。
(2)(1)に記載の情報処理方法であって、
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
情報処理方法。
(3)(1)又は(2)に記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールを変更する
情報処理方法。
(4)(1)から(3)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
情報処理方法。
(5)(4)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
情報処理方法。
(6)(4)又は(5)に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
情報処理方法。
(7)(6)に記載の情報処理方法であって、
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
情報処理方法。
(8)(6)に記載の情報処理方法であって、さらに、
前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
情報処理方法。
(9)(4)に記載の情報処理方法であって、
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
情報処理方法。
(10)(1)から(9)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(11)(1)から(10)のうちいずれか1つに記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
情報処理方法。
(12)(1)から(11)のうちいずれか1つに記載の情報処理方法であって、さらに、
前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
情報処理方法。
(13)(12)に記載の情報処理方法であって、
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
情報処理方法。
(14)(12)又は(13)に記載の情報処理方法であって、
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
情報処理方法。
(15)(1)から(14)のうちいずれか1つに記載の情報処理方法であって、
前記現実の空間は、センサにより作成される3次元マップである
情報処理方法。
(16)(15)に記載の情報処理方法であって、
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
(17)(15)に記載の情報処理方法であって、
前記センサは、移動体に搭載される
情報処理方法。
(18)(17)に記載の情報処理方法であって、
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
情報処理方法。
(19)
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムに実行させるプログラム。
(20)
現実の空間内を移動する移動体と、
前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
を具備する情報処理システム。
Note that the present technology can also adopt the following configuration.
(1)
An information processing method in which a computer system executes a control step of controlling the setting of a user's virtual viewpoint with respect to a real space and the setting of an operable range in which the user can perform an operation related to the real space. .
(2) The information processing method according to (1),
The information processing method, wherein the control step sets a first virtual viewpoint within the real space, and sets a second virtual viewpoint different from the first virtual viewpoint within the operable range.
(3) The information processing method according to (1) or (2),
The information processing method, wherein the control step changes a scale of the operable range.
(4) The information processing method according to any one of (1) to (3), further comprising:
An information processing method, comprising: detecting a candidate plane for setting the virtual viewpoint or the operable range from the real space.
(5) The information processing method according to (4),
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.
(6) The information processing method according to (4) or (5),
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as a reference point serving as a reference of the operable range.
(7) The information processing method according to (6),
The information processing method, wherein the control step controls the virtual viewpoint or the operable range based on the set reference point.
(8) The information processing method according to (6), further comprising:
a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space;
In the information processing method, the control step changes the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.
(9) The information processing method according to (4),
The information processing method, wherein the detection step detects the candidate plane based on a predetermined axis of the real space.
(10) The information processing method according to any one of (1) to (9),
The information processing method, wherein the control step changes a scale of the operable range based on the position of the virtual viewpoint.
(11) The information processing method according to any one of (1) to (10),
The information processing method, wherein the control step sets the position of the virtual viewpoint based on the scale of the operable range.
(12) The information processing method according to any one of (1) to (11), further comprising:
An information processing method, comprising: presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.
(13) The information processing method according to (12),
The presenting step presents a virtual viewpoint image when the user views the real space from the virtual viewpoint,
The GUI is capable of setting a first virtual viewpoint within the real space and setting a second virtual viewpoint different from the first virtual viewpoint within the operable range. Information processing method .
(14) The information processing method according to (12) or (13),
The information processing method, wherein the GUI can set the candidate plane within the operable range.
(15) The information processing method according to any one of (1) to (14),
The information processing method, wherein the real space is a three-dimensional map created by a sensor.
(16) The information processing method according to (15),
The information processing method, wherein the control step changes a scale of the operable range based on the three-dimensional map created by the sensor.
(17) The information processing method according to (15),
The information processing method, wherein the sensor is mounted on a moving object.
(18) The information processing method according to (17),
The information processing method, wherein the GUI is capable of generating a moving route of the moving object by the user's operation.
(19)
A program for causing a computer system to execute a control step of controlling setting of a user's virtual viewpoint with respect to a real space and setting of an operable range in which the user can perform an operation related to the real space.
(20)
a moving body that moves in a real space;
an information processing apparatus having a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation regarding the real space. information processing system.

5…ユーザ
6…仮想視点
7…操作可能範囲
10…移動体
14…センサ部
20…情報処理装置
23…候補平面検出部
24…基準点設定部
25…操作可能範囲変更部
26…仮想視点設定部
100…仮想表現システム
5 User 6 Virtual Viewpoint 7 Operable Range 10 Mobile 14 Sensor Unit 20 Information Processing Device 23 Candidate Plane Detector 24 Reference Point Setting Unit 25 Operable Range Changing Unit 26 Virtual Viewpoint Setting Unit 100... Virtual expression system

Claims (20)

現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムが実行する情報処理方法。
An information processing method in which a computer system executes a control step of controlling the setting of a user's virtual viewpoint with respect to a real space and the setting of an operable range in which the user can perform an operation related to the real space. .
請求項1に記載の情報処理方法であって、
前記制御ステップは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定する
情報処理方法。
The information processing method according to claim 1,
The information processing method, wherein the control step sets a first virtual viewpoint within the real space, and sets a second virtual viewpoint different from the first virtual viewpoint within the operable range.
請求項1に記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールを変更する
情報処理方法。
The information processing method according to claim 1,
The information processing method, wherein the control step changes a scale of the operable range.
請求項1に記載の情報処理方法であって、さらに、
前記現実の空間から前記仮想視点又は前記操作可能範囲を設定するための候補平面を検出する検出ステップを含む
情報処理方法。
The information processing method according to claim 1, further comprising:
An information processing method, comprising: detecting a candidate plane for setting the virtual viewpoint or the operable range from the real space.
請求項4に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記仮想視点として設定する
情報処理方法。
The information processing method according to claim 4,
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as the virtual viewpoint.
請求項4に記載の情報処理方法であって、
前記制御ステップは、検出された前記候補平面から所定の距離離れた位置を前記操作可能範囲の基準となる基準点として設定する
情報処理方法。
The information processing method according to claim 4,
The information processing method, wherein the control step sets a position a predetermined distance away from the detected candidate plane as a reference point serving as a reference of the operable range.
請求項6に記載の情報処理方法であって、
前記制御ステップは、設定された前記基準点に基づいて、前記仮想視点又は前記操作可能範囲を制御する
情報処理方法。
The information processing method according to claim 6,
The information processing method, wherein the control step controls the virtual viewpoint or the operable range based on the set reference point.
請求項6に記載の情報処理方法であって、さらに、
前記現実の空間の大きさに基づいて、前記仮想視点の位置及び前記操作可能範囲のスケールを設定する設定ステップを含み、
前記制御ステップは、前記基準点を基準として、前記設定された前記仮想視点の位置及び前記設定された前記操作可能範囲のスケールに変更する
情報処理方法。
The information processing method according to claim 6, further comprising:
a setting step of setting the position of the virtual viewpoint and the scale of the operable range based on the size of the real space;
In the information processing method, the control step changes the set position of the virtual viewpoint and the set scale of the operable range with reference to the reference point.
請求項4に記載の情報処理方法であって、
前記検出ステップは、前記現実の空間の所定の軸に基づいて、前記候補平面を検出する
情報処理方法。
The information processing method according to claim 4,
The information processing method, wherein the detection step detects the candidate plane based on a predetermined axis of the real space.
請求項1に記載の情報処理方法であって、
前記制御ステップは、前記仮想視点の位置に基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
The information processing method according to claim 1,
The information processing method, wherein the control step changes a scale of the operable range based on the position of the virtual viewpoint.
請求項1に記載の情報処理方法であって、
前記制御ステップは、前記操作可能範囲のスケールに基づいて、前記仮想視点の位置を設定する
情報処理方法。
The information processing method according to claim 1,
The information processing method, wherein the control step sets the position of the virtual viewpoint based on the scale of the operable range.
請求項1に記載の情報処理方法であって、さらに、
前記ユーザに、前記仮想視点及び前記操作可能範囲を制御可能なGUI(Graphical User Interface)を提示する提示ステップを含む
情報処理方法。
The information processing method according to claim 1, further comprising:
An information processing method, comprising: presenting to the user a GUI (Graphical User Interface) capable of controlling the virtual viewpoint and the operable range.
請求項12に記載の情報処理方法であって、
前記提示ステップは、前記ユーザが前記仮想視点から前記現実の空間を見た場合の仮想視点画像を提示し、
前記GUIは、前記現実の空間内に第1の仮想視点を設定し、前記操作可能範囲内に前記第1の仮想視点とは異なる第2の仮想視点を設定することが可能である
情報処理方法。
The information processing method according to claim 12,
The presenting step presents a virtual viewpoint image when the user views the real space from the virtual viewpoint,
The GUI is capable of setting a first virtual viewpoint within the real space, and setting a second virtual viewpoint different from the first virtual viewpoint within the operable range. Information processing method .
請求項12に記載の情報処理方法であって、
前記GUIは、前記操作可能範囲内に前記候補平面を設定することが可能である
情報処理方法。
The information processing method according to claim 12,
The information processing method, wherein the GUI can set the candidate plane within the operable range.
請求項1に記載の情報処理方法であって、
前記現実の空間は、センサにより作成される3次元マップである
情報処理方法。
The information processing method according to claim 1,
The information processing method, wherein the real space is a three-dimensional map created by a sensor.
請求項15に記載の情報処理方法であって、
前記制御ステップは、前記センサにより作成された前記3次元マップに基づいて、前記操作可能範囲のスケールを変更する
情報処理方法。
The information processing method according to claim 15,
The information processing method, wherein the control step changes a scale of the operable range based on the three-dimensional map created by the sensor.
請求項15に記載の情報処理方法であって、
前記センサは、移動体に搭載される
情報処理方法。
The information processing method according to claim 15,
The information processing method, wherein the sensor is mounted on a moving object.
請求項17に記載の情報処理方法であって、
前記GUIは、前記ユーザの操作により、前記移動体の移動する経路を生成することが可能である
情報処理方法。
The information processing method according to claim 17,
The information processing method, wherein the GUI is capable of generating a moving route of the moving object by the user's operation.
現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御ステップ
をコンピュータシステムに実行させるプログラム。
A program for causing a computer system to execute a control step of controlling setting of a user's virtual viewpoint with respect to a real space and setting of an operable range in which the user can perform an operation related to the real space.
現実の空間内を移動する移動体と、
前記現実の空間に対するユーザの仮想視点の設定、及び前記現実の空間に対する前記ユーザにより前記現実の空間に関する操作が実行可能である操作可能範囲の設定を制御する制御部を有する情報処理装置と
を具備する情報処理システム。
a moving body that moves in a real space;
an information processing apparatus having a control unit that controls setting of a user's virtual viewpoint for the real space and setting of an operable range in which the user can perform an operation related to the real space. information processing system.
JP2020122143A 2020-07-16 2020-07-16 Information processing method, program, and system Pending JP2023117420A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020122143A JP2023117420A (en) 2020-07-16 2020-07-16 Information processing method, program, and system
US18/002,663 US20230245397A1 (en) 2020-07-16 2021-07-07 Information processing method, program, and system
PCT/JP2021/025582 WO2022014429A1 (en) 2020-07-16 2021-07-07 Information processing method, program, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122143A JP2023117420A (en) 2020-07-16 2020-07-16 Information processing method, program, and system

Publications (1)

Publication Number Publication Date
JP2023117420A true JP2023117420A (en) 2023-08-24

Family

ID=79554804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122143A Pending JP2023117420A (en) 2020-07-16 2020-07-16 Information processing method, program, and system

Country Status (3)

Country Link
US (1) US20230245397A1 (en)
JP (1) JP2023117420A (en)
WO (1) WO2022014429A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1279081B1 (en) * 2000-05-01 2012-01-04 iRobot Corporation Method and system for remote control of mobile robot
JP6018480B2 (en) * 2012-11-05 2016-11-02 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP6290754B2 (en) * 2014-09-11 2018-03-07 株式会社パスコ Virtual space display device, virtual space display method and program
JP6387782B2 (en) * 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program
CN107209854A (en) * 2015-09-15 2017-09-26 深圳市大疆创新科技有限公司 For the support system and method that smoothly target is followed
CN109997091B (en) * 2016-12-01 2022-08-09 深圳市大疆创新科技有限公司 Method for managing 3D flight path and related system

Also Published As

Publication number Publication date
WO2022014429A1 (en) 2022-01-20
US20230245397A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
US9947230B2 (en) Planning a flight path by identifying key frames
US9928649B2 (en) Interface for planning flight path
EP3430498B1 (en) Virtual object pathing
US10754496B2 (en) Virtual reality input
KR102236339B1 (en) Systems and methods for controlling images captured by an imaging device
US10627860B2 (en) Headset computer that uses motion and voice commands to control information display and remote devices
CA3062101A1 (en) Systems and methods for remotely controlling a robotic device
US20150317831A1 (en) Transitions between body-locked and world-locked augmented reality
KR20160148557A (en) World-locked display quality feedback
WO2017213070A1 (en) Information processing device and method, and recording medium
US10377487B2 (en) Display device and display control method
JP2018526716A (en) Intermediary reality
CN113448343B (en) Method, system and readable medium for setting a target flight path of an aircraft
JP2023126474A (en) Systems and methods for augmented reality
JP2021060627A (en) Information processing apparatus, information processing method, and program
Chen et al. Pinpointfly: An egocentric position-control drone interface using mobile ar
CN113677412B (en) Information processing device, information processing method, and program
Ai et al. Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment
WO2022014429A1 (en) Information processing method, program, and system
KR20220165948A (en) Method and system for remote collaboration
KR20180060403A (en) Control apparatus for drone based on image
US20230214004A1 (en) Information processing apparatus, information processing method, and information processing program
WO2023021757A1 (en) Information processing device, information processing method, and program
JP2023172180A (en) Image processing apparatus, image processing method, and program
JP2023083072A (en) Method, system and program