JP2023172418A - Program, information processing apparatus, method, and system - Google Patents

Program, information processing apparatus, method, and system Download PDF

Info

Publication number
JP2023172418A
JP2023172418A JP2022084199A JP2022084199A JP2023172418A JP 2023172418 A JP2023172418 A JP 2023172418A JP 2022084199 A JP2022084199 A JP 2022084199A JP 2022084199 A JP2022084199 A JP 2022084199A JP 2023172418 A JP2023172418 A JP 2023172418A
Authority
JP
Japan
Prior art keywords
dimensional position
data
image data
imaging
specific location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022084199A
Other languages
Japanese (ja)
Other versions
JP7186484B1 (en
Inventor
俊二 菅谷
Shunji Sugaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2022084199A priority Critical patent/JP7186484B1/en
Priority to JP2022188545A priority patent/JP2023172851A/en
Application granted granted Critical
Publication of JP7186484B1 publication Critical patent/JP7186484B1/en
Publication of JP2023172418A publication Critical patent/JP2023172418A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a program for operating an instruction target device from a user terminal without advance preparation.SOLUTION: In a terminal device 10, an application program 181 causes a processor to execute the steps of: acquiring image data 182 obtained by a camera 160 imaging a real space; acquiring, through a three-dimensional scanner 165, three-dimensional position data 183 of a surface of an object existing in the real space including at least an imaging range of the camera 160; causing a display 141 to display the image data 182; associating the image data with the three-dimensional position data; accepting a designation of specific image data out of image data displayed on the display, to accept a designation of a specific spot on the surface of the object; and acquiring three-dimensional position data of the specific spot on the basis of position information of the camera, an imaging direction of the camera, the designation of the specific spot and the three-dimensional position data.SELECTED DRAWING: Figure 3

Description

本開示は、プログラム、情報処理装置、方法及びシステムに関する。 The present disclosure relates to a program, an information processing device, a method, and a system.

ユーザ端末に搭載される撮影部により取得された画像上の所定の位置を、ユーザ端末の画面上で指定し、指定した位置へ飛行体を移動させる技術がある(特許文献1)。 There is a technique in which a predetermined position on an image acquired by a photographing unit mounted on a user terminal is specified on the screen of the user terminal, and a flying object is moved to the specified position (Patent Document 1).

特開2021-162572号公報JP 2021-162572 Publication

特許文献1に係る技術では、LiDAR(Laser Imaging Detection and Ranging)等のセンサにより、仮想空間内の三次元座標データを予め取得しておく必要がある。そのため、事前に仮想空間内の三次元座標データが取得できていない場合、特許文献1に記載の技術では、飛行体を操作できない場合があり得る。 In the technology according to Patent Document 1, it is necessary to obtain three-dimensional coordinate data in virtual space in advance using a sensor such as LiDAR (Laser Imaging Detection and Ranging). Therefore, if three-dimensional coordinate data in the virtual space cannot be acquired in advance, the technique described in Patent Document 1 may not be able to operate the flying object.

そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、事前の準備なく、ユーザ端末から指示対象機器を操作可能にすることである。 Therefore, the present disclosure has been made to solve the above problems, and its purpose is to enable a user terminal to operate an instruction target device without prior preparation.

プロセッサとメモリと撮像装置と3次元位置取得装置とを備えるコンピュータを動作させるためのプログラムである。プログラムは、プロセッサに、現実空間を撮像装置により撮像して得られる画像データを取得するステップと、撮像装置の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データを3次元位置取得装置により取得するステップと、画像データを表示装置に表示させるステップと、画像データと3次元位置データとを対応付けるステップと、表示装置に表示された画像データのうち特定の画像データの指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップと、撮像装置の位置情報、撮像装置の撮像方向、特定箇所の指定、及び3次元位置データに基づいて、特定箇所の3次元位置データを取得するステップとを実行させる。 This is a program for operating a computer including a processor, a memory, an imaging device, and a three-dimensional position acquisition device. The program causes the processor to acquire image data obtained by imaging a real space with an imaging device, and to obtain three-dimensional position data of the surface of an object existing in the real space including at least an imaging range of the imaging device. Acquisition by an acquisition device; displaying image data on a display device; correlating the image data with three-dimensional position data; and accepting designation of specific image data among the image data displayed on the display device. This step includes accepting the designation of a specific location on the surface of the object, and obtaining 3D position data of the specific location based on the position information of the imaging device, the imaging direction of the imaging device, the designation of the specific location, and the 3D location data. Execute the steps to obtain.

本開示によれば、事前の準備なく、ユーザ端末から指示対象機器を操作できる。 According to the present disclosure, an instruction target device can be operated from a user terminal without prior preparation.

システムの動作の概要を説明するための図である。FIG. 2 is a diagram for explaining an overview of the operation of the system. システムの全体の構成を示す図である。FIG. 1 is a diagram showing the overall configuration of the system. 端末装置の機能的な構成を示す図である。FIG. 2 is a diagram showing a functional configuration of a terminal device. データベースのデータ構造を示す図である。FIG. 3 is a diagram showing the data structure of a database. データベースのデータ構造を示す図である。FIG. 3 is a diagram showing the data structure of a database. システムにおける処理流れの一例を示すフローチャートである。3 is a flowchart showing an example of a processing flow in the system. システムにおける処理流れの一例を示すフローチャートである。3 is a flowchart showing an example of a processing flow in the system. 端末装置で表示される画面の一例を表す模式図である。FIG. 2 is a schematic diagram showing an example of a screen displayed on a terminal device. 端末装置で表示される画面の別の一例を表す模式図である。FIG. 3 is a schematic diagram showing another example of a screen displayed on a terminal device. 端末装置で表示される画面のまた別の一例を表す模式図である。FIG. 7 is a schematic diagram showing yet another example of a screen displayed on a terminal device.

以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Embodiments of the present disclosure will be described below with reference to the drawings. In all the figures explaining the embodiments, common components are given the same reference numerals and repeated explanations will be omitted. Note that the following embodiments do not unduly limit the content of the present disclosure described in the claims. Furthermore, not all components shown in the embodiments are essential components of the present disclosure. Furthermore, each figure is a schematic diagram and is not necessarily strictly illustrated.

また、以下の説明において、「プロセッサ」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサであるが、GPU(Graphics Processing Unit)のような他種のプロセッサでもよい。少なくとも1つのプロセッサは、シングルコアでもよいしマルチコアでもよい。 Furthermore, in the following description, a "processor" refers to one or more processors. The at least one processor is typically a microprocessor such as a CPU (Central Processing Unit), but may be another type of processor such as a GPU (Graphics Processing Unit). At least one processor may be single-core or multi-core.

また、少なくとも1つのプロセッサは、処理の一部又は全部を行うハードウェア回路(例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサでもよい。 Furthermore, at least one processor may be a broadly defined processor such as a hardware circuit (for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit)) that performs part or all of the processing.

また、以下の説明において、「xxxテーブル」といった表現により、入力に対して出力が得られる情報を説明することがあるが、この情報は、どのような構造のデータでもよいし、入力に対する出力を発生するニューラルネットワークのような学習モデルでもよい。従って、「xxxテーブル」を「xxx情報」と言うことができる。 In addition, in the following explanation, information such as "xxx table" may be used to explain information that provides an output in response to an input, but this information may be data of any structure, and A learning model such as a generated neural network may also be used. Therefore, the "xxx table" can be called "xxx information."

また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。 In addition, in the following explanation, the configuration of each table is an example, and one table may be divided into two or more tables, or all or part of two or more tables may be one table. good.

また、以下の説明において、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶部及び/又はインタフェース部などを用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。 In addition, in the following description, processing may be explained using the subject "program", but a program is executed by a processor to carry out a prescribed process, and to use the storage unit and/or interface unit as appropriate. Since the processing is performed while using the processor, the subject of the processing may be a processor (or a device such as a controller having the processor).

プログラムは、計算機のような装置にインストールされてもよいし、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体にあってもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 The program may be installed on a device such as a computer, or may be located on, for example, a program distribution server or a computer-readable (eg, non-transitory) recording medium. Furthermore, in the following description, two or more programs may be realized as one program, or one program may be realized as two or more programs.

また、以下の説明において、種々の対象の識別情報として、識別番号が使用されるが、識別番号以外の種類の識別情報(例えば、英字や符号を含んだ識別子)が採用されてもよい。 Furthermore, in the following description, identification numbers are used as identification information for various objects, but other types of identification information than identification numbers (for example, identifiers containing alphabetic characters or codes) may be employed.

また、以下の説明において、同種の要素を区別しないで説明する場合には、参照符号(又は、参照符号のうちの共通符号)を使用し、同種の要素を区別して説明する場合は、要素の識別番号(又は参照符号)を使用することがある。 In addition, in the following explanation, when the same type of elements are explained without distinguishing them, reference numerals (or common numerals among the reference numerals) are used, and when the same kind of elements are explained separately, the element An identification number (or reference number) may be used.

また、以下の説明において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In addition, in the following description, control lines and information lines are shown to be necessary for the explanation, and not all control lines and information lines are necessarily shown in the product. All configurations may be interconnected.

<0 システムの概要>
図1は、本開示に係るシステムの動作の概要を示す図である。本開示のシステムでは、スマートフォン等の端末装置に備えられたカメラ等の撮像装置により、端末装置の目前にある現実空間である3次元空間を撮像して画像データを取得する。また、この撮像装置による撮像範囲を含む3次元空間に存在する物体の表面の3次元位置データを、同様に端末装置に備えられたLiDAR等の3次元位置取得装置により取得する。次いで、これら画像データと3次元位置データとを対応付ける。そして、端末装置のディスプレイ等の表示装置に画像データを表示させて、端末装置の所有者に、表示装置の画面をタッチさせる等の手段により画像データ内の特定箇所(画像データと3次元位置データとが対応付けられているので、この特定箇所は物体の表面の特定箇所にも対応付けられている)を指定させると、特定箇所の3次元位置データを算出することができる。
<0 System overview>
FIG. 1 is a diagram showing an overview of the operation of a system according to the present disclosure. In the system of the present disclosure, an imaging device such as a camera included in a terminal device such as a smartphone captures an image of a three-dimensional space, which is a real space in front of the terminal device, to obtain image data. Further, three-dimensional position data of the surface of an object existing in a three-dimensional space including the imaging range by this imaging device is similarly acquired by a three-dimensional position acquisition device such as LiDAR provided in the terminal device. Next, these image data and three-dimensional position data are associated with each other. Then, the image data is displayed on a display device such as a display of the terminal device, and a specific part of the image data (image data and three-dimensional position data (This specific location is also associated with a specific location on the surface of the object.) By specifying this specific location, it is possible to calculate the three-dimensional position data of the specific location.

図1に示すように、例えば、端末装置1の所有者は区画線2aが引かれた平面駐車場2にいて、自動車3をこの区画線2aで区切られた駐車区域2bに駐車させようとしているとする。この場合、自動車3は、先進運転支援システム(ADAS:Advanced driver-assistance systems)の一例である自動駐車機能を有するものとする。 As shown in FIG. 1, for example, the owner of the terminal device 1 is in a flat parking lot 2 marked with a lot line 2a, and is trying to park a car 3 in a parking area 2b separated by the lot line 2a. shall be. In this case, it is assumed that the automobile 3 has an automatic parking function that is an example of advanced driver-assistance systems (ADAS).

自動駐車機能は、自動車3が備える各種装置、一例として自動車3の周囲360°の画像を取得可能な車載カメラ、障害物が検知できる超音波センサ等の近接センサ、さらにはGPS(Global Positioning System)機器に代表されるGNSS(Global Navigation Satellite System)機器により、自動車3自身が周囲の状況を自律的に把握し、端末装置の所有者が指定した3次元位置に向けて自動車3が自律的に走行し、駐車する機能である。類似の機能を有するシステムは既に実現されている(参考:“Clarionクラリオン|自宅などの駐車場の周辺環境の記憶による高度な自動駐車技術「Park by Memory」を開発”,[online],平成30年1月9日,クラリオン株式会社,[令和4年5月13日検索],インターネット <URL:https://www.clarion.com/jp/ja/corp/information/news-release/2018/0109-1/index.html>)。 The automatic parking function uses various devices included in the car 3, such as an in-vehicle camera that can capture a 360° image around the car 3, a proximity sensor such as an ultrasonic sensor that can detect obstacles, and a GPS (Global Positioning System). Using GNSS (Global Navigation Satellite System) devices, such as devices, the car 3 autonomously grasps the surrounding situation, and the car 3 autonomously moves toward a three-dimensional position specified by the owner of the terminal device. and parking function. Systems with similar functions have already been realized (Reference: “Clarion | Develops advanced automatic parking technology “Park by Memory” that remembers the surrounding environment of parking lots such as homes”, [online], 2018) January 9, 2020, Clarion Co., Ltd., [Retrieved May 13, 2020], Internet <URL: https://www.clarion.com/jp/ja/corp/information/news-release/2018/ 0109-1/index.html>).

端末装置1は、撮像装置の一例である図1において図略のカメラと、3次元位置取得装置の一例である同様に図1において図略のLiDARとが搭載されている。LiDARによる物体の3次元位置取得範囲は、カメラによる撮像範囲を少なくとも含む。 The terminal device 1 is equipped with a camera (not shown in FIG. 1) that is an example of an imaging device, and a LiDAR (also not shown in FIG. 1) that is an example of a three-dimensional position acquisition device. The three-dimensional position acquisition range of the object by LiDAR includes at least the imaging range by the camera.

自動車3を駐車区域2bに駐車させようとする端末装置1の所有者は、まず、端末装置1のカメラにより、自動車3の駐車を希望する駐車区域2bを含む領域を撮像する。カメラは、端末装置1の所有者により指定された撮像範囲を撮像し、画像データを取得する。カメラにより取得された画像データは端末装置1の画面1aに表示される。 The owner of the terminal device 1 who wishes to park the automobile 3 in the parking area 2b first images an area including the parking area 2b where he/she wishes to park the automobile 3 using the camera of the terminal device 1. The camera images an imaging range specified by the owner of the terminal device 1 and obtains image data. Image data acquired by the camera is displayed on the screen 1a of the terminal device 1.

端末装置1のLiDARは、カメラにより撮像範囲を撮像した後、この撮像範囲を少なくとも含む3次元空間に存在する物体の表面の3次元位置データを取得する。この際、カメラによる画像データの取得の直後に(つまり、あまり時間を置かずに)LiDARによる3次元位置データの取得を行えば、カメラによる撮像範囲とLiDARによる3次元位置データの取得範囲が大きくずれることがない。 LiDAR of the terminal device 1 images an imaging range with a camera, and then acquires three-dimensional position data of the surface of an object existing in a three-dimensional space that includes at least this imaging range. At this time, if the 3D position data is acquired by LiDAR immediately after the image data is acquired by the camera (in other words, without much time), the imaging range by the camera and the acquisition range of 3D position data by LiDAR can be expanded. It never shifts.

この際、端末装置1の画面1aにLiDARによる3次元位置データ取得動作を行っていることを明示する必要はない。つまり、カメラによる撮像動作から画面1aに何も表示せずにLiDARによる3次元位置を行えば、端末装置1の所有者は、カメラによる撮像動作にある程度の時間がかかっているように見えるので、その間は端末装置1を大きく動かすと画像にブレが生じるであろうから、できるだけ端末装置1を動かさずにいようという行動に誘導することができるので、LiDARにより取得した3次元位置データ取得の精度が向上する(データがブレない)とともに、カメラによる撮像範囲とLiDARによる3次元位置データの取得範囲との一致率がより高まってよい。 At this time, there is no need to clearly indicate on the screen 1a of the terminal device 1 that the three-dimensional position data acquisition operation using LiDAR is being performed. In other words, if three-dimensional positioning is performed using LiDAR without displaying anything on the screen 1a from the imaging operation by the camera, the owner of the terminal device 1 will see that the imaging operation by the camera is taking a certain amount of time. During that time, if you move the terminal device 1 significantly, the image will be blurred, so you can be guided to keep the terminal device 1 as still as possible, so the accuracy of the 3D position data obtained by LiDAR (data is not blurred), and the matching rate between the imaging range by the camera and the acquisition range of three-dimensional position data by LiDAR may be further increased.

この後、カメラにより取得された画像データとLiDARにより取得された3次元位置データとの対応付けが行われる。対応付けの詳細については後述するが、画像データは画素単位のデータであり2次元データである一方、3次元位置データは(この時点では絶対座標ではなく端末装置1の位置を原点とする相対座標ではあるが)文字通り3次元データであるので、一例として、3次元位置データを端末装置1の画面1aにより規定される2次元平面に射影することで対応付けを行えばよい。 After this, the image data acquired by the camera and the three-dimensional position data acquired by LiDAR are correlated. The details of the correspondence will be described later, but while image data is data in pixel units and is two-dimensional data, three-dimensional position data (at this point, it is not absolute coordinates but relative coordinates with the location of the terminal device 1 as the origin). However, since the data is literally three-dimensional data, for example, the correspondence may be performed by projecting the three-dimensional position data onto a two-dimensional plane defined by the screen 1a of the terminal device 1.

次いで、端末装置1の所有者は、画面1aをタッチする等の手法により、自動車3を駐車させたい目標位置4に対応する画面1a上の箇所1bを指定する。所有者による箇所1c指定があると、端末装置1は、この箇所1cに対応する目標位置4の3次元位置データを特定する。好ましくは、端末装置1に搭載された、図1において図略の加速度センサ、GPSセンサにより、端末装置1の地理的位置情報(緯度、経度、高度)及び端末装置1を原点とする3次元座標を構成するX軸、Y軸及びZ軸周りの傾きを取得し、これにより、端末装置1の(地球上で一意に定まる)位置情報及びカメラの撮像方向を取得する。これにより、LiDARによる3次元位置データを地理的位置データに変換することができ、結果として、端末装置1の所有者により指定された目標位置4の地球上で一意に定まる地理的位置データに変換することができる。 Next, the owner of the terminal device 1 specifies a location 1b on the screen 1a that corresponds to the target position 4 where he or she wants to park the car 3, such as by touching the screen 1a. When the owner specifies a location 1c, the terminal device 1 specifies the three-dimensional position data of the target position 4 corresponding to this location 1c. Preferably, geographical position information (latitude, longitude, altitude) of the terminal device 1 and three-dimensional coordinates with the terminal device 1 as the origin are obtained by an acceleration sensor and a GPS sensor (not shown in FIG. 1) installed in the terminal device 1. The inclinations around the X, Y, and Z axes that constitute the terminal device 1 are obtained, and thereby the position information (uniquely determined on the earth) of the terminal device 1 and the imaging direction of the camera are obtained. As a result, the three-dimensional position data by LiDAR can be converted into geographical position data, and as a result, it is converted into the geographical position data uniquely determined on the earth at the target position 4 specified by the owner of the terminal device 1. can do.

この後、端末装置1の所有者は、自動車3に目標位置4の地理的位置データを送信し、この地理的位置データ(目標位置4)に向けて駐車動作を行うように指示することができる。 After this, the owner of the terminal device 1 can transmit the geographical position data of the target position 4 to the car 3 and instruct it to perform a parking operation toward this geographical position data (target position 4). .

<1 システム全体の構成図>
図2は、システムSの全体構成の例を示すブロック図である。図2に示すシステムSは、例えば、端末装置10、指示対象機器20を含む。端末装置10及び指示対象機器20は、例えば、ネットワーク80を介して通信接続する。
<1 Configuration diagram of the entire system>
FIG. 2 is a block diagram showing an example of the overall configuration of the system S. The system S shown in FIG. 2 includes, for example, a terminal device 10 and an instruction target device 20. The terminal device 10 and the instruction target device 20 are communicably connected via a network 80, for example.

図2において、システムSが端末装置10を1台含む例を示しているが、システムSに含まれる端末装置10の数は、1台に限定されない。端末装置10は、指示対象機器20が目標位置に対して所定の動作を行うように指示する際に、この目標位置を指定する者が所持する端末である。 Although FIG. 2 shows an example in which the system S includes one terminal device 10, the number of terminal devices 10 included in the system S is not limited to one. The terminal device 10 is a terminal owned by a person who specifies a target position when instructing the instruction target device 20 to perform a predetermined operation with respect to the target position.

図1に示す端末装置10は、例えば、スマートフォン、タブレット等の携帯端末でもよいし、据え置き型のPC(Personal Computer)、ラップトップPCであってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。 The terminal device 10 shown in FIG. 1 may be, for example, a mobile terminal such as a smartphone or a tablet, a stationary PC (Personal Computer), or a laptop PC. Furthermore, it may be a wearable terminal such as an HMD (Head Mount Display) or a wristwatch type terminal.

端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。 The terminal device 10 includes a communication IF (Interface) 12, an input device 13, an output device 14, a memory 15, a storage 16, and a processor 19.

通信IF12は、端末装置10が、例えば、指示対象機器20等のシステムS内の装置と通信するため、信号を入出力するためのインタフェースである。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 communicates with a device in the system S, such as the instruction target device 20, for example.

入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。 The input device 13 is a device (for example, a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, etc.) for receiving input operations from a user.

出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカー等)である。 The output device 14 is a device (display, speaker, etc.) for presenting information to the user.

メモリ15は、プログラム、及びプログラム等で処理されるデータ等一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。 The memory 15 is for temporarily storing programs and data processed by the programs, and is a volatile memory such as DRAM (Dynamic Random Access Memory).

ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。 The storage 16 is for storing data, and is, for example, a flash memory or an HDD (Hard Disc Drive).

プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The processor 19 is hardware for executing a set of instructions written in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.

指示対象機器(移動体)20は、端末装置10から提供された目標位置に向けて何らかの動作を行うように端末装置10の所有者から指示される対象となる機器である。指示対象機器20の一例としては、図1に示した自動車が挙げられる。自動車の場合、端末装置10から提供される目標位置は、一例として自動車の駐車目標位置である。端末装置10から提供される目標位置は、指示対象機器20の種類等によって具体的な内容は異なり、また、指示対象機器20の種類等によってその目標位置に対して指示対象機器20がどのような動作を行うかも異なる。 The instruction target device (mobile object) 20 is a device that is instructed by the owner of the terminal device 10 to perform some action toward a target position provided by the terminal device 10 . An example of the instruction target device 20 is the automobile shown in FIG. In the case of a car, the target position provided from the terminal device 10 is, for example, a parking target position of the car. The specific content of the target position provided by the terminal device 10 differs depending on the type of the pointing device 20, and how the pointing device 20 moves with respect to the target position depending on the type of the pointing device 20. They also differ in how they perform their actions.

指示対象機器20は、端末装置10を含む外部機器から提供された目標位置に向けて何らかの動作を行う機能を有する。指示対象機器20が自動車であれば、図1の例に示したように自動駐車機能を有する。また、指示対象機器20が掃除ロボットであれば、目標位置として提示された部屋、さらには部屋の特定領域を認識し、この部屋において自走して掃除動作を行う機能を有する。 The instruction target device 20 has a function of performing some kind of operation toward a target position provided from an external device including the terminal device 10. If the instruction target device 20 is a car, it has an automatic parking function as shown in the example of FIG. Further, if the instruction target device 20 is a cleaning robot, it has a function of recognizing a room presented as a target position, or furthermore, a specific area of the room, and performing a cleaning operation by self-propelling in this room.

指示対象機器20は、上述した機能を有する機器であれば、指示対象機器20そのものの機能や機器の大小を含めて特段の限定はない。 The instruction target device 20 is not particularly limited, including the function of the instruction target device 20 itself and the size of the device, as long as it has the above-mentioned functions.

<1.1 端末装置の機能的な構成>
図3は、図2に示す端末装置10の機能的な構成の例を表すブロック図である。図3に示す端末装置10は、例えば、PC、携帯端末、またはウェアラブル端末により実現される。図3に示すように、端末装置10は、通信部120と、入力装置13と、出力装置14と、音声処理部17と、マイク171と、スピーカー172と、カメラ160と、位置情報センサ150と、加速度センサ155と、3次元スキャナ165と、記憶部180と、制御部190とを備える。端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
<1.1 Functional configuration of terminal device>
FIG. 3 is a block diagram showing an example of the functional configuration of the terminal device 10 shown in FIG. 2. As shown in FIG. The terminal device 10 shown in FIG. 3 is realized by, for example, a PC, a mobile terminal, or a wearable terminal. As shown in FIG. 3, the terminal device 10 includes a communication section 120, an input device 13, an output device 14, an audio processing section 17, a microphone 171, a speaker 172, a camera 160, and a position information sensor 150. , an acceleration sensor 155, a three-dimensional scanner 165, a storage section 180, and a control section 190. Each block included in the terminal device 10 is electrically connected by, for example, a bus or the like.

通信部120は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部120は、制御部190で生成された信号に送信処理を施し、外部(例えば、指示対象機器20)へ送信する。通信部120は、外部から受信した信号に受信処理を施し、制御部190へ出力する。 The communication unit 120 performs processing such as modulation/demodulation processing for the terminal device 10 to communicate with other devices. The communication unit 120 performs transmission processing on the signal generated by the control unit 190, and transmits the signal to the outside (for example, the instruction target device 20). The communication unit 120 performs reception processing on a signal received from the outside, and outputs the signal to the control unit 190.

入力装置13は、端末装置10を操作するユーザが指示、または情報を入力するための装置である。入力装置13は、例えば、キーボード、マウス、リーダー等により実現されてもよい。端末装置10が携帯端末等である場合には、操作面へ触れることで指示が入力されるタッチ・センシティブ・デバイス131等により実現される。入力装置13は、ユーザから入力される指示を電気信号へ変換し、電気信号を制御部190へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。 The input device 13 is a device for a user operating the terminal device 10 to input instructions or information. The input device 13 may be realized by, for example, a keyboard, a mouse, a reader, or the like. When the terminal device 10 is a mobile terminal or the like, it is realized by a touch-sensitive device 131 or the like in which an instruction is input by touching an operation surface. The input device 13 converts an instruction input from a user into an electrical signal, and outputs the electrical signal to the control unit 190. Note that the input device 13 may include, for example, a reception port that receives electrical signals input from an external input device.

出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部190の制御に応じたデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイ等によって実現される。 The output device 14 is a device for presenting information to a user operating the terminal device 10. The output device 14 is realized by, for example, a display 141 or the like. The display 141 displays data according to the control of the control unit 190. The display 141 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部17は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部17は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部190へ与える。また、音声処理部17は、音声信号をスピーカー172へ与える。音声処理部17は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部17へ与える。スピーカー172は、音声処理部17から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 17 performs, for example, digital-to-analog conversion processing of audio signals. The audio processing unit 17 converts the signal provided from the microphone 171 into a digital signal, and provides the converted signal to the control unit 190. Furthermore, the audio processing section 17 provides an audio signal to the speaker 172. The audio processing unit 17 is realized, for example, by a processor for audio processing. The microphone 171 receives a voice input and provides a voice signal corresponding to the voice input to the voice processing unit 17. The speaker 172 converts the audio signal provided from the audio processing unit 17 into audio and outputs the audio to the outside of the terminal device 10 .

カメラ160は、受光素子により光を受光し、撮影信号としての画像データを出力するためのデバイスである。カメラ160は、端末装置10に対して一定方向及び一定の撮像範囲にある物体(被写体)を撮像し、この物体を撮像した結果としての画像データを出力する。この際、カメラ160が撮像範囲、より正確には画角が調整可能な機能を有する場合、カメラ160はこの画角に関する情報も出力する。このような機能は、いわゆるズーム機能と呼ばれている。さらに、カメラ160は一例として端末装置10の筐体に固定されることで、端末装置10に対するカメラ160の撮像方向は一意に定められているものとする。 The camera 160 is a device that receives light with a light receiving element and outputs image data as a photographing signal. The camera 160 images an object (subject) in a certain direction and within a certain imaging range with respect to the terminal device 10, and outputs image data as a result of imaging this object. At this time, if the camera 160 has a function that allows adjustment of the imaging range, more precisely, the angle of view, the camera 160 also outputs information regarding this angle of view. Such a function is called a zoom function. Furthermore, it is assumed that the camera 160 is fixed to the housing of the terminal device 10, as an example, so that the imaging direction of the camera 160 with respect to the terminal device 10 is uniquely determined.

位置情報センサ150は、端末装置10の位置を検出するセンサであり、一般的にはGNSS機器であり、例えばGPSモジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。位置情報センサ150は、端末装置10が通信部120を介して接続する無線基地局の位置から、端末装置10の現在の位置を検出してもよい。 The position information sensor 150 is a sensor that detects the position of the terminal device 10, and is generally a GNSS device, such as a GPS module. A GPS module is a receiving device used in a satellite positioning system. The satellite positioning system receives signals from at least three or four satellites, and detects the current position of the terminal device 10 equipped with a GPS module based on the received signals. The position information sensor 150 may detect the current position of the terminal device 10 from the position of a wireless base station to which the terminal device 10 connects via the communication unit 120.

加速度センサ155は、端末装置10に与えられている加速度を検出するセンサである。好ましくは、加速度センサ155は、端末装置10の位置を原点とする3次元座標の各軸(X軸、Y軸、Z軸)周りの傾きを検出する機能を有する。このような機能を有する加速度センサ155は、地球に対する万有引力の重力加速度を検出することで、端末装置10の姿勢、つまりX軸、Y軸、Z軸に対する方向を検出することができる。そして、カメラ160の端末装置10に対する撮像方向が一意に定められることから、加速度センサ155の検出結果に基づいて、3次元空間内のカメラ60の撮像方向を求めることができる。 The acceleration sensor 155 is a sensor that detects acceleration applied to the terminal device 10. Preferably, the acceleration sensor 155 has a function of detecting inclination around each axis (X-axis, Y-axis, Z-axis) of a three-dimensional coordinate whose origin is the position of the terminal device 10. The acceleration sensor 155 having such a function can detect the attitude of the terminal device 10, that is, the direction with respect to the X-axis, Y-axis, and Z-axis, by detecting the gravitational acceleration of the universal gravitational force with respect to the earth. Since the imaging direction of the camera 160 with respect to the terminal device 10 is uniquely determined, the imaging direction of the camera 60 in the three-dimensional space can be determined based on the detection result of the acceleration sensor 155.

3次元位置取得装置の一例である3次元スキャナ165は、端末装置10に対して一定方向及び一定の検出範囲内にある物体をスキャンし、この物体の表面の3次元位置データを取得し、この3次元位置データを出力する。このような3次元スキャナ165の一例として、LiDARが知られている。LiDARは、測定対象に対して広範囲にレーザー光線を照射し(スキャンし)、反射光を受光してこの反射光の有無及び反射光の受光タイミングに基づいて測定対象の表面の3次元位置データを取得するものである。LiDARが取得する3次元位置データは、レーザー光線の反射位置である3次元点群データである。3次元スキャナ165による3次元位置データの取得範囲(測定範囲)は、カメラ160による撮像範囲を少なくとも含むように設定されている。上述したように、カメラ160がズーム機能を有する場合は、カメラ160の画角が最大(つまり広角側に寄った状態)である時の撮像範囲を少なくとも含む測定範囲で3次元位置データが取得可能とされる。あるいは、3次元スキャナ165の測定範囲が可変であれば、カメラ160による撮像範囲に合わせて3次元スキャナ165の測定範囲を設定すれば良い。 The 3D scanner 165, which is an example of a 3D position acquisition device, scans an object in a certain direction and within a certain detection range with respect to the terminal device 10, acquires 3D position data on the surface of this object, and Output 3D position data. LiDAR is known as an example of such a three-dimensional scanner 165. LiDAR irradiates (scans) a wide range of laser beams onto a measurement target, receives reflected light, and acquires three-dimensional position data on the surface of the measurement target based on the presence or absence of this reflected light and the timing of reception of the reflected light. It is something to do. The three-dimensional position data acquired by LiDAR is three-dimensional point group data that is the reflection position of the laser beam. The acquisition range (measurement range) of three-dimensional position data by the three-dimensional scanner 165 is set to include at least the imaging range by the camera 160. As described above, when the camera 160 has a zoom function, three-dimensional position data can be obtained in a measurement range that includes at least the imaging range when the angle of view of the camera 160 is at its maximum (that is, closer to the wide-angle side). It is said that Alternatively, if the measurement range of the three-dimensional scanner 165 is variable, the measurement range of the three-dimensional scanner 165 may be set to match the imaging range of the camera 160.

記憶部180は、例えば、メモリ15、およびストレージ16等により実現され、端末装置10が使用するデータ、およびプログラムを記憶する。記憶部180は、例えば、アプリケーションプログラム181、画像データ182、スキャンデータ183、画像DB(DataBase)及び指示点DB185を記憶する。 The storage unit 180 is realized by, for example, the memory 15, the storage 16, etc., and stores data and programs used by the terminal device 10. The storage unit 180 stores, for example, an application program 181, image data 182, scan data 183, image DB (DataBase), and pointing point DB 185.

画像データ182は、カメラ160が被写体を撮像して得られたデータである。スキャンデータ183は、3次元スキャナ165が3次元空間をスキャンして得られたデータである。画像DB184は、個々の画像データ182がカメラ160により撮像された際にこの画像データ182に紐付けられる情報を管理するためのDBである。指示点DB185は、端末装置10の所有者により指定された3次元空間上の物体の表面の特定箇所に紐付けられる情報を管理するためのDBである。画像DB184及び指示点DB185の詳細については後述する。 Image data 182 is data obtained by capturing an image of a subject with camera 160. The scan data 183 is data obtained by scanning a three-dimensional space by the three-dimensional scanner 165. The image DB 184 is a DB for managing information that is linked to each image data 182 when the image data 182 is captured by the camera 160. The designated point DB 185 is a DB for managing information linked to a specific location on the surface of an object in three-dimensional space designated by the owner of the terminal device 10. Details of the image DB 184 and the designated point DB 185 will be described later.

制御部190は、プロセッサ19が記憶部180に記憶されるアプリケーションプログラム181を読み込み、アプリケーションプログラム181に含まれる命令を実行することにより実現される。制御部190は、端末装置10の動作を制御する。制御部190は、プログラムに従って動作することにより、操作受付部191と、送受信部192と、提示制御部193と、撮像制御部194と、スキャナ制御部195と、スキャンデータ対応付け部196と、指定位置三次元位置取得部197としての機能を発揮する。 The control unit 190 is realized by the processor 19 reading an application program 181 stored in the storage unit 180 and executing instructions included in the application program 181. The control unit 190 controls the operation of the terminal device 10. The control unit 190 operates according to the program to control the operation reception unit 191, the transmission/reception unit 192, the presentation control unit 193, the imaging control unit 194, the scanner control unit 195, the scan data association unit 196, and the specification. It functions as a three-dimensional position acquisition unit 197.

操作受付部191は、入力装置13から入力される指示、または情報を受け付けるための処理を行う。具体的には、例えば、操作受付部191は、キーボード、マウス等から入力される指示に基づく情報を受け付ける。 The operation reception unit 191 performs processing for accepting instructions or information input from the input device 13. Specifically, for example, the operation reception unit 191 receives information based on instructions input from a keyboard, mouse, or the like.

また、操作受付部191は、マイク171から入力される音声指示を受け付ける。具体的には、例えば、操作受付部191は、マイク171から入力され、音声処理部17でデジタル信号に変換された音声信号を受信する。操作受付部191は、例えば、受信した音声信号を分析して所定の名詞を抽出することで、ユーザからの指示を取得する。 Further, the operation reception unit 191 receives voice instructions input from the microphone 171. Specifically, for example, the operation reception unit 191 receives an audio signal input from the microphone 171 and converted into a digital signal by the audio processing unit 17. The operation reception unit 191 obtains an instruction from the user by, for example, analyzing the received audio signal and extracting a predetermined noun.

送受信部192は、端末装置10が、指示対象機器20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。具体的には、例えば、送受信部192は、ユーザから入力された内容を外部機器へ送信する。また、送受信部192は、ユーザに関する情報を外部機器から受信する。 The transmitting/receiving unit 192 performs processing for the terminal device 10 to transmit and receive data with an external device such as the instruction target device 20 according to a communication protocol. Specifically, for example, the transmitter/receiver 192 transmits the content input by the user to the external device. Further, the transmitting/receiving unit 192 receives information regarding the user from an external device.

提示制御部193は、端末装置10の各機能部が生成した情報をユーザに対して提示するため、出力装置14を制御する。具体的には、例えば、提示制御部193は、端末装置10の各機能部が生成した情報をディスプレイ141に表示させる。また、提示制御部193は、端末装置10の各機能部が生成した情報をスピーカー172から出力させる。 The presentation control unit 193 controls the output device 14 in order to present information generated by each functional unit of the terminal device 10 to the user. Specifically, for example, the presentation control unit 193 causes the display 141 to display information generated by each functional unit of the terminal device 10. Furthermore, the presentation control unit 193 causes the speaker 172 to output information generated by each functional unit of the terminal device 10 .

撮像制御部194は、カメラ160の全般的制御を行う。特に、撮像制御部194は、本実施形態のシステムSの動作中(アプリケーションプログラム181の実行中)においてカメラ160を動作させてカメラ160により被写体を撮像させ、これにより撮像信号を常時出力させ、出力された撮像信号に基づいて出力装置14のディスプレイ141の画面に画像を表示させておく。 The imaging control unit 194 performs general control of the camera 160. In particular, the imaging control unit 194 operates the camera 160 to image a subject with the camera 160 while the system S of the present embodiment is in operation (while the application program 181 is running), and thereby causes the camera 160 to constantly output an imaging signal. An image is displayed on the screen of the display 141 of the output device 14 based on the captured image signal.

そして、撮像制御部194は、端末装置10の所有者等からの指示に基づいて、カメラ160から出力された画像データ182を記憶部180に格納する。また、撮像制御部194は、カメラ160が画像データ182を取得したときの位置情報センサ150及び加速度センサ155の測定値を取得し、取得した測定値及び画像データ182のファイル名を画像DB184に格納する。この後、撮像制御部194は、取得した画像データ182を出力装置14のディスプレイ141に表示させる。撮像制御部194は、画像データ182のメタデータとして測定値を記憶してもよい。 Then, the imaging control unit 194 stores the image data 182 output from the camera 160 in the storage unit 180 based on an instruction from the owner of the terminal device 10 or the like. The imaging control unit 194 also acquires the measured values of the position information sensor 150 and the acceleration sensor 155 when the camera 160 acquires the image data 182, and stores the acquired measured values and the file name of the image data 182 in the image DB 184. do. Thereafter, the imaging control unit 194 causes the acquired image data 182 to be displayed on the display 141 of the output device 14. The imaging control unit 194 may store the measurement value as metadata of the image data 182.

スキャナ制御部195は、3次元スキャナ165の全般的制御を行う。特に、スキャナ制御部195は、本実施形態のシステムSの動作中(アプリケーションプログラム181の実行中)において3次元スキャナ165を動作させて3次元位置データを常時出力させておく。そして、スキャナ制御部195は、端末装置10の所有者等からの指示に基づいて撮像制御部194がカメラ160から画像データ182を取得したタイミングで、3次元スキャナ165により取得した3次元位置データをスキャンデータ183に格納する。この際、スキャナ制御部195は、3次元スキャナ165による3次元位置データの取得範囲が、カメラ160による撮像範囲を少なくとも含む範囲であるかどうかを確認し、必要に応じて、3次元スキャナ165による3次元位置データの取得範囲を設定、調整する。 The scanner control unit 195 performs general control of the three-dimensional scanner 165. In particular, the scanner control unit 195 operates the three-dimensional scanner 165 to constantly output three-dimensional position data while the system S of this embodiment is operating (while the application program 181 is being executed). Then, the scanner control unit 195 transmits the three-dimensional position data acquired by the three-dimensional scanner 165 at the timing when the imaging control unit 194 acquires the image data 182 from the camera 160 based on an instruction from the owner of the terminal device 10 or the like. It is stored in the scan data 183. At this time, the scanner control unit 195 checks whether the acquisition range of the three-dimensional position data by the three-dimensional scanner 165 is a range that includes at least the imaging range by the camera 160, and if necessary, Set and adjust the acquisition range of 3D position data.

スキャンデータ対応付け部196は、撮像制御部194及びスキャナ制御部195により取得した画像データ182、スキャンデータ(3次元位置データ)183に基づいて、これら画像データ182とスキャンデータ183の対応付けを行う。 The scan data association unit 196 associates the image data 182 and the scan data 183 based on the image data 182 and scan data (three-dimensional position data) 183 acquired by the imaging control unit 194 and the scanner control unit 195. .

具体的には、スキャンデータ対応付け部196は、画像DB184及びスキャンデータ183を参照し、3次元位置データを構成する3次元点群データのそれぞれの点と、画像データ182を構成する画素とを対応付ける。画像データ182と3次元位置データとの対応付けの手法に特段の限定はないが、一例として、3次元位置データを2次元データである画像データ182に射影するための変換式を求める手法が挙げられる。 Specifically, the scan data association unit 196 refers to the image DB 184 and the scan data 183, and associates each point of the three-dimensional point group data that makes up the three-dimensional position data with the pixels that make up the image data 182. Match. Although there is no particular limitation on the method of associating the image data 182 with the three-dimensional position data, one example is a method of obtaining a conversion formula for projecting the three-dimensional position data onto the image data 182, which is two-dimensional data. It will be done.

つまり、3次元スキャナ165による3次元位置データの取得範囲はカメラ160の撮像範囲を少なくとも含み、しかも、カメラ160からの画像データ182の取得動作に応答して3次元スキャナ165による3次元位置データ取得動作を行っていることから、画像データ182と3次元位置データとは同一の物体についてのデータであることがほぼ確定される。そこで、スキャンデータ対応付け部196は、3次元位置データを2次元平面データである画像データ182に射影し、この時の変換式を求めることにより、3次元位置データと画像データ182との対応付けを行う。そして、スキャンデータ対応付け部196は、求めた変換式を記憶部180に一時的に格納する。 That is, the acquisition range of 3D position data by the 3D scanner 165 includes at least the imaging range of the camera 160, and the 3D position data is acquired by the 3D scanner 165 in response to the operation of acquiring image data 182 from the camera 160. Since the movement is being performed, it is almost certain that the image data 182 and the three-dimensional position data are data regarding the same object. Therefore, the scan data correspondence unit 196 projects the three-dimensional position data onto the image data 182, which is two-dimensional plane data, and obtains a conversion formula at this time, thereby associating the three-dimensional position data with the image data 182. I do. Then, the scan data association unit 196 temporarily stores the obtained conversion formula in the storage unit 180.

あるいは、スキャンデータ対応付け部196は、撮像された被写体が単純形状であり、また、画像データ182に含まれる被写体の数が限定的なものであるならば、画像データ182に対して、この画像データ182にどのような形状の被写体が含まれているかを解析し、被写体の表面形状と3次元位置データとを対応付けることで、画像データ182と3次元位置データとの対応付けを行ってもよい。一例として、人工知能技術、特に深層学習技術において、画像データ中に存在する物体(被写体)を検出する物体検出(物体認識)技術が知られている。物体検出技術として周知であるのは、例えばYOLO(You Only Look Once)、R-CNN(Region Based Convolutional Neural Networks)及びその発展形としてのFast R-CNN、Faster R-CNN、SSD(Single Shot MultiBox Detector)などがある。物体検出技術を用いる場合、被写体(物体)が既知であることが条件となるが、一般的な物体(例えば図1に示した自動車3のような)であれば物体検出技術を用いて物体の位置及びおおよその形状を把握することができるので、画像データ182中の物体を検出し、3次元位置データとの対応付けを行うことができる。 Alternatively, if the imaged object has a simple shape and the number of objects included in the image data 182 is limited, the scan data association unit 196 may apply this image to the image data 182. The image data 182 and the three-dimensional position data may be correlated by analyzing what shape the object is included in the data 182 and correlating the surface shape of the object with the three-dimensional position data. . As an example, in artificial intelligence technology, particularly deep learning technology, an object detection (object recognition) technology that detects an object (subject) present in image data is known. Well-known object detection technologies include, for example, YOLO (You Only Look Once), R-CNN (Region Based Convolutional Neural Networks), and their advanced forms such as Fast R-CNN, Faster R-CNN, and SSD (Single Shot MultiBox). Detector), etc. When using object detection technology, the subject (object) must be known, but if it is a common object (for example, car 3 shown in Figure 1), object detection technology can be used to detect the object. Since the position and approximate shape can be grasped, the object in the image data 182 can be detected and correlated with three-dimensional position data.

指定位置三次元位置取得部197は、端末装置10の所有者がディスプレイ141の画面をタッチすることで画像データ182のうち特定のデータ(特定の画素)の指定を受け入れ、これにより、カメラ160により撮像された物体の表面の特定箇所の指定を受け入れる。そして、指定位置三次元位置取得部197は、受け入れた物体の表面の特定箇所、及び、画像データ182に紐付けられた端末装置10の位置情報、カメラ160の撮像方向、3次元位置データに基づいて、この特定箇所の3次元位置データを取得する。 The designated position three-dimensional position acquisition unit 197 accepts the designation of specific data (specific pixels) of the image data 182 when the owner of the terminal device 10 touches the screen of the display 141 , and thereby allows the camera 160 to Accepts the designation of a specific location on the surface of the imaged object. Then, the specified position three-dimensional position acquisition unit 197 acquires the specified position on the surface of the received object, based on the position information of the terminal device 10 linked to the image data 182, the imaging direction of the camera 160, and the three-dimensional position data. Then, the three-dimensional position data of this specific location is obtained.

具体的には、撮像制御部194により、カメラ160から出力される撮像信号に基づく画像がディスプレイ141に表示されているので、指定位置三次元位置取得部197は、ディスプレイ141に画像データ182が表示された状態で、端末装置10の所有者からの画面のタッチを待つ。端末装置10の所有者による画面のタッチは入力装置13のタッチ・センシティブ・デバイス131により検出される。指定位置三次元位置取得部197は、端末装置10の所有者による画面のタッチを受けて、所有者がタッチをした画面の位置をタッチ・センシティブ・デバイス131からの検出信号に基づいて検出、算出し、検出したタッチ位置が画像データ182のいずれの画素に対応するかを算出することで、検出したタッチ位置が画像データ182のいずれの位置に対応するかを検出する。指定位置三次元位置取得部197は、検出結果を指示点DB185に格納する。 Specifically, since the imaging control unit 194 displays an image based on the imaging signal output from the camera 160 on the display 141, the designated three-dimensional position acquisition unit 197 displays the image data 182 on the display 141. In this state, the terminal device 10 waits for the owner of the terminal device 10 to touch the screen. A touch on the screen by the owner of the terminal device 10 is detected by the touch sensitive device 131 of the input device 13 . The designated position three-dimensional position acquisition unit 197 receives a touch on the screen by the owner of the terminal device 10 and detects and calculates the position of the screen touched by the owner based on the detection signal from the touch sensitive device 131. Then, by calculating which pixel of the image data 182 the detected touch position corresponds to, it is detected which position of the image data 182 the detected touch position corresponds to. The designated three-dimensional position acquisition unit 197 stores the detection result in the designated point DB 185.

次いで、指定位置三次元位置取得部197は、タッチ位置に対応する画像データ182の位置が3次元位置データ(3次元点群データ)のいずれの点の3次元位置データに対応するかを、スキャンデータ対応付け部196の対応付け結果に基づいて特定する。これにより、指定位置三次元位置取得部197は、端末装置10の所有者がタッチした位置が3次元空間上の物体の表面のいずれの位置(つまり特定箇所の位置)であるかを検出し、この検出結果に基づいて、物体の表面の特定箇所の3次元位置データ(点としての3次元位置データ)を特定することができる。 Next, the specified position three-dimensional position acquisition unit 197 scans to determine which point of the three-dimensional position data (three-dimensional point group data) the position of the image data 182 corresponding to the touch position corresponds to. The identification is made based on the association result of the data association unit 196. Thereby, the specified position three-dimensional position acquisition unit 197 detects which position on the surface of the object in the three-dimensional space (that is, the position of a specific part) the position touched by the owner of the terminal device 10 is, Based on this detection result, three-dimensional position data (three-dimensional position data as a point) of a specific location on the surface of the object can be specified.

さらに、指定位置三次元位置取得部197は、画像データ182を取得した際の端末装置10の位置情報、カメラ160の撮像方向を、画像DB184を参照して求める。画像DB184の詳細については後述するが、画像DB184には、画像データ182が撮像された際の位置情報センサ150の検出結果及び加速度センサ155の検出結果が、画像データ182に紐付けられて格納されている。位置情報センサ150の検出結果は端末装置10の位置情報であり、加速度センサ155の検出結果からは、画像データ182を取得した際の端末装置10の姿勢(端末装置10の位置を原点とする3次元座標のX軸、Y軸、Z軸周りの傾き)を算出することができる。カメラ160の端末装置10に対する撮像方向は既知であるので、加速度センサ155の検出結果から、カメラ160の撮像方向を算出することができる。 Furthermore, the designated three-dimensional position acquisition unit 197 refers to the image DB 184 to obtain the position information of the terminal device 10 and the imaging direction of the camera 160 when the image data 182 was acquired. Details of the image DB 184 will be described later, but the image DB 184 stores the detection results of the position information sensor 150 and the acceleration sensor 155 when the image data 182 is captured, linked to the image data 182. ing. The detection result of the position information sensor 150 is the position information of the terminal device 10, and the detection result of the acceleration sensor 155 is the attitude of the terminal device 10 at the time when the image data 182 was acquired (3 with the position of the terminal device 10 as the origin). The inclinations of the dimensional coordinates around the X, Y, and Z axes can be calculated. Since the imaging direction of the camera 160 with respect to the terminal device 10 is known, the imaging direction of the camera 160 can be calculated from the detection result of the acceleration sensor 155.

そして、指定位置三次元位置取得部197は、端末装置10の位置情報、カメラ160の撮像方向、及び、物体の表面の特定箇所の3次元位置データに基づいて、特定箇所の3次元位置データの絶対位置(緯度、経度、高度)を求めることができる。この後、端末装置10の制御部190は、指定位置三次元位置取得部197により求められた特定箇所の3次元位置データの絶対位置を指示対象機器20に提供し、この指示対象機器20に対して、絶対位置を目標位置とする各種動作の指示を行うことができる。このような指示の例として、図1に示した例のように、指示対象機器20が自動車であれば、絶対位置を駐車目標位置として、この目標位置に自動車を駐車させるような指示が挙げられる。 Then, the specified position three-dimensional position acquisition unit 197 acquires three-dimensional position data of the specific place based on the position information of the terminal device 10, the imaging direction of the camera 160, and the three-dimensional position data of the specific place on the surface of the object. Absolute position (latitude, longitude, altitude) can be determined. Thereafter, the control unit 190 of the terminal device 10 provides the absolute position of the three-dimensional position data of the specific location obtained by the specified position three-dimensional position acquisition unit 197 to the pointing target device 20, and It is possible to instruct various operations using the absolute position as the target position. As an example of such an instruction, if the instruction target device 20 is a car, as in the example shown in FIG. 1, an instruction to set the absolute position as the parking target position and park the car at this target position can be given. .

<2 データ構造>
図4~図5は、端末装置10が記憶するデータベースのデータ構造を示す図である。なお、図4~図5は一例であり、記載されていないデータを除外するものではない。
<2 Data structure>
4 to 5 are diagrams showing the data structure of a database stored in the terminal device 10. Note that FIGS. 4 and 5 are examples, and do not exclude data not described.

図4は、画像DB184のデータ構造を示す図である。図4に示すように、画像DB184のレコードの各々は、例えば、項目「画像ID」と、項目「画像ファイル」と、項目「撮像地点情報」と、項目「撮像方向情報」とを含む。画像DB184が記憶する情報は、撮像制御部194により入力、更新される。画像DB184が記憶する情報は、適宜変更・更新することが可能である。 FIG. 4 is a diagram showing the data structure of the image DB 184. As shown in FIG. 4, each record of the image DB 184 includes, for example, an item "image ID", an item "image file", an item "imaging point information", and an item "imaging direction information". Information stored in the image DB 184 is input and updated by the imaging control unit 194. The information stored in the image DB 184 can be changed and updated as appropriate.

項目「画像ID」は、画像データ182を特定するためのIDである。項目「画像ファイル」は、記憶部180に格納されている個々の画像データ182のファイル名に関する情報である。項目「撮像地点情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の位置に関する情報である。項目「撮像方向情報」は、画像IDにより特定される画像データ182が撮像された際のカメラ160の撮像方向に関する情報である。 The item “image ID” is an ID for identifying the image data 182. The item “image file” is information regarding the file name of each image data 182 stored in the storage unit 180. The item "imaging point information" is information regarding the position of the terminal device 10 when the image data 182 specified by the image ID was captured. The item "imaging direction information" is information regarding the imaging direction of the camera 160 when the image data 182 specified by the image ID was captured.

項目「撮像地点情報」は、項目「緯度情報」と、項目「経度情報」と、項目「高度情報」とを含む。項目「緯度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の緯度に関する情報であり、項目「経度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の経度に関する情報であり、項目「高度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の高度に関する情報である。 The item "imaging point information" includes the item "latitude information", the item "longitude information", and the item "altitude information". The item "latitude information" is information about the latitude of the terminal device 10 when the image data 182 specified by the image ID was captured, and the item "longitude information" is information about the latitude of the terminal device 10 when the image data 182 specified by the image ID was captured. The item "altitude information" is information regarding the altitude of the terminal device 10 when the image data 182 specified by the image ID was captured.

項目「撮像方向情報」は、項目「X軸周りの傾き」と、項目「Y軸周りの傾き」と、項目「Z軸周りの傾き」とを有する。項目「X軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のX軸周りの傾きに関する情報であり、項目「Y軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のY軸周りの傾きに関する情報であり、項目「Z軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のZ軸周りの傾きに関する情報である。 The item "imaging direction information" includes the item "tilt around the X-axis", the item "tilt around the Y-axis", and the item "tilt around the Z-axis". The item "Tilt around the X-axis" is information about the tilt of the terminal device 10 around the X-axis when the image data 182 specified by the image ID is captured, and the item "Tilt around the Y-axis" is information about the tilt of the terminal device 10 around the X-axis when the image data 182 specified by the image ID is captured. This is information regarding the tilt of the terminal device 10 around the Y-axis when the image data 182 specified by the ID is captured, and the item "Tilt around the Z-axis" is information about the tilt of the terminal device 10 when the image data 182 specified by the image ID is captured. This is information regarding the inclination of the terminal device 10 around the Z-axis when the terminal device 10 is rotated.

図5は、指示点DB185のデータ構造を示す図である。図5に示すように、指示点DB185のレコードの各々は、例えば、項目「指示点ID」と、項目「画面指示点」と、項目「スキャナ指示点」とを含む。指示点DB185が記憶する情報は、指定位置三次元位置取得部197により入力、修正される。指示点DB185が記憶する情報は、適宜変更・更新することが可能である。 FIG. 5 is a diagram showing the data structure of the pointing point DB 185. As shown in FIG. 5, each record of the pointing point DB 185 includes, for example, the item "pointing point ID", the item "screen pointing point", and the item "scanner pointing point". The information stored in the designated point DB 185 is input and modified by the specified position three-dimensional position acquisition unit 197. The information stored in the pointing point DB 185 can be changed and updated as appropriate.

項目「指示点ID」は、端末装置10の所有者が画面をタッチすることにより、画像データ182の特定箇所の位置(画素)の指定を受けた際、指定を受けた(所有者により指示された)点を特定するためのIDである。項目「画面指示点」は、端末装置10の所有者による指定を受けた点の画面上(画像データ182上の)の座標値に関する情報であり、項目「スキャナ指示点」は、端末装置10の所有者による指定を受けた点の(3次元スキャナ165により取得された)3次元位置データの座標値に関する情報である。 The item "indication point ID" is specified when the owner of the terminal device 10 touches the screen to specify the position (pixel) of a specific part of the image data 182. This is an ID for specifying a point. The item “Screen indication point” is information regarding the coordinate value on the screen (on the image data 182) of the point designated by the owner of the terminal device 10, and the item “Scanner indication point” is information regarding the coordinate value of the point specified by the owner of the terminal device 10. This is information regarding the coordinate values of the three-dimensional position data (obtained by the three-dimensional scanner 165) of the point specified by the owner.

項目「画面指示点」は、項目「X座標点」と項目「Y座標点」とを有する。項目「X座標点」は、端末装置10の所有者による指定を受けた点の画面上のX座標値に関する情報であり、項目「Y座標点」は、端末装置10の所有者による指定を受けた点の画面上のY座標値に関する情報である。 The item "Screen indication point" includes the item "X coordinate point" and the item "Y coordinate point." The item "X coordinate point" is information regarding the X coordinate value on the screen of the point specified by the owner of the terminal device 10, and the item "Y coordinate point" is information regarding the X coordinate value of the point specified by the owner of the terminal device 10. This is information regarding the Y coordinate value of the point on the screen.

項目「スキャナ指示点」は、項目「X座標点」と項目「Y座標点」と項目「Z座標点」とを有する。項目「X座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのX座標値に関する情報であり、項目「Y座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのY座標値に関する情報であり、項目「Z座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのZ座標値に関する情報である。 The item "scanner pointing point" includes the item "X coordinate point", the item "Y coordinate point", and the item "Z coordinate point". The item "X coordinate point" is information regarding the X coordinate value of the three-dimensional position data corresponding to the point specified by the owner of the terminal device 10, and the item "Y coordinate point" is information about the X coordinate value of the three-dimensional position data corresponding to the point specified by the owner of the terminal device 10 The item "Z coordinate point" is information about the Y coordinate value of the three-dimensional position data corresponding to the point specified by the owner of the terminal device 10. This is information regarding the Z coordinate value.

<3 動作例>
以下、端末装置10の動作の一例について説明する。
<3 Operation example>
An example of the operation of the terminal device 10 will be described below.

図6は、端末装置10の動作の一例を表すフローチャートである。 FIG. 6 is a flowchart illustrating an example of the operation of the terminal device 10.

ステップS600において、制御部190は、カメラ160を動作させ、このカメラ160により撮像を行える範囲、すなわち、カメラ160の撮像素子によりその時点で撮像している被写体に関する撮像情報を表示させる。具体的には、例えば、制御部190は、撮像制御部194によりカメラ160の撮像素子から出力されている撮像信号を受け入れ、この撮像信号に基づいてディスプレイ141に画像を表示させる。 In step S600, the control unit 190 operates the camera 160 to display imaging information regarding the range that can be imaged by the camera 160, that is, the subject being imaged at that time by the image sensor of the camera 160. Specifically, for example, the control unit 190 receives an imaging signal output from the imaging device of the camera 160 by the imaging control unit 194, and causes the display 141 to display an image based on this imaging signal.

図8は、ステップS600において端末装置10のディスプレイ141に表示されている画像の一例を示す図である。端末装置10の画面800には、その時点でカメラ160の撮像素子により撮像されている撮像信号に基づく画像801が表示されている。また、画面800には、端末装置10の所有者に対して所定の動作を行う旨の指示(この場合は指示対象機器20に対する動作指示を行う目標点を含む領域を撮像する旨の指示)が表示される領域802が設けられている。 FIG. 8 is a diagram showing an example of an image displayed on the display 141 of the terminal device 10 in step S600. On the screen 800 of the terminal device 10, an image 801 based on an image signal captured by the image sensor of the camera 160 at that time is displayed. The screen 800 also displays an instruction to the owner of the terminal device 10 to perform a predetermined operation (in this case, an instruction to image an area including a target point for instructing the instruction target device 20 to perform an operation). A display area 802 is provided.

ステップS601において、制御部190は、3次元スキャナ165を動作させ、カメラ160の撮像範囲を少なくとも含む測定範囲についてスキャンを行わせる。具体的には、制御部190は、スキャナ制御部195により3次元スキャナ165を動作させ、測定範囲内にある物体の表面からの反射光を受光することで、この物体を含む現実空間に対するスキャンを行う。 In step S601, the control unit 190 operates the three-dimensional scanner 165 to scan a measurement range that includes at least the imaging range of the camera 160. Specifically, the control unit 190 causes the scanner control unit 195 to operate the three-dimensional scanner 165 to receive reflected light from the surface of an object within the measurement range, thereby scanning the real space including the object. conduct.

次いで、ステップS602において、制御部190は、端末装置10のディスプレイ141の画面をタッチすることにより、目標位置となる物体の表面の特定箇所の指定指示入力を端末装置10の所有者に指示する。具体的には、制御部190は、指定位置三次元位置取得部197により、端末装置10の所有者に対して、物体の表面の特定箇所の指定入力を指示する表示をディスプレイ141に表示させる。そして、ステップS603において、制御部190は、端末装置10の所有者による画面のタッチを待ち、所有者が画面をタッチしたことを検出したら(ステップS603においてYES)ステップS604に移行する。 Next, in step S602, the control unit 190 instructs the owner of the terminal device 10 to input an instruction to designate a specific location on the surface of the object that will be the target position by touching the screen of the display 141 of the terminal device 10. Specifically, the control unit 190 causes the designated position three-dimensional position acquisition unit 197 to display on the display 141 a display instructing the owner of the terminal device 10 to input a designation of a specific location on the surface of the object. Then, in step S603, the control unit 190 waits for the owner of the terminal device 10 to touch the screen, and if it is detected that the owner has touched the screen (YES in step S603), the process proceeds to step S604.

図9は、ステップS602において端末装置10のディスプレイ141に表示されている画面の一例を示す図である。端末装置10の画面900には、その時点でカメラ160により撮像されている画像901が表示されているとともに、端末装置10の所有者に対して所定の動作を行う旨の指示(この場合は端末装置10の画面をタッチして目標位置となる物体の表面の特定箇所の指定を行う旨の指示)が表示される領域902が設けられている。 FIG. 9 is a diagram showing an example of the screen displayed on the display 141 of the terminal device 10 in step S602. On the screen 900 of the terminal device 10, an image 901 currently captured by the camera 160 is displayed, and an instruction to perform a predetermined operation is given to the owner of the terminal device 10 (in this case, the terminal An area 902 is provided in which an instruction (instructing the user to touch the screen of the device 10 to specify a specific location on the surface of an object as a target position) is displayed.

そして、図10に示すように、端末装置10の所有者は、指示対象機器20に対する動作指示を行う目標点が画面1000に入っていることを確認した上で、端末装置10のディスプレイ141の画面をタッチして、目標位置となる物体の表面の特定箇所の指定入力(図10において特定箇所1003の指定入力)を行うと、プログラムはステップS604に移行する。 Then, as shown in FIG. 10, the owner of the terminal device 10 confirms that the target point for instructing the instruction target device 20 is on the screen 1000, and then displays the screen on the display 141 of the terminal device 10. When the user touches , and inputs the designation of a specific location on the surface of the object that will be the target position (input of designation of the specific location 1003 in FIG. 10), the program moves to step S604.

ステップS604において、制御部190は、カメラ160から出力される画像データ182を取得し、取得した画像データ182を記憶部180に格納するとともに、画像データ182を取得した時点での位置情報センサ150及び加速度センサ155の検出結果と画像データ182とに基づいて画像DB184に必要な情報を記録する。 In step S604, the control unit 190 acquires the image data 182 output from the camera 160, stores the acquired image data 182 in the storage unit 180, and also controls the position information sensor 150 and the Necessary information is recorded in the image DB 184 based on the detection result of the acceleration sensor 155 and the image data 182.

具体的には、例えば、制御部190は、撮像制御部194によりカメラ160からの画像データ182を受け入れ、受け入れた画像データ182を記憶部180に格納する。次いで、制御部190は、撮像制御部194により、画像データ182を取得した時点での位置情報センサ150及び加速度センサ155の検出結果を受け入れ、受け入れた位置情報センサ150及び加速度センサ155の検出結果、及び、記憶部180に格納した画像データ182に基づいて、画像DB184に必要な情報を書き込む。 Specifically, for example, the control unit 190 receives image data 182 from the camera 160 using the imaging control unit 194, and stores the accepted image data 182 in the storage unit 180. Next, the control unit 190 receives the detection results of the position information sensor 150 and the acceleration sensor 155 at the time of acquiring the image data 182 by the imaging control unit 194, and receives the received detection results of the position information sensor 150 and the acceleration sensor 155, Then, necessary information is written into the image DB 184 based on the image data 182 stored in the storage unit 180.

カメラ160による画像データ182の取得のタイミングと位置情報センサ150、加速度センサ155の検出結果の取得のタイミングとの時間間隔には特段の制限はないが、画像データ182の取得後に端末装置10が大きく移動すると、物体の表面の特定箇所の3次元位置データの特定精度に影響する可能性があるので、画像データ182の取得直後に位置情報センサ150、加速度センサ155の検出結果を取得することが好ましい。 There is no particular restriction on the time interval between the timing of acquisition of image data 182 by camera 160 and the timing of acquisition of detection results of position information sensor 150 and acceleration sensor 155, but after acquisition of image data 182, terminal device 10 Since movement may affect the accuracy of identifying the three-dimensional position data of a specific location on the surface of the object, it is preferable to acquire the detection results of the position information sensor 150 and the acceleration sensor 155 immediately after acquiring the image data 182. .

ステップS606において、制御部190は、端末装置10から所定の測定範囲内にある現実空間の物体の表面の3次元位置データを取得する。具体的には、制御部190は、ステップS606においてスキャナ制御部195により、所定の測定範囲内にある現実空間の物体の表面の3次元位置データを3次元スキャナ165から取得し、取得した3次元位置データをスキャンデータ183として記憶部180に格納する。 In step S606, the control unit 190 acquires three-dimensional position data of the surface of an object in real space within a predetermined measurement range from the terminal device 10. Specifically, in step S606, the control unit 190 uses the scanner control unit 195 to acquire three-dimensional position data of the surface of the object in the real space within a predetermined measurement range from the three-dimensional scanner 165, and uses the acquired three-dimensional The position data is stored in the storage unit 180 as scan data 183.

図7に移行して、ステップS700において、制御部190は、スキャンデータ対応付け部196により、ステップS604において取得した画像データ182とステップS606において取得したスキャンデータ183との対応付けを行う。スキャンデータ対応付け部196によるデータ対応付けの動作の詳細については既に説明したので、ここでの説明は省略する。 7, in step S700, the control unit 190 causes the scan data association unit 196 to associate the image data 182 obtained in step S604 with the scan data 183 obtained in step S606. The details of the data association operation by the scan data association unit 196 have already been explained, so the explanation will be omitted here.

ステップS701において、制御部190は、ステップS603において指定入力のあった物体の表面の特定箇所の3次元位置データを取得する。具体的には、制御部190は、指定位置三次元位置取得部197により、指定入力があった画像データ182の座標位置、及び、この座標位置に対応する3次元位置データを算出する。算出した座標位置及び3次元位置データは、指定位置三次元位置取得部197により指示点DB185に格納される。次いで、指定位置三次元位置取得部197は、画像データ182に紐付けられた端末装置10の位置情報及びカメラ160の撮像方向を入手、算出し、物体の表面の特定箇所の3次元位置データの絶対位置を算出する。 In step S701, the control unit 190 acquires three-dimensional position data of a specific location on the surface of the object where the designation input was made in step S603. Specifically, the control unit 190 uses the specified position three-dimensional position acquisition unit 197 to calculate the coordinate position of the image data 182 where the specified input has been made and the three-dimensional position data corresponding to this coordinate position. The calculated coordinate position and three-dimensional position data are stored in the designated point DB 185 by the specified position three-dimensional position acquisition unit 197. Next, the specified position three-dimensional position acquisition unit 197 obtains and calculates the position information of the terminal device 10 linked to the image data 182 and the imaging direction of the camera 160, and calculates the three-dimensional position data of the specific point on the surface of the object. Calculate absolute position.

この後、ステップS702において、制御部190は、指示対象機器20に対して、ステップS702で取得した物体の表面の特定箇所の3次元位置データの絶対位置に向けて動作をする指示を行う。 Thereafter, in step S702, the control unit 190 instructs the instruction target device 20 to operate toward the absolute position of the three-dimensional position data of the specific location on the surface of the object acquired in step S702.

<4 実施形態の効果>
以上詳細に説明したように、本実施形態のシステムSによれば、端末装置10の所有者からの物体の表面の特定箇所の指定入力に基づいてこの特定箇所の3次元位置データの絶対位置を取得することができる。特に、本実施形態のシステムSによれば、LiDAR等の3次元位置取得装置を用いて予め三次元座標データを取得することなく、画像データ182の取得とスキャンデータ183の取得とを一連の動作で行うことができ、特段の事前準備なく指示対象機器20に対して目標位置への動作指示を行うことができる。
<4 Effects of embodiment>
As described above in detail, according to the system S of the present embodiment, based on the designation input of a specific location on the surface of an object from the owner of the terminal device 10, the absolute position of the three-dimensional position data of this specific location is determined. can be obtained. In particular, according to the system S of this embodiment, acquisition of image data 182 and acquisition of scan data 183 are performed in a series of operations without acquiring three-dimensional coordinate data in advance using a three-dimensional position acquisition device such as LiDAR. It is possible to instruct the instruction target device 20 to move to the target position without any special preparation.

<5 付記>
なお、上記した実施形態は本開示を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施形態の構成の一部について、他の構成に追加、削除、置換することが可能である。
<5 Additional notes>
Note that the configurations of the embodiments described above are explained in detail in order to explain the present disclosure in an easy-to-understand manner, and the embodiments are not necessarily limited to those having all of the configurations described. Furthermore, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.

一例として、上述した実施形態のシステムSでは、画像データ182取得、スキャンデータ183取得及び物体の表面の特定箇所の3次元位置データ取得までの全ての動作を端末装置10により行っていたが、例えば図3におけるスキャンデータ対応付け部196及び指定位置三次元位置取得部197を、端末装置10とは別体の情報処理装置に設ける構成であってもよい。つまり、システムSのハードウェア構成は図2に示す構成に限定されない。 As an example, in the system S of the embodiment described above, all operations from acquiring image data 182, acquiring scan data 183, and acquiring three-dimensional position data of a specific location on the surface of an object are performed by the terminal device 10. The scan data association unit 196 and designated position three-dimensional position acquisition unit 197 in FIG. 3 may be provided in an information processing device separate from the terminal device 10. That is, the hardware configuration of the system S is not limited to the configuration shown in FIG. 2.

また、上述した実施形態のシステムSでは、指示対象機器20として自動車を例に取り、目標位置に対して自動車を駐車させるような指示を行っていたが、指示対象機器20及び指示対象機器20に対する指示はこれに限定されない。 In addition, in the system S of the embodiment described above, an automobile is taken as an example of the instruction target device 20, and an instruction to park the automobile at a target position is given. The instructions are not limited to this.

一例として、医療の現場において、端末装置10の画面をタッチすることにより処置対象、例えば切除対象となる領域の輪郭をなぞり、(遠隔)医療ロボットを指示対象機器20として、この医療ロボットにより指定領域を切除することも可能である。現時点では医師法の制限により医療行為を行うのは医師のみであるが、医師が補助することにより、医療ロボットによる切除行為(医療行為)が可能になる。 As an example, in a medical field, by touching the screen of the terminal device 10, the outline of a treatment target, for example, a region to be resected, is traced, and a (remote) medical robot is used as the instruction target device 20, and this medical robot is used to specify the area. It is also possible to remove the Currently, only doctors can perform medical procedures due to restrictions under the Medical Practitioners Act, but with the assistance of a doctor, it will be possible for medical robots to perform ablation procedures (medical procedures).

あるいは、建設現場において、土地の法面の掘削等土木工事を行うべき領域を端末装置10の画面をタッチすることにより指示し、ショベルカーを指示対象機器20として、このショベルカーにより指定領域の掘削等を指示することもできる。 Alternatively, at a construction site, by touching the screen of the terminal device 10, the area where civil engineering work is to be performed, such as excavating the slope of the land, is instructed, and the excavator car is used to excavate the specified area by using the excavator as the device 20 to be instructed. It is also possible to instruct.

さらには、指示対象機器20としてドローンのような飛行体も好適に使用可能である。指示対象機器20としてドローンを選択した場合、このドローンの飛行経路や目的位置をシステムSにより指示することができる。 Furthermore, a flying object such as a drone can also be suitably used as the instruction target device 20. When a drone is selected as the instruction target device 20, the system S can instruct the flight path and target position of this drone.

さらに、上述した実施形態のシステムSでは、ステップS600及びS601に示すように、システムSの動作中は常時カメラ160による撮像動作及び3次元スキャナ165による3次元位置データ取得動作を行っていたが、少なくとも端末装置10の所有者による特定箇所の指定に応じて3次元スキャナ165による3次元位置データ取得動作を行い、それ以外は3次元スキャナ165を動作させないことも可能である。 Furthermore, in the system S of the above-described embodiment, as shown in steps S600 and S601, while the system S is in operation, the camera 160 constantly performs the imaging operation and the 3D scanner 165 performs the 3D position data acquisition operation. It is also possible that the three-dimensional scanner 165 performs a three-dimensional position data acquisition operation in accordance with at least the designation of a specific location by the owner of the terminal device 10, and does not operate the three-dimensional scanner 165 at other times.

また、ステップS700における画像データ182とスキャンデータ183との対応付け動作は、3次元スキャナ165による3次元位置データ取得動作を常時行っている場合、常時行ってもよい。 Further, the operation of associating the image data 182 and the scan data 183 in step S700 may be performed all the time when the three-dimensional scanner 165 is constantly performing the three-dimensional position data acquisition operation.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Further, the present invention can also be realized by software program codes that realize the functions of the embodiments. In this case, a storage medium on which a program code is recorded is provided to a computer, and a processor included in the computer reads the program code stored on the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the embodiments described above, and the program code itself and the storage medium storing it constitute the present invention. Storage media for supplying such program codes include, for example, flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs, optical disks, magneto-optical disks, CD-Rs, magnetic tapes, and non-volatile memory cards. , ROM, etc. are used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。 Furthermore, the program code that implements the functions described in this embodiment can be implemented using a wide range of program or script languages, such as assembler, C/C++, Perl, Shell, PHP, and Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, by distributing the software program code that realizes the functions of the embodiment via a network, it can be stored in a storage means such as a computer's hard disk or memory, or a storage medium such as a CD-RW or CD-R. Alternatively, a processor included in the computer may read and execute the program code stored in the storage means or the storage medium.

以上の各実施形態で説明した事項を以下に付記する。 The matters explained in each of the above embodiments are additionally described below.

(付記1)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えるコンピュータ(10)を動作させるためのプログラムであって、プログラムは、プロセッサ(19)に、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行させる、プログラム。
(付記2)
プログラムは、さらに、特定箇所の3次元位置データ(183)に向けて移動体を移動させる指示を行うステップ(S702)を実行させる、付記1に記載のプログラム。
(付記3)
特定箇所の指定を受け入れるステップ(S603)において、複数の特定箇所の指定を受け入れ、特定箇所の3次元位置データ(183)を取得するステップ(S701)において複数の特定箇所の3次元位置データ(183)を取得し、移動体を移動させる指示を行うステップ(S702)において、複数の特定箇所の3次元位置データ(183)により特定される線を跨がないように移動体を移動させる指示を行う付記2に記載のプログラム。
(付記4)
特定箇所の指定を受け入れるステップ(S603)において、複数の特定箇所の指定を受け入れ、特定箇所の3次元位置データ(183)を取得するステップ(S701)において、複数の特定箇所の3次元位置データ(183)を取得し、移動体を移動させる指示を行うステップ(S702)において、複数の特定箇所の3次元位置データ(183)により特定される面に対して所定の処理を行うように移動体を動作させる指示を行う付記2に記載のプログラム。
(付記5)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えた情報処理装置(10)であって、プロセッサ(19)は、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行する、情報処理装置(10)。
(付記6)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えたコンピュータ(10)により実行される方法であって、プロセッサ(19)は、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行する、方法。
(付記7)
現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得する手段(194)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得する手段(195)と、画像データ(182)を表示装置(141)に表示させる手段(197)と、画像データ(182)と3次元位置データ(183)とを対応付ける手段(196)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れる手段(197)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得する手段(197)とを具備する、システム(1)。
(Additional note 1)
A program for operating a computer (10) including a processor (19), a memory (15), an imaging device (160), and a three-dimensional position acquisition device (165), the program causing the processor (19) to: a step (S604) of acquiring image data (182) obtained by imaging the real space with the imaging device (160); and a step (S604) of acquiring image data (182) obtained by imaging the real space with the imaging device (160); A step (S605) of acquiring the position data (183) by the three-dimensional position acquisition device (165), a step (S600) of displaying the image data (182) on the display device (141), and the step of displaying the image data (182) and 3 a step of associating the dimensional position data (183) (S700); and a step of accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data (182) displayed on the display device (141). (S603), and 3D position data (183) of the specific location based on the position information of the imaging device (160), the imaging direction of the imaging device (160), the designation of the specific location, and the 3D location data (183). A program that executes the step of acquiring (S701).
(Additional note 2)
The program according to supplementary note 1 further causes the program to execute a step (S702) of instructing a moving body to move toward three-dimensional position data (183) of a specific location.
(Additional note 3)
In the step of accepting the designation of a specific location (S603), the designation of a plurality of specific locations is accepted, and in the step of acquiring the three-dimensional position data (183) of the specific location (S701), the three-dimensional location data (183) of the plurality of specific locations is accepted. ) and instructing to move the moving object (S702), instructing the moving object to move so as not to straddle the line specified by the three-dimensional position data (183) of a plurality of specific locations. The program described in Appendix 2.
(Additional note 4)
In the step of accepting the designation of a specific location (S603), the designation of a plurality of specific locations is accepted, and in the step of acquiring the three-dimensional position data (183) of the specific location (S701), the three-dimensional location data (183) of the plurality of specific locations is accepted. 183) and instructing the moving body to move (S702), the moving body is instructed to perform predetermined processing on the surface specified by the three-dimensional position data (183) of a plurality of specific locations. The program described in Supplementary Note 2 that provides instructions to operate.
(Appendix 5)
An information processing device (10) equipped with a processor (19), a memory (15), an imaging device (160), and a three-dimensional position acquisition device (165), the processor (19) is configured to move the real space to the imaging device (165). 160), and three-dimensional position data (183) of the surface of an object existing in the real space, including at least the imaging range of the imaging device (160). A step (S605) of acquiring by the three-dimensional position acquisition device (165), a step (S600) of displaying the image data (182) on the display device (141), and a step (S600) of displaying the image data (182) and the three-dimensional position data (183). (S700); a step (S603) of accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data (182) displayed on the display device (141); A step (S701) of acquiring three-dimensional position data (183) of a specific place based on the position information of the device (160), the imaging direction of the imaging device (160), the designation of the specific place, and the three-dimensional position data (183). ).
(Appendix 6)
A method executed by a computer (10) including a processor (19), a memory (15), an imaging device (160), and a three-dimensional position acquisition device (165), the processor (19) A step (S604) of acquiring image data (182) obtained by imaging with the imaging device (160), and three-dimensional position data ( 183) by the three-dimensional position acquisition device (165) (S605), a step (S600) of displaying the image data (182) on the display device (141), and a step (S600) of displaying the image data (182) and the three-dimensional position data. (183) (S700), and a step (S603) of accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data (182) displayed on the display device (141). Then, 3D position data (183) of the specific location is acquired based on the location information of the imaging device (160), the imaging direction of the imaging device (160), the designation of the specific location, and the 3D location data (183). A method of performing step (S701).
(Appendix 7)
A means (194) for acquiring image data (182) obtained by imaging a real space with an imaging device (160), and a three-dimensional surface of an object existing in the real space that includes at least the imaging range of the imaging device (160). means (195) for acquiring position data (183) by a three-dimensional position acquisition device (165); means (197) for displaying image data (182) on a display device (141); and image data (182). means (196) for associating the dimensional position data (183) with the image data (182) displayed on the display device (141); (197), the 3D position data (183) of the specific location based on the position information of the imaging device (160), the imaging direction of the imaging device (160), the designation of the specific location, and the 3D location data (183). A system (1) comprising means (197) for acquiring.

S、システム 10、端末装置 12、通信IF 13、入力装置 14、出力装置 15、メモリ 16、ストレージ 17、音声処理部 19、プロセッサ 20、指示対象機器 60、カメラ 80、ネットワーク 120、通信部 131、タッチ・センシティブ・デバイス 141、ディスプレイ 150、位置情報センサ 155、加速度センサ 160、カメラ 165、3次元スキャナ 180、記憶部 181、アプリケーションプログラム 182、画像データ 183、スキャンデータ 184、画像DB 185、指示点DB 190、制御部 191、操作受付部 192、送受信部 193、提示制御部 194、撮像制御部 195、スキャナ制御部 196、スキャンデータ対応付け部 197、指定位置三次元位置取得部
S, system 10, terminal device 12, communication IF 13, input device 14, output device 15, memory 16, storage 17, audio processing section 19, processor 20, instruction target device 60, camera 80, network 120, communication section 131, Touch sensitive device 141, display 150, position information sensor 155, acceleration sensor 160, camera 165, three-dimensional scanner 180, storage unit 181, application program 182, image data 183, scan data 184, image DB 185, pointing point DB 190, Control unit 191, Operation reception unit 192, Transmission/reception unit 193, Presentation control unit 194, Imaging control unit 195, Scanner control unit 196, Scan data association unit 197, Specified position three-dimensional position acquisition unit

ステップS60において、制御部190は、端末装置10から所定の測定範囲内にある現実空間の物体の表面の3次元位置データを取得する。具体的には、制御部190は、ステップS60においてスキャナ制御部195により、所定の測定範囲内にある現実空間の物体の表面の3次元位置データを3次元スキャナ165から取得し、取得した3次元位置データをスキャンデータ183として記憶部180に格納する。 In step S605 , the control unit 190 acquires three-dimensional position data of the surface of an object in real space within a predetermined measurement range from the terminal device 10. Specifically, in step S605 , the control unit 190 causes the scanner control unit 195 to acquire, from the three-dimensional scanner 165, three-dimensional position data of the surface of the object in the real space within a predetermined measurement range, and The dimensional position data is stored in the storage unit 180 as scan data 183.

図7に移行して、ステップS700において、制御部190は、スキャンデータ対応付け部196により、ステップS604において取得した画像データ182とステップS60において取得したスキャンデータ183との対応付けを行う。スキャンデータ対応付け部196によるデータ対応付けの動作の詳細については既に説明したので、ここでの説明は省略する。 7, in step S700, the control unit 190 causes the scan data association unit 196 to associate the image data 182 obtained in step S604 with the scan data 183 obtained in step S605 . The details of the data association operation by the scan data association unit 196 have already been explained, so the explanation will be omitted here.

Claims (7)

プロセッサとメモリと撮像装置と3次元位置取得装置とを備えるコンピュータを動作させるためのプログラムであって、
前記プログラムは、前記プロセッサに、
現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
前記画像データを表示装置に表示させるステップと、
前記画像データと前記3次元位置データとを対応付けるステップと、
前記表示装置に表示された前記画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記特定箇所の前記3次元位置データを取得するステップと
を実行させる、プログラム。
A program for operating a computer including a processor, a memory, an imaging device, and a three-dimensional position acquisition device,
The program causes the processor to:
acquiring image data obtained by imaging a real space with the imaging device;
acquiring, by the three-dimensional position acquisition device, three-dimensional position data of a surface of an object existing in the real space that includes at least an imaging range of the imaging device;
Displaying the image data on a display device;
associating the image data with the three-dimensional position data;
accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data displayed on the display device;
A program that causes a program to execute a step of acquiring the three-dimensional position data of the specific location based on position information of the imaging device, an imaging direction of the imaging device, designation of the specific location, and the three-dimensional location data.
前記プログラムは、さらに、
前記特定箇所の前記3次元位置データに向けて移動体を移動させる指示を行うステップを実行させる、請求項1に記載のプログラム。
The program further includes:
2. The program according to claim 1, wherein the program executes the step of instructing a moving body to move toward the three-dimensional position data of the specific location.
前記特定箇所の指定を受け入れるステップにおいて、複数の前記特定箇所の指定を受け入れ、
前記特定箇所の前記3次元位置データを取得するステップにおいて、複数の前記特定箇所の前記3次元位置データを取得し、
前記移動体を移動させる指示を行うステップにおいて、前記複数の特定箇所の前記3次元位置データにより特定される線を跨がないように前記移動体を移動させる指示を行う
請求項2に記載のプログラム。
In the step of accepting the designation of the specific location, accepting the designation of a plurality of the specific locations;
In the step of acquiring the three-dimensional position data of the specific location, acquiring the three-dimensional position data of a plurality of the specific locations;
3. The program according to claim 2, wherein in the step of instructing to move the moving object, an instruction is given to move the moving object so as not to straddle a line specified by the three-dimensional position data of the plurality of specific locations. .
前記特定箇所の指定を受け入れるステップにおいて、複数の前記特定箇所の指定を受け入れ、
前記特定箇所の前記3次元位置データを取得するステップにおいて、複数の前記特定箇所の前記3次元位置データを取得し、
前記移動体を移動させる指示を行うステップにおいて、前記複数の特定箇所の前記3次元位置データにより特定される面に対して所定の処理を行うように前記移動体を動作させる指示を行う
請求項2に記載のプログラム。
In the step of accepting the designation of the specific location, accepting the designation of a plurality of the specific locations;
In the step of acquiring the three-dimensional position data of the specific location, acquiring the three-dimensional position data of a plurality of the specific locations;
2. The step of instructing to move the movable body includes instructing the movable body to perform a predetermined process on a surface specified by the three-dimensional position data of the plurality of specific locations. The program described in.
プロセッサとメモリと撮像装置と3次元位置取得装置とを備えた情報処理装置であって、
前記プロセッサは、
現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
前記画像データを表示装置に表示させるステップと、
前記画像データと前記3次元位置データとを対応付けるステップと、
前記表示装置に表示された画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記特定箇所の前記3次元位置データを取得するステップと
を実行する、情報処理装置。
An information processing device including a processor, a memory, an imaging device, and a three-dimensional position acquisition device,
The processor includes:
acquiring image data obtained by imaging a real space with the imaging device;
acquiring, by the three-dimensional position acquisition device, three-dimensional position data of a surface of an object existing in the real space that includes at least an imaging range of the imaging device;
Displaying the image data on a display device;
associating the image data with the three-dimensional position data;
accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data displayed on the display device;
Information processing that executes the step of acquiring the three-dimensional position data of the specific location based on the position information of the imaging device, the imaging direction of the imaging device, the designation of the specific location, and the three-dimensional location data. Device.
プロセッサとメモリと撮像装置と3次元位置取得装置とを備えたコンピュータにより実行される方法であって、
前記プロセッサは、
現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
前記画像データを表示装置に表示させるステップと、
前記画像データと前記3次元位置データとを対応付けるステップと、
前記表示装置に表示された画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記特定箇所の前記3次元位置データを取得するステップと
を実行する、方法。
A method performed by a computer comprising a processor, a memory, an imaging device, and a three-dimensional position acquisition device, the method comprising:
The processor includes:
acquiring image data obtained by imaging a real space with the imaging device;
acquiring, by the three-dimensional position acquisition device, three-dimensional position data of a surface of an object existing in the real space that includes at least an imaging range of the imaging device;
Displaying the image data on a display device;
associating the image data with the three-dimensional position data;
accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data displayed on the display device;
A method, comprising: acquiring the three-dimensional position data of the specific location based on the position information of the imaging device, the imaging direction of the imaging device, the designation of the specific location, and the three-dimensional location data.
現実空間を撮像装置により撮像して得られる画像データを取得する手段と、
前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを3次元位置取得装置により取得する手段と、
前記画像データを表示装置に表示させる手段と、
前記画像データと前記3次元位置データとを対応付ける手段と、
前記表示装置に表示された画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れる手段と、
前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記特定箇所の前記3次元位置データを取得する手段と
を具備する、システム。
means for acquiring image data obtained by imaging a real space with an imaging device;
means for acquiring, by a three-dimensional position acquisition device, three-dimensional position data of a surface of an object existing in the real space that includes at least an imaging range of the imaging device;
means for displaying the image data on a display device;
means for associating the image data and the three-dimensional position data;
means for accepting the designation of a specific location on the surface of the object by accepting the designation of the specific location of the image data displayed on the display device;
A system comprising means for acquiring the three-dimensional position data of the specific location based on position information of the imaging device, an imaging direction of the imaging device, designation of the specific location, and the three-dimensional location data.
JP2022084199A 2022-05-24 2022-05-24 Program, information processing device, method and system Active JP7186484B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022084199A JP7186484B1 (en) 2022-05-24 2022-05-24 Program, information processing device, method and system
JP2022188545A JP2023172851A (en) 2022-05-24 2022-11-25 Program, information processing apparatus, method, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022084199A JP7186484B1 (en) 2022-05-24 2022-05-24 Program, information processing device, method and system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022188545A Division JP2023172851A (en) 2022-05-24 2022-11-25 Program, information processing apparatus, method, and system

Publications (2)

Publication Number Publication Date
JP7186484B1 JP7186484B1 (en) 2022-12-09
JP2023172418A true JP2023172418A (en) 2023-12-06

Family

ID=84388172

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022084199A Active JP7186484B1 (en) 2022-05-24 2022-05-24 Program, information processing device, method and system
JP2022188545A Pending JP2023172851A (en) 2022-05-24 2022-11-25 Program, information processing apparatus, method, and system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022188545A Pending JP2023172851A (en) 2022-05-24 2022-11-25 Program, information processing apparatus, method, and system

Country Status (1)

Country Link
JP (2) JP7186484B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3722806B2 (en) * 2003-03-05 2005-11-30 松下電器産業株式会社 Article management system and robot control apparatus
JP2021005267A (en) * 2019-06-27 2021-01-14 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2023172851A (en) 2023-12-06
JP7186484B1 (en) 2022-12-09

Similar Documents

Publication Publication Date Title
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
KR101433305B1 (en) Mobile device based content mapping for augmented reality environment
US20100053164A1 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
US11675178B2 (en) Virtual slide stage (VSS) method for viewing whole slide images
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
JP2007064684A (en) Marker arrangement assisting method and device therefor
CN108827252B (en) Method, device, equipment and system for drawing underwater live-action map and storage medium
KR20220085150A (en) Intelligent construction site management supporting system server and method based extended reality
CN113496503B (en) Point cloud data generation and real-time display method, device, equipment and medium
CN112788443B (en) Interaction method and system based on optical communication device
US11562538B2 (en) Method and system for providing a user interface for a 3D environment
JP7186484B1 (en) Program, information processing device, method and system
US11869159B2 (en) High density 3D environment capture with guided mixed reality
JP7020418B2 (en) Information processing equipment, information processing methods, and programs
KR101863647B1 (en) Hypothetical line mapping and verification for 3D maps
CN113432620B (en) Error estimation method and device, vehicle-mounted terminal and storage medium
US20220166917A1 (en) Information processing apparatus, information processing method, and program
CN111583339A (en) Method, device, electronic equipment and medium for acquiring target position
KR100782152B1 (en) Method for obtaining 3-dimensional building data from aerial photograph db
KR102350226B1 (en) Apparatus and method for arranging augmented reality content
Mower Creating and delivering augmented scenes
JP2017167611A (en) Terminal device, data processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221125

R150 Certificate of patent or registration of utility model

Ref document number: 7186484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150