JP7186484B1 - プログラム、情報処理装置、方法及びシステム - Google Patents

プログラム、情報処理装置、方法及びシステム Download PDF

Info

Publication number
JP7186484B1
JP7186484B1 JP2022084199A JP2022084199A JP7186484B1 JP 7186484 B1 JP7186484 B1 JP 7186484B1 JP 2022084199 A JP2022084199 A JP 2022084199A JP 2022084199 A JP2022084199 A JP 2022084199A JP 7186484 B1 JP7186484 B1 JP 7186484B1
Authority
JP
Japan
Prior art keywords
imaging
imaging device
image data
dimensional position
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022084199A
Other languages
English (en)
Other versions
JP2023172418A (ja
Inventor
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2022084199A priority Critical patent/JP7186484B1/ja
Priority to JP2022188545A priority patent/JP2023172851A/ja
Application granted granted Critical
Publication of JP7186484B1 publication Critical patent/JP7186484B1/ja
Publication of JP2023172418A publication Critical patent/JP2023172418A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】事前の準備なく、ユーザ端末から指示対象機器を操作するためのプログラムを提供する。【解決手段】端末装置10において、アプリケーションプログラム181は、プロセッサに、現実空間をカメラ160により撮像して得られる画像データ182を取得するステップと、カメラ160の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ183を3次元スキャナ165により取得するステップと、画像データ182をディスプレイ141に表示させるステップと、画像データと3次元位置データとを対応付けるステップと、ディスプレイに表示された画像データのうち特定の画像データの指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップと、カメラの位置情報、カメラの撮像方向、特定箇所の指定及び3次元位置データに基づいて、特定箇所の3次元位置データを取得するステップと、を実行させる。【選択図】図3

Description

本開示は、プログラム、情報処理装置、方法及びシステムに関する。
ユーザ端末に搭載される撮影部により取得された画像上の所定の位置を、ユーザ端末の画面上で指定し、指定した位置へ飛行体を移動させる技術がある(特許文献1)。
特開2021-162572号公報
特許文献1に係る技術では、LiDAR(Laser Imaging Detection and Ranging)等のセンサにより、仮想空間内の三次元座標データを予め取得しておく必要がある。そのため、事前に仮想空間内の三次元座標データが取得できていない場合、特許文献1に記載の技術では、飛行体を操作できない場合があり得る。
そこで、本開示は、上記課題を解決すべくなされたものであって、その目的は、事前の準備なく、ユーザ端末から指示対象機器を操作可能にすることである。
プロセッサとメモリと撮像装置と3次元位置取得装置とを備えるコンピュータを動作させるためのプログラムである。プログラムは、プロセッサに、現実空間を撮像装置により撮像して得られる画像データを取得するステップと、撮像装置の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データを3次元位置取得装置により取得するステップと、画像データを表示装置に表示させるステップと、画像データと3次元位置データとを対応付けるステップと、表示装置に表示された画像データのうち特定の画像データの指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップと、撮像装置の位置情報、撮像装置の撮像方向、特定箇所の指定、及び3次元位置データに基づいて、特定箇所の3次元位置データを取得するステップとを実行させる。
本開示によれば、事前の準備なく、ユーザ端末から指示対象機器を操作できる。
システムの動作の概要を説明するための図である。 システムの全体の構成を示す図である。 端末装置の機能的な構成を示す図である。 データベースのデータ構造を示す図である。 データベースのデータ構造を示す図である。 システムにおける処理流れの一例を示すフローチャートである。 システムにおける処理流れの一例を示すフローチャートである。 端末装置で表示される画面の一例を表す模式図である。 端末装置で表示される画面の別の一例を表す模式図である。 端末装置で表示される画面のまた別の一例を表す模式図である。
以下、本開示の実施形態について図面を参照して説明する。実施形態を説明する全図において、共通の構成要素には同一の符号を付し、繰り返しの説明を省略する。なお、以下の実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。また、各図は模式図であり、必ずしも厳密に図示されたものではない。
また、以下の説明において、「プロセッサ」は、1以上のプロセッサである。少なくとも1つのプロセッサは、典型的には、CPU(Central Processing Unit)のようなマイクロプロセッサであるが、GPU(Graphics Processing Unit)のような他種のプロセッサでもよい。少なくとも1つのプロセッサは、シングルコアでもよいしマルチコアでもよい。
また、少なくとも1つのプロセッサは、処理の一部又は全部を行うハードウェア回路(例えばFPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit))といった広義のプロセッサでもよい。
また、以下の説明において、「xxxテーブル」といった表現により、入力に対して出力が得られる情報を説明することがあるが、この情報は、どのような構造のデータでもよいし、入力に対する出力を発生するニューラルネットワークのような学習モデルでもよい。従って、「xxxテーブル」を「xxx情報」と言うことができる。
また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。
また、以下の説明において、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサによって実行されることで、定められた処理を、適宜に記憶部及び/又はインタフェース部などを用いながら行うため、処理の主語が、プロセッサ(或いは、そのプロセッサを有するコントローラのようなデバイス)とされてもよい。
プログラムは、計算機のような装置にインストールされてもよいし、例えば、プログラム配布サーバ又は計算機が読み取り可能な(例えば非一時的な)記録媒体にあってもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
また、以下の説明において、種々の対象の識別情報として、識別番号が使用されるが、識別番号以外の種類の識別情報(例えば、英字や符号を含んだ識別子)が採用されてもよい。
また、以下の説明において、同種の要素を区別しないで説明する場合には、参照符号(又は、参照符号のうちの共通符号)を使用し、同種の要素を区別して説明する場合は、要素の識別番号(又は参照符号)を使用することがある。
また、以下の説明において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
<0 システムの概要>
図1は、本開示に係るシステムの動作の概要を示す図である。本開示のシステムでは、スマートフォン等の端末装置に備えられたカメラ等の撮像装置により、端末装置の目前にある現実空間である3次元空間を撮像して画像データを取得する。また、この撮像装置による撮像範囲を含む3次元空間に存在する物体の表面の3次元位置データを、同様に端末装置に備えられたLiDAR等の3次元位置取得装置により取得する。次いで、これら画像データと3次元位置データとを対応付ける。そして、端末装置のディスプレイ等の表示装置に画像データを表示させて、端末装置の所有者に、表示装置の画面をタッチさせる等の手段により画像データ内の特定箇所(画像データと3次元位置データとが対応付けられているので、この特定箇所は物体の表面の特定箇所にも対応付けられている)を指定させると、特定箇所の3次元位置データを算出することができる。
図1に示すように、例えば、端末装置1の所有者は区画線2aが引かれた平面駐車場2にいて、自動車3をこの区画線2aで区切られた駐車区域2bに駐車させようとしているとする。この場合、自動車3は、先進運転支援システム(ADAS:Advanced driver-assistance systems)の一例である自動駐車機能を有するものとする。
自動駐車機能は、自動車3が備える各種装置、一例として自動車3の周囲360°の画像を取得可能な車載カメラ、障害物が検知できる超音波センサ等の近接センサ、さらにはGPS(Global Positioning System)機器に代表されるGNSS(Global Navigation Satellite System)機器により、自動車3自身が周囲の状況を自律的に把握し、端末装置の所有者が指定した3次元位置に向けて自動車3が自律的に走行し、駐車する機能である。類似の機能を有するシステムは既に実現されている(参考:“Clarionクラリオン|自宅などの駐車場の周辺環境の記憶による高度な自動駐車技術「Park by Memory」を開発”,[online],平成30年1月9日,クラリオン株式会社,[令和4年5月13日検索],インターネット <URL:https://www.clarion.com/jp/ja/corp/information/news-release/2018/0109-1/index.html>)。
端末装置1は、撮像装置の一例である図1において図略のカメラと、3次元位置取得装置の一例である同様に図1において図略のLiDARとが搭載されている。LiDARによる物体の3次元位置取得範囲は、カメラによる撮像範囲を少なくとも含む。
自動車3を駐車区域2bに駐車させようとする端末装置1の所有者は、まず、端末装置1のカメラにより、自動車3の駐車を希望する駐車区域2bを含む領域を撮像する。カメラは、端末装置1の所有者により指定された撮像範囲を撮像し、画像データを取得する。カメラにより取得された画像データは端末装置1の画面1aに表示される。
端末装置1のLiDARは、カメラにより撮像範囲を撮像した後、この撮像範囲を少なくとも含む3次元空間に存在する物体の表面の3次元位置データを取得する。この際、カメラによる画像データの取得の直後に(つまり、あまり時間を置かずに)LiDARによる3次元位置データの取得を行えば、カメラによる撮像範囲とLiDARによる3次元位置データの取得範囲が大きくずれることがない。
この際、端末装置1の画面1aにLiDARによる3次元位置データ取得動作を行っていることを明示する必要はない。つまり、カメラによる撮像動作から画面1aに何も表示せずにLiDARによる3次元位置を行えば、端末装置1の所有者は、カメラによる撮像動作にある程度の時間がかかっているように見えるので、その間は端末装置1を大きく動かすと画像にブレが生じるであろうから、できるだけ端末装置1を動かさずにいようという行動に誘導することができるので、LiDARにより取得した3次元位置データ取得の精度が向上する(データがブレない)とともに、カメラによる撮像範囲とLiDARによる3次元位置データの取得範囲との一致率がより高まってよい。
この後、カメラにより取得された画像データとLiDARにより取得された3次元位置データとの対応付けが行われる。対応付けの詳細については後述するが、画像データは画素単位のデータであり2次元データである一方、3次元位置データは(この時点では絶対座標ではなく端末装置1の位置を原点とする相対座標ではあるが)文字通り3次元データであるので、一例として、3次元位置データを端末装置1の画面1aにより規定される2次元平面に射影することで対応付けを行えばよい。
次いで、端末装置1の所有者は、画面1aをタッチする等の手法により、自動車3を駐車させたい目標位置4に対応する画面1a上の箇所1bを指定する。所有者による箇所1c指定があると、端末装置1は、この箇所1cに対応する目標位置4の3次元位置データを特定する。好ましくは、端末装置1に搭載された、図1において図略の加速度センサ、GPSセンサにより、端末装置1の地理的位置情報(緯度、経度、高度)及び端末装置1を原点とする3次元座標を構成するX軸、Y軸及びZ軸周りの傾きを取得し、これにより、端末装置1の(地球上で一意に定まる)位置情報及びカメラの撮像方向を取得する。これにより、LiDARによる3次元位置データを地理的位置データに変換することができ、結果として、端末装置1の所有者により指定された目標位置4の地球上で一意に定まる地理的位置データに変換することができる。
この後、端末装置1の所有者は、自動車3に目標位置4の地理的位置データを送信し、この地理的位置データ(目標位置4)に向けて駐車動作を行うように指示することができる。
<1 システム全体の構成図>
図2は、システムSの全体構成の例を示すブロック図である。図2に示すシステムSは、例えば、端末装置10、指示対象機器20を含む。端末装置10及び指示対象機器20は、例えば、ネットワーク80を介して通信接続する。
図2において、システムSが端末装置10を1台含む例を示しているが、システムSに含まれる端末装置10の数は、1台に限定されない。端末装置10は、指示対象機器20が目標位置に対して所定の動作を行うように指示する際に、この目標位置を指定する者が所持する端末である。
図1に示す端末装置10は、例えば、スマートフォン、タブレット等の携帯端末でもよいし、据え置き型のPC(Personal Computer)、ラップトップPCであってもよい。また、HMD(Head Mount Display)、腕時計型端末等のウェアラブル端末であってもよい。
端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、ストレージ16と、プロセッサ19とを備える。
通信IF12は、端末装置10が、例えば、指示対象機器20等のシステムS内の装置と通信するため、信号を入出力するためのインタフェースである。
入力装置13は、ユーザからの入力操作を受け付けるための装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。
出力装置14は、ユーザに対して情報を提示するための装置(ディスプレイ、スピーカー等)である。
メモリ15は、プログラム、及びプログラム等で処理されるデータ等一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
ストレージ16は、データを保存するためのものであり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。
プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
指示対象機器(移動体)20は、端末装置10から提供された目標位置に向けて何らかの動作を行うように端末装置10の所有者から指示される対象となる機器である。指示対象機器20の一例としては、図1に示した自動車が挙げられる。自動車の場合、端末装置10から提供される目標位置は、一例として自動車の駐車目標位置である。端末装置10から提供される目標位置は、指示対象機器20の種類等によって具体的な内容は異なり、また、指示対象機器20の種類等によってその目標位置に対して指示対象機器20がどのような動作を行うかも異なる。
指示対象機器20は、端末装置10を含む外部機器から提供された目標位置に向けて何らかの動作を行う機能を有する。指示対象機器20が自動車であれば、図1の例に示したように自動駐車機能を有する。また、指示対象機器20が掃除ロボットであれば、目標位置として提示された部屋、さらには部屋の特定領域を認識し、この部屋において自走して掃除動作を行う機能を有する。
指示対象機器20は、上述した機能を有する機器であれば、指示対象機器20そのものの機能や機器の大小を含めて特段の限定はない。
<1.1 端末装置の機能的な構成>
図3は、図2に示す端末装置10の機能的な構成の例を表すブロック図である。図3に示す端末装置10は、例えば、PC、携帯端末、またはウェアラブル端末により実現される。図3に示すように、端末装置10は、通信部120と、入力装置13と、出力装置14と、音声処理部17と、マイク171と、スピーカー172と、カメラ160と、位置情報センサ150と、加速度センサ155と、3次元スキャナ165と、記憶部180と、制御部190とを備える。端末装置10に含まれる各ブロックは、例えば、バス等により電気的に接続される。
通信部120は、端末装置10が他の装置と通信するための変復調処理等の処理を行う。通信部120は、制御部190で生成された信号に送信処理を施し、外部(例えば、指示対象機器20)へ送信する。通信部120は、外部から受信した信号に受信処理を施し、制御部190へ出力する。
入力装置13は、端末装置10を操作するユーザが指示、または情報を入力するための装置である。入力装置13は、例えば、キーボード、マウス、リーダー等により実現されてもよい。端末装置10が携帯端末等である場合には、操作面へ触れることで指示が入力されるタッチ・センシティブ・デバイス131等により実現される。入力装置13は、ユーザから入力される指示を電気信号へ変換し、電気信号を制御部190へ出力する。なお、入力装置13には、例えば、外部の入力機器から入力される電気信号を受け付ける受信ポートが含まれてもよい。
出力装置14は、端末装置10を操作するユーザへ情報を提示するための装置である。出力装置14は、例えば、ディスプレイ141等により実現される。ディスプレイ141は、制御部190の制御に応じたデータを表示する。ディスプレイ141は、例えば、LCD(Liquid Crystal Display)、または有機EL(Electro-Luminescence)ディスプレイ等によって実現される。
音声処理部17は、例えば、音声信号のデジタル-アナログ変換処理を行う。音声処理部17は、マイク171から与えられる信号をデジタル信号に変換して、変換後の信号を制御部190へ与える。また、音声処理部17は、音声信号をスピーカー172へ与える。音声処理部17は、例えば音声処理用のプロセッサによって実現される。マイク171は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部17へ与える。スピーカー172は、音声処理部17から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
カメラ160は、受光素子により光を受光し、撮影信号としての画像データを出力するためのデバイスである。カメラ160は、端末装置10に対して一定方向及び一定の撮像範囲にある物体(被写体)を撮像し、この物体を撮像した結果としての画像データを出力する。この際、カメラ160が撮像範囲、より正確には画角が調整可能な機能を有する場合、カメラ160はこの画角に関する情報も出力する。このような機能は、いわゆるズーム機能と呼ばれている。さらに、カメラ160は一例として端末装置10の筐体に固定されることで、端末装置10に対するカメラ160の撮像方向は一意に定められているものとする。
位置情報センサ150は、端末装置10の位置を検出するセンサであり、一般的にはGNSS機器であり、例えばGPSモジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。位置情報センサ150は、端末装置10が通信部120を介して接続する無線基地局の位置から、端末装置10の現在の位置を検出してもよい。
加速度センサ155は、端末装置10に与えられている加速度を検出するセンサである。好ましくは、加速度センサ155は、端末装置10の位置を原点とする3次元座標の各軸(X軸、Y軸、Z軸)周りの傾きを検出する機能を有する。このような機能を有する加速度センサ155は、地球に対する万有引力の重力加速度を検出することで、端末装置10の姿勢、つまりX軸、Y軸、Z軸に対する方向を検出することができる。そして、カメラ160の端末装置10に対する撮像方向が一意に定められることから、加速度センサ155の検出結果に基づいて、3次元空間内のカメラ60の撮像方向を求めることができる。
3次元位置取得装置の一例である3次元スキャナ165は、端末装置10に対して一定方向及び一定の検出範囲内にある物体をスキャンし、この物体の表面の3次元位置データを取得し、この3次元位置データを出力する。このような3次元スキャナ165の一例として、LiDARが知られている。LiDARは、測定対象に対して広範囲にレーザー光線を照射し(スキャンし)、反射光を受光してこの反射光の有無及び反射光の受光タイミングに基づいて測定対象の表面の3次元位置データを取得するものである。LiDARが取得する3次元位置データは、レーザー光線の反射位置である3次元点群データである。3次元スキャナ165による3次元位置データの取得範囲(測定範囲)は、カメラ160による撮像範囲を少なくとも含むように設定されている。上述したように、カメラ160がズーム機能を有する場合は、カメラ160の画角が最大(つまり広角側に寄った状態)である時の撮像範囲を少なくとも含む測定範囲で3次元位置データが取得可能とされる。あるいは、3次元スキャナ165の測定範囲が可変であれば、カメラ160による撮像範囲に合わせて3次元スキャナ165の測定範囲を設定すれば良い。
記憶部180は、例えば、メモリ15、およびストレージ16等により実現され、端末装置10が使用するデータ、およびプログラムを記憶する。記憶部180は、例えば、アプリケーションプログラム181、画像データ182、スキャンデータ183、画像DB(DataBase)及び指示点DB185を記憶する。
画像データ182は、カメラ160が被写体を撮像して得られたデータである。スキャンデータ183は、3次元スキャナ165が3次元空間をスキャンして得られたデータである。画像DB184は、個々の画像データ182がカメラ160により撮像された際にこの画像データ182に紐付けられる情報を管理するためのDBである。指示点DB185は、端末装置10の所有者により指定された3次元空間上の物体の表面の特定箇所に紐付けられる情報を管理するためのDBである。画像DB184及び指示点DB185の詳細については後述する。
制御部190は、プロセッサ19が記憶部180に記憶されるアプリケーションプログラム181を読み込み、アプリケーションプログラム181に含まれる命令を実行することにより実現される。制御部190は、端末装置10の動作を制御する。制御部190は、プログラムに従って動作することにより、操作受付部191と、送受信部192と、提示制御部193と、撮像制御部194と、スキャナ制御部195と、スキャンデータ対応付け部196と、指定位置三次元位置取得部197としての機能を発揮する。
操作受付部191は、入力装置13から入力される指示、または情報を受け付けるための処理を行う。具体的には、例えば、操作受付部191は、キーボード、マウス等から入力される指示に基づく情報を受け付ける。
また、操作受付部191は、マイク171から入力される音声指示を受け付ける。具体的には、例えば、操作受付部191は、マイク171から入力され、音声処理部17でデジタル信号に変換された音声信号を受信する。操作受付部191は、例えば、受信した音声信号を分析して所定の名詞を抽出することで、ユーザからの指示を取得する。
送受信部192は、端末装置10が、指示対象機器20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。具体的には、例えば、送受信部192は、ユーザから入力された内容を外部機器へ送信する。また、送受信部192は、ユーザに関する情報を外部機器から受信する。
提示制御部193は、端末装置10の各機能部が生成した情報をユーザに対して提示するため、出力装置14を制御する。具体的には、例えば、提示制御部193は、端末装置10の各機能部が生成した情報をディスプレイ141に表示させる。また、提示制御部193は、端末装置10の各機能部が生成した情報をスピーカー172から出力させる。
撮像制御部194は、カメラ160の全般的制御を行う。特に、撮像制御部194は、本実施形態のシステムSの動作中(アプリケーションプログラム181の実行中)においてカメラ160を動作させてカメラ160により被写体を撮像させ、これにより撮像信号を常時出力させ、出力された撮像信号に基づいて出力装置14のディスプレイ141の画面に画像を表示させておく。
そして、撮像制御部194は、端末装置10の所有者等からの指示に基づいて、カメラ160から出力された画像データ182を記憶部180に格納する。また、撮像制御部194は、カメラ160が画像データ182を取得したときの位置情報センサ150及び加速度センサ155の測定値を取得し、取得した測定値及び画像データ182のファイル名を画像DB184に格納する。この後、撮像制御部194は、取得した画像データ182を出力装置14のディスプレイ141に表示させる。撮像制御部194は、画像データ182のメタデータとして測定値を記憶してもよい。
スキャナ制御部195は、3次元スキャナ165の全般的制御を行う。特に、スキャナ制御部195は、本実施形態のシステムSの動作中(アプリケーションプログラム181の実行中)において3次元スキャナ165を動作させて3次元位置データを常時出力させておく。そして、スキャナ制御部195は、端末装置10の所有者等からの指示に基づいて撮像制御部194がカメラ160から画像データ182を取得したタイミングで、3次元スキャナ165により取得した3次元位置データをスキャンデータ183に格納する。この際、スキャナ制御部195は、3次元スキャナ165による3次元位置データの取得範囲が、カメラ160による撮像範囲を少なくとも含む範囲であるかどうかを確認し、必要に応じて、3次元スキャナ165による3次元位置データの取得範囲を設定、調整する。
スキャンデータ対応付け部196は、撮像制御部194及びスキャナ制御部195により取得した画像データ182、スキャンデータ(3次元位置データ)183に基づいて、これら画像データ182とスキャンデータ183の対応付けを行う。
具体的には、スキャンデータ対応付け部196は、画像DB184及びスキャンデータ183を参照し、3次元位置データを構成する3次元点群データのそれぞれの点と、画像データ182を構成する画素とを対応付ける。画像データ182と3次元位置データとの対応付けの手法に特段の限定はないが、一例として、3次元位置データを2次元データである画像データ182に射影するための変換式を求める手法が挙げられる。
つまり、3次元スキャナ165による3次元位置データの取得範囲はカメラ160の撮像範囲を少なくとも含み、しかも、カメラ160からの画像データ182の取得動作に応答して3次元スキャナ165による3次元位置データ取得動作を行っていることから、画像データ182と3次元位置データとは同一の物体についてのデータであることがほぼ確定される。そこで、スキャンデータ対応付け部196は、3次元位置データを2次元平面データである画像データ182に射影し、この時の変換式を求めることにより、3次元位置データと画像データ182との対応付けを行う。そして、スキャンデータ対応付け部196は、求めた変換式を記憶部180に一時的に格納する。
あるいは、スキャンデータ対応付け部196は、撮像された被写体が単純形状であり、また、画像データ182に含まれる被写体の数が限定的なものであるならば、画像データ182に対して、この画像データ182にどのような形状の被写体が含まれているかを解析し、被写体の表面形状と3次元位置データとを対応付けることで、画像データ182と3次元位置データとの対応付けを行ってもよい。一例として、人工知能技術、特に深層学習技術において、画像データ中に存在する物体(被写体)を検出する物体検出(物体認識)技術が知られている。物体検出技術として周知であるのは、例えばYOLO(You Only Look Once)、R-CNN(Region Based Convolutional Neural Networks)及びその発展形としてのFast R-CNN、Faster R-CNN、SSD(Single Shot MultiBox Detector)などがある。物体検出技術を用いる場合、被写体(物体)が既知であることが条件となるが、一般的な物体(例えば図1に示した自動車3のような)であれば物体検出技術を用いて物体の位置及びおおよその形状を把握することができるので、画像データ182中の物体を検出し、3次元位置データとの対応付けを行うことができる。
指定位置三次元位置取得部197は、端末装置10の所有者がディスプレイ141の画面をタッチすることで画像データ182のうち特定のデータ(特定の画素)の指定を受け入れ、これにより、カメラ160により撮像された物体の表面の特定箇所の指定を受け入れる。そして、指定位置三次元位置取得部197は、受け入れた物体の表面の特定箇所、及び、画像データ182に紐付けられた端末装置10の位置情報、カメラ160の撮像方向、3次元位置データに基づいて、この特定箇所の3次元位置データを取得する。
具体的には、撮像制御部194により、カメラ160から出力される撮像信号に基づく画像がディスプレイ141に表示されているので、指定位置三次元位置取得部197は、ディスプレイ141に画像データ182が表示された状態で、端末装置10の所有者からの画面のタッチを待つ。端末装置10の所有者による画面のタッチは入力装置13のタッチ・センシティブ・デバイス131により検出される。指定位置三次元位置取得部197は、端末装置10の所有者による画面のタッチを受けて、所有者がタッチをした画面の位置をタッチ・センシティブ・デバイス131からの検出信号に基づいて検出、算出し、検出したタッチ位置が画像データ182のいずれの画素に対応するかを算出することで、検出したタッチ位置が画像データ182のいずれの位置に対応するかを検出する。指定位置三次元位置取得部197は、検出結果を指示点DB185に格納する。
次いで、指定位置三次元位置取得部197は、タッチ位置に対応する画像データ182の位置が3次元位置データ(3次元点群データ)のいずれの点の3次元位置データに対応するかを、スキャンデータ対応付け部196の対応付け結果に基づいて特定する。これにより、指定位置三次元位置取得部197は、端末装置10の所有者がタッチした位置が3次元空間上の物体の表面のいずれの位置(つまり特定箇所の位置)であるかを検出し、この検出結果に基づいて、物体の表面の特定箇所の3次元位置データ(点としての3次元位置データ)を特定することができる。
さらに、指定位置三次元位置取得部197は、画像データ182を取得した際の端末装置10の位置情報、カメラ160の撮像方向を、画像DB184を参照して求める。画像DB184の詳細については後述するが、画像DB184には、画像データ182が撮像された際の位置情報センサ150の検出結果及び加速度センサ155の検出結果が、画像データ182に紐付けられて格納されている。位置情報センサ150の検出結果は端末装置10の位置情報であり、加速度センサ155の検出結果からは、画像データ182を取得した際の端末装置10の姿勢(端末装置10の位置を原点とする3次元座標のX軸、Y軸、Z軸周りの傾き)を算出することができる。カメラ160の端末装置10に対する撮像方向は既知であるので、加速度センサ155の検出結果から、カメラ160の撮像方向を算出することができる。
そして、指定位置三次元位置取得部197は、端末装置10の位置情報、カメラ160の撮像方向、及び、物体の表面の特定箇所の3次元位置データに基づいて、特定箇所の3次元位置データの絶対位置(緯度、経度、高度)を求めることができる。この後、端末装置10の制御部190は、指定位置三次元位置取得部197により求められた特定箇所の3次元位置データの絶対位置を指示対象機器20に提供し、この指示対象機器20に対して、絶対位置を目標位置とする各種動作の指示を行うことができる。このような指示の例として、図1に示した例のように、指示対象機器20が自動車であれば、絶対位置を駐車目標位置として、この目標位置に自動車を駐車させるような指示が挙げられる。
<2 データ構造>
図4~図5は、端末装置10が記憶するデータベースのデータ構造を示す図である。なお、図4~図5は一例であり、記載されていないデータを除外するものではない。
図4は、画像DB184のデータ構造を示す図である。図4に示すように、画像DB184のレコードの各々は、例えば、項目「画像ID」と、項目「画像ファイル」と、項目「撮像地点情報」と、項目「撮像方向情報」とを含む。画像DB184が記憶する情報は、撮像制御部194により入力、更新される。画像DB184が記憶する情報は、適宜変更・更新することが可能である。
項目「画像ID」は、画像データ182を特定するためのIDである。項目「画像ファイル」は、記憶部180に格納されている個々の画像データ182のファイル名に関する情報である。項目「撮像地点情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の位置に関する情報である。項目「撮像方向情報」は、画像IDにより特定される画像データ182が撮像された際のカメラ160の撮像方向に関する情報である。
項目「撮像地点情報」は、項目「緯度情報」と、項目「経度情報」と、項目「高度情報」とを含む。項目「緯度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の緯度に関する情報であり、項目「経度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の経度に関する情報であり、項目「高度情報」は、画像IDにより特定される画像データ182が撮像された際の端末装置10の高度に関する情報である。
項目「撮像方向情報」は、項目「X軸周りの傾き」と、項目「Y軸周りの傾き」と、項目「Z軸周りの傾き」とを有する。項目「X軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のX軸周りの傾きに関する情報であり、項目「Y軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のY軸周りの傾きに関する情報であり、項目「Z軸周りの傾き」は、画像IDにより特定される画像データ182が撮像された際の端末装置10のZ軸周りの傾きに関する情報である。
図5は、指示点DB185のデータ構造を示す図である。図5に示すように、指示点DB185のレコードの各々は、例えば、項目「指示点ID」と、項目「画面指示点」と、項目「スキャナ指示点」とを含む。指示点DB185が記憶する情報は、指定位置三次元位置取得部197により入力、修正される。指示点DB185が記憶する情報は、適宜変更・更新することが可能である。
項目「指示点ID」は、端末装置10の所有者が画面をタッチすることにより、画像データ182の特定箇所の位置(画素)の指定を受けた際、指定を受けた(所有者により指示された)点を特定するためのIDである。項目「画面指示点」は、端末装置10の所有者による指定を受けた点の画面上(画像データ182上の)の座標値に関する情報であり、項目「スキャナ指示点」は、端末装置10の所有者による指定を受けた点の(3次元スキャナ165により取得された)3次元位置データの座標値に関する情報である。
項目「画面指示点」は、項目「X座標点」と項目「Y座標点」とを有する。項目「X座標点」は、端末装置10の所有者による指定を受けた点の画面上のX座標値に関する情報であり、項目「Y座標点」は、端末装置10の所有者による指定を受けた点の画面上のY座標値に関する情報である。
項目「スキャナ指示点」は、項目「X座標点」と項目「Y座標点」と項目「Z座標点」とを有する。項目「X座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのX座標値に関する情報であり、項目「Y座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのY座標値に関する情報であり、項目「Z座標点」は、端末装置10の所有者による指定を受けた点に対応する3次元位置データのZ座標値に関する情報である。
<3 動作例>
以下、端末装置10の動作の一例について説明する。
図6は、端末装置10の動作の一例を表すフローチャートである。
ステップS600において、制御部190は、カメラ160を動作させ、このカメラ160により撮像を行える範囲、すなわち、カメラ160の撮像素子によりその時点で撮像している被写体に関する撮像情報を表示させる。具体的には、例えば、制御部190は、撮像制御部194によりカメラ160の撮像素子から出力されている撮像信号を受け入れ、この撮像信号に基づいてディスプレイ141に画像を表示させる。
図8は、ステップS600において端末装置10のディスプレイ141に表示されている画像の一例を示す図である。端末装置10の画面800には、その時点でカメラ160の撮像素子により撮像されている撮像信号に基づく画像801が表示されている。また、画面800には、端末装置10の所有者に対して所定の動作を行う旨の指示(この場合は指示対象機器20に対する動作指示を行う目標点を含む領域を撮像する旨の指示)が表示される領域802が設けられている。
ステップS601において、制御部190は、3次元スキャナ165を動作させ、カメラ160の撮像範囲を少なくとも含む測定範囲についてスキャンを行わせる。具体的には、制御部190は、スキャナ制御部195により3次元スキャナ165を動作させ、測定範囲内にある物体の表面からの反射光を受光することで、この物体を含む現実空間に対するスキャンを行う。
次いで、ステップS602において、制御部190は、端末装置10のディスプレイ141の画面をタッチすることにより、目標位置となる物体の表面の特定箇所の指定指示入力を端末装置10の所有者に指示する。具体的には、制御部190は、指定位置三次元位置取得部197により、端末装置10の所有者に対して、物体の表面の特定箇所の指定入力を指示する表示をディスプレイ141に表示させる。そして、ステップS603において、制御部190は、端末装置10の所有者による画面のタッチを待ち、所有者が画面をタッチしたことを検出したら(ステップS603においてYES)ステップS604に移行する。
図9は、ステップS602において端末装置10のディスプレイ141に表示されている画面の一例を示す図である。端末装置10の画面900には、その時点でカメラ160により撮像されている画像901が表示されているとともに、端末装置10の所有者に対して所定の動作を行う旨の指示(この場合は端末装置10の画面をタッチして目標位置となる物体の表面の特定箇所の指定を行う旨の指示)が表示される領域902が設けられている。
そして、図10に示すように、端末装置10の所有者は、指示対象機器20に対する動作指示を行う目標点が画面1000に入っていることを確認した上で、端末装置10のディスプレイ141の画面をタッチして、目標位置となる物体の表面の特定箇所の指定入力(図10において特定箇所1003の指定入力)を行うと、プログラムはステップS604に移行する。
ステップS604において、制御部190は、カメラ160から出力される画像データ182を取得し、取得した画像データ182を記憶部180に格納するとともに、画像データ182を取得した時点での位置情報センサ150及び加速度センサ155の検出結果と画像データ182とに基づいて画像DB184に必要な情報を記録する。
具体的には、例えば、制御部190は、撮像制御部194によりカメラ160からの画像データ182を受け入れ、受け入れた画像データ182を記憶部180に格納する。次いで、制御部190は、撮像制御部194により、画像データ182を取得した時点での位置情報センサ150及び加速度センサ155の検出結果を受け入れ、受け入れた位置情報センサ150及び加速度センサ155の検出結果、及び、記憶部180に格納した画像データ182に基づいて、画像DB184に必要な情報を書き込む。
カメラ160による画像データ182の取得のタイミングと位置情報センサ150、加速度センサ155の検出結果の取得のタイミングとの時間間隔には特段の制限はないが、画像データ182の取得後に端末装置10が大きく移動すると、物体の表面の特定箇所の3次元位置データの特定精度に影響する可能性があるので、画像データ182の取得直後に位置情報センサ150、加速度センサ155の検出結果を取得することが好ましい。
ステップS60において、制御部190は、端末装置10から所定の測定範囲内にある現実空間の物体の表面の3次元位置データを取得する。具体的には、制御部190は、ステップS60においてスキャナ制御部195により、所定の測定範囲内にある現実空間の物体の表面の3次元位置データを3次元スキャナ165から取得し、取得した3次元位置データをスキャンデータ183として記憶部180に格納する。
図7に移行して、ステップS700において、制御部190は、スキャンデータ対応付け部196により、ステップS604において取得した画像データ182とステップS60において取得したスキャンデータ183との対応付けを行う。スキャンデータ対応付け部196によるデータ対応付けの動作の詳細については既に説明したので、ここでの説明は省略する。
ステップS701において、制御部190は、ステップS603において指定入力のあった物体の表面の特定箇所の3次元位置データを取得する。具体的には、制御部190は、指定位置三次元位置取得部197により、指定入力があった画像データ182の座標位置、及び、この座標位置に対応する3次元位置データを算出する。算出した座標位置及び3次元位置データは、指定位置三次元位置取得部197により指示点DB185に格納される。次いで、指定位置三次元位置取得部197は、画像データ182に紐付けられた端末装置10の位置情報及びカメラ160の撮像方向を入手、算出し、物体の表面の特定箇所の3次元位置データの絶対位置を算出する。
この後、ステップS702において、制御部190は、指示対象機器20に対して、ステップS702で取得した物体の表面の特定箇所の3次元位置データの絶対位置に向けて動作をする指示を行う。
<4 実施形態の効果>
以上詳細に説明したように、本実施形態のシステムSによれば、端末装置10の所有者からの物体の表面の特定箇所の指定入力に基づいてこの特定箇所の3次元位置データの絶対位置を取得することができる。特に、本実施形態のシステムSによれば、LiDAR等の3次元位置取得装置を用いて予め三次元座標データを取得することなく、画像データ182の取得とスキャンデータ183の取得とを一連の動作で行うことができ、特段の事前準備なく指示対象機器20に対して目標位置への動作指示を行うことができる。
<5 付記>
なお、上記した実施形態は本開示を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施形態の構成の一部について、他の構成に追加、削除、置換することが可能である。
一例として、上述した実施形態のシステムSでは、画像データ182取得、スキャンデータ183取得及び物体の表面の特定箇所の3次元位置データ取得までの全ての動作を端末装置10により行っていたが、例えば図3におけるスキャンデータ対応付け部196及び指定位置三次元位置取得部197を、端末装置10とは別体の情報処理装置に設ける構成であってもよい。つまり、システムSのハードウェア構成は図2に示す構成に限定されない。
また、上述した実施形態のシステムSでは、指示対象機器20として自動車を例に取り、目標位置に対して自動車を駐車させるような指示を行っていたが、指示対象機器20及び指示対象機器20に対する指示はこれに限定されない。
一例として、医療の現場において、端末装置10の画面をタッチすることにより処置対象、例えば切除対象となる領域の輪郭をなぞり、(遠隔)医療ロボットを指示対象機器20として、この医療ロボットにより指定領域を切除することも可能である。現時点では医師法の制限により医療行為を行うのは医師のみであるが、医師が補助することにより、医療ロボットによる切除行為(医療行為)が可能になる。
あるいは、建設現場において、土地の法面の掘削等土木工事を行うべき領域を端末装置10の画面をタッチすることにより指示し、ショベルカーを指示対象機器20として、このショベルカーにより指定領域の掘削等を指示することもできる。
さらには、指示対象機器20としてドローンのような飛行体も好適に使用可能である。指示対象機器20としてドローンを選択した場合、このドローンの飛行経路や目的位置をシステムSにより指示することができる。
さらに、上述した実施形態のシステムSでは、ステップS600及びS601に示すように、システムSの動作中は常時カメラ160による撮像動作及び3次元スキャナ165による3次元位置データ取得動作を行っていたが、少なくとも端末装置10の所有者による特定箇所の指定に応じて3次元スキャナ165による3次元位置データ取得動作を行い、それ以外は3次元スキャナ165を動作させないことも可能である。
また、ステップS700における画像データ182とスキャンデータ183との対応付け動作は、3次元スキャナ165による3次元位置データ取得動作を常時行っている場合、常時行ってもよい。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
以上の各実施形態で説明した事項を以下に付記する。
(付記1)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えるコンピュータ(10)を動作させるためのプログラムであって、プログラムは、プロセッサ(19)に、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行させる、プログラム。
(付記2)
プログラムは、さらに、特定箇所の3次元位置データ(183)に向けて移動体を移動させる指示を行うステップ(S702)を実行させる、付記1に記載のプログラム。
(付記3)
特定箇所の指定を受け入れるステップ(S603)において、複数の特定箇所の指定を受け入れ、特定箇所の3次元位置データ(183)を取得するステップ(S701)において複数の特定箇所の3次元位置データ(183)を取得し、移動体を移動させる指示を行うステップ(S702)において、複数の特定箇所の3次元位置データ(183)により特定される線を跨がないように移動体を移動させる指示を行う付記2に記載のプログラム。
(付記4)
特定箇所の指定を受け入れるステップ(S603)において、複数の特定箇所の指定を受け入れ、特定箇所の3次元位置データ(183)を取得するステップ(S701)において、複数の特定箇所の3次元位置データ(183)を取得し、移動体を移動させる指示を行うステップ(S702)において、複数の特定箇所の3次元位置データ(183)により特定される面に対して所定の処理を行うように移動体を動作させる指示を行う付記2に記載のプログラム。
(付記5)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えた情報処理装置(10)であって、プロセッサ(19)は、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行する、情報処理装置(10)。
(付記6)
プロセッサ(19)とメモリ(15)と撮像装置(160)と3次元位置取得装置(165)とを備えたコンピュータ(10)により実行される方法であって、プロセッサ(19)は、現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得するステップ(S604)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得するステップ(S605)と、画像データ(182)を表示装置(141)に表示させるステップ(S600)と、画像データ(182)と3次元位置データ(183)とを対応付けるステップ(S700)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れるステップ(S603)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得するステップ(S701)とを実行する、方法。
(付記7)
現実空間を撮像装置(160)により撮像して得られる画像データ(182)を取得する手段(194)と、撮像装置(160)の撮像範囲を少なくとも含む現実空間に存在する物体の表面の3次元位置データ(183)を3次元位置取得装置(165)により取得する手段(195)と、画像データ(182)を表示装置(141)に表示させる手段(197)と、画像データ(182)と3次元位置データ(183)とを対応付ける手段(196)と、表示装置(141)に表示された画像データ(182)の特定箇所の指定を受け入れることで、物体の表面の特定箇所の指定を受け入れる手段(197)と、撮像装置(160)の位置情報、撮像装置(160)の撮像方向、特定箇所の指定、及び3次元位置データ(183)に基づいて、特定箇所の3次元位置データ(183)を取得する手段(197)とを具備する、システム(1)。
S、システム 10、端末装置 12、通信IF 13、入力装置 14、出力装置 15、メモリ 16、ストレージ 17、音声処理部 19、プロセッサ 20、指示対象機器 60、カメラ 80、ネットワーク 120、通信部 131、タッチ・センシティブ・デバイス 141、ディスプレイ 150、位置情報センサ 155、加速度センサ 160、カメラ 165、3次元スキャナ 180、記憶部 181、アプリケーションプログラム 182、画像データ 183、スキャンデータ 184、画像DB 185、指示点DB 190、制御部 191、操作受付部 192、送受信部 193、提示制御部 194、撮像制御部 195、スキャナ制御部 196、スキャンデータ対応付け部 197、指定位置三次元位置取得部

Claims (7)

  1. プロセッサとメモリと撮像装置と3次元位置取得装置と加速度センサと位置情報センサとを備えるコンピュータを動作させるためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
    前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
    前記画像データを表示装置に表示させるステップと、
    前記画像データと前記3次元位置データとを対応付けるステップと、
    前記表示装置に表示された前記画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
    前記撮像装置により前記現実空間を撮像した際の前記加速度センサの検出結果から前記撮像装置の撮像方向を算出するステップと、
    前記撮像装置により前記現実空間を撮像した際の前記位置情報センサの検出結果から前記撮像装置の位置情報を算出するステップと、
    前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記表示装置に表示される前記物体の表面の前記特定箇所の絶対位置を取得するステップとを実行させる、プログラム。
  2. 前記プログラムは、さらに、
    前記特定箇所の絶対位置に向けて移動体を移動させる指示を行うステップを実行させる、請求項1に記載のプログラム。
  3. 前記特定箇所の指定を受け入れるステップにおいて、複数の前記特定箇所の指定を受け入れ、
    前記特定箇所の絶対位置を取得するステップにおいて、複数の前記特定箇所の絶対位置を取得し、
    前記移動体を移動させる指示を行うステップにおいて、前記複数の特定箇所の絶対位置により特定される線を跨がないように前記移動体を移動させる指示を行う
    請求項2に記載のプログラム。
  4. 前記特定箇所の指定を受け入れるステップにおいて、複数の前記特定箇所の指定を受け入れ、
    前記特定箇所の絶対位置を取得するステップにおいて、複数の前記特定箇所の絶対位置を取得し、
    前記移動体を移動させる指示を行うステップにおいて、前記複数の特定箇所の絶対位置により特定される面に対して所定の処理を行うように前記移動体を動作させる指示を行う
    請求項2に記載のプログラム。
  5. プロセッサとメモリと撮像装置と3次元位置取得装置と加速度センサと位置情報センサとを備えた情報処理装置であって、
    前記プロセッサは、
    現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
    前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
    前記画像データを表示装置に表示させるステップと、
    前記画像データと前記3次元位置データとを対応付けるステップと、
    前記表示装置に表示された前記画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
    前記撮像装置により前記現実空間を撮像した際の前記加速度センサの検出結果から前記撮像装置の撮像方向を算出するステップと、
    前記撮像装置により前記現実空間を撮像した際の前記位置情報センサの検出結果から前記撮像装置の位置情報を算出するステップと、
    前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記表示装置に表示される前記物体の表面の前記特定箇所の絶対位置を取得するステップと
    を実行する、情報処理装置。
  6. プロセッサとメモリと撮像装置と3次元位置取得装置と加速度センサと位置情報センサとを備えたコンピュータにより実行される方法であって、
    前記プロセッサは、
    現実空間を前記撮像装置により撮像して得られる画像データを取得するステップと、
    前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを前記3次元位置取得装置により取得するステップと、
    前記画像データを表示装置に表示させるステップと、
    前記画像データと前記3次元位置データとを対応付けるステップと、
    前記表示装置に表示された前記画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れるステップと、
    前記撮像装置により前記現実空間を撮像した際の前記加速度センサの検出結果から前記撮像装置の撮像方向を算出するステップと、
    前記撮像装置により前記現実空間を撮像した際の前記位置情報センサの検出結果から前記撮像装置の位置情報を算出するステップと、
    前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記表示装置に表示される前記物体の表面の前記特定箇所の絶対位置を取得するステップと
    を実行する、方法。
  7. 現実空間を撮像装置により撮像して得られる画像データを取得する手段と、
    前記撮像装置の撮像範囲を少なくとも含む前記現実空間に存在する物体の表面の3次元位置データを3次元位置取得装置により取得する手段と、
    前記画像データを表示装置に表示させる手段と、
    前記画像データと前記3次元位置データとを対応付ける手段と、
    前記表示装置に表示された前記画像データの特定箇所の指定を受け入れることで、前記物体の表面の特定箇所の指定を受け入れる手段と、
    前記撮像装置により前記現実空間を撮像した際の加速度センサの検出結果から前記撮像装置の撮像方向を算出する手段と、
    前記撮像装置により前記現実空間を撮像した際の位置情報センサの検出結果から前記撮像装置の位置情報を算出するステップと、
    前記撮像装置の位置情報、前記撮像装置の撮像方向、前記特定箇所の指定、及び前記3次元位置データに基づいて、前記表示装置に表示される前記物体の表面の前記特定箇所の絶対位置を取得する手段と
    を具備する、システム。
JP2022084199A 2022-05-24 2022-05-24 プログラム、情報処理装置、方法及びシステム Active JP7186484B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022084199A JP7186484B1 (ja) 2022-05-24 2022-05-24 プログラム、情報処理装置、方法及びシステム
JP2022188545A JP2023172851A (ja) 2022-05-24 2022-11-25 プログラム、情報処理装置、方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022084199A JP7186484B1 (ja) 2022-05-24 2022-05-24 プログラム、情報処理装置、方法及びシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022188545A Division JP2023172851A (ja) 2022-05-24 2022-11-25 プログラム、情報処理装置、方法及びシステム

Publications (2)

Publication Number Publication Date
JP7186484B1 true JP7186484B1 (ja) 2022-12-09
JP2023172418A JP2023172418A (ja) 2023-12-06

Family

ID=84388172

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022084199A Active JP7186484B1 (ja) 2022-05-24 2022-05-24 プログラム、情報処理装置、方法及びシステム
JP2022188545A Pending JP2023172851A (ja) 2022-05-24 2022-11-25 プログラム、情報処理装置、方法及びシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022188545A Pending JP2023172851A (ja) 2022-05-24 2022-11-25 プログラム、情報処理装置、方法及びシステム

Country Status (1)

Country Link
JP (2) JP7186484B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004268161A (ja) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd 物品管理システム
JP2021005267A (ja) * 2019-06-27 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004268161A (ja) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd 物品管理システム
JP2021005267A (ja) * 2019-06-27 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP2023172851A (ja) 2023-12-06
JP2023172418A (ja) 2023-12-06

Similar Documents

Publication Publication Date Title
JP6918885B2 (ja) 相対的位置姿勢の標定方法、相対的位置姿勢の標定装置、機器及び媒体
JP6768156B2 (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
JP7240367B2 (ja) 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体
EP2915140B1 (en) Fast initialization for monocular visual slam
KR101433305B1 (ko) 증강 현실 환경을 위한 모바일 디바이스 기반 콘텐츠 맵핑
US8253649B2 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
KR100985737B1 (ko) 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
KR102169492B1 (ko) 평면의 자연스러운 특성 타겟들의 인시츄 생성
CN109146954A (zh) 用于与所显示的地图进行交互的增强现实界面
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
WO2019138597A1 (en) System and method for assigning semantic label to three-dimensional point of point cloud
KR20210019221A (ko) 2d 지도를 이용하여 거리뷰 이미지의 깊이 정보를 생성하는 방법 및 시스템
CN112101209A (zh) 用于路侧计算设备的确定世界坐标点云的方法和装置
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム
CN113496503B (zh) 点云数据的生成及实时显示方法、装置、设备及介质
KR20220085150A (ko) 확장현실 기반 지능형 건설현장 관리 지원 시스템 서버 및 방법
JP7186484B1 (ja) プログラム、情報処理装置、方法及びシステム
US11562538B2 (en) Method and system for providing a user interface for a 3D environment
JP7020418B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6393000B2 (ja) 3dマップに関する仮説的ラインマッピングおよび検証
US20220166917A1 (en) Information processing apparatus, information processing method, and program
KR100782152B1 (ko) 3차원 수치지도를 제작하기 위하여 항공사진 db로부터건물의 3차원 데이터를 획득하는 방법
KR101939530B1 (ko) 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221125

R150 Certificate of patent or registration of utility model

Ref document number: 7186484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150