JP2021050917A - 制御装置、マーカー、方法及びプログラム - Google Patents

制御装置、マーカー、方法及びプログラム Download PDF

Info

Publication number
JP2021050917A
JP2021050917A JP2019171957A JP2019171957A JP2021050917A JP 2021050917 A JP2021050917 A JP 2021050917A JP 2019171957 A JP2019171957 A JP 2019171957A JP 2019171957 A JP2019171957 A JP 2019171957A JP 2021050917 A JP2021050917 A JP 2021050917A
Authority
JP
Japan
Prior art keywords
marker
sensing unit
detection target
control device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019171957A
Other languages
English (en)
Inventor
健介 安間
Kensuke Yasuma
健介 安間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixie Dust Technologies Inc
Original Assignee
Pixie Dust Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixie Dust Technologies Inc filed Critical Pixie Dust Technologies Inc
Priority to JP2019171957A priority Critical patent/JP2021050917A/ja
Publication of JP2021050917A publication Critical patent/JP2021050917A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】三次元形状を計測しつつ、当該三次元形状に付されるマーカーに示される情報を認識することを可能にする技術を提供する。【解決手段】制御装置は、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能である。制御装置は、センシング部から検出結果を取得する取得部と、制御装置の動作を制御する制御部とを含む。制御部は、センシング部により計測された三次元形状からマーカーを認識するステップと、当該マーカーに示される情報に基づき処理を行うステップと、を行う。センシング部は、検出対象の位置までの距離及び方向を特定するように構成されている。制御部は、センシング部により計測された三次元形状を示す点群データを記憶部に記憶させる。制御部は、認識するステップにおいて、センシング部の検出結果に基づいて、マーカーを認識する。【選択図】図5

Description

本発明は、制御装置、マーカー、方法及びプログラムに関する。
現実空間にあるマーカーをカメラ等により撮影し、撮影画像を解析することにより、撮影画像に含まれるマーカー部分を抽出し、抽出されたマーカーにより示される情報を読み込むことにより、コンピュータに処理を行わせる技術がある。例えば、特開2015−007927号公報(特許文献1)のように、現実空間に仮想オブジェクトが存在するかのように、カメラの撮影画像に仮想オブジェクトを重畳させる拡張現実システムがある。
一方で、構造物、人体などの立体的形状をセンサにより検出する技術もある。例えば、LiDAR(Light Detection and Ranging)は、検出対象物に光を照射し、その反射光を検出することで、検出対象物までの距離および方向を特定する。また、RGB−Dカメラは、カラー画像(RGB)及び奥行き情報(Depth)を取得できるカメラである。これらのデバイスを使用することにより、現実空間に存在する対象物の三次元形状を計測することができる。例えば、LiDARを使用することにより、周囲にある構造体、人体等を検出し、これら検出対象物までの距離をも取得することができる。
特開2015−007927号公報
しかしながら、現実空間に存在する三次元形状、及び、マーカーに示される情報の両方を認識するためには、三次元形状を計測するためのデバイス、及び、二次元の撮影画像に基づきマーカーを認識するデバイスの両方が必要となる。そのため、デバイスの構成が複雑化し、結果として、各デバイスを設置するための手間及びコストも大きくなる。
したがって、より簡易な構成により、三次元形状を計測しつつ、当該三次元形状に付されるマーカーに示される情報を認識することを可能にする技術が必要とされている。
本開示に示す一実施形態によると、制御装置は、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能である。制御装置は、センシング部から検出結果を取得する取得部と、制御装置の動作を制御する制御部とを含む。制御部は、センシング部により計測された三次元形状から前記マーカーを認識するステップと、当該マーカーに示される情報に基づき処理を行うステップと、を行う。
一実施形態によると、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能な制御装置が行う方法が提供される。方法は、制御装置が、前記センシング部から検出結果を取得するステップと、前記センシング部により計測された三次元形状から前記マーカーを認識するステップと、当該マーカーに示される情報に基づき処理を行うステップと、を行うことを含む。
一実施形態によると、制御装置を動作させるプログラムが提供される。前記制御装置は、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能であり、制御部と、記憶部とを備える。前記プログラムは、前記制御部に、前記センシング部から検出結果を取得するステップと、前記センシング部により計測された三次元形状から前記マーカーを認識するステップと、当該マーカーに示される情報に基づき処理を行うステップと、を実行させる。
一実施形態によると、光学式により読み取られるマーカーが提供される。前記マーカーは、光を発することにより、少なくとも検出対象までの距離を計測するセンシング部により読み取られるものであり、前記検出対象に付与される一方、前記センシング部で検出されないように構成されている。
一実施形態によると、より簡易な構成により、三次元形状を計測しつつ、当該三次元形状に付されるマーカーに示される情報を認識することができる。
実施の形態1のシステム5の構成を示す図である。 制御装置10の構成を示すブロック図である。 サーバ20の機能的な構成を示す図である。 センシング部11が現実空間50に存在する検出対象(構造体、人体等)に対し、所定の波長の光を照射することにより、検出対象の三次元形状を検出する局面を示す。 現実空間50をセンシング部11により走査することで得られる点群データを概念的に示す図である。 センシングデータ181、建物情報DB182、マーカー情報DB183のデータ構造を示す図である。 建設実績情報DB184と、作業者情報DB185と、作業者作業ログDB186のデータ構造を示す図である。 センシングデータ181に示される任意の時刻における点群データに基づき生成される二次元画像181Dの例を示す。 制御装置10がセンシング部11のセンシング結果に基づいて二次元画像を生成することによりマーカーを認識し、マーカーにより特定される情報に基づき所定の処理を行う際のフローチャートを示す。 実施の形態2におけるマーカーおよびマーカーの検出方法を示す図である。 制御装置10がセンシング部11のセンシング結果に基づいて、マーカーに対応する立体的形状を特定し、マーカーにより特定される情報に基づき所定の処理を行う際のフローチャートを示す。 実施の形態4の概要の説明図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、説明を繰り返さない。
<実施の形態1>
図1は、実施の形態1のシステム5の構成を示す図である。図1に示すように、システム5は、制御装置10と、センシング部11と、サーバ20とを含む。サーバ20は、ネットワーク80を介して制御装置10等と通信接続する。なお、制御装置10とセンシング部11とは、それぞれ別のデバイスとして構成してもよいし、一体として構成してもよい。
作業者31は、所定の目標を達成するために様々な行動を行う主体である。例えば、作業者31は、建設現場や工事現場等において、所定の構造物を完成させる、規定の構造物を修復させる等の目標を達成するために行動する。より具体的には、作業者31は、資材を運搬する、溶接する、組み立てる等をする。
構造体32と構造体33とは、物体である。構造体32と構造体33とは、例えば、建設現場において、建物の柱等となる資材、また、建設工事の際に使用される工具等である。これら構造体32等が、建設計画に従って配置され組み立てられることにより、建物が完成する。すなわち、作業者31は、建設計画に従って、例えば、構造体33等の部材を、現実空間50における所定の位置に配置する。図1に示す例では、作業者31が、構造体33を移動させ、所定の位置に配置している。建物の建設計画では、所定の資材、所定の道具等を、どの位置にどのタイミングで配置すべきかが規定されている。これにより、作業者が、建設計画に従って建設を進めることができる。
センシング部11は、現実空間50に存在する検出対象(例えば、物体又は人体)を検出する。センシング部11は、具体的には、LiDAR、RGB−Dカメラ、超音波センサ、ミリ波レーダー等の少なくともいずれかにより実現可能である。本実施形態のセンシング部11は、光や音や電磁波などを利用したToFセンサなどでも良いし他方式のセンサであっても実現可能である。例えばLiDARは、所定の波長の光を照射し、この照射光に対する散乱光を測定することにより、測定対象までの距離及び方向を特定する。実施の形態1において、センシング部11は、現実空間50に存在する検出対象までの距離及び方向を特定する。これにより、センシング部11は、現実空間50に存在する検出対象の三次元形状を計測する。
現実空間50では、例えば、建設現場で作業者等が建物等の建設を進めている。例えば、現実空間50には、センシング部11が検出する対象として、作業者31と、構造体32と、構造体33とが存在する。
<マーカー、およびマーカーの検出方法>
作業者31、構造体32、構造体33には、それぞれを特定するためのマーカー41〜43が設けられている。例えば、作業者31の上着の所定位置にマーカー41が配されている。構造体32、構造体33には、予め定められた位置に、マーカー42、マーカー43が配されている。
実施の形態1では、三次元形状を計測することができるセンシング部11のセンシング結果に基づいて、制御装置10が、必ずしもマーカーのエッジを抽出することなく、マーカーを認識し、マーカーにより示される情報に基づいて特定の処理を行う技術について説明する。
一般的なマーカーは平面上に張り付けられることが多いが、これに限らず、三次元形状を持つマーカー形式であってもよい。例えば、三次元形状を持つマーカーを張り付けることとしてもよい。また、構造体を削り出すこと等により、マーカーとして特定できる三次元形状を構造体等に形成することとしてもよい。
具体的には、実施の形態1では、マーカーは、センシング部11によるセンシングでは検出されない部材(以下「非検出部材」という)により構成されている。例えば、マーカーは、以下の少なくとも1つにより構成される。
・センシング部11が照射する所定波長の照射光を吸収する吸光部材(一例として、塗布材料(インク等)、シート部材、又は、メタマテリアル)
・センシング部11が照射する所定波長の照射光を反射させる反射部材(一例として、塗布材料(インク等)、シート部材、又は、メタマテリアル)
例えば、マーカー41〜43は、センシング部11の照射光を吸収する吸光部材である。図1に示すように、マーカー41〜43において、吸光部材が配された範囲を、黒い模様で示している。例えば、本実施形態の説明のために、黒い円形の図形である模様「●」、黒い四角形の図形である模様「■」等を複数並べる例をマーカーとして説明しているが、このような構成に限られない。マーカーは、それぞれ識別可能となるように、一意にパターンが割り当てられている。マーカーはセンシング部11の性能によって、大きさ、パターン、模様のピッチを変更する。センシング部11の解像度およびセンシング部11と構造物との距離によって決定する。これに限らず、センシング部11が発する波長において、反射率の違う部材の組み合わせによって、マーカーを作成してもよい。
制御装置10は、センシング部11のセンシング結果に基づいて、現実空間50において、センシング部11で検出される範囲と、センシング部11で検出されない範囲とに基づいて、マーカーを認識する。例えば、制御装置10は、センシング部11のセンシング結果に基づいて、構造体32の三次元形状を検出し、構造体32の三次元形状においてセンシング部11で検出されない範囲のパターン等に基づいて、マーカーを認識することができる。
<マーカーに示される情報に基づいて行う処理>
制御装置10がマーカーに示される情報に基づいて行う処理としては、例えば、以下の処理を含む。
・マーカーにより特定される構造体が現実空間50のどの位置に位置するかを記録すること
・作業者31が現実空間50においてどのように行動しているかを記録すること
・構造体の位置の記録、及び、作業者の行動内容の記録に基づいて、現実空間50において建物が建設計画に従って建設されているかを判定すること
例えば、制御装置10は、所定のタイミングで、所定の資材が、所定の場所に配されているか等により、計画に沿って建設が進められているかを判別し得る。
<サーバ20の構成>
サーバ20は、制御装置10が取得する各種情報を制御装置10から受信することにより、センシング部11のセンシング結果等の各種情報を蓄積する。
サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。
入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。
メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。
プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
<制御装置10の構成>
図2は、制御装置10の構成を示すブロック図である。
制御装置10は、アンテナ111〜112と、アンテナに対応する無線通信部(無線通信部121〜122)と、入力受付部131と、ディスプレイ132と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、入出力インタフェース170と、記憶部180と、制御部190と、を含む。
制御装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリ、バッテリから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、制御装置10に含まれる各ブロックは、バス等により電気的に接続される。
アンテナ111〜112は、それぞれ、制御装置10が発する信号を電波として放射する。また、アンテナ111〜112は、それぞれ、空間から電波を受信して受信信号を無線通信部121〜122へ与える。
無線通信部121〜122は、制御装置10が他の無線機器と通信するため、アンテナを介して信号を送受信するための変復調処理などを行う。無線通信部121〜122は、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。無線通信部121〜122は、制御装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
なお、制御装置10は、通信方式に対応して複数のアンテナおよび無線通信部を備えていてもよい。例えば、アンテナ111及び無線通信部121は、移動体通信システムの通信規格に対応している。アンテナ112及び無線通信部122は、近距離無線通信(無線LAN(Local Area Network)規格、Bluetooth(登録商標)等)に対応している。本実施形態では無線で実現したが、これに限るものではなく、有線や、その他の方式の通信を用いてもよい。例えば、LPWA(Low Power Wide Area)に対応した方式であるとしてもよい。
入力受付部131は、ユーザの入力操作を受け付けるための機構を有する。具体的には、入力受付部131は、物理キー、ボタン、キーボード、タッチ・センシティブ・デバイス等として構成される。
ディスプレイ132は、制御部190の制御に応じて、画像、動画、テキストなどのデータを表示する。
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を制御装置10の外部へ出力する。
位置情報センサ150は、制御装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される制御装置10の現在位置を検出する。このGPSモジュールが検出する位置は、例えば、制御装置10とセンシング部11との位置が同一とみなせる場合(制御装置10とセンシング部11とが一体として構成される場合等)に、センシング部11がセンシングを行った時の制御装置10の位置情報をメモリに保存する際等に利用され得る。例えば、制御装置10の位置を移動させた場合に、位置情報センサ150の出力に基づいて、制御装置10の位置を取得することができる。なお、制御装置10の位置は、GPSモジュールによって取得する例に限らず、例えば現実空間50に配置される無線基地局、アクセスポイント等と信号を送受信することで取得することとしてもよい。これに限らず、BLEビーコンを用いた方式や、ジオメトリ情報を用いた自己位置推定方式を利用してもよいし、それらの複合であってもよい。
入出力インタフェース170は、制御装置10が、他の装置と信号を送受信するためのインターフェースである。例えば、入出力インタフェース170により、センシング部11との接続を受け付ける。
記憶部180は、例えばフラッシュメモリ等により構成され、制御装置10が使用するデータおよびプログラムを記憶する。ある局面において、記憶部180は、センシングデータ181と、建物情報DB(データベース)182と、マーカー情報DB183と、建設実績情報DB184と、作業者情報DB185と、作業者作業ログDB186とを記憶する。なお、本実施形態では、制御装置10がセンシングデータ181をサーバ20へ送信し、サーバ20においてログとして蓄積する例について説明する。また、建物情報DB182、マーカー情報DB183、建設実績情報DB184、作業者情報DB185、作業者作業ログDB186の各データは、制御装置10とサーバ20とで保持されているものとして説明する。例えば、制御装置10のユーザが、マーカーの情報等を設定して、制御装置10とサーバ20とに保持させる。
センシングデータ181は、センシング部11が逐次出力するデータである。制御装置10は、センシング部11のセンシング結果を受信して記憶部180に記憶させる。
建物情報DB182は、建設会社ごとに、建設会社が建設する建物の情報を含むデータベースである。
マーカー情報DB183は、センシング部11のセンシング結果に基づいて特定するマーカーについて、各マーカーにより特定される情報を示す。
建設実績情報DB184は、建物ごとに、施工作業の実績を示す情報を含むデータベースである。
作業者情報DB185は、建設現場で作業を行う作業者の情報を含むデータベースである。
作業者作業ログDB186は、作業者が建設現場で行った作業内容のセンシングデータを含むデータベースである。これらの各データベースについては後述する。
制御部190は、記憶部180に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、制御装置10の動作を制御する。制御部190は、例えばアプリケーションプロセッサである。制御部190は、プログラムに従って動作することにより、入力操作受付部191と、送受信部192と、データ処理部193と、表示制御部194としての機能を発揮する。
入力操作受付部191は、入力受付部131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。
送受信部192は、制御装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
データ処理部193は、制御装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。例えば、データ処理部193は、センシング部11の検出結果であるセンシングデータ181に基づいて、現実空間50に存在する検出対象の三次元形状を特定する。データ処理部193は、三次元形状に含まれるマーカー41〜43を、これらマーカーのエッジを抽出せずとも認識する。
データ処理部193は、マーカーに示される情報に基づいて、各種の処理を行う。例えば、データ処理部193は、マーカーに示される情報に基づいて、マーカーにより特定される構造体の位置及び時刻の組合せを時系列で記録する。これにより、建設現場等において、資材等の構造体が、建設を進めるうえで適切な場所に置かれていたか等の判定をすることができる。
また、データ処理部193は、マーカーにより人員(作業者等)を特定した場合に、当該作業者の現実空間50における位置を特定することができる。データ処理部193は、当該作業者の三次元形状を時系列で解析することにより、当該作業者がどのような作業を行っていたかを特定することができる。
表示制御部194は、表示画像をディスプレイ132に表示させる処理等を行う。
<サーバ20の構成>
図3は、サーバ20の機能的な構成を示す図である。図5に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、センシングデータ181と、建物情報DB182と、マーカー情報DB183と、建設実績情報DB184と、作業者情報DB185と、作業者作業ログDB186とを記憶する。
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして示す機能を発揮する。
操作内容取得モジュール2041は、サーバ20が制御装置10に対し、ブラウザ等により、ユーザの操作を受け付けるためのインタフェースを提供する場合に、制御装置10のユーザの操作内容を取得する。
受信制御モジュール2042は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール2043は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
タスク管理モジュール2044は、サーバ20が実行対象とする様々なタスクの実行状況を管理する。
マーカー特定モジュール2045は、センシングデータ181に基づいて、現実空間50にあるマーカーを認識する処理を行う。マーカー特定モジュール2045は、センシングデータ181に基づいて、現実空間50に存在する構造体等の三次元形状を特定し、当該三次元形状に形成されるマーカーを、マーカーのエッジを抽出せずとも認識する。また、マーカー特定モジュール2045は、センシングデータ181を二次元画像に変換し、当該二次元画像に基づいて、マーカーのエッジを抽出すること等によりマーカーの範囲を認識することとしてもよい。
作業内容特定モジュール2046は、センシング部11により、現実空間50に存在する三次元形状を計測した結果と、マーカーを認識した結果等に基づいて、現実空間50で行われた作業内容を特定する。作業内容特定モジュール2046は、例えば、マーカーに示される特定の資材が現実空間50の所定の位置に所定のタイミングで配置されていることにより、例えば、建設現場における建設工事が計画に従って進行しているか、遅延しているか等を判別する。例えば、建設工事の計画には、所定の資材を、いつ、どこに配置して、いつ使用するか等が定められている。
また、作業内容特定モジュール2046は、マーカーに示される人員が、現実空間50の所定の位置に所定のタイミングで作業を行っていたか、計測される点群データの時系列の変化に基づいてどのような作業を行っていたか(例えば、資材を運搬により移動させる操作をしていたか、組み立て作業をしていたか等)等を特定する。
<センシング部11により取得されるデータの構造>
実施の形態1における各種データ構造について説明する。まず、センシング部11のセンシング結果を示すセンシングデータ181について説明する。
図4は、センシング部11が現実空間50に存在する検出対象(構造体、人体等)に対し、所定の波長の光を照射することにより、三次元形状を計測する局面を示す。
図4に示すように、センシング部11を基準とした座標系(以下「センサ座標系」という)として、X軸、Y軸、Z軸からなる3次元の座標系が設定される。X軸はロール軸であり、Y軸はピッチ軸であり、Z軸はヨー軸である。センシング部11は、3次元空間を走査しており、現実空間50に光を照射する際に、照射の方向を、X軸、Y軸、Z軸のパラメータにより決定する。図示する例では、センシング部11は、方向(X1、Y1、Z1)に光を照射している。センシング部11は、照射光が構造体32等により反射されることにより受光器で受光した光(照射した光と、受光した光との位相差等)に基づいて、センシング部11から構造体32までの距離(D1)を測定する。
ここで、センシング部11を基準とした座標系とは別に、現実空間50に設定される3次元空間の座標系(以下「ワールド座標系」という)として、U軸、V軸、W軸からなる3次元の座標系が設定される。よって、構造体等の位置は、ワールド座標系により、位置(U1、V1、W1)等として定義される。
よって、センシング部11の位置が既知である場合、現実空間50に存在する検出対象の位置を、ワールド座標系におけるセンシング部11の位置と、センシング部11のセンシング結果(検出対象までの方向及び距離)により特定することができる。
以上より、センシング部11は、検出対象の位置までの距離及び方向を検出するように構成されており、現実空間50の三次元形状を、点の集合である点群データとして出力する。点群データの各点は、上記のように、センシング部11から、検出対象の位置までの距離及び方向を示す。
また、3次元仮想空間を定義して、これら点群データの各点を配置し、3次元仮想空間内の任意の位置に配置した仮想カメラの設定に従ってレンダリングを行うことにより、二次元画像を生成することができる。
ここで、上記のようにセンシング部11により生成される点群データについて詳細を説明する。
図5は、現実空間50をセンシング部11により走査することで得られる点群データを概念的に示す図である。
図5(A)は、現実空間50に、構造体32と、センシング部11とが配置されている局面を示す。構造体32には、構造体32を特定するための情報を含むマーカー42が付されている。
図5(B)は、現実空間50の平面図を示す。
図5(C)と図5(D)は、現実空間50をセンシング部11がセンシングした結果を模式的に示す。図5(C)の例と図5(D)の例とでは、センシング部11がセンシングを行う際の向きが異なり、具体的にはピッチ軸(Y軸)の角度が異なっている。図5(C)の例では、センシング部11が走査する際に、照射光は、マーカー42を通過する。これに対し、図5(D)の例では、図5(C)とは異なり、センシング部11が走査する際に、照射光は、マーカー42が配されていない部分を通過する。
図5(C)及び図5(D)において、センシング部11が現実空間50を走査することにより生成される点群データ181Bを、円形の記号「〇」として示している。センシング部11は、記号「〇」に示される各点について、センシング部11がセンシングを行った方向と距離の情報を出力する。例えば、センシング部11が方向(X1、Y1、Z1)に対してセンシングを行うことにより距離(D1)が計測された場合に、センシング部11は、方向と距離の組合せ(つまり、ベクトル(以下「検出ベクトル」という))とを示す情報として、データ(X1、Y1、Z1、D1)を出力する。なお、センシング部11は、センシングを行った方向及び検出対象までの距離の組合せ(つまり、センシング部11を基準とする検出対象のベクトル(以下「検出対象ベクトル」という))に応じて、センシング部11のセンサ座標系に基づいて検出対象の座標(例えば、センサ座標系における座標(Xc、Yc、Zc))を出力してもよい。
上記のように、マーカー42は、非検出部材で構成されている。そのため、図5(C)に示すように、センシング部11がマーカー42の位置する方向に光を照射しても、マーカー42の位置までの距離を取得することができないので、マーカー42の方向と距離の情報(つまり、検出対象ベクトル)が得られない。
これに対し、図5(D)に示すように、構造体32においてマーカー42が付されていない部分については、センシング部11は、センシングを行った方向と距離の情報(つまり、検出対象ベクトル)が得られる。
図6は、センシングデータ181、建物情報DB182、マーカー情報DB183のデータ構造を示す図である。
センシングデータ181は、センシング部11がセンシングを行った時刻と対応付けて、現実空間50のセンシングを行った結果取得される点群データを保持している。
建物情報DB182は、建設会社が建設を行う建物の情報を保持している。建物情報DB182の各レコードは、建物の情報として、項目「建物ID」と、項目「建物名称」と、項目「カテゴリ」と、項目「構造情報」と、項目「施工計画情報」とを含む。
項目「建物ID」は、建物を識別するための情報である。
項目「建物名称」は、建物の名称を示す。
項目「カテゴリ」は、建物の分類を示す。
項目「構造情報」は、建物の構造を示す。
項目「施工計画情報」は、建物を施工する手順を示す。
ここで、項目「構造情報」としては、BIM(Building Information Modeling)データを用いることとしてもよい。BIMデータは、以下の情報を含む。
・建物を構成する各部材(壁、柱、建具、階段、設備など)の情報(これら部材の型番、寸法の情報を含む)
・各部材により構造設計された3次元モデルの情報
項目「施工計画情報」は、BIMデータに含まれる各部材を組み立てる等することにより建物を完成させるための手順及び施工のスケジュールの情報が含まれる。
マーカー情報DB183は、マーカーそれぞれの内容を示す。マーカー情報DB183の各レコードは、項目「マーカー識別情報」と、項目「検出対象」と、項目「属性」と、項目「場所」とを含む。
項目「マーカー識別情報」は、マーカーそれぞれを識別するための情報である。
項目「検出対象」は、マーカーが付される対象(センシング部11によるセンシングの対象)を特定するための情報を示す。例えば、マーカーが付される対象として複数の構造体がある場合に、構造体に関する情報を含む。図示するように、項目「検出対象」は、例えば、構造体を識別する情報と、構造体の種類(一例として、作業者が使用する工具の場合には、種類「工具」であることを示す情報)と、どの作業者であるか等を示す情報(後述する「作業者ID」)と、を含む。
項目「属性」は、項目「検出対象」に示される対象の属性を示す。属性は、任意に設定可能な情報である。属性としては、例えば、図示するように、静止物であるか、道具であるか、作業者であるか等がある。また、作業者の属性として、作業者の作業の習熟度合い、経験年数その他のスキルレベル(図示する例では、作業の経験が豊富な「熟練作業者」である例を示す)を設定してもよい。
図7は、建設実績情報DB184と、作業者情報DB185と、作業者作業ログDB186のデータ構造を示す図である。
建設実績情報DB184は、建設会社が建物を施工した実績を示す情報を保持している。建設実績情報DB184の各レコードは、建設会社の施工の実績として、現実空間50でセンシングされたセンシングデータの情報が保持されている。各レコードは、具体的には、項目「時刻」と、項目「位置」と、項目「検出対象」とを含む。
項目「時刻」は、センシングの時刻を示す。
項目「位置」は、現実空間50においてセンシング部11によって検出された検出対象の位置(ワールド座標系)を示す。
項目「検出対象」は、センシング部11のセンシングの結果、作業者31、構造体32、構造体33等に付される各マーカー(マーカー41〜43)により特定される対象を示す。
作業者情報DB185の各レコードは、作業者の情報として、項目「作業者ID」と、項目「作業者名称」と、項目「作業者属性」とを含む。
項目「作業者ID」は、作業者を識別するための情報を示す。
項目「作業者名称」は、作業者の名称を示す。
項目「作業者属性」は、作業者の属性を示す。図示するように、作業者の属性としては、作業者の性別を示す項目「性別」、作業者の年齢を示す項目「年齢」、作業者が作業を経験している期間を示す項目「経験年数」等がある。
作業者作業ログDB186の各レコードは、作業者ごとに、作業者が現実空間50で作業を行ったログとして、項目「ログID」と、項目「日時」と、項目「作業者センシング情報」と、項目「行動スコア」とを含んで構成されている。
項目「ログID」は、作業者作業ログそれぞれを識別するための情報である。
項目「日時」は、ログとして記録される作業者の作業が行われたタイミングを示す。
項目「作業者センシング情報」は、現実空間50でセンシングされた結果に基づき判別される作業者の作業内容を示す。項目「作業者センシング情報」は、現実空間50における作業者の位置の情報である項目「位置情報」と、センシングデータの出力結果に基づき判別される作業者の行動内容を示す項目「行動内容」とを含む。
項目「行動スコア」は、現実空間50において、作業者が、作業すべき手順に沿って作業を安全に行ったか否かを評価した評価値である。ここで、項目「行動スコア」は、例えば、作業者が行うべき作業内容(作業計画)と、センシングデータの結果に基づき判別される作業者の行動内容の実績とを比較して、施工計画に従って作業者が作業を安全に行ったか否かを評価して計算される。
例えば、以下の少なくとも1つの評価項目での作業者の達成度合いに基づき行動スコアを計算してもよい。
・作業現場において作業者が所定の位置にいたか否か
・作業者が作業を行う手順が予め定められた手順を遵守しているか
・作業者が働いていた時間
・作業者の成果の出来栄え(一例として、期日内に作業を完了したか、又は、作業の結果が要求仕様を満たしているか)
<動作>
次に、実施の形態1における制御装置10、サーバ20の動作について説明する。実施の形態1では、制御装置10が、センシング部11のセンシング結果を、現実空間50に存在する検出対象の三次元形状を示す点群データとして保持し、点群データに基づき二次元画像を生成したうえで、二次元画像からマーカーを認識する処理を説明する。
図8は、センシングデータ181に示される任意の時刻における点群データに基づき生成される二次元画像181Dの例を示す。図8では、図5の例に示す点群データに基づき二次元画像181Dが生成された例を説明する。
制御装置10は、3次元仮想空間を定義し、センシング部11の位置を規定したうえで、センシングデータ181に基づいて、3次元仮想空間に点群データそれぞれを割り当てる。すなわち、センシングデータ181には、センシング部11を基準とした座標系(以下「センサ座標系」という)における、検出対象の位置が点群データとして保持されているため、制御装置10は、3次元仮想空間において、センシング部11に対応する位置を基準として、点群データに基づき各点に対応するオブジェクト等を配置することができる。
制御装置10は、3次元仮想空間の任意の位置に仮想カメラを配置して、仮想カメラの設定に従ってレンダリングを行うことにより、二次元画像を生成する。例えば、3次元仮想空間において、センシング部11の位置に対応する位置に仮想カメラを配置してもよいし、検出対象の物体がある場合に、当該物体と、センシング部11の位置とを視野角に含めるように仮想カメラを配置してもよい。
制御装置10は、仮想カメラの設定に従ってレンダリングを行うのに先立ち、3次元仮想空間において、センシング部11の位置からの距離を示す同心円を表すオブジェクトを配置してもよい。これにより、仮想カメラの設定に従ってレンダリングされる二次元画像に、センシング部11の位置からの距離を示す情報を含めることができる。
図8の例では、制御装置10がセンシング部11の位置を中心とする同心円を表すオブジェクトを配置することにより、二次元画像181Dに、センシング部11の位置からの距離を表す線51Aを含めることができる。これにより、二次元画像181Dにおいて、センシング部11の位置からの構造体等の距離感を、ユーザが容易に認識することができる。
点群データにおいて、マーカー42が配置されていた部分については、センシング部11によりセンシングすることができていない。そのため、図8に示すように、構造体について、センシング部11によりセンシングできている部分に、センシングできていない部分が含まれるように二次元画像181Dが生成されている。
二次元画像181Dにおいて、センシングできていない部分のパターンは、マーカーそれぞれにより規定されるパターンに対応している。マーカーは、それぞれ識別可能となるように、マーカー識別情報と対応付けられた一意の模様を有しているため、制御装置10は、二次元画像181Dにおいて、マーカーに対応する模様の部分があるか否かを解析することにより、マーカーを認識する。制御装置10は、マーカーに対応する模様に基づいて、当該マーカーのマーカー識別情報を特定する。
図9は、制御装置10がセンシング部11のセンシング結果に基づいて二次元画像を生成することによりマーカーを認識し、マーカーにより特定される情報に基づき所定の処理を行う際のフローチャートを示す。
ステップS951において、センシング部11は、センシング結果を、逐次、制御装置10へ送信する。
ステップS911において、制御装置10は、センシング部11から、現実空間の三次元形状をセンシングした結果を受信する。制御装置10は、受信したセンシング結果を、センシングのタイミングと対応付けてセンシングデータ181(点群データ)として記憶する。
ステップS913において、制御装置10は、センシングデータ181に示される点群データに基づいて、現実空間50のセンシング結果を示す二次元画像(二次元画像181D)を生成する。
ステップS915において、制御装置10は、二次元画像を解析することにより、二次元画像に含まれる特定のパターンを、マーカーとして認識する。
ステップS917において、制御装置10は、認識したマーカーに対応するマーカー識別情報を特定する。制御装置10は、マーカー識別情報に示される対象と、現実空間50における当該特定される対象のワールド座標系における位置とを対応付けて建設実績情報DB184等により記憶する。例えば、制御装置10は、マーカーに示される対象を、マーカーに示される情報に基づきマーカー情報DB183を照合することにより特定する。例えば、マーカーに「マーカー識別情報」が含まれる場合、制御装置10は、マーカー情報DB183を参照して、項目「マーカー識別情報」に対応する項目「検出対象」(例えば、「構造体1」)と、マーカーにより特定される検出対象の位置とを、建設実績情報DB184に記録する。
ステップS919において、制御装置10は、マーカーにより特定される動作主体(例えば、作業者などの人間、作業者が操作する機械、作業者の操作によらず自立的に動作するロボット、及び、作業者の操作によらず自立的に走行する移動体の少なくとも1つ)の行動内容を判別して、作業者作業ログDB186を更新する。例えば、現実空間50において、作業者が特定の位置にいる場合にできる作業内容が定まっている場合、制御装置10は、作業者が当該位置にいることにより、特定の作業を行っていることを作業者作業ログDB186にログとして記録する。また、センシング部11が作業者等の動作主体を時系列に沿ってセンシングした結果に基づき、作業者等の動作主体の作業内容を特定できる場合(例えば、動作主体の三次元形状の時系列の変化が、組み立て作業を示す場合等)、制御装置10は、三次元形状の時間変化に基づいて、作業者等の動作主体の行動内容を判別して、作業者作業ログDB186に記録する。
以上の説明では、制御装置10がマーカーを認識し、マーカー識別情報に基づいて、マーカーに示される物体の認識を行う例を説明している。この他に、マーカーが、物体を識別する情報(物体の種類を示す情報)を含むこととしてもよい。例えば、制御装置10がマーカーを読み取ることにより、構造体を識別する情報又は作業者を識別する情報を読み取ることとしてもよい。これにより、制御装置10は、当該マーカーが形成される物体が、どの構造体であるか又はどの作業者であるかを特定することができる。
また、マーカーが、場所を示す情報を含むこととしてもよい。例えば、制御装置10がマーカーを読み取ることにより、マーカーが形成される物体の場所を取得することができる。例えば、予め特定の場所に配される物体が規定されている場合、制御装置10は、マーカーに示される場所の情報を読み取ることにより、マーカーが形成される物体を特定することができる。例えば、センシング部11が移動する場合においても、マーカーが示す場所の情報を読み取ることにより、制御装置10がセンシング部11の位置を推定することができる。
<実施の形態2>
以上の実施形態1の説明では、マーカーは、検出対象となる作業者31、構造体32に付される一方で、センシング部11で検出されないように構成される例を説明した。
この他に、マーカーの三次元形状を、マーカーそれぞれで一意に識別するものとしてもよい。実施の形態2では、マーカー情報DB183は、マーカー識別情報と対応付けて、各マーカーの三次元形状の情報を保持している。例えば、マーカー情報DB183は、各マーカーの三次元形状を示す点群データの情報を保持している。
図10は、実施の形態2におけるマーカーおよびマーカーの検出方法を示す図である。
図10(A)は、マーカーの一例を示す図である。図10(A)に示すように、構造体32に、特定の三次元形状であるマーカー43が形成されている。制御装置10は、各マーカーに対応する三次元点群データを読み込む。制御装置10は、センシング部11のセンシング結果と、マーカー情報DB183に示される各マーカーの三次元形状の情報とを照合することにより、センシング結果に含まれるマーカーを認識する。
図11は、制御装置10がセンシング部11のセンシング結果に基づいて、マーカーに対応する三次元点群データを認識し、マーカーにより特定される情報に基づき所定の処理を行う際のフローチャートを示す。
ステップS913Aにおいて、制御装置10は、センシングデータ181の点群データに基づいて、マーカーに対応する特定の三次元点群データが含まれているか判定する。
ステップS915Aにおいて、制御装置10は、特定の三次元点群データをマーカーとして認識する。
<実施の形態3>
実施の形態3について説明する。
実施の形態3では、システムが、複数のセンシング部11を備える例を説明する。
図10(B)は、第1のセンシング部11Aと、第2のセンシング部11Bとによりセンシングを行う局面を示す図である。
ここで、第1のセンシング部11Aは、第1の波長の光を発することにより、検出対象(構造体32等)までの距離及び方向を特定するように構成されている。第2のセンシング部11Bは、第2の波長の光を発することにより、検出対象までの距離及び方向を特定する。
マーカー42は、検出対象である構造体32に形成される一方、第1のセンシング部11Aでは検出されない部材であって、第2のセンシング部11Bで検出されるように構成されている。
制御装置10は、第1のセンシング部11Aで検出されず、第2のセンシング部11Bで検出される検出対象について、マーカーの範囲として認識する。
図10(C)は、第1のセンシング部11Aのセンシング結果を示す。図10(C)に示すように、第1のセンシング部11Aは、マーカー42を検出できていない。
図10(D)は、第2のセンシング部11Bのセンシング結果を示す。図10(D)に示すように、第2のセンシング部11Bは、マーカー42を検出する。
システムが、周波数帯の異なる複数のセンシング部を備えることとしてもよい。例えば、第1のセンシング部は、第1の周波数帯の光を発することにより、第1の距離までの検出対象を検出する。第2のセンシング部は、第2の周波数帯の光を発することにより、第2の距離までの検出対象を検出する。
制御装置10は、第1のセンシング部のセンシング結果により、現実空間50の検出対象の三次元形状を計測し、第2のセンシング部のセンシング結果により、検出対象に付されるマーカーを認識する。例えば、第1の距離が、第2の距離よりも長い(第1のセンシング部で検出できる距離が、第2のセンシング部で検出できる距離よりも長い)場合、第1のセンシング部により、第1のセンシング部から第1の距離以内に位置する検出対象を検出しつつ、第2のセンシング部により、第2のセンシング部から第2の距離以内に位置するマーカーを認識することができる。
<実施の形態4>
実施の形態4について説明する。実施の形態4は複数の点群データを合成する例である。図12は、実施の形態4の概要の説明図である。
図12に示すように、実施の形態4では、構造体32に付されたマーカー42を、基準となるマーカー(以下「ランドマーク」という)として用いる。
ステップS951において、第1のセンシング部11a及び第2のセンシング部11bは、マーカー42を含む構造体32のセンシング結果を、逐次、制御装置10へ送信する。
ステップS911において、制御装置10は、第1のセンシング部11aから、センシング結果を受信する。制御装置10は、受信したセンシング結果を、センシングのタイミングと対応付けてセンシングデータ181(以下「第1の点群データ」)として記憶する。
制御装置10は、第2のセンシング部11bから、センシング結果を受信する。制御装置10は、受信したセンシング結果を、センシングのタイミングと対応付けてセンシングデータ181(以下「第2の点群データ」)として記憶する。
ステップS913において、制御装置10は、第1の点群データから、ランドマークに対応する座標(以下、「第1の基準座標」という)を特定する。
制御装置10は、第2の点群データから、ランドマークに対応する座標(以下「第2の基準座標」という)を特定する。
制御装置10は、第1の基準座標及び第2の基準座標を用いて、第1の点群データ及び第2の点群データに対して、合成処理及び位置合わせ(以下「アライメント処理」という)の少なくとも1つを適用する。
具体的には、制御装置10は、第2の基準座標が第1の基準座標に合致するように、第2の点群データを変換する。
合成処理では、制御装置10は、変換後の第2の点群データを第1の点群データと合成することにより、合成点群データを生成する。
アライメント処理では、制御装置10は、変換後の第2の点群データを第1の点群データに位置合わせすることにより、アライメント点群データを生成する。
実施の形態4によれば、点群データの合成及び位置合わせの際に、対象となる点群データ以外の情報を用いる必要がない。これにより、点群データの合成及び位置合わせにおけるデータ量及び計算量を低減することができる。
<付記>
以上の実施形態で説明した事項を、以下に付記する。
(付記1)
一実施形態によると、制御装置(10)が提供される。制御装置は、マーカー(41〜43)が配置された検出対象(31、32、33)の三次元形状を検出するセンシング部(11)と接続可能である。制御装置は、センシング部から検出結果を取得する取得部(121〜122、170)と、制御装置の動作を制御する制御部(190)とを含む。制御部は、センシング部により計測された三次元形状からマーカーを認識するステップと(193、S915、S915A)、当該マーカーに示される情報に基づき処理を行うステップと(193、S917、S919)、を行う。
(付記2)
センシング部は、検出対象の位置(U,V,W)までの距離(D)及び方向(X,Y,Z)を特定するように構成されており、制御部は、センシング部により計測された三次元形状を示す点群データを記憶部に記憶させるステップを行い(S911)、点群データの各点が、センシング部から検出対象の位置までの距離及び方向の検出結果を示し(181)、制御部は、認識するステップにおいて、点群データに基づき二次元画像(181D)を生成するステップと(S913)、生成される二次元画像に基づいてマーカーを認識するステップと(S915)、を行う、(付記1)に記載の制御装置。
(付記3)
マーカーは、センシング部で検出されないように構成されており(42)、制御部は、認識するステップにおいて、センシング部の検出結果に基づいて、マーカーを認識する、(付記1)または(付記2)に記載の制御装置。
(付記4)
センシング部は、光を発することにより、センシング部から検出対象までの距離および方向を特定するように構成されており、マーカーは、センシング部が発する波長の光を吸収する吸収部が、読み取り対象の情報に応じて検出対象に付与されることにより構成されており(42)、制御部は、センシング部の検出結果において検出対象が検出されない範囲に応じてマーカーを認識する、(付記3)に記載の制御装置。
(付記5)
センシング部は、光を発することにより、検出対象までの距離および方向を特定するように構成されており、マーカーは、センシング部が発する光をセンシング部の位置とは異なる方向へ反射させる反射部材が、読み取り対象の情報に応じて検出対象に付与されることにより構成されており(42)、制御部は、センシング部の検出結果において検出対象が検出されない範囲に応じてマーカーを認識する、(付記3)に記載の制御装置。
(付記6)
センシング部は、光を発することにより、検出対象までの距離および方向を特定するように構成されており、マーカーは、読み取り対象の情報に応じて特定される三次元形状(43)を有しており、制御部は、センシング部の検出結果において検出対象の三次元形状が、読み取り対象となる特定の三次元形状であるか否かに基づいて、マーカーを認識する(S915A)、(付記1)または(付記2)に記載の制御装置。
(付記7)
センシング部は、少なくとも第1のセンサ(11A)及び第2のセンサ(11B)を含み、第1のセンサは、第1の波長の光を発することにより検出対象までの距離を検出し、第2のセンサは、第2の波長の光を発することにより検出対象までの距離を検出し、マーカーは、第1のセンサで検出されない部材であって第2のセンサで検出されるように構成されており、制御部は、認識するステップにおいて、センシング部の検出結果において第1のセンサで検出されず、且つ、第2のセンサで検出される検出対象を、マーカーとして特定する、(付記1)または(付記2)に記載の制御装置。
(付記8)
センシング部は、第1の周波数特性の光を発することにより第1の距離までの検出対象を検出する第1のセンサと、第2の周波数特性の光を発することにより第2の距離までの検出対象を検出する第2のセンサとを含み、制御部は、第1のセンサにより現実空間の検出対象を検出し、第2のセンサにより検出対象に付与されるマーカーを特定する、(付記1)に記載の制御装置。
(付記9)
センシング部は、第1の設置位置に配置され、且つ、ランドマークを含む検出対象を検出することにより第1の点群データを生成する第1のセンシング部(11a)と、第2の設置位置に配置され、且つ、ランドマークを含む検出対象を検出することにより第2の点群データを生成する第2のセンシング部(11b)と、を含み、制御部は、第1の点群データからランドマークの第1の基準座標を特定し、第2の点群データからランドマークの第2の基準座標を特定し、第1の基準座標及び第2の基準座標を参照して、第1の点群データ及び第2の点群データに対して、合成処理及びアライメント処理の少なくとも1つを適用する、(付記1)から(付記8)の何れかに記載の制御装置。
(付記10)
一実施形態によると、光学式により読み取られるマーカーが提供される。マーカーは、光を発することにより、少なくとも検出対象までの距離を計測するセンシング部により読み取られるものであり、検出対象に付与される一方、センシング部で検出されない部材により構成されている。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
10 制御装置、11 センシング部、20 サーバ、22 通信IF、23 入出力IF、25 メモリ、26 ストレージ、29 プロセッサ、31 作業者、32,33 構造体、41〜43 マーカー、181 センシングデータ、182 建物情報DB、183 マーカー情報DB、184 建設実績情報DB、185 作業者情報DB、186 作業者作業ログDB

Claims (12)

  1. マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能な制御装置であって、
    前記センシング部から検出結果を取得する取得部と、
    前記制御装置の動作を制御する制御部とを含み、前記制御部は、
    前記センシング部により計測された三次元形状から前記マーカーを認識するステップと、
    当該マーカーに示される情報に基づき処理を行うステップと、を行う、制御装置。
  2. 前記センシング部は、前記検出対象の位置までの距離及び方向を特定するように構成されており、
    前記制御部は、前記センシング部により計測された三次元形状を示す点群データを前記記憶部に記憶させるステップを行い、
    前記点群データの各点が、前記センシング部から前記検出対象の位置までの距離及び方向の検出結果を示し、
    前記制御部は、前記認識するステップにおいて、
    前記点群データに基づき二次元画像を生成するステップと、
    前記生成される前記二次元画像に基づいて前記マーカーを認識するステップと、を行う、請求項1に記載の制御装置。
  3. 前記マーカーは、前記センシング部で検出されないように構成されており、
    前記制御部は、前記認識するステップにおいて、前記センシング部の検出結果に基づいて、前記マーカーを認識する、請求項1または2に記載の制御装置。
  4. 前記センシング部は、光を発することにより、前記センシング部から検出対象までの距離および方向を特定するように構成されており、
    前記マーカーは、前記センシング部が発する波長の光を吸収する吸収部が、読み取り対象の情報に応じて前記検出対象に付与されることにより構成されており、
    前記制御部は、前記センシング部の検出結果において前記検出対象が検出されない範囲に応じて前記マーカーを認識する、請求項3に記載の制御装置。
  5. 前記センシング部は、光を発することにより、検出対象までの距離および方向を特定するように構成されており、
    前記マーカーは、前記センシング部が発する光を前記センシング部の位置とは異なる方向へ反射させる反射部材が、読み取り対象の情報に応じて前記検出対象に付与されることにより構成されており、
    前記制御部は、前記センシング部の検出結果において前記検出対象が検出されない範囲に応じて前記マーカーを認識する、請求項3に記載の制御装置。
  6. 前記センシング部は、光を発することにより、検出対象までの距離および方向を特定するように構成されており、
    前記マーカーは、読み取り対象の情報に応じて特定される三次元形状を有しており、
    前記制御部は、前記センシング部の検出結果において前記検出対象の三次元形状が、前記読み取り対象となる特定の三次元形状であるか否かに基づいて、前記マーカーを認識する、請求項1または2に記載の制御装置。
  7. 前記センシング部は、少なくとも第1のセンサ及び第2のセンサを含み、
    前記第1のセンサは、第1の波長の光を発することにより前記検出対象までの距離を検出し、
    前記第2のセンサは、第2の波長の光を発することにより前記検出対象までの距離を検出し、
    前記マーカーは、前記第1のセンサで検出されない部材であって第2のセンサで検出されるように構成されており、
    前記制御部は、前記認識するステップにおいて、前記センシング部の検出結果において前記第1のセンサで検出されず、且つ、前記第2のセンサで検出される検出対象を、前記マーカーとして特定する、請求項1または2に記載の制御装置。
  8. 前記センシング部は、
    第1の周波数特性の光を発することにより第1の距離までの検出対象を検出する第1のセンサと、
    第2の周波数特性の光を発することにより第2の距離までの検出対象を検出する第2のセンサとを含み、
    前記制御部は、
    前記第1のセンサにより前記現実空間の検出対象を検出し、
    前記第2のセンサにより前記検出対象に付与される前記マーカーを特定する、請求項1に記載の制御装置。
  9. 前記センシング部は、
    第1の設置位置に配置され、且つ、ランドマークを含む検出対象を検出することにより第1の点群データを生成する第1のセンシング部と、
    第2の設置位置に配置され、且つ、ランドマークを含む検出対象を検出することにより第2の点群データを生成する第2のセンシング部と、を含み、
    前記制御部は、
    前記第1の点群データから前記ランドマークの第1の基準座標を特定し、
    前記第2の点群データから前記ランドマークの第2の基準座標を特定し
    前記第1の基準座標及び前記第2の基準座標を参照して、前記第1の点群データ及び前記第2の点群データに対して、合成処理及びアライメント処理の少なくとも1つを適用する、請求項1から8の何れかに記載の制御装置。
  10. 光学式により読み取られるマーカーであって、
    前記マーカーは、光を発することにより、少なくとも検出対象までの距離を計測するセンシング部により読み取られるものであり、
    前記検出対象に付与される一方、前記センシング部で検出されないように構成されている、マーカー。
  11. 方法であって、前記方法は、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能な制御装置が、
    前記センシング部から検出結果を取得するステップと、
    前記センシング部により計測された三次元形状から前記マーカーを認識するステップと、
    当該マーカーに示される情報に基づき処理を行うステップと、を行う、方法。
  12. 制御装置を動作させるプログラムであって、前記制御装置は、マーカーが配置された検出対象の三次元形状を検出するセンシング部と接続可能であり、制御部と、記憶部とを備え、前記プログラムは、前記制御部に、
    前記センシング部から検出結果を取得するステップと、
    前記センシング部により計測された三次元形状から前記マーカーを認識するステップと、
    当該マーカーに示される情報に基づき処理を行うステップと、を実行させる、プログラム。

JP2019171957A 2019-09-20 2019-09-20 制御装置、マーカー、方法及びプログラム Pending JP2021050917A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171957A JP2021050917A (ja) 2019-09-20 2019-09-20 制御装置、マーカー、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171957A JP2021050917A (ja) 2019-09-20 2019-09-20 制御装置、マーカー、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021050917A true JP2021050917A (ja) 2021-04-01

Family

ID=75157549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171957A Pending JP2021050917A (ja) 2019-09-20 2019-09-20 制御装置、マーカー、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021050917A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018048024A (ja) * 2016-09-15 2018-03-29 東芝テック株式会社 物品管理装置
JP2019101000A (ja) * 2017-12-08 2019-06-24 コニカミノルタ株式会社 測距点群データ測定システム、および制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018048024A (ja) * 2016-09-15 2018-03-29 東芝テック株式会社 物品管理装置
JP2019101000A (ja) * 2017-12-08 2019-06-24 コニカミノルタ株式会社 測距点群データ測定システム、および制御プログラム

Similar Documents

Publication Publication Date Title
US11100260B2 (en) Method and apparatus for interacting with a tag in a wireless communication area
US11194938B2 (en) Methods and apparatus for persistent location based digital content
US20060095170A1 (en) System and method for identifying objects in a space
KR101906329B1 (ko) 카메라 기반의 실내 위치 인식 장치 및 방법
US20210263528A1 (en) Transferring synthetic lidar system data to real world domain for autonomous vehicle training applications
CN107179524B (zh) 消防设备定位方法、装置、系统及计算机可读存储介质
US11610033B2 (en) Method and apparatus for augmented reality display of digital content associated with a location
JPWO2017188292A1 (ja) 移動体の管理システム、方法、およびコンピュータプログラム
JP2020532798A (ja) 屋内位置特定システムの移動可能ユニットの移動可能ユニットデータセットに対する処理計画の画像の支援を受けた割り当て方法
JP2021005409A (ja) 自動装置ペアリングのためのシステム及び方法
JP7113611B2 (ja) 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
US11820001B2 (en) Autonomous working system, method and computer readable recording medium
JP2019537786A (ja) 金属処理産業における製造工程の内部位置特定に基づく制御
KR102122974B1 (ko) 발전소 플랜트 제어방법 및 단말기
US20220237533A1 (en) Work analyzing system, work analyzing apparatus, and work analyzing program
KR102408681B1 (ko) 정적 물체의 로케이션을 결정하기 위한 방법 및 장치
JP7160257B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114102577B (zh) 一种机器人及应用于机器人的定位方法
JP2021050917A (ja) 制御装置、マーカー、方法及びプログラム
WO2021024665A1 (ja) 情報処理システム、情報処理装置及び情報処理方法
KR102388541B1 (ko) 벽면 포인팅 기반 실내 구조 정보를 생성하는 휴대용 단말기 및 그 동작 방법
CN113960999A (zh) 移动机器人重定位方法、系统及芯片
US11941794B2 (en) Commissioning of lighting system aided by augmented reality
WO2023089953A1 (ja) 監視装置、設定支援装置、エリア設定方法、及び設定支援方法
US11829595B1 (en) Augmented-reality-based facility semantic mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240411