JP2020144813A - 支援システム、及び支援プログラム - Google Patents
支援システム、及び支援プログラム Download PDFInfo
- Publication number
- JP2020144813A JP2020144813A JP2019043109A JP2019043109A JP2020144813A JP 2020144813 A JP2020144813 A JP 2020144813A JP 2019043109 A JP2019043109 A JP 2019043109A JP 2019043109 A JP2019043109 A JP 2019043109A JP 2020144813 A JP2020144813 A JP 2020144813A
- Authority
- JP
- Japan
- Prior art keywords
- target member
- mounting position
- information
- target
- support system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010276 construction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
まず、実施の形態の基本的概念について説明する。実施の形態は、概略的に、支援システム、及び支援プログラムに関する。
次に、実施の形態の具体的内容について説明する。
まず、本実施の形態に係る端末装置を適用して作業の支援を行う対象構造物について説明する。図1は、建設中の対象構造物を示す図である。対象構造物21は、例えば、建設現場で建設されている建設中の建築物である。この対象構造物21は、例えば、当該対象構造物21の周辺に仮置きされている対象部材22を取付て固定することにより建設されるものであり、また、図示されているユーザによって建設作業が行われているものである。
図3は、端末装置を例示するブロック図である。端末装置1は、支援システムであり、例えば、図1に示すユーザに装着されるゴーグル型のウエアラブル端末装置であり、一例としては、通信部11、センサ部12、レンズ部13、記録部14、及び制御部15を備える。
通信部11は、ネットワーク(図示省略)を介して外部装置(例えば、不図示のサーバ装置等)との間で通信するための通信手段である。この通信部11の具体的な種類や構成は任意であるが、例えば、公知の無線通信手段を用いることができる。
センサ部12は、情報を検出又は取得する検出手段である。このセンサ部12の具体的な種類や構成は任意であるが、例えば、方向又は傾き等を検出する慣性センサ、周辺環境を三次元として認識するための情報を検出するデプスセンサ、色を認識するためのRGBカメラ、周辺環境を二次元として認識する環境認識カメラ、静止画又は動画を撮影(又は撮像)するカメラ、及び音声情報を取得するマイク等を含む任意の技術を用いることができる。そして、このようにセンサ部12を構成することにより、端末装置1にて方向又は傾き等を検出したり、あるいは、三次元空間認識を行ったり、あるいは、端末装置1自体の相対位置を検出したり、あるいは、ユーザが空間にてジェスチャーを行って情報を入力したり、音声にて情報を入力したり、あるいは、静止画又は動画を撮影したりすることが可能となる。
レンズ部13は、端末装置1を装着したユーザが当該レンズ部13を介して三次元実空間を視認する視認手段(表示部)である。このレンズ部13の具体的な種類や構成は任意であるが、例えば、ユーザが三次元実空間を視認できるように透明となっており、また、少なくとも表示対象を表示できるように画像表示機能も備えているものを用いることができる。そして、このようなレンズ部13に表示対象を表示することにより、当該レンズ部13を介して実環境を視認したユーザは、三次元実空間上に表示対象が表示されているように視認することが可能となる。
記録部14は、端末装置1の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、外部記録装置としてのフラッシュメモリ(図示省略)を用いて構成されている。ただし、フラッシュメモリに代えてあるいはフラッシュメモリと共に、ハードディスク、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。この記録部14には、対象部材特定情報が記録されている。
図4は、対象部材特定情報を例示した図である。なお、図4で具体的に図示されている各情報は、説明の便宜上の記載である。「対象部材特定情報」とは、対象部材を特定する情報である。対象部材特定情報は、例えば、図4に示すように、項目「部材ID」、項目「仮想対象部材情報」、及び項目「位置情報」と、これらの各項目に対応する情報とを関連付けている情報である。項目「部材ID」に対応する情報は、前述の部材IDである(図4では、図1の対象部材221の二次元コード23に記載されている「ID221」、及び対象部材222の二次元コード23に記載されている「ID222」等)。項目「仮想対象部材情報」に対応する情報は、対象部材22の仮想対象部材オブジェクトを特定する仮想対象部材情報であり、例えば、前述の対象部材22の外観を仮想的に示す画像に対応する情報である。なお、「対象部材22の仮想対象部材オブジェクト」とは、例えば、対象部材22と少なくとも同一のサイズ、及び同一形状の仮想的に表示される三次元オブジェクト等を含む概念である。この仮想対象部材情報としては、例えば、対象部材221の仮想対象部材オブジェクトを特定する「3Dm001」、及び対象部材222の仮想対象部材オブジェクトを特定する「3Dm002」等が可能されている。項目「位置情報」に対応する情報は、対象部材22の取付位置を特定する位置情報である。この位置情報としては、任意の情報を用いることができるが、例えば、実空間上の任意の物を基準にした位置(X軸、Y軸、Z軸からなる直交座標系における座標)及び向き(X軸、Y軸、Z軸を基準にした回転角度)を特定する情報を用いることとし、一例としては、図2の対象部材221の位置及び向きを特定する「Dp001」等が記録されている。なお、ここでの位置及び向きの基準は任意であるが、三次元実空間上の任意の位置に基準物(不図示)を設け、当該基準物を基準としてもよいし、あるいは、対象構造物21が下側から上側に順次計画通りに建設されていくことを考慮して、対象構造物21の既に建設されている一部の特徴的な部分(例えば、四隅等)を基準としてもよい。
図1の制御部15は、端末装置1を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、実施の形態に係るプログラムは、任意の記録媒体又はネットワークを介して端末装置1にインストールされることで、制御部15の各部を実質的に構成する。
次に、このように構成される端末装置1によって実行される支援処理について説明する。図5は、支援処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。支援処理は、概略的には、端末装置1によって行われる処理であり、具体的には、対象構造物21に関するユーザによる作業を支援する処理である。この支援処理を実行するタイミングは任意であるが、例えば、端末装置1の電源をオンした場合に、起動されて実行を開始することとして、実行を開始したところから説明する。
本実施の形態によれば、三次元実空間に対して対象部材22の取付位置を示す取付位置画像(対象部材22の仮想対象部材オブジェクト31)を重畳して表示することにより、例えば、対象部材22の取付位置を容易且つ確実に把握させることができるので、対象構造物21に関する作業の作業効率を向上させることが可能となる。
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏したりすることがある。
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散や統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合して構成できる。例えば、端末装置1の機能の一部を不図示のサーバ装置に設けて、当該サーバ装置との間で通信を行うことにより、前述の各処理を行うように構成してもよい。
実施の形態や図面において例示した構成要素に関して、形状、数値、又は複数の構成要素の構造若しくは時系列の相互関係については、本発明の技術的思想の範囲内において、任意に改変及び改良することができる。
また、上記実施の形態では、図1の二次元コード23に、部材IDに対応する情報が記載されている場合について説明したが、これに限らない。例えば、図1の二次元コード23に、部材IDの代わりに又は部材IDと共に、図4の位置情報に対応する情報を記載してもよい。この場合、二次元コード23のコード情報を読み取ることにより、対象部材22の取付位置を直接的に特定することが可能となる。また、例えば、図1の二次元コード23に、部材IDの代わりに又は部材IDと共に、対象部材22の仮想対象部材オブジェクトを特定する情報(例えば、対象部材22の寸法、形状等のデータ)を記録してもよい。この場合、二次元コード23のコード情報を読み取ることにより、表示する仮想対象部材オブジェクトを特定することが可能となる。
また、「(対象部材特定情報について(その1))」で説明した技術と、実施の形態で説明した技術とを相互に組み合わせてもよい。具体的には、図4の対象部材特定情報に図示されている各情報に加えて、対象部材22の外観を特定する外観情報を記録してもよい。そして、図1の対象部材22に付されている二次元コード23、又は対象部材22の外観を撮像して、実施の形態又は「(対象部材特定情報について(その1))」で説明した処理を行うことにより、対象部材22の取付位置を特定するように構成してもよい。このように構成した場合、対象部材22の外観情報を取付位置特定用情報として取得することにより、例えば、対象部材22の外観を撮像する等の比較的簡単な手法にて、当該対象部材22の取付位置を特定することが可能となる。
また、表示部153が、実施の形態で説明した画像以外の任意の情報を、レンズ部13を介して表示するように構成してもよい。図7及び図8は、レンズ部を介して視認されるユーザの視界を例示した図である。例えば、表示部153が、図7の方向オブジェクト32を重畳して表示するように構成してもよい。「方向オブジェクト」32は、例えば、対象部材22の取付位置がユーザの視野外である場合に、対象部材22の取付位置の方向を示す情報である。表示部153の処理は任意であるが、例えば、図3のセンサ部12の検出結果に基づいて、端末装置1が向けられている方向(つまり、ユーザが向いている方向)を特定し、特定結果に基づいて図5のSA3で重畳表示し仮想対象部材オブジェクト31が、ユーザの視界に表示されなくなったものと判定した場合、当該仮想対象部材オブジェクト31を表示させるためにユーザが向くべき方向を示す方向オブジェクト32を生成し、生成した方向オブジェクト32を表示するように構成してもよい。また、当該方向オブジェクト32と共に、あるいは、代わりに、「取付位置は左方向です」等のメッセージ情報を表示するように構成してもよい。このように構成することにより、対象部材22の取付位置がユーザの視野外である場合、対象部材22の取付位置の方向を示す情報を表示することにより、例えば、取付位置を迅速に把握させることが可能となるので、対象構造物21に関する作業の作業効率を向上させることが可能となる。
また、例えば、図1の二次元コード23の代わりに電子タグ(例えば、部材IDが格納されており、RFID又はNFC等の任意の技術で近距離無線通信を行う電子タグ)を用いてもよい。この場合、端末装置1との間で通信可能な他の端末装置(例えば、スマートフォンやタブレット端末)を介して、端末装置1の取得部151が、電子タグに格納されている部材IDを取得した上で、実施の形態で説明した処理と同様な処理を行うように構成してもよい。また、例えば、図1の対象構造物21自体又は当該対象構造物21の周辺に、前述の基準物として任意の座標を表す二次元コードを物理的付して、当該二次元コードに基づいて位置合わせを行うように構成してもよい。また、例えば、二次元コードや電子タグに記録する情報を生成する機能を、前述のBIMのアプリケーションに組み込むことで、一元管理を実現してもよい。また、例えば、図6のように表示されている仮想対象部材オブジェクト31について、端末装置1に対してユーザが音声入力又はジェスチャー入力を行うことにより、表示位置を微調整できるように構成してもよい。あるいは、事故防止の観点から、端末装置1が、図8の仮想動線オブジェクト33の周囲に作業員(端末装置1を装着しているユーザ以外の作業員)が近づいたか否かを、センサ部12の検出結果に基づいて判定し、近付いたものと判定した場合、ユーザに対してレンズ部13を介して警報を表示するように構成してもよいし、あるいは、不図示のスピーカを介して警報を周囲に音声出力するように構成してもよい。
また、上記実施の形態の技術及び変形例の技術を任意に組み合わせてもよい。特に、例えば、取得部151による取付位置特定用情報の取得については、実施の形態の技術と、変形例の技術を組み合わせて、両者を採用してもよい。
付記1の支援システムは、三次元実空間の対象構造物に関する作業についてのユーザへの支援を行う支援システムであって、前記対象構造物を構成する対象部材の取付位置を特定するための取付位置特定用情報を取得する取得手段と、前記取得手段が取得した前記取付位置特定用情報に基づいて、前記対象部材の取付位置を特定する特定手段と、前記特定手段の特定結果に基づいて、前記ユーザに保持される端末装置の表示部を介して、前記三次元実空間に対して前記対象部材の取付位置を示す取付位置画像を重畳して表示する表示手段と、を備え、前記取得手段は、少なくとも、前記対象部材に付されているコード情報を、前記取付位置特定用情報として取得する。
付記1に記載の支援システム、及び付記7に記載の支援プログラムによれば、三次元実空間に対して対象部材の取付位置を示す取付位置画像を重畳して表示することにより、例えば、対象部材の取付位置を容易且つ確実に把握させることができるので、対象構造物に関する作業の作業効率を向上させることが可能となる。特に、対象部材に付されているコード情報を取付位置特定用情報として取得することにより、例えば、取付位置特定用情報を確実に取得することができるので、取付位置特定用情報の誤取得を防止することができ、対象構造物に関する作業の作業効率を確実に向上させることが可能となる。
11 通信部
12 センサ部
13 レンズ部
14 記録部
15 制御部
21 対象構造物
22 対象部材
23 二次元コード
31 仮想対象部材オブジェクト
32 方向オブジェクト
33 仮想動線オブジェクト
151 取得部
152 特定部
153 表示部
221 対象部材
222 対象部材
Claims (7)
- 三次元実空間の対象構造物に関する作業についてのユーザへの支援を行う支援システムであって、
前記対象構造物を構成する対象部材の取付位置を特定するための取付位置特定用情報を取得する取得手段と、
前記取得手段が取得した前記取付位置特定用情報に基づいて、前記対象部材の取付位置を特定する特定手段と、
前記特定手段の特定結果に基づいて、前記ユーザに保持される端末装置の表示部を介して、前記三次元実空間に対して前記対象部材の取付位置を示す取付位置画像を重畳して表示する表示手段と、を備え、
前記取得手段は、少なくとも、前記対象部材に付されているコード情報を、前記取付位置特定用情報として取得する、
支援システム。 - 前記取得手段は、前記対象部材の外観情報を、前記取付位置特定用情報として取得する、
請求項1に記載の支援システム。 - 前記表示手段は、前記取付位置画像として、前記対象部材の外観を仮想的に示す画像を、前記三次元実空間における前記対象部材の取付位置に重畳して表示する、
請求項1又は2に記載の支援システム。 - 前記表示手段は、前記端末装置の前記表示部を介し前記三次元実空間に対して前記対象部材が取り付けられる場合の動線を示す動線画像を重畳して表示する、
請求項1から3の何れか一項に記載の支援システム。 - 前記表示手段は、前記端末装置の前記表示部を介し前記三次元実空間に対して前記対象部材の取付順序を示す順序画像を重畳して表示する、
請求項1から4の何れか一項に記載の支援システム。 - 前記表示手段は、前記対象部材の取付位置が前記ユーザの視野外である場合、前記対象部材の取付位置の方向を示す情報を表示する、
請求項1から5の何れか一項に記載の支援システム。 - 三次元実空間の対象構造物に関する作業についてのユーザへの支援を行う支援プログラムであって、
コンピュータを、
前記対象構造物を構成する対象部材の取付位置を特定するための取付位置特定用情報を取得する取得手段と、
前記取得手段が取得した前記取付位置特定用情報に基づいて、前記対象部材の取付位置を特定する特定手段と、
前記特定手段の特定結果に基づいて、前記ユーザに保持される端末装置の表示部を介して、前記三次元実空間に対して前記対象部材の取付位置を示す取付位置画像を重畳して表示する表示手段と、として機能させ、
前記取得手段は、少なくとも、前記対象部材に付されているコード情報を、前記取付位置特定用情報として取得する、
支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043109A JP7296220B2 (ja) | 2019-03-08 | 2019-03-08 | 支援システム、及び支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043109A JP7296220B2 (ja) | 2019-03-08 | 2019-03-08 | 支援システム、及び支援プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020144813A true JP2020144813A (ja) | 2020-09-10 |
JP7296220B2 JP7296220B2 (ja) | 2023-06-22 |
Family
ID=72354348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019043109A Active JP7296220B2 (ja) | 2019-03-08 | 2019-03-08 | 支援システム、及び支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7296220B2 (ja) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155855A (ja) * | 1998-06-30 | 2000-06-06 | Tobishima Corp | 仮想現実感を利用した施工支援情報システム。 |
JP2008225913A (ja) * | 2007-03-13 | 2008-09-25 | Fujitsu Ltd | 作業支援システム、作業支援装置および作業支援方法 |
JP2011253422A (ja) * | 2010-06-03 | 2011-12-15 | Honda Motor Co Ltd | 作業手順表示方法及び作業手順表示システム |
WO2013051080A1 (ja) * | 2011-10-03 | 2013-04-11 | 株式会社日立製作所 | 現場管理方法および現場管理装置 |
JP2015188284A (ja) * | 2014-03-27 | 2015-10-29 | 日本電気株式会社 | 端末、サーバ、作業支援システム、作業支援方法 |
JP2015232783A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2017010353A (ja) * | 2015-06-24 | 2017-01-12 | 日本電信電話株式会社 | 作業支援装置、作業支援方法及び作業支援プログラム |
JP2017068689A (ja) * | 2015-09-30 | 2017-04-06 | 富士通株式会社 | 視野誘導方法、視野誘導プログラム、及び視野誘導装置 |
JP2017191351A (ja) * | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | 作業支援システム及び方法 |
JP2018124843A (ja) * | 2017-02-02 | 2018-08-09 | 前田建設工業株式会社 | 現場施工管理システム |
-
2019
- 2019-03-08 JP JP2019043109A patent/JP7296220B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155855A (ja) * | 1998-06-30 | 2000-06-06 | Tobishima Corp | 仮想現実感を利用した施工支援情報システム。 |
JP2008225913A (ja) * | 2007-03-13 | 2008-09-25 | Fujitsu Ltd | 作業支援システム、作業支援装置および作業支援方法 |
JP2011253422A (ja) * | 2010-06-03 | 2011-12-15 | Honda Motor Co Ltd | 作業手順表示方法及び作業手順表示システム |
WO2013051080A1 (ja) * | 2011-10-03 | 2013-04-11 | 株式会社日立製作所 | 現場管理方法および現場管理装置 |
JP2015188284A (ja) * | 2014-03-27 | 2015-10-29 | 日本電気株式会社 | 端末、サーバ、作業支援システム、作業支援方法 |
JP2015232783A (ja) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2017010353A (ja) * | 2015-06-24 | 2017-01-12 | 日本電信電話株式会社 | 作業支援装置、作業支援方法及び作業支援プログラム |
JP2017068689A (ja) * | 2015-09-30 | 2017-04-06 | 富士通株式会社 | 視野誘導方法、視野誘導プログラム、及び視野誘導装置 |
JP2017191351A (ja) * | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | 作業支援システム及び方法 |
JP2018124843A (ja) * | 2017-02-02 | 2018-08-09 | 前田建設工業株式会社 | 現場施工管理システム |
Non-Patent Citations (1)
Title |
---|
SHUNICHI KASAHARA AND JUN REKIMOTO: "JackIn: Integrating First-Person View with Out-of-Body Vision Generation for Human-Human Augmentatio", [ONLINE], JPN7022005875, 8 March 2014 (2014-03-08), pages 1 - 55, ISSN: 0004947129 * |
Also Published As
Publication number | Publication date |
---|---|
JP7296220B2 (ja) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9544552B2 (en) | Pickup system and pickup method | |
JP6326996B2 (ja) | 端末装置、情報処理システム、及び表示制御プログラム | |
CN111602185B (zh) | 基于方位的位置指示和设备控制 | |
US10043314B2 (en) | Display control method and information processing apparatus | |
JP6244954B2 (ja) | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム | |
KR20210086072A (ko) | 실시간 현장 작업 모니터링 방법 및 시스템 | |
US11263818B2 (en) | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects | |
KR101575159B1 (ko) | 주차 정보 제공을 위한 모바일 단말기용 어플리케이션의 동작방법 | |
CN103377487A (zh) | 信息处理设备、显示控制方法以及程序 | |
JP2021152979A (ja) | 作業支援装置、作業支援方法及びプログラム | |
US20190377330A1 (en) | Augmented Reality Systems, Methods And Devices | |
JP2020098568A (ja) | 情報管理装置、情報管理システム、情報管理方法および情報管理プログラム | |
KR20210081971A (ko) | 타워 크레인을 이용한 건축물 감리 시스템 및 그 방법 | |
US20150235425A1 (en) | Terminal device, information processing device, and display control method | |
CN110794955A (zh) | 定位跟踪方法、装置、终端设备及计算机可读取存储介质 | |
JPWO2020196276A1 (ja) | 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法 | |
JP6686547B2 (ja) | 画像処理システム、プログラム、画像処理方法 | |
JP2018185240A (ja) | 位置特定装置 | |
JP2018142109A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
JP6670580B2 (ja) | 建築分野用システム | |
KR102260193B1 (ko) | 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템 | |
JP2020077898A (ja) | 画像処理装置および画像処理方法 | |
JP7296220B2 (ja) | 支援システム、及び支援プログラム | |
JP2014164572A (ja) | 情報処理装置およびプログラム | |
JP2018088065A (ja) | 情報可視化システム、情報可視化方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7296220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |