JP2020098568A - Information management device, information management system, information management method, and information management program - Google Patents

Information management device, information management system, information management method, and information management program Download PDF

Info

Publication number
JP2020098568A
JP2020098568A JP2019181923A JP2019181923A JP2020098568A JP 2020098568 A JP2020098568 A JP 2020098568A JP 2019181923 A JP2019181923 A JP 2019181923A JP 2019181923 A JP2019181923 A JP 2019181923A JP 2020098568 A JP2020098568 A JP 2020098568A
Authority
JP
Japan
Prior art keywords
information
information management
target
image
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019181923A
Other languages
Japanese (ja)
Other versions
JP7391317B2 (en
Inventor
英明 代永
Hideaki Yonaga
英明 代永
松本 泰英
Yasuhide Matsumoto
泰英 松本
人 塙
Jin Hanawa
人 塙
優一 宗宮
Yuichi Somiya
優一 宗宮
和貴 小宮
Kazuki Komiya
和貴 小宮
裕也 田島
Yuya Tajima
裕也 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M Soft Co Ltd
Original Assignee
M Soft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by M Soft Co Ltd filed Critical M Soft Co Ltd
Publication of JP2020098568A publication Critical patent/JP2020098568A/en
Application granted granted Critical
Publication of JP7391317B2 publication Critical patent/JP7391317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an information management device, an information management system, an information management method, and an information management program with which it is possible to correlate an actual existing object with information relating thereto, associate each of discretionary objects with information in a discretionary data format, and record (preserve) and manage the positional relationship of the objects or a positional relationship, etc., when the objects are overlooked from a wide range.SOLUTION: Provided is a portable information management device 10 comprising imaging means 15 capable of obtaining a live-view video of a target area that includes an actually existing object, display means 13 capable of displaying the live-view video, storage means 14, and information management means 20. The information management means 20 includes position specification means 23 for specifying the position of an object actually existing in a prescribed space, mark addition means 21 for displaying a mark image that corresponds to the object on top of the live-view video on the display means 13, and association means 25 for storing information related with the actually existing object in the storage means 14 in association with the mark image.SELECTED DRAWING: Figure 2

Description

本発明は情報管理装置、情報管理システム、情報管理方法および情報管理プログラムに関する。 The present invention relates to an information management device, an information management system, an information management method, and an information management program.

従来、実在の空間(場所)や物体に対して、それらに関するデジタル情報(例えば、位置情報や、画像データや文字データなど)を関連付け、情報管理装置(例えば、パーソナルコンピュータ(PC;personal computer)など)で管理可能なデータに加工・保存等する技術が知られている。 Conventionally, an information management device (for example, a personal computer (PC)) is associated with a real space (place) or an object by associating digital information (for example, position information, image data, character data, or the like) related to them. ) Is known to process and save data that can be managed.

例えば、特に建築(建設)・土木等の工事現場においては、工事の各段階の状況を写真に撮影し、当該写真を添付した写真台帳を役所などの施工主に提出して、工事の作業状況を報告することが求められる。この場合、当該写真中に、工事名、工種、測点、日付、工事を行う会社名、作業状況などの情報を付加するために、これらの情報を実在の黒板に書き込み、これを現場に立てて撮影するという方法が旧来より採用されている。 For example, especially at construction sites such as construction (construction) and civil engineering, take a picture of the situation at each stage of construction and submit a photo ledger with the photograph to the owner such as a public office to confirm the work status of the construction. Is required to be reported. In this case, in order to add information such as construction name, work type, measuring point, date, name of the company performing the construction, work status, etc. in the photograph, write this information on the actual blackboard and set it up on site. The method of taking a picture is used from the old days.

そしてこのような手法の利便性を向上させるため、実在の黒板を使用することなく、黒板の画像を合成した工事現場の写真を撮影できるデジタルカメラが知られている(例えば、特許文献1参照)。 In order to improve the convenience of such a method, there is known a digital camera capable of taking a picture of a construction site where images of blackboards are combined without using a real blackboard (for example, refer to Patent Document 1). ..

また、工事現場の写真を順次撮影して自動的に写真の画像ファイルを整理し、写真台帳及び工程表を作成する負担を軽減するプログラムも知られている(例えば、特許文献2参照)。 There is also known a program for sequentially taking photographs of construction sites and automatically arranging the image files of the photographs to reduce the burden of creating a photo ledger and a process chart (for example, see Patent Document 2).

更には、全地球無線測位システム(GPS;global positioning system)を用いた位置情報を利用できないプラント施設において、撮影した画像の仕分け作業として、撮影した画像(点検画像)と撮影場所(点検対象機器の位置)、撮影対象物(点検対象機器)とを効率的に対応付ける技術も知られている(例えば、特許文献3)。 Furthermore, in a plant facility where the position information using the global radio positioning system (GPS) cannot be used, as a sorting operation of the captured images, the captured image (inspection image) and the location (inspection target device There is also known a technique of efficiently associating a position) with an object to be imaged (device to be inspected) (for example, Patent Document 3).

特許第3288019号公報Japanese Patent No. 3288019 特許第5835780号公報Patent No. 5835780 特開2016−206825号公報JP, 2016-206825, A

しかしながら、特許文献1,2に記載の技術は、撮影対象の特定の位置(現場の特定の位置)に対して関連する情報(工事日(撮影日)における状況や工事内容等の情報など)を対応づけるものであり、互いの撮影位置(現場)の位置関係(広範囲から俯瞰した撮影位置)を把握することは困難である。 However, the techniques described in Patent Documents 1 and 2 provide information related to a specific position of a shooting target (specific position on site) (information such as the situation on the construction date (shooting date) and construction content). Since they are associated with each other, it is difficult to grasp the positional relationship between the photographing positions (fields) of each other (the photographing positions overlooking from a wide range).

また、特許文献3に記載の技術は、予め決められた点検箇所での撮影に限るものであり、任意の箇所についての撮影・記録は想定されていない。 Further, the technique described in Patent Document 3 is limited to photographing at a predetermined inspection location, and photographing/recording at an arbitrary location is not assumed.

また、建築・建設工事現場の情報や、修理・修繕箇所や点検箇所の現場の情報を、現場以外の遠隔地にいる者なども含めた複数人で共有する場合においては、工事や作業とは直接関係のない周辺環境情報なども残す必要性が高く、例えば画像データ以外の文字(文書)データ等も必要になるなど、従来の技術では整理しきれない。 In addition, when sharing information on the building/construction work site and information on the site of repairs/repairs and inspections with multiple people, including those in remote areas other than the site, what is the work or work? It is highly necessary to leave surrounding environment information that is not directly related, and for example, character (document) data other than image data is also required, which cannot be sorted out by conventional techniques.

特に、情報の共有者の中には当該現場が初見である(現場に赴いたことがない)者が含まれる場合も日常的であり、これらの者にも正確且つ容易に伝えようとすると、周辺環境情報の情報量が増加・複雑化することになる。 In particular, it is routine that the person sharing the information includes a person who is new to the scene (has never visited the scene), and trying to convey to those people accurately and easily, The amount of surrounding environment information will increase and become more complex.

例えば、具体的に、室内の壁に生じた傷を修繕するため、複数人でその傷の程度や部位等の情報を共有する場合について説明する。現場に赴いた撮影者は、対象である傷の状況を記録するため、まず当該傷の部位の接写写真(被写体に近接した写真)を撮影する。しかしながら、接写写真であるがゆえに撮影者以外には撮影場所が分かりにくく、ともすれば撮影者自身も撮影場所が不明になる場合がある。 For example, specifically, a case will be described where a plurality of people share information such as the degree and site of the scratch in order to repair the scratch on the indoor wall. In order to record the condition of the target scratch, the photographer who has visited the scene first takes a close-up photograph (a photograph close to the subject) of the scratched part. However, since it is a close-up photograph, it is difficult for anyone other than the photographer to understand the shooting location, and the photographer himself may not know the shooting location.

また、対象(傷の部位)を含む現場の状況を正確且つ容易に伝える、または把握するためには、対象についての詳細な情報(例えば、対象の接写写真など)と、俯瞰的な情報(例えば、対象の周辺環境の写真など)の両方の情報が必要となり、これらを互いに関連付け(紐付け)る作業に手間がかかる問題がある。 Further, in order to accurately or easily convey or grasp the situation of the site including the target (part of the wound), detailed information about the target (for example, a close-up photograph of the target) and overhead information (for example, , Both the information of the surrounding environment of the target) is required, and there is a problem that the work of associating (associating) these with each other is troublesome.

また、周辺環境情報として、写真(画像データ)のみでは伝え難い情報については、文書(文字データ)等で作成したり図面に書き込みを行なうなど、複数種類のデータ形式の情報(ドキュメント)を作成する必要があるが、これらの情報の作成や情報同士の関連付け、また整理のためのフォルダ分けなどの作業が複雑・煩雑となる問題がある。 As information on the surrounding environment, information (documents) in multiple types of data formats is created, such as information that is difficult to convey only with photographs (image data), created with documents (character data), or written in drawings. However, there is a problem in that the work of creating such information, associating the information with each other, and dividing into folders for organizing becomes complicated and complicated.

また、当該傷の修繕の経過情報の記録や、例えば現場で新たな傷の部位を発見した場合など、突発的に予定外の対象についての記録が必要になる場合もあり、任意の対象について任意のデータ形式で柔軟に記録や管理を行ないたいという要望も高い。 In addition, it may be necessary to record the progress information of the repair of the scratch, or to record unexpectedly unplanned objects, for example, when a new site of the wound is found on the spot. There is also a high demand for flexible recording and management in this data format.

更には、これらの情報をまとめて報告書等を作成することが一般的であるが、その報告書等の作成は、多大な時間と労力を要する問題もある。 Further, it is common to combine these pieces of information to create a report or the like, but the creation of the report or the like has a problem that it takes a lot of time and labor.

なお、これらの点は、これまで黒板を用いていたような建築・建設現場や、予め決められた現場を巡回するような点検現場における情報管理においても、あるいは規模の大小や管理する対象に限らず、例えば会社や店舗などの事務作業の現場における情報管理においても同様に、問題となっている。 Note that these points are limited to information management at construction/construction sites where blackboards have been used up to now, or at inspection sites that patrol a predetermined site, or to a large or small scale or to be managed. However, it is also a problem in the information management at the office work site such as a company or a store.

本発明は、斯かる実情に鑑み、実在の対象とそれに関する情報とを対応付けて情報管理装置(PCなど)で管理する場合において、任意の対象のそれぞれについて任意のデータ形式の情報を関連付け、また当該対象同士の位置関係、あるいは当該対象を広範囲から俯瞰した場合の位置関係等を効率良く、容易に記録(保存)し、管理することが可能な情報管理装置、情報管理システム、情報管理方法および情報管理プログラムを提供しようとするものである。 In view of such an actual situation, the present invention associates information of an arbitrary data format with each of arbitrary objects in the case of managing an existing object and information related thereto by an information management device (PC or the like), Further, an information management device, an information management system, and an information management method capable of efficiently (easily) recording (saving) and managing the positional relationship between the objects, or the positional relationship when the objects are viewed from a wide range. And an information management program.

本発明は、実在する対象を含む対象領域のライブビュー映像を取得可能な撮像手段と、前記ライブビュー映像を表示可能な表示手段と、記憶手段と、情報管理手段と、を有する携帯可能な情報管理装置であって、前記情報管理手段は、前記対象の位置を特定する位置特定手段と、前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与手段と、前記対象に関連する情報を、前記マーク画像に対応付けて前記記憶手段に記憶する関連付け手段と、を有する、ことを特徴とする情報管理装置である。 The present invention provides portable information including an image pickup unit capable of acquiring a live view image of a target area including an existing target, a display unit capable of displaying the live view image, a storage unit, and an information management unit. In the management device, the information management unit includes a position specifying unit that specifies a position of the target, and a mark giving unit that displays a mark image corresponding to the target on the live view image on the display unit. And an associating unit that stores information related to the target in the storage unit in association with the mark image.

また、本発明は、上記情報管理装置と、前記情報の管理が可能な他の装置と、を備える、ことを特徴とする情報管理システムである。 Further, the present invention is an information management system comprising the above information management device and another device capable of managing the information.

また、本発明は、実在する対象に所定の情報を付与して情報管理装置で管理可能なデータとして保存する情報管理方法であって、実在する対象を含む対象領域のライブビュー画像を撮像手段により取得する撮像工程と、前記ライブビュー映像を表示手段に表示する表示工程と、所定空間における前記対象の位置を特定する位置特定工程と、前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与工程と、前記対象に関連する情報を、前記マーク画像に対応付けて記憶手段に記憶する関連付け工程と、を有する、ことを特徴とする情報管理方法である。 Further, the present invention is an information management method of adding predetermined information to an existing object and storing the data as data that can be managed by the information management device, wherein a live view image of a target area including the existing object is captured by the imaging means. An image capturing step of acquiring, a display step of displaying the live view image on a display unit, a position identifying step of identifying a position of the target in a predetermined space, and a mark image corresponding to the target overlaid on the live view image. An information management method comprising: a mark giving step of displaying on the display means; and an associating step of storing information related to the target in a storage means in association with the mark image.

また、本発明は、実在する対象を含む対象領域のライブビュー映像を撮像手段により取得する撮像ステップと、前記ライブビュー映像を表示手段に表示する表示ステップと、所定空間における前記対象の位置を特定する位置特定ステップと、前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与ステップと、前記対象に関連する情報を、前記マーク画像に対応付けて前記記憶手段に記憶する関連付けステップと、をコンピュータに実行させることを特徴とする情報管理プログラムである。 Further, the present invention provides an image capturing step of acquiring a live view image of a target area including an existing target by an image capturing means, a display step of displaying the live view image on a display means, and a position of the target in a predetermined space. Position identifying step, a mark providing step of displaying a mark image corresponding to the target on the display means in an overlapping manner with the live view image, and information relating to the target in association with the mark image, the storage means. An information management program characterized by causing a computer to execute the associating step stored in.

本発明の情報管理装置、情報管理システム、情報管理方法および情報管理プログラムによれば、実在の対象とそれに関する情報とを対応付けて情報管理装置(PCなど)で管理する場合において、任意の対象のそれぞれについて任意のデータ形式の情報を関連付け、また当該対象同士の位置関係、あるいは当該対象を広範囲から俯瞰した場合の位置関係等を効率良く、容易に記録(保存)し、管理することができる、という優れた効果を奏し得る。 According to the information management device, the information management system, the information management method, and the information management program of the present invention, when an information management device (such as a PC) manages a real target and information related thereto by an arbitrary target It is possible to associate (retain) information in any data format with respect to each of the above, and to efficiently and easily record (save) and manage the positional relationship between the objects, or the positional relationship when the objects are overlooked from a wide range. The excellent effect of

本発明の実施形態に係る、情報管理装置の概要を示す外観図である。It is an external view showing the outline of the information management device concerning the embodiment of the present invention. 本発明の実施形態に係る、情報管理装置の概要を示すブロック図である。It is a block diagram which shows the outline|summary of the information management apparatus based on embodiment of this invention. 本発明の実施形態に係る、情報管理装置の表示の一例を示す図である。It is a figure showing an example of a display of an information management device concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理装置の表示の一例を示す図である。It is a figure showing an example of a display of an information management device concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理装置の表示の一例を示す図である。It is a figure showing an example of a display of an information management device concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理装置が管理する情報の一例を示す図である。It is a figure which shows an example of the information which the information management apparatus which concerns on embodiment of this invention manages. 本発明の実施形態に係る、(A)全体視手段の概要を示すブロック図であり、(B)情報管理装置の表示の一例を示す図である。It is a block diagram which shows the outline|summary of the (A) general-view means based on embodiment of this invention, and is a figure which shows an example of a display of (B) information management apparatus. 本発明の実施形態に係る、情報管理装置の表示の一例を示す図である。It is a figure showing an example of a display of an information management device concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理方法(情報管理処理)の概要を示す図である。It is a figure showing an outline of an information management method (information management processing) concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理システムの一例を示す概要図である。It is a schematic diagram showing an example of an information management system concerning an embodiment of the present invention. 本発明の実施形態に係る、情報管理装置の概要を示すブロック図である。It is a block diagram which shows the outline|summary of the information management apparatus based on embodiment of this invention. 本発明の実施形態に係る、連携手段の概要図である。It is a schematic diagram of the cooperation means based on embodiment of this invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention. 本発明の実施形態に係る、連携処理の一例を示す概要図である。It is a schematic diagram showing an example of cooperation processing concerning an embodiment of the present invention.

以下、本発明の実施の形態について添付図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

<情報管理装置/全体構成>
図1および図2は、本発明の実施形態の一例である情報管理装置10の全体構成を示す図であり、図1が外観の概略図であり、同図(A)が一方の面側の平面図であり、同図(B)が他方の面側の平面図である。また、図2がハードウェアの構成の概略を示すブロック図である。
<Information management device/Overall configuration>
1 and 2 are diagrams showing an overall configuration of an information management apparatus 10 which is an example of an embodiment of the present invention, FIG. 1 is a schematic view of the appearance, and FIG. It is a top view, and the same figure (B) is a top view of the other surface side. FIG. 2 is a block diagram showing the outline of the hardware configuration.

図1および図2に示すように、本実施形態の情報管理装置10は、制御手段11と、入力手段12と、表示手段13と、記憶手段14と、撮像手段15と、情報通信手段16と、状態取得手段17と、情報管理手段20などを有する。 As shown in FIGS. 1 and 2, the information management device 10 according to the present exemplary embodiment includes a control unit 11, an input unit 12, a display unit 13, a storage unit 14, an imaging unit 15, and an information communication unit 16. The status acquisition unit 17 and the information management unit 20 are included.

図1に示すように、本実施形態の情報管理装置10は、携帯可能な装置(モバイル端末装置)である。以下の実施形態においては、情報管理装置10が、本実施形態にかかるプログラム(アプリケーションプログラム)がインストールされたタブレット端末101である場合を例に説明するが、これに限らず、情報管理装置10は例えば、本実施形態にかかるプログラムがインストールされた、または組み込まれた、スマートフォン、携帯電話、ノート型PC、携帯情報端末(Personal Data Assistant;PDA)、ハンディ端末、GPS端末、デジタルカメラ、HMD(Head Mounted Display)などであってもよい。 As shown in FIG. 1, the information management device 10 of the present embodiment is a portable device (mobile terminal device). In the following embodiments, the case where the information management device 10 is the tablet terminal 101 in which the program (application program) according to the present embodiment is installed is described as an example, but the information management device 10 is not limited to this, and the information management device 10 is not limited to this. For example, a smartphone, a mobile phone, a notebook PC, a personal digital assistant (PDA), a handy terminal, a GPS terminal, a digital camera, an HMD (Head) in which the program according to the present embodiment is installed or incorporated. Mounted Display) or the like.

タブレット端末101は、無線通信を利用した携帯可能な情報処理端末装置であり、入力手段12、表示手段13、撮像手段15、マイク18、スピーカ19等を備える。 The tablet terminal 101 is a portable information processing terminal device that uses wireless communication, and includes an input unit 12, a display unit 13, an imaging unit 15, a microphone 18, a speaker 19, and the like.

表示手段13は、この例ではタブレット端末101のタッチスクリーン(タッチパネルディスプレイ)であり、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などのディスプレイ13に、入力手段12であるタッチパネルが重畳されている。 In this example, the display unit 13 is a touch screen (touch panel display) of the tablet terminal 101, and for example, a liquid crystal display (Liquid Crystal Display), an organic EL display (Organic Electro-Luminescence Display.), or an OLED display (Organic Light Emitting Diode). (Also referred to as Display).) and the like, a touch panel that is the input means 12 is superimposed.

表示手段13は、撮像手段15で撮影した画像や、撮影対象のライブビュー映像LVを表示可能である。また、各種アプリケーションの実行結果としての画像や、入力手段12としてのアイコンや、ボタン等の画像、その他画像(文字も含む)を表示可能である。なお、本明細書における「画像」には特に区別して記載しない限り、静止画像および動画像が含まれる。 The display unit 13 can display the image captured by the image capturing unit 15 and the live view image LV to be captured. Further, it is possible to display an image as an execution result of various applications, an icon as the input unit 12, an image of a button, and other images (including characters). The “image” in this specification includes a still image and a moving image, unless otherwise specified.

入力手段12の操作としては、表示されている画像を指やタッチスクリーンペンでタッチする(タップ、ドラッグ、ピンチアウト、ピンチイン、スワイプ等の動作をする)ことにより、選択、決定、拡大、縮小、移動等の各種操作を行うことができる。また、入力手段12は、物理ボタン121を含む。物理ボタン121は例えば、ホームボタンや、音量調整ボタンなどである。 As the operation of the input unit 12, by touching (displaying, tapping, dragging, pinching out, pinching in, swiping, etc.) the displayed image with a finger or a touch screen pen, selection, determination, enlargement, reduction, Various operations such as movement can be performed. The input means 12 also includes a physical button 121. The physical button 121 is, for example, a home button or a volume control button.

なお、情報管理装置10が例えば携帯電話やノート型PCなどである場合のように、表示手段(ディスプレイ)15と、入力手段(例えば、キーボード、物理キー)12はそれぞれ独立した構成であってもよい。 Note that, as in the case where the information management apparatus 10 is, for example, a mobile phone or a notebook PC, the display unit (display) 15 and the input unit (for example, keyboard, physical key) 12 may have independent configurations. Good.

撮像手段15は、例えば、撮像用のアプリケーションプログラムと協働してカメラ機能を実現するユニット(カメラユニット)であり、ディスプレイ13が設けられている面とは異なる面にレンズ151が配置される(同図(B))。 The imaging unit 15 is, for example, a unit (camera unit) that realizes a camera function in cooperation with an imaging application program, and the lens 151 is arranged on a surface different from the surface on which the display 13 is provided ( The same figure (B)).

さらに、タブレット端末101は、マイク18、スピーカ19、その他のセンサ(不図示)等の既知の構成を有している。 Further, the tablet terminal 101 has a known configuration such as the microphone 18, the speaker 19, and other sensors (not shown).

図2を参照して、制御手段11は例えば、演算処理装置(CPU;central processing unit、MPU;microprocessor unit等))を備え、制御手段11等によって記憶手段14に記憶(インストール)されたオペレーティングシステム(OS;Operating System)、各種アプリケーションプログラム、ブラウザソフトウェアを実行することによって、以下に説明する機能を含む種々の機能を提供する装置である。 With reference to FIG. 2, the control unit 11 includes, for example, an arithmetic processing unit (CPU; central processing unit, MPU; microprocessor unit, etc.), and is an operating system stored (installed) in the storage unit 14 by the control unit 11 or the like. An apparatus that provides various functions including the functions described below by executing (OS; Operating System), various application programs, and browser software.

記憶手段14は、この例では内蔵メモリ(メインメモリ(RAM;Random Access Memory)、ストレージ、ROM(Read Only Memory)など)であるが、外部記憶装置を含んでもよい。記憶手段14には、OS、ファームウェア、ブラウザソフトウェア、各種アプリケーションプログラム、各種ドライバの他、各種データ(画像データ、テキストデータなど各種アプリケーションプログラムで処理可能なデータ、ドキュメント)などが記憶、保存される。 The storage unit 14 is a built-in memory (main memory (RAM; Random Access Memory), storage, ROM (Read Only Memory), etc.) in this example, but may include an external storage device. The storage unit 14 stores and saves various data (data that can be processed by various application programs such as image data and text data, documents) in addition to the OS, firmware, browser software, various application programs, and various drivers.

撮像手段15は、例えば、撮像用のアプリケーションプログラムと協働してカメラ機能を実現するユニット(カメラユニット)であり、少なくともレンズ151と、撮像素子(イメージセンサ)153と画像処理プロセッサ155などを含み、レンズ151を介して認識した対象を撮像素子153上で結像し、撮像素子153の光電変換により得られる画像(映像)情報を画像データとして記憶手段14に記憶する。 The imaging unit 15 is, for example, a unit (camera unit) that realizes a camera function in cooperation with an application program for imaging, and includes at least a lens 151, an imaging element (image sensor) 153, an image processor 155, and the like. The object recognized through the lens 151 is imaged on the image sensor 153, and image (video) information obtained by photoelectric conversion of the image sensor 153 is stored in the storage unit 14 as image data.

具体的には、タブレット端末101のカメラ機能の起動により、撮像手段15は、実在する対象を含む対象領域を撮影し、ライブビュー映像LVとして取得して表示手段13に表示可能である。そして操作者が撮影ボタン(例えば、表示手段13に表示されるボタン画像や、物理ボタン131など)を操作すると、ライブビュー映像LVで表示中の映像情報を画像データとして記憶手段14に記憶する。記憶された当該画像データが表示手段13に表示される場合もある。 Specifically, by activating the camera function of the tablet terminal 101, the image capturing unit 15 can capture an image of a target area including an existing target, acquire it as a live view image LV, and display it on the display unit 13. When the operator operates the shooting button (for example, the button image displayed on the display unit 13 or the physical button 131), the image information displayed in the live view image LV is stored in the storage unit 14 as image data. The stored image data may be displayed on the display unit 13.

ここで、本実施形態におけるライブビュー映像LVとは、撮像手段15がレンズ151を通して認識した対象OBをリアルタイムに撮像素子153上で結像し、撮像素子153の光電変換により得られる画像情報を不揮発性の記憶手段14を介さず表示手段13に表示させる映像(画像)をいう。具体的には、本実施形態におけるライブビュー映像LVとは、撮影ボタン等を操作していない状態で、撮像手段15を介して表示手段13に対象OBを含む対象領域の実像をリアルタイム表示させている映像をいう。 Here, the live view image LV in the present embodiment means that the object OB recognized by the imaging unit 15 through the lens 151 is imaged on the image sensor 153 in real time, and image information obtained by photoelectric conversion of the image sensor 153 is non-volatile. A video (image) to be displayed on the display unit 13 without going through the sex storage unit 14. Specifically, the live view image LV in the present embodiment means that a real image of the target area including the target OB is displayed in real time on the display unit 13 via the imaging unit 15 in a state where the shooting button or the like is not operated. Refers to the video that is present.

情報通信手段16は、タブレット端末101がネットワーク(通信回線)を介して他の装置(他のタブレット端末やサーバ装置など)とデータ通信等を行なうためのインターフェイスである。データ通信は、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、NFC(Near Field Communication)等による近距離無線通信や、例えば、LTE(Long Term Evolution)方式、3G(3rd Generation)方式、4G(4th Generation)方式、5G(5th Generation)方式、FDMA方式、TDMA方式、CDMA方式、W−CDMAの他、PHS(Personal Handyphone System)などの移動体通信網を介した種々の無線通信方式によって行われる。 The information communication unit 16 is an interface for the tablet terminal 101 to perform data communication with other devices (such as other tablet terminals and server devices) via a network (communication line). The data communication is, for example, short-distance wireless communication such as Wi-Fi (registered trademark), Bluetooth (registered trademark), NFC (Near Field Communication), or the like, for example, LTE (Long Term Evolution) method, 3G (3rd Generation) method, 4G (4th Generation) system, 5G (5th Generation) system, FDMA system, TDMA system, CDMA system, W-CDMA, and various wireless communication systems via mobile communication networks such as PHS (Personal Handyphone System). Done.

状態取得手段17は、自機の方向(レンズ151が向いている方向)や姿勢・位置などの状態を示す情報を取得して記録する手段であり、詳細な図示は省略するが、例えば、3軸方向に対する地磁気を検出して方位を検出する電子コンパスや、3軸方向に対するタブレット端末101の傾き角を検知する加速度センサ、ジャイロ(角速度)センサ、深度センサや、単眼カメラを用いたSLAM(Simultaneous Localization and Mapping)などである。タブレット端末101は、電子コンパスにより検出される方位と、3軸加速度センサやジャイロセンサにより検出される自機の傾き角度・姿勢に基づいて、撮像手段15のレンズ151が向けられている撮像方向(撮像方位)及び撮像角度(画角)を検出することができる。またSLAMでは、自機を基準となる位置(初期位置)から移動させ、撮像手段15により複数の周辺環境の画像を取得することにより、自己位置の推定と周辺環境の地図を作成することができる。 The state acquisition unit 17 is a unit that acquires and records information indicating the state of the own device (the direction in which the lens 151 is facing), the posture, the position, and the like, and although detailed illustration is omitted, for example, 3 An electronic compass that detects the geomagnetism in the axial direction to detect the direction, an acceleration sensor that detects the tilt angle of the tablet terminal 101 with respect to the three axial directions, a gyro (angular velocity) sensor, a depth sensor, and a SLAM (Simultaneous) using a monocular camera. Localization and Mapping). In the tablet terminal 101, based on the azimuth detected by the electronic compass and the tilt angle/posture of the own device detected by the triaxial acceleration sensor or the gyro sensor, the imaging direction in which the lens 151 of the imaging unit 15 is directed ( The imaging direction) and the imaging angle (angle of view) can be detected. In SLAM, the own position can be estimated and a map of the surrounding environment can be created by moving the own device from a reference position (initial position) and acquiring a plurality of images of the surrounding environment by the imaging unit 15. ..

また、状態取得手段17は、ステレオカメラを用いたSLAMや、赤外線やレーザー等の物体からの反射光を検知して自機の姿勢や位置を検出する手段であってもよい。また、状態取得手段17には、例えば、携帯電話の無線基地局や、Wi−Fi(登録商標)通信のアクセスポイントからの電波強度などによって自機の方向、姿勢、位置(絶対位置)を検出したり、全地球測位システム(Global Navigation Satellite System))のように、衛星からの信号によって自機の方向、姿勢、位置(絶対位置)を検出することができる絶対位置情報取得モジュールが含まれる。 The state acquisition unit 17 may be a SLAM using a stereo camera, or a unit that detects reflected light from an object such as infrared rays or a laser to detect the posture and position of the own device. In addition, the state acquisition unit 17 detects the direction, posture, and position (absolute position) of the own device by, for example, the radio base station of a mobile phone or the radio field intensity from an access point of Wi-Fi (registered trademark) communication. In addition, an absolute position information acquisition module that can detect the direction, attitude, and position (absolute position) of the own device by a signal from a satellite is included, such as a global positioning satellite system.

情報管理手段20は、タブレット端末101の記憶手段14にインストールされたアプリケーションプログラム(本実施形態の情報管理プログラム20)である。すなわち、タブレット端末101に情報管理プログラム20がインストールされ、上述したタブレット端末101の各ハードウェアと協働することにより、情報管理装置10の情報管理機能が実現する。 The information management means 20 is an application program (information management program 20 of this embodiment) installed in the storage means 14 of the tablet terminal 101. That is, the information management program 20 is installed in the tablet terminal 101, and the information management function of the information management apparatus 10 is realized by cooperating with the hardware of the tablet terminal 101 described above.

引き続き図2を参照して、情報管理手段20およびこれにより実現される情報管理機能について説明する。 Continuing to refer to FIG. 2, the information management means 20 and the information management function realized thereby will be described.

情報管理手段20は、例えば、仮想的な視覚(および聴覚)処理を実現する手段である仮想視覚処理(仮想視聴覚処理、以下同様)手段27と、マーク付与手段21と、位置特定手段23と、関連付け手段25と、全体視表示手段29を有する。仮想視覚処理手段27は例えば、拡張現実(Augmented reality;AR)を実現する拡張現実(AR)処理手段であり、具体的には、いわゆるARフレームワークまたはARライブラリである。 The information management means 20, for example, a virtual visual processing (virtual audiovisual processing, the same applies below) means 27 that is a means for realizing virtual visual (and auditory) processing, a mark giving means 21, a position specifying means 23, It has an associating means 25 and an overall view display means 29. The virtual visual processing means 27 is, for example, an augmented reality (AR) processing means that realizes augmented reality (AR), and is specifically a so-called AR framework or AR library.

つまり本実施形態では、仮想視覚処理手段(AR処理手段)27を活用して、マーク付与機能(マーク付与手段)21と、位置特定機能(位置特定手段)23と、関連付け機能(関連付け手段)25および全体視表示機能(全体視表示手段29)とを実現する情報管理プログラム(情報管理手段)20が構成されている。 That is, in the present embodiment, the virtual visual processing means (AR processing means) 27 is utilized to make a mark giving function (mark giving means) 21, a position specifying function (position specifying means) 23, and an associating function (associating means) 25. An information management program (information management means) 20 for realizing the overall display function (overall display means 29) is configured.

本実施形態では、以下、仮想視覚処理手段27がAR処理手段である場合を例に説明するが、仮想視聴覚処理手段27は例えば、仮想現実(Virtual Reality:VR)を実現する仮想現実(VR)処理手段(VRプラットフォーム)や、複合現実(Mixed Reality:MR)を実現する複合現実(MR)処理手段(MRプラットフォーム)などであってもよい。 In the present embodiment, the case where the virtual visual processing means 27 is an AR processing means will be described below as an example. However, the virtual audiovisual processing means 27, for example, realizes virtual reality (VR). It may be a processing means (VR platform) or a mixed reality (MR) processing means (MR platform) that realizes mixed reality (MR).

AR処理手段(ARフレームワーク(ARライブラリ、以下同様))27は既知の構成であるので、詳細な説明は省略するが、例えば、撮像手段15を用いて対象領域(実在する場所、現実環境)を撮影することにより、当該対象領域の空間の情報(対象領域の位置情報や対象領域に含まれる物体の情報など)の記憶、認識、推定、解析等を行い、その撮影している対象領域(現実環境)の映像に対して情報を付加・削除・強調・減衰させることによって視覚的に現実環境をあたかも拡張したかのように表現する技術である。 Since the AR processing means (AR framework (AR library, the same applies hereinafter)) 27 has a known configuration, a detailed description thereof will be omitted. For example, the target area (existing place, real environment) using the imaging means 15 is used. By capturing, the information of the space of the target area (such as the position information of the target area and the information of the object included in the target area) is stored, recognized, estimated, analyzed, and the like, and the target area being captured ( This is a technology that visually adds the information to, removes, emphasizes, and attenuates it from the image of the (real environment) to make it appear as if the real environment was expanded.

ARフレームワーク27の一例としては、米Apple社が提供するARKit(登録商標)や米Google社が提供するARCore(登録商標)、オープンソースのARToolKitなどがあり、本実施形態ではARフレームワーク27としてARKit(登録商標)を利用する場合を例に説明する。この場合、ARフレームワーク27では、撮像手段15を用いて対象領域(実在する場所、現実環境)について空間の情報を記憶、推定、解析等を行い、当該対象領域の映像(ライブビュー映像LV)のうち「特徴的な点」の情報の配置を記憶することにより、現実環境(例えば、室内等)における物体(例えば現実の壁、椅子、机など)の「特徴的な点」から形状(外形状)を把握し、その形状に沿ってデジタル情報(コンピュータグラフィクス(computer graphics;CG)などによるオブジェクト画像を合成し、リアルタイムで表示手段13に表示することができる。または当該物体が含まれる面(平面(水平面、垂直面など)や曲面)を検出し、当該面にそって、オブジェクト画像を合成し、リアルタイムで表示手段13に表示することができる。 Examples of the AR framework 27 include ARKit (registered trademark) provided by Apple Inc. in the US, ARCore (registered trademark) provided by Google Inc. in the US, and open source ARTToolKit. As the AR framework 27 in this embodiment. A case of using ARKit (registered trademark) will be described as an example. In this case, the AR framework 27 uses the image pickup means 15 to store, estimate, analyze, etc. spatial information about the target area (existing place, real environment), and the image of the target area (live view video LV). By storing the arrangement of information of "characteristic points" among them, the shape (outside) from the "characteristic points" of an object (for example, a real wall, chair, desk, etc.) in a real environment (for example, indoors) is stored. The shape can be grasped, and an object image based on digital information (computer graphics; CG) or the like can be synthesized along the shape and displayed in real time on the display means 13. Alternatively, a surface including the object ( It is possible to detect a flat surface (horizontal surface, vertical surface, etc.) or a curved surface, synthesize object images along the surface, and display them on the display unit 13 in real time.

なお、物体が含まれる面(水平面、垂直面、曲面など)を検出し、現実環境のライブビュー映像LVに映し出された物体の映像に検出した面を示すデジタル情報(例えば、グリッドなどの画像)を合成し(重畳させ)、リアルタイムで表示手段13に表示してもよい。 It should be noted that digital information (for example, an image such as a grid) indicating the surface including the object (horizontal surface, vertical surface, curved surface, etc.) detected and detected in the image of the object displayed in the live view image LV of the real environment. May be combined (superposed) and displayed on the display means 13 in real time.

また、ARフレームワーク27によって、物体の形状を認識し、例えば記憶手段に記憶された物体の情報と照合するなどして物体の属性(矩形、円形などの外形状のみでなく「壁」「椅子」「机」などの属性)を認識するものであってもよく、現実環境のライブビュー映像LVに映し出された物体の映像に、デジタル情報(物体に関連するオブジェクト画像など)を合成し(重畳させ)、リアルタイムで表示手段13に表示させるように構成されていてもよい。 Further, the AR framework 27 recognizes the shape of the object and compares it with the information of the object stored in the storage means, for example, to attribute the object (not only the outer shape such as a rectangle or a circle, but also the “wall” and the “chair”). “Attributes such as “desk”) may be recognized, and digital information (such as an object image related to the object) is combined (superposed) with the image of the object displayed in the live view image LV of the real environment. The display means 13 may be configured to display in real time.

また、合成した(重畳させた)オブジェクト画像の配置やその状況を記録し、保存するように構成されていてもよい。この場合、後のタイミング(数日後・数週間後など)に当該対象領域(現実環境)を訪れて当該ARフレームワーク27を利用したアプリケーションプログラムを起動すると、以前に配置したオブジェクト画像を同じ位置に表示し、再編集することができる。また関連付け操作(後述する)も行なうことができる。 Further, the arrangement and the situation of the combined (superposed) object images may be recorded and saved. In this case, when the target area (real environment) is visited at a later timing (a few days, a few weeks, etc.) and the application program using the AR framework 27 is started, the previously placed object image is placed at the same position. Can be viewed and edited again. Also, an association operation (described later) can be performed.

なお、本実施形態のAR処理手段27は、上記と同様の機能が実現できるものであれば、ARKit(登録商標)に限らず、また特定のフレームワーク(ライブラリ)でなくてもよい(個別に上記機能を有するように作成されたプログラム等であってもよい)。 The AR processing means 27 of the present embodiment is not limited to ARKit (registered trademark) and may be not a specific framework (library) as long as it can realize the same function as described above (individually). It may be a program or the like created to have the above function).

本実施形態では、位置特定手段23、マーク付与手段21、関連付け手段25および全体視表示手段29がAR処理手段27と協働して位置特定処理、マーク付与処理、関連付け処理、全体視表示処理等を行う。 In the present embodiment, the position specifying unit 23, the mark assigning unit 21, the associating unit 25, and the overall view displaying unit 29 cooperate with the AR processing unit 27 to perform the position identifying process, the mark assigning process, the associating process, the overall view displaying process, etc. I do.

位置特定手段23は、撮像手段15により(カメラ機能を起動させ)、基準位置(初期位置)や、後述するマーク付与手段21によるマーク付与位置を特定し、記憶手段14に記憶する。 The position specifying means 23 specifies the reference position (initial position) and the mark giving position by the mark giving means 21 described later by the image pick-up means 15 (activating the camera function) and stores it in the storage means 14.

本実施形態の情報管理装置10は、自機の状態(レンズ151が向いている方向、姿勢、位置)を随時把握する。このため、情報管理プログラム20が実行(起動)されると撮像手段15が起動してライブビュー映像LVを表示するとともに、位置特定手段23は基準位置(初期位置)のリセット(新たな基準位置(初期位置)の取得)を行う。初期位置の取得は、例えば、撮像手段15によって情報管理装置10の周辺の現実環境(周辺の空間)を異なる視点(異なる画角のライブビュー映像LVを表示させた状態)で複数回撮像し、撮影された複数の画像に基づき、自機の当該現実環境内における位置を把握(推定)することにより行う。 The information management device 10 of the present embodiment grasps the state of itself (direction in which the lens 151 is facing, posture, position) at any time. Therefore, when the information management program 20 is executed (started), the image pickup unit 15 is started to display the live view image LV, and the position specifying unit 23 resets the reference position (initial position) (new reference position (new position). Obtain the initial position). To acquire the initial position, for example, the image capturing unit 15 captures a plurality of images of the real environment (peripheral space) around the information management device 10 from different viewpoints (states in which live view images LV with different angles of view are displayed). This is performed by grasping (estimating) the position of the own device in the real environment based on the plurality of captured images.

あるいは、予め記憶手段14に保持する現実環境の空間の情報(環境データ)を用いて初期位置を取得してもよい。具体的には、撮像手段15によって予め現実環境の空間をスキャンし、その情報(環境データ)を記憶手段14に記憶する。そして、情報管理プログラム20の起動時に記憶手段14から当該環境データをロードし、撮像手段15で撮像される現実環境の映像と当該環境データとを照合する。そして両者が一致した場合は、その環境データの原点からの相対位置を自機の現在位置として初期位置に設定してもよい。 Alternatively, the initial position may be acquired by using information (environmental data) on the space of the real environment that is stored in the storage unit 14 in advance. Specifically, the imaging means 15 scans the space of the real environment in advance and stores the information (environment data) in the storage means 14. Then, when the information management program 20 is activated, the environment data is loaded from the storage unit 14, and the image of the real environment captured by the image capturing unit 15 is collated with the environment data. When the two match, the relative position from the origin of the environmental data may be set as the initial position as the current position of the own device.

また、上記いずれの場合も、赤外線やレーザーの反射光を検知して自機の位置を把握するようにしてもよい。 In any of the above cases, the position of the own device may be grasped by detecting the reflected light of infrared rays or laser.

更に位置特定手段23は、初期位置を取得後、次回の初期位置のリセットが行われるまで随時(逐次)、状態取得手段17(あるいは必要に応じて位置情報取得モジュール)を用いて自機の初期位置からの状態の変化(水平方向距離、垂直方向距離、角度、方向、姿勢等の変化)の情報(初期位置からの相対的な位置情報;以下、「端末移動情報」という。)を取得(特定)して記憶手段14に記憶する。 Furthermore, after the initial position is acquired, the position specifying unit 23 uses the state acquiring unit 17 (or the position information acquiring module as necessary) at any time (sequentially) until the initial resetting of the initial position is performed next time. Acquires information (change in horizontal distance, vertical distance, angle, direction, posture, etc.) from the position (relative position information from the initial position; hereinafter referred to as "terminal movement information") ( (Specified) and stored in the storage means 14.

特に建物(室内)の場合、GPSなどでは自機の状態を正確に取得できない場合もあるが、本実施形態では初期位置を設定し、当該初期位置からの端末移動情報を取得するため、実際の位置情報(絶対位置情報)からの誤差があっても問題はない。 Particularly in the case of a building (indoor), the state of the own device may not be accurately acquired by GPS or the like, but in the present embodiment, the initial position is set and the terminal movement information from the initial position is acquired. There is no problem even if there is an error from the position information (absolute position information).

しかしながら、これに限らず、GPSなどの絶対位置取得モジュールを用いて、自機の絶対位置を取得するものであってもよい。 However, the present invention is not limited to this, and an absolute position acquisition module such as GPS may be used to acquire the absolute position of the own device.

位置特定手段23は、また、後述するマーク付与操作に基づき所定空間における対象OBの位置(初期位置からの相対位置)を特定し、記憶手段14に記憶する。 The position specifying unit 23 also specifies the position (relative position from the initial position) of the target OB in the predetermined space based on a mark giving operation described later, and stores it in the storage unit 14.

上述のように位置特定手段23は、状態取得手段17を用いて随時、初期位置からの端末移動情報を取得(特定)している。 As described above, the position specifying means 23 acquires (specifies) the terminal movement information from the initial position at any time using the state acquisition means 17.

さらに、位置特定手段23(状態取得手段17)は、表示手段13に表示中のライブビュー映像LVの或るポイント(例えば、ライブビュー映像LV上の対象OBの位置)を特定することにより、当該ポイントの現実環境における自機からの距離を検出(推定)可能に構成されている。具体的に例えば、位置特定手段23(状態取得手段17)は、ユーザがライブビュー映像LV上で特定したポイントと、自機との離間距離(調整値)を設定可能に構成されている。調整値は、予め、あるいは適宜、ユーザにより設定される。位置特定手段23は、ユーザによってライブビュー映像LVの或るポイントが特定(タップ、タッチなど)された場合には、設定された調整値を、自機から当該ポイントまでの距離とし、自機の位置に基づき当該ポイントの現実環境における位置を特定する。例えば、調整値が30cmに設定されている場合、位置特定手段23は、ユーザによってライブビュー映像LVの或るポイントが特定(タップ、タッチなど)されると、当該ポイントが自機よりも30cm前方にあるとし、自機の位置に基づき当該ポイントの現実環境における位置を特定する。調整値は、固定値(例えば、30cm、1mなど)が設定されているものであってもよいし、ユーザが適宜可変に構成されていてもよい。 Further, the position specifying unit 23 (state acquisition unit 17) specifies a certain point of the live view image LV being displayed on the display unit 13 (for example, the position of the target OB on the live view image LV), It is configured to be able to detect (estimate) the distance of the point from its own machine in the real environment. Specifically, for example, the position specifying unit 23 (state acquisition unit 17) is configured to be able to set the distance (adjustment value) between the point specified by the user on the live view image LV and the own device. The adjustment value is set by the user in advance or appropriately. When the user specifies (tap, touch, etc.) a certain point in the live view image LV, the position specifying unit 23 sets the set adjustment value as the distance from the own device to the point and determines the position of the own device. The position of the point in the real environment is specified based on the position. For example, when the adjustment value is set to 30 cm, when the user specifies a certain point in the live view image LV (tap, touch, etc.), the position specifying unit 23 moves the point 30 cm ahead of the own device. Then, the position of the point in the real environment is specified based on the position of the own device. A fixed value (for example, 30 cm, 1 m, etc.) may be set as the adjustment value, or the adjustment value may be appropriately changed by the user.

また位置特定手段23は、所定の形状を検出することにより、自機からの距離を検出(推定)可能である。具体的には、ARフレームワーク27は、ライブビュー映像LVのうち「特徴的な点」を認識することにより、形状検出、例えば、平面の検出(平面検出)が可能である。つまり、例えば現実環境の床や壁を「特徴的な点」として捉え、その床や壁を含む平面を検出することができる。位置特定手段23はこの平面検出に基づき、当該平面の状態、あるいは、検出した平面をさらに遠方(例えば奥行き方向)に仮想的に延長した状態を示すガイド表示G(例えば、方眼やドット方眼などによって検出した平面の大きさ、幅、傾き、奥行き等を示すラベル画像)をライブビュー映像LV上に重ねて表示することができる。そして位置特定手段23は、ガイド表示上のある位置に対して、自機からの距離を認識(推定)することができる。なお、形状検出は平面検出に限らず、凹凸を有する形状であってもよい。 Further, the position specifying means 23 can detect (estimate) the distance from the own device by detecting a predetermined shape. Specifically, the AR framework 27 can detect a shape, for example, a flat surface (a flat surface) by recognizing a “characteristic point” in the live view image LV. That is, for example, a floor or wall in the real environment can be regarded as a “characteristic point”, and a plane including the floor or wall can be detected. Based on the detection of the plane, the position specifying means 23 uses a guide display G (for example, a grid or a dot grid to show the state of the plane or a state in which the detected plane is virtually extended further in the distance (for example, the depth direction)). A label image indicating the size, width, inclination, depth, etc. of the detected plane can be displayed in a superimposed manner on the live view image LV. Then, the position specifying means 23 can recognize (estimate) the distance from the own device with respect to a certain position on the guide display. The shape detection is not limited to flat surface detection, and may be a shape having irregularities.

つまり位置特定手段23は、ライブビュー映像LVとして対象OBを撮像しつつ、当該対象OBに対応してマーク付与操作を行なうことで、ライブビュー映像LV上のマーク付与位置に対応した現実環境の位置(現実環境の対象OBの位置)と自機の間の距離を特定(推定)する。そして特定した距離とマーク付与操作位置における初期位置からの端末移動情報に基づき、マーク付与位置、すなわち現実環境における対象OBの初期位置からの相対位置を特定することができる。 In other words, the position identifying means 23 performs the mark attaching operation corresponding to the target OB while capturing the target OB as the live view image LV, so that the position of the real environment corresponding to the mark attaching position on the live view image LV. The distance between (the position of the target OB in the real environment) and the own device is specified (estimated). Then, based on the specified distance and the terminal movement information from the initial position in the mark applying operation position, the mark applying position, that is, the relative position from the initial position of the target OB in the real environment can be specified.

マーク付与手段21は、ユーザによるマーク付与操作に基づき、表示手段13に表示中のライブビュー映像LVに重ねて、各種情報を付与する対象OBに対応したオブジェクト画像(以下これを「マーク画像M」という。)を表示する。 The mark giving unit 21 superimposes on the live view image LV displayed on the display unit 13 based on the mark giving operation by the user, and the object image corresponding to the target OB to which various kinds of information is given (hereinafter referred to as “mark image M”). Is displayed).

図3を参照して具体的に説明する。同図は、マーク付与操作時の情報管理装置10の表示手段13における表示の一例を示す図である。 This will be specifically described with reference to FIG. This figure is a diagram showing an example of a display on the display means 13 of the information management device 10 at the time of the mark giving operation.

ユーザは、マーク付与操作時に、調整値を用いるか形状検出(この例では、平面検出)を用いるか選択可能に構成されている。ユーザがマーク付与操作時に調整値を用いることを選択した場合、位置特定手段23は、上述の調整値を用いた方法で位置特定を行う。一方、ユーザがマーク付与操作時に平面検出を用いることを選択した場合、位置特定手段23は、上述の平面検出を用いた方法で位置特定を行う。 The user is configured to be able to select whether to use an adjustment value or shape detection (in this example, plane detection) at the time of a mark giving operation. When the user selects to use the adjustment value at the time of the mark giving operation, the position specifying means 23 specifies the position by the method using the adjustment value described above. On the other hand, when the user selects to use the plane detection during the marking operation, the position specifying unit 23 specifies the position by the method using the above-described plane detection.

図3(A)は、マーク付与位置の特定に調整値を用いる場合の表示例である。この状態は、予め調整値が例えば30cmに設定されている場合において、初期位置を設定後、ユーザがマーク付与操作時に調整値を用いることを選択し、対象OBに近接した状態での表示例である。撮像手段15によって実在する対象OBを含む対象領域(現実環境)が撮影され、当該対象領域のリアルタイムの映像情報がライブビュー映像LVとして表示手段13に表示されている。 FIG. 3A is a display example when the adjustment value is used to specify the mark application position. In this state, when the adjustment value is set in advance to, for example, 30 cm, after the initial position is set, the user selects to use the adjustment value at the time of the mark giving operation, and is a display example in the state of being close to the target OB. is there. The target area (real environment) including the actual target OB is photographed by the imaging means 15, and real-time video information of the target area is displayed on the display means 13 as the live view video LV.

マーク付与手段21は、同図(A)に示すように、ライブビュー映像LVに重ねてマーク画像Mを移動可能に表示する。 As shown in FIG. 7A, the mark giving means 21 movably displays the mark image M overlaid on the live view image LV.

この状態でユーザは、表示手段13に表示中の、マーク画像Mを付与すべき対象OBを選択するマーク付与操作を行う。すなわち、ユーザは、例えばマーク画像Mをタッチしたまま所望の位置(例えば、ライブビュー映像LV上の対象OBに重畳する位置、あるいは近傍の位置)にスライドさせるなどして、マーク付与位置を選択(決定)する。 In this state, the user performs a mark giving operation of selecting the target OB to be given the mark image M, which is being displayed on the display means 13. That is, the user selects the mark-added position by, for example, sliding the mark image M to a desired position (for example, a position overlapping the target OB on the live view image LV or a position in the vicinity) while touching the mark image M ( decide.

また、マーク付与操作は例えばマーク付与の開始を指示するためマーク付与操作ボタン122をタッチ(タップ)するなどした後に、表示中のライブビュー映像LVの所望の位置(例えば、対象OBの位置、または対象周囲の位置)において表示手段13表面をタッチ(例えば、タップ)してもよい。マーク付与操作ボタン122は表示手段13に表示されるボタン画像であってもよいし、物理ボタン121であってもよい。これによりマーク付与手段21は、表示手段13上におけるタッチ位置の座標を検出し、タッチ位置にマーク画像Mを表示する。 In addition, in the mark giving operation, for example, after touching (tapping) the mark giving operation button 122 for instructing the start of mark giving, a desired position of the live view image LV being displayed (for example, the position of the target OB, or The surface of the display unit 13 may be touched (for example, tapped) at a position (around the target). The mark addition operation button 122 may be the button image displayed on the display unit 13 or the physical button 121. Thereby, the mark giving unit 21 detects the coordinates of the touch position on the display unit 13 and displays the mark image M at the touch position.

調整値を用いる場合、マーク付与手段21が表示するマーク画像Mは、自機より所定の調整値(この例では30cm)分、前方に位置していることを示している。つまりユーザは、対象OBに重畳するように(又はその近傍に)適宜マーク画像Mを移動させつつ、調整値に応じて対象OBと自機との距離を確保する。つまり調整値を30cmとした場合には、対象OBと自機の距離が30cmになるように適宜移動する。 When the adjustment value is used, the mark image M displayed by the mark giving unit 21 indicates that the mark image M is located ahead of the own device by a predetermined adjustment value (30 cm in this example). That is, the user appropriately moves the mark image M so as to be superimposed on (or near) the target OB, and secures the distance between the target OB and the own device according to the adjustment value. That is, when the adjustment value is set to 30 cm, the target OB is appropriately moved so that the distance between the target OB and its own machine is 30 cm.

そして例えば、ユーザのマーク付与位置を決定するための操作(マーク付与位置決定操作)によって、マーク画像Mの位置を決定する。このマーク付与位置決定操作は例えば、マーク付与操作ボタン122(またはマーク画像M)の(再度の)操作(タップ、タッチ、ダブルタップ、長押しなど)である。またマーク付与位置決定操作はマーク画像Mに対応した対象OBの位置を取得する操作(対象位置取得操作)ともいえる。 Then, for example, the position of the mark image M is determined by the operation for determining the mark providing position by the user (mark providing position determining operation). The mark giving position determination operation is, for example, a (re)operation of the mark giving operation button 122 (or the mark image M) (tap, touch, double tap, long press, etc.). Further, the mark giving position determining operation can be said to be an operation of acquiring the position of the target OB corresponding to the mark image M (target position acquiring operation).

位置特定手段23は、同図(A)に示すように調整値を用いた場合、決定されたマーク画像Mの位置(例えば、対象OBの位置)が、自機よりも調整値(この例では30cm)前方にあるとし、自機の位置に基づき、マーク画像Mに対応する対象OBの現実環境における位置を特定する。このように、調整値を用いる場合には、対象OBが例えば所定の形状を有する物体が存在しない空間の任意の点であっても、マーク画像Mを付与し、対象OBの位置を特定することができる。 When the adjustment value is used as shown in FIG. 9A, the position specifying unit 23 determines that the determined position of the mark image M (for example, the position of the target OB) is adjusted by the adjustment value (in this example, by the adjustment value). 30 cm) ahead, the position in the real environment of the target OB corresponding to the mark image M is specified based on the position of the own device. In this way, when the adjustment value is used, even if the target OB is an arbitrary point in a space where an object having a predetermined shape does not exist, the mark image M is given to specify the position of the target OB. You can

同図(B)および同図(C)は、マーク付与位置の特定に形状検出(例えば、平面検出)を用いる場合の表示例である。この状態は、ユーザがマーク付与操作時に平面検出を用いることを選択し、対象OBが壁(同図(B))および床(同図(C))など、平面として検出可能な形状の上に位置する場合の表示例である。撮像手段15によって実在する対象OBを含む対象領域(現実環境)が撮影され、当該対象領域のリアルタイムの映像情報がライブビュー映像LVとして表示手段13に表示されている。 FIGS. 8B and 8C are display examples when shape detection (for example, plane detection) is used to specify the mark application position. In this state, the user selects to use the plane detection at the time of the mark giving operation, and the target OB is placed on a shape that can be detected as a plane, such as a wall (the same figure (B)) and a floor (the same figure (C)). It is an example of a display when located. The target area (real environment) including the actual target OB is photographed by the imaging means 15, and real-time video information of the target area is displayed on the display means 13 as the live view video LV.

マーク付与手段21は、同図(B)、同図(C)に示すように、例えばライブビュー映像LVに重ねてガイド表示G(例えば、検出した平面を示す方眼状のラベル画像)を表示し、その略中央付近にマーク画像Mを固定的に表示する。この場合、ユーザは、固定的に表示されたマーク画像Mが対象OBに重畳する(あるいは近傍に位置する)ように情報管理装置(タブレット端末)10の姿勢や向きまたは位置を任意に移動する。 As shown in FIGS. 2B and 2C, the mark giving unit 21 displays a guide display G (for example, a grid-shaped label image showing the detected plane) overlaid on the live view image LV, for example. , The mark image M is fixedly displayed near its center. In this case, the user arbitrarily moves the attitude, orientation, or position of the information management apparatus (tablet terminal) 10 so that the fixedly displayed mark image M is superimposed on (or located in the vicinity of) the target OB.

そして例えば、ユーザのマーク付与位置決定操作(例えば、マーク付与操作ボタン122(又はマーク画像M)操作)などによって、マーク画像Mの位置を決定する。 Then, for example, the position of the mark image M is determined by the user's mark giving position determining operation (for example, the mark giving operation button 122 (or the mark image M) operation).

平面検出を用いる場合は、所定の形状を有する実在する物体(床、壁、机など)が必要であるが、検出した平面に沿ったマーク付与操作を行うことができる。例えば、検出した平面が傾斜面であれば傾斜面に沿ってマーク付与操作を行なうことができる。 When the plane detection is used, an existing object (floor, wall, desk, etc.) having a predetermined shape is required, but the mark giving operation along the detected plane can be performed. For example, if the detected plane is an inclined surface, the mark giving operation can be performed along the inclined surface.

なお、同図(A)に示す調整値と用いたマーク付与操作と同図(B)に示す平面検出を用いたマーク付与操作は、ボタン操作など手動によって切り替えても良いし、例えば「特徴的な点」の有無や形状に基づくなどして自動で切り替えるように構成してもよく、自動で切り替え可能とした場合には、ボタン操作などによる手動の切り替えも可能としてもよい。 It should be noted that the mark giving operation using the adjustment value shown in FIG. 9A and the mark giving operation using plane detection shown in FIG. 9B may be switched manually by a button operation or the like. It may be configured to be automatically switched based on the presence or absence of "point" and the shape, and when it is possible to switch automatically, it may be possible to switch manually by button operation or the like.

ユーザによるマーク付与位置決定操作が行なわれると、マーク付与手段21は例えば、マーク画像Mの表示態様を変化させる(例えば、点滅表示させる)などして、後述する関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆する。 When the mark giving position determining operation is performed by the user, the mark giving means 21 can change the display mode of the mark image M (for example, display it in a blinking manner) and associate the information by the associating means 25 described later. This suggests to the user (photographer).

タブレット端末101に情報管理プログラム20をインストールした後最初に情報管理プログラム20を起動させてから当該情報管理プログラム20が終了するまで、あるいは、前回情報管理プログラム20を終了させた後に再び情報管理プログラム20を起動させてから当該情報管理プログラム20が終了するまで(いずれも電源遮断も含む)の期間、を本明細書では「当該情報管理プログラム20の実行中」という。そして当該情報管理プログラム20の実行中において、マーク付与手段21は、複数の異なった対象OBに対してそれぞれにマーク画像Mを付与することができる。 After the information management program 20 is first installed after being installed in the tablet terminal 101, the information management program 20 is terminated until the information management program 20 ends, or after the information management program 20 is terminated last time, the information management program 20 is restarted. In the present specification, a period from when the information management program 20 is started to when the information management program 20 is terminated (including power interruption) is referred to as “the information management program 20 is being executed” in this specification. Then, during execution of the information management program 20, the mark giving unit 21 can give the mark image M to each of a plurality of different target OBs.

連続して複数の対象OBに対してそれぞれマーク画像Mを付与する場合には例えば、マーク付与の開始を指示するためマーク付与操作ボタン122を操作(タッチ(タップ))する。これにより例えば、点滅表示などして、後述する関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆していたマーク画像Mは静止画表示され、新たなマーク画像Mが表示される。 When the mark images M are successively given to the plurality of target OBs, for example, the mark giving operation button 122 is operated (touched (tapped)) to instruct the start of mark giving. As a result, the mark image M, which indicates to the user (photographer) that the information can be associated by the associating unit 25 described later, for example, by blinking, is displayed as a still image and a new mark is displayed. The image M is displayed.

位置特定手段23は、マーク付与位置決定操作が行なわれた場合、所定空間における対象OBの相対位置を特定する。 The position specifying means 23 specifies the relative position of the target OB in the predetermined space when the mark giving position determining operation is performed.

具体的には、図3(A)に示す調整値を用いたマーク付与位置決定操作の場合は、位置特定手段23(状態取得手段17)は、マーク画像Mの位置に基づき、現実環境における自機と対象OBの相対的な距離が調整値であると特定する。また、既に述べているように、随時取得する端末移動情報に基づき、初期位置からマーク付与位置決定操作が行なわれた位置までの相対的な端末移動情報を算出し、初期位置に対する対象OBの相対的な位置を把握し、相対的な位置情報(水平方向距離、垂直方向距離、角度、方向によって、初期位置に対する対象OBの相対位置を特定する情報、以下「対象位置情報」という。)を特定し、記憶手段14に記憶する。 Specifically, in the case of the mark giving position determination operation using the adjustment value shown in FIG. 3(A), the position specifying means 23 (state acquisition means 17) is based on the position of the mark image M, The relative distance between the aircraft and the target OB is specified as the adjustment value. Further, as already described, the relative terminal movement information from the initial position to the position where the mark giving position determination operation is performed is calculated based on the terminal movement information acquired from time to time, and the relative movement of the target OB with respect to the initial position is calculated. The relative position information (information for specifying the relative position of the target OB with respect to the initial position by the horizontal distance, vertical distance, angle, and direction, hereinafter referred to as “target position information”) is specified. Then, it is stored in the storage means 14.

また、同図(B)に示す平面検出でのマーク付与位置決定操作の場合は、位置特定手段23は、ガイド表示Gとマーク画像Mの位置に基づき、現実環境における自機と対象OBの相対的な距離を推定する。また、同図(A)の場合と同様に、随時取得する端末移動情報と自機と対象OBの相対的な距離に基づき、対象OBの位置を特定し、対象位置情報を記憶手段14に記憶する。 Further, in the case of the mark giving position determining operation by plane detection shown in FIG. 7B, the position specifying means 23 determines the relative position between the own device and the target OB in the real environment based on the positions of the guide display G and the mark image M. The actual distance. Further, as in the case of FIG. 7A, the position of the target OB is specified based on the terminal movement information acquired at any time and the relative distance between the own device and the target OB, and the target position information is stored in the storage unit 14. To do.

また、位置特定手段23は、マーク画像Mを付与した対象が、現実環境におけるある一定広さの空間(例えば、室内など)においてどの位置に存在しているかを、複数のマーク画像Mを付与した場合には他のマーク画像Mとの位置関係も含めて把握し、記憶手段14に記憶する。 Further, the position identifying means 23 assigns a plurality of mark images M indicating at which position the target to which the mark image M is attached is located in a space (for example, a room) having a certain size in the real environment. In this case, the positional relationship with other mark images M is grasped and stored in the storage means 14.

これにより、マーク画像Mに対応付けた対象OBが撮像手段15の撮像対象から外れ(レンズ151の画角から外れ)てライブビュー映像LVにおいて表示手段13の表示領域からもフレームアウトした場合であっても、再び当該対象OBを撮像した場合にはライブビュー映像LV中の対象OBに重ねて(対象OBの上に、または対象の近傍に)マーク画像Mが表示されるようになる。 As a result, the target OB associated with the mark image M deviates from the imaging target of the imaging unit 15 (out of the angle of view of the lens 151) and is also framed out from the display area of the display unit 13 in the live view image LV. However, when the target OB is imaged again, the mark image M is displayed over the target OB in the live view image LV (on the target OB or in the vicinity of the target).

また対象位置情報は、後述する全体視表示(マップ作成)において利用することができる。 Further, the target position information can be used in the overall display (map creation) described later.

また、マーク付与手段21は、マーク付与位置決定操作が行なわれた場合、ライブビュー映像LVのうち対象OB(マーク付与位置の近傍)の「特徴的な点」の情報を取得、解析して現実環境における対象OBの存在を把握してもよい。「特徴的な点」は例えば、対象OBの外形状に対応して示される多数の点などである。マーク付与手段21は把握した対象OBの情報(例えば、対象OBの大きさなど外形状の情報など)と上記の対象位置情報およびマーク画像Mとを対応付けて記憶手段14に記憶してもよい。 Further, when the mark giving position determining operation is performed, the mark giving means 21 acquires and analyzes the information of the “characteristic point” of the target OB (in the vicinity of the mark giving position) in the live view image LV to realize the reality. The existence of the target OB in the environment may be grasped. The “characteristic points” are, for example, a large number of points that are shown corresponding to the outer shape of the target OB. The mark giving unit 21 may store the information of the grasped target OB (for example, external shape information such as the size of the target OB), the target position information and the mark image M in the storage unit 14 in association with each other. ..

なお、ユーザ(撮影者)はマーク付与操作において、撮像手段(カメラ機能)15を起動させる撮影ボタン123(または物理ボタン121)を操作し、これにより画像データを生成して記憶手段14に記憶される通常の撮影(以下「写真撮影」という。)を行なってもよい。この場合、撮影された写真にはマーク画像Mは含まれず、現実環境のみが撮影される。 It should be noted that the user (photographer) operates the photographing button 123 (or the physical button 121) which activates the image pickup means (camera function) 15 in the mark giving operation, whereby image data is generated and stored in the storage means 14. Ordinary photographing (hereinafter referred to as “photographing”) may be performed. In this case, the photographed photograph does not include the mark image M, and only the real environment is photographed.

図4は、ユーザUがある空間Sにおいて情報管理装置10(情報管理プログラム20)を使用している状態を示す概要図であり、情報管理装置10の表示手段13に、空間Sのライブビュー映像LVを表示している状態を示す。またこの状態は、上述の処理によって、空間S内の4つの対象OBについてそれぞれにマーク画像Mの付与が完了しており、ユーザは当該空間Sが略見渡せる位置に立って広い画角で撮影している状態である。この場合、撮像手段15(レンズ151)の画角には4つの対象OB1〜OB4が収められており、情報管理装置10(タブレット端末101)の表示手段13には、対象OB1〜OB4に対応したマーク画像M1〜M4がライブビュー映像に重ねて表示(AR表示)されている。 FIG. 4 is a schematic diagram showing a state in which the user U is using the information management device 10 (information management program 20) in a certain space S. The live view video of the space S is displayed on the display means 13 of the information management device 10. The state which is displaying LV is shown. Further, in this state, the mark image M has been added to each of the four target OBs in the space S by the above-described processing, and the user stands in a position overlooking the space S and shoots at a wide angle of view. It is in the state of being. In this case, four objects OB1 to OB4 are stored in the angle of view of the image pickup means 15 (lens 151), and the display means 13 of the information management device 10 (tablet terminal 101) corresponds to the objects OB1 to OB4. The mark images M1 to M4 are displayed (AR display) overlaid on the live view image.

なお、当該空間Sにおいてライブビュー映像LVを表示した際のマーク画像M1〜M4の表示は、実行中の情報管理プログラム20が終了した際にはリセットされる。しかしながら、例えば、空間の「特徴的な点」を把握し、各対象OBの初期位置からの相対的な位置を対応するマーク画像M1〜M4にそれぞれ関連付けて記憶手段14に記憶してもよい。これにより、現場(当該空間)に再訪するなどして同じ空間S内で情報管理プログラム20を再起動(再実行)した場合には、図4に示すようにマーク画像M1〜M4をライブビュー映像に重ねて表示(AR表示)することができる。これにより、現場に始めて訪れたユーザであっても、対象OBの位置を正確に把握することができる。 The display of the mark images M1 to M4 when the live view video LV is displayed in the space S is reset when the information management program 20 being executed is terminated. However, for example, the "characteristic point" of the space may be grasped, and the relative position from the initial position of each target OB may be stored in the storage unit 14 in association with the corresponding mark images M1 to M4. Accordingly, when the information management program 20 is restarted (re-executed) in the same space S by revisiting the site (the relevant space), the mark images M1 to M4 are displayed as live view images as shown in FIG. Can be overlaid on the display (AR display). As a result, even the user who first visited the site can accurately grasp the position of the target OB.

関連付け手段25は、ユーザによる関連付け開始操作が行なわれた場合、実在する対象OBに関連する情報(以下、「対象関連情報」という。)を、マーク画像Mに対応付けて記憶手段14に記憶する手段である。ここで、関連付け開始操作とは、静止画表示されているマーク画像Mの操作(タッチ、タップ操作など)、あるいは、別途設けられた関連付け操作ボタン126の操作であり、関連付け開始操作が行なわれると、例えば、静止画表示されているマーク画像Mがその表示態様を変化させ(点滅表示などして)、関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆するように構成されている。本実施形態では、マーク付与位置決定操作が行なわれた場合にも、マーク画像Mがその表示態様を変化させ(点滅表示などして)、関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆するように構成されている。つまり、このマーク付与位置決定操作も関連付け開始操作に含まれる。 When the user performs an association start operation, the associating unit 25 stores information related to the existing target OB (hereinafter referred to as “target related information”) in the storage unit 14 in association with the mark image M. It is a means. Here, the association start operation is an operation (touch, tap operation, etc.) of the mark image M displayed as a still image, or an operation of a separately provided association operation button 126, and when the association start operation is performed. For example, it is suggested to the user (photographer) that the mark image M displayed as a still image has its display mode changed (by blinking display, etc.), and information can be associated by the associating means 25. Is configured to. In the present embodiment, even when the mark providing position determining operation is performed, the display mode of the mark image M is changed (blinking display or the like), and it becomes possible to associate the information by the associating unit 25. It is configured to suggest to the user (photographer). That is, this mark giving position determination operation is also included in the association start operation.

対象関連情報は、例えば、この情報管理プログラム20において生成・取得することが可能な対象OBそのものについての情報(例えば、対象OBの位置情報、外形状の情報、対応するマーク画像など)を示す対象基本情報と、ユーザの任意で対象OBに関連付けることが可能な対象付随情報とが含まれる。 The target-related information is, for example, a target that indicates information about the target OB itself that can be generated/acquired by the information management program 20 (for example, position information of the target OB, external shape information, corresponding mark image, etc.). It includes basic information and target incidental information that can be associated with the target OB arbitrarily by the user.

具体的には、関連付け手段25は、所定空間(現実環境)における当該対象の存在を示す情報、すなわち位置特定手段23が特定した対象OBの位置を示す対象位置情報と、当該対象OBに付与されたマーク画像M(の画像データ)と、マーク画像Mに固有の識別番号(マーク識別番号MID)とを対象基本情報とし、マーク識別番号MIDをキーにした1つの情報群(データユニット)として、記憶手段14(例えば、図2および図6に示す関連情報データベース30等)に登録する。対象基本情報には、「特徴的な点」から解析された対象OBの外形状を示す情報などが含まれてもよい。 Specifically, the associating unit 25 is assigned to the target OB, information indicating the presence of the target in a predetermined space (real environment), that is, target position information indicating the position of the target OB specified by the position specifying unit 23. The mark image M (image data thereof) and the identification number (mark identification number MID) unique to the mark image M are the target basic information, and one information group (data unit) using the mark identification number MID as a key, It is registered in the storage means 14 (for example, the related information database 30 shown in FIGS. 2 and 6). The target basic information may include information indicating the outer shape of the target OB analyzed from “characteristic points”.

また、関連付け手段25はユーザによって対象OB(マーク識別番号MID)毎に任意に選択された対象付随情報を、マーク識別番号MIDに対応する情報群(データユニット)に追加登録する。例えば、ユーザによる関連付け開始操作が行なわれると、マーク画像Mの表示態様が変化し(例えば、点滅表示し)、関連付け手段25による対象付随情報の受付が可能となったこと(対象付随情報の受付期間中であること)をユーザに示唆する。そして関連付け手段25は、対象付随情報の候補を表示するなどして対象付随情報の入力を待機し、ユーザによって入力(選択)された対象付随情報をデータユニットに追加登録する。 Further, the associating unit 25 additionally registers the target incidental information arbitrarily selected for each target OB (mark identification number MID) by the user in the information group (data unit) corresponding to the mark identification number MID. For example, when the association start operation is performed by the user, the display mode of the mark image M is changed (for example, blinking is displayed), and the target accompanying information can be accepted by the associating unit 25 (reception of the target accompanying information. Suggest that the user is in the period). Then, the associating unit 25 waits for the input of the target incidental information by displaying candidates of the target incidental information and additionally registers the target incidental information input (selected) by the user in the data unit.

対象付随情報は例えば、写真・ビデオなどの撮像(静止画像、動画像)データ、文字データ(テキストデータ、文章作成ソフトウェアで作成された文書データ、表計算ソフトウェアで作成された表形式のデータなど)、音声データ、その他のデータである。また、対象付随情報には、情報生成手段2251(図2参照)によって生成された各種データも含まれる。具体的には情報生成手段2251は、例えば情報管理装置10の音声入力手段18を介して入力された音声を認識し、文字データを生成する。また、写真・ビデオなどの撮像画像(静止画像、動画像)について人工知能を用いた解析(Artificial Intelligence解析;AI解析)を行ない、撮影対象の名称(例えば、「傷」、「扉」など)のタグを生成して画像に付与したタグ付き画像データを生成する。対象付随情報にはこれらの情報も含まれる。 Target incidental information is, for example, image data (still images, moving images) such as photographs and videos, character data (text data, document data created by text creation software, tabular data created by spreadsheet software, etc.) , Voice data, and other data. Further, the target accompanying information also includes various data generated by the information generating means 2251 (see FIG. 2). Specifically, the information generation unit 2251 recognizes a voice input via the voice input unit 18 of the information management device 10, and generates character data. In addition, analysis (Artificial Intelligence analysis; AI analysis) using artificial intelligence is performed on captured images (still images, moving images) such as photographs and videos, and the name of the shooting target (for example, “scratch”, “door”, etc.) Of the tag and the image data with the tag added to the image is generated. This information is also included in the target incidental information.

図5は、対象付随情報を関連付けする場合の表示の一例を示す図である。関連付け手段25は、対象付随情報の受付期間中(例えば、マーク画像の点滅表示中)にユーザによって選択あるいは入力された各種データについて対象付随情報として関連情報データベース30への登録を行なう。具体的には、関連付け手段25は、同図に示すように、所定の記憶手段14(マーク識別番号MIDとの対応付けが行なわれていない各種データが保存されている記憶領域、タブレット端末101のライブラリなど)から、対応付け(選択)が可能なデータ(ファイル)DDを取得し、例えば一覧形式で表示手段13に表示する。 FIG. 5 is a diagram showing an example of a display in the case of associating the target incidental information. The associating unit 25 registers various types of data selected or input by the user during the reception period of the target incidental information (for example, blinking display of the mark image) in the related information database 30 as the target incidental information. Specifically, as shown in the figure, the associating means 25 includes a predetermined storage means 14 (a storage area in which various data not associated with the mark identification number MID is stored, the tablet terminal 101). Data (file) DD that can be associated (selected) is acquired from a library or the like) and displayed on the display unit 13 in a list format, for example.

ユーザが表示された一覧から任意に一又は複数のデータを選択(例えばタップなど)すると、関連付け手段25は選択されたデータを、当該マーク画像Mに対応するマーク識別番号MIDをキーにして関連情報データベース30に登録する。 When the user arbitrarily selects (for example, taps) one or more data from the displayed list, the associating unit 25 uses the mark identification number MID corresponding to the mark image M as a key to associate the selected data with related information. Register in the database 30.

あるマーク画像Mについての関連付け処理は、例えばユーザによる関連付け終了操作(例えば、マーク画像Mの再度の操作や関連付け操作ボタン126の再度の操作など)によって終了する。マーク画像Mの表示状態(図3など)においてマーク画像を選択し関連付け開始操作と関連付け終了操作を行なうことにより、関連付け処理は任意のタイミングで繰り返し行うことができる。 The association process for a certain mark image M is terminated by, for example, an association end operation by the user (for example, the operation of the mark image M again or the operation of the association operation button 126 again). By selecting the mark image and performing the association start operation and the association end operation in the display state of the mark image M (such as FIG. 3), the association process can be repeatedly performed at any timing.

このように、関連付け手段25が、ユーザに選択させるために一覧表示する各種データは、他のアプリケーションプログラム(カメラアプリケーションプログラム、文書作成アプリケーションプログラムなど)や、タブレット端末101の他の機能(録音機能など)によって、任意のタイミング(本情報管理プログラム20の実行中とは別のタイミング)で記憶手段14に記憶されたデータである。 In this way, the various data displayed in the list by the associating unit 25 for the user to select are other application programs (camera application program, document creation application program, etc.) and other functions of the tablet terminal 101 (recording function, etc.). ), the data stored in the storage unit 14 at an arbitrary timing (a timing different from the timing when the information management program 20 is being executed).

しかしながらこれに限らず、情報管理プログラム20の実行中にリアルタイムで作成したデータ(情報生成手段2251によって生成されたデータ)も関連付けすることができる。 However, the present invention is not limited to this, and data created in real time during execution of the information management program 20 (data generated by the information generating means 2251) can also be associated.

例えば、対象付随情報が画像データの場合は、ユーザによる関連付け開始操作によってタブレット端末101のカメラ機能を起動し、情報管理プログラム20の実行中に撮像手段15で撮影した新たな画像データ(静止画データ、動画データ)、すなわち関連情報データベース30に未登録のデータをマーク識別番号MIDに対応付けて関連情報データベース30に追加登録してもよい。また、タブレット端末101の記憶手段14(ライブラリ)に保存されている画像データを例えばサムネイル表示するなどして選択可能とし、ユーザの選択があったデータをマーク識別番号MIDに対応付けて関連情報データベース30に追加登録してもよい。また、これら両者を選択可能としてもよい。 For example, when the target incidental information is image data, the camera function of the tablet terminal 101 is activated by a user's association start operation, and new image data (still image data) captured by the image capturing unit 15 while the information management program 20 is being executed. , Moving image data), that is, data that has not been registered in the related information database 30 may be additionally registered in the related information database 30 in association with the mark identification number MID. Further, the image data stored in the storage unit 14 (library) of the tablet terminal 101 can be selected, for example, by displaying a thumbnail, and the data selected by the user is associated with the mark identification number MID to associate the related information database. It may be additionally registered in 30. Also, both of them may be selectable.

また、対象関連情報が音声データの場合は、ユーザによる関連付け開始操作によってタブレット端末101のマイク(録音)機能が起動するようになっていてもよいし、マーク画像Mの操作によって、データ(ファイル)の選択と共に、マイク機能の起動が選択可能になるように構成されていてもよく、この場合、情報管理プログラム20の実行中に録音された音声データをマーク識別番号MIDに対応付けて関連情報データベース30に追加登録できる。 When the target related information is voice data, the microphone (recording) function of the tablet terminal 101 may be activated by the user's association start operation, or the data (file) may be operated by the operation of the mark image M. May be configured so that the activation of the microphone function can be selected, and in this case, the voice information recorded during the execution of the information management program 20 is associated with the mark identification number MID and the related information database. 30 can be additionally registered.

また、対象関連情報が文字データの場合は、ユーザによる関連付け開始操作によってタブレット端末101のメモ機能が起動する(図5に示すようにメモ入力欄31が表示される)ように構成されていてもよいし、ユーザによる関連付け開始操作によって、データ(ファイル)の選択と共に、メモ機能の起動が選択可能になるように構成されていてもよく、この場合、情報管理プログラム20の実行中に入力された文字データ(テキストデータ)をリアルタイムでマーク識別番号MIDに対応付けて関連情報データベース30に追加登録できる。 Further, when the target related information is character data, the memo function of the tablet terminal 101 is activated by the user's association start operation (the memo input field 31 is displayed as shown in FIG. 5). Alternatively, it may be configured such that the start of the memo function can be selected together with the selection of the data (file) by the association start operation by the user, and in this case, it is input during the execution of the information management program 20. Character data (text data) can be additionally registered in the related information database 30 in real time in association with the mark identification number MID.

関連付け手段25により、マーク画像Mを付した対象OBに関する複数種類の対象関連情報を一括して関連付け、管理することができる。また、後のタイミングであっても、関連付け開始操作を行なうことで、当該マーク画像M(対象OB)に対して、対象関連情報を追加することができる。 By the associating unit 25, it is possible to collectively associate and manage a plurality of types of target related information regarding the target OB with the mark image M. Further, even at a later timing, by performing the association start operation, the target related information can be added to the mark image M (target OB).

図6を参照して、関連情報データベース30の一例について説明する。図6(A)は、図4に示したように、ライブビュー映像LVにマーク画像M1〜M4を重畳表示している表示手段13の表示例を示す図であり、それぞれの対象OB1〜OB4について対象関連情報も対応付けられている状態を示している。 An example of the related information database 30 will be described with reference to FIG. FIG. 6(A) is a diagram showing a display example of the display means 13 that superimposes and displays the mark images M1 to M4 on the live view image LV as shown in FIG. 4, and for each of the targets OB1 to OB4. It also shows a state in which the target related information is also associated.

同図(B)は関連情報データベース30の一例を示す図である。既述のごとく、或る一つの対象OBに対しては、固有の識別番号(マーク識別番号MID)を有するマーク画像Mが対応付けられる。さらに、当該或る対象OB(1つのマーク識別番号MID)に対して、対象関連情報(対象基本情報および必要に応じて対象付随情報)が関連付けられ、一つの情報群(データパッケージ)として管理可能となる。例えば、情報管理装置10は、マーク識別番号MID毎にデータパッケージを一括して記憶手段14から読み出したり、他の装置へ送受信すること等の処理が可能となっている。 FIG. 3B is a diagram showing an example of the related information database 30. As described above, a mark image M having a unique identification number (mark identification number MID) is associated with a certain one target OB. Further, target related information (target basic information and, if necessary, target accompanying information) is associated with the certain target OB (one mark identification number MID), and can be managed as one information group (data package). Becomes For example, the information management device 10 is capable of collectively reading the data package for each mark identification number MID from the storage means 14 and transmitting/receiving the data package to/from another device.

なお、図示の例では対象基本情報と対象付随情報とを明確に分類しているが、両者は必ずしも明確に分類されるものではなく、対象OBに関連する情報をまとめて対象関連情報として扱うものであってもよい。 In the illustrated example, the target basic information and the target accompanying information are clearly classified, but the two are not necessarily clearly classified, and information related to the target OB is collectively treated as target related information. May be

同図(B)に示すように、一つの対象(例えば、壁面の傷など)OB1には固有のマーク識別情報MID01が付与され、これに対象OB1についての対象関連情報(対象基本情報および対象付随情報)が関連付けられている。 As shown in FIG. 1B, one target (for example, a scratch on the wall surface) OB1 is provided with unique mark identification information MID01, and target related information (target basic information and target accompanying information) about the target OB1 is added to this. Information) is associated.

対象基本情報は例えば、所定空間(例えば、室内)における対象(例えば、傷)OB1の存在を示す情報(位置情報や、「特徴的な点」に基づく形状を示す情報など)である。 The target basic information is, for example, information indicating the presence of a target (for example, a scratch) OB1 in a predetermined space (for example, a room) (positional information, information indicating a shape based on "characteristic points", etc.).

また、対象関連情報としては例えば、対象OB1を異なる角度から撮影した複数の写真(画像データJ11,J12,J13)や、対象OB1の状態を説明する文字データW11,W12、音声データR11などである。関連付け手段25は、マーク識別情報MID01をキーにして、画像データJ11,J12,J13、文字データW11,W12、および音声データR11を対応付けて、一つのデータユニットとして、関連情報データベースに記録している。 The target-related information includes, for example, a plurality of photographs (image data J11, J12, J13) of the target OB1 taken from different angles, character data W11, W12, and voice data R11 for explaining the state of the target OB1. .. The associating unit 25 associates the image data J11, J12, J13, the character data W11, W12, and the voice data R11 with the mark identification information MID01 as a key and records them in the related information database as one data unit. There is.

同様に、他の対象(例えば、異なる壁面の傷など)OB2には固有のマーク識別情報MID02が付与され、これに対象OB2についての対象関連情報(対象基本情報と、対象関連情報(画像データJ21,J22、文字データW21、音声データR21)を対応付けて、一つのデータユニットとして、関連情報データベースに記録している。また、他の対象OB3、OB4についてもそれぞれに固有のマーク識別情報MID03、MID04が付与され、対応する対象関連情報を対応付けて、一つのデータユニットとして、関連情報データベースに記録している。 Similarly, other target (for example, a scratch on a different wall surface) OB2 is provided with unique mark identification information MID02, and the target related information (target basic information and target related information (image data J21) about the target OB2 is added thereto. , J22, character data W21, voice data R21) are associated with each other and recorded in the related information database as one data unit, and the other target OB3 and OB4 have their own mark identification information MID03, MID04 is added, and the corresponding target related information is associated and recorded in the related information database as one data unit.

図7は、全体視表示手段29の概要を示す図であり、同図(A)は全体視表示手段29の構成ブロック図であり、同図(B)は、マーク画像Mの位置を2次元画像としてマッピングし、視認(俯瞰)している状態を示す情報管理装置10の表示例である。 FIG. 7 is a diagram showing an overview of the overview display means 29, FIG. 7A is a block diagram of the overview display means 29, and FIG. 7B shows the position of the mark image M in two dimensions. It is a display example of the information management device 10 showing a state of being mapped as an image and being visually recognized (overlooking).

同図(A)に示すように全体視表示手段29は、少なくともマッピング手段291を含む。マッピング手段291は、関連情報データベース30を参照して、所定空間内における1つ以上の対象OB(マーク画像M)の位置を同図(B)に示すようにマッピング(あるいはそれに類する分散的な表示をするなど)して全体視する手段である。ここで「全体視」とは例えば、マーク画像Mの位置を2次元画像として視認(俯瞰)すること、あるいは、マーク画像Mの位置を3次元画像として視認(俯瞰)すること、あるいは、マーク画像Mの位置を360度カメラで撮影した360度画像(静止画像、動画像)として視認すること、をいう。 As shown in FIG. 9A, the overall view display unit 29 includes at least a mapping unit 291. The mapping unit 291 refers to the related information database 30 and maps the positions of one or more target OBs (mark images M) in a predetermined space as shown in FIG. It is a means to see the whole thing. Here, the "overall view" means, for example, visually recognizing (overlooking) the position of the mark image M as a two-dimensional image, or visually recognizing (overlooking) the position of the mark image M as a three-dimensional image, or the mark image. It means to visually recognize the position of M as a 360-degree image (still image, moving image) taken by a 360-degree camera.

マッピング手段291によるマッピングの結果は、2次元画像、3次元画像または360度画像として出力(表示手段13に表示、印刷、電子データとして出力)することが可能である。例えば、同図(B)に示すマップ35はマッピングの結果を2次元画像で表示した一例である。本実施形態では、マップ35の一例として同図(B)に示す2次元画像を例示しているが、本実施形態のマップ35はこれに限らず、3次元画像または360度画像などで表示されるものも含む。マッピングすることによって、所定空間における或る対象OBの位置、および複数の対象OB1〜OB4(マーク画像M1〜M4)について互いの位置関係を容易に把握することができる。また、本実施形態のマップ35は、例えば表示手段13に表示した場合、表示されているマーク画像Mを操作(押下、タッチ、タップなど)することで、当該マーク画像Mに対応付けられている対象関連情報を、例えばサムネイルなどで表示、あるいは編集することができいわゆるクリッカブルマップである。 The result of mapping by the mapping unit 291 can be output as a two-dimensional image, a three-dimensional image or a 360-degree image (displayed on the display unit 13, printed, output as electronic data). For example, the map 35 shown in FIG. 3B is an example in which the mapping result is displayed as a two-dimensional image. In the present embodiment, the two-dimensional image shown in FIG. 1B is illustrated as an example of the map 35, but the map 35 of the present embodiment is not limited to this, and is displayed as a three-dimensional image or a 360-degree image. Including things. By mapping, it is possible to easily understand the position of a certain target OB in a predetermined space and the positional relationship between the plurality of targets OB1 to OB4 (mark images M1 to M4). Further, when the map 35 of the present embodiment is displayed on the display unit 13, for example, by operating (pressing, touching, tapping, etc.) the displayed mark image M, the map 35 is associated with the mark image M. The target related information is a so-called clickable map that can be displayed or edited, for example, as a thumbnail.

またマップ35は、Webブラウザ等でも閲覧可能であり、他の装置との間でデータとして送受信も可能である。 The map 35 can also be browsed by a Web browser or the like, and can be transmitted/received as data to/from other devices.

また、同図(A)に示すように全体視表示手段29は、照合手段292と、環境情報取得手段293を含むことが好ましい。これらによって例えば、同図(B)に示すマップ35に対応する空間の情報(例えば、設計図面などの2次元画像など)を重ね合わせて表示することができる。 Further, as shown in FIG. 9A, it is preferable that the overall view display unit 29 includes a collation unit 292 and an environment information acquisition unit 293. With these, for example, information on the space (for example, a two-dimensional image such as a design drawing) corresponding to the map 35 shown in FIG.

照合手段292は、マーク画像Mに対応する対象OBが含まれる空間(環境)の情報(環境データ36)と、マーク画像Mの当該空間内における位置関係を示すマップ35、または、当該空間内における1つ以上の対象OB(マーク画像M)の位置を示す座標データとを照合し、マップ35の背景に環境データ36を重ね合わせて出力(表示手段13に表示、印刷、PDFファイルや表計算ファイル、画像データなどの電子データ形式での出力)する手段である。環境データ36とは例えば、マーク画像Mに対応する対象OBが含まれる空間の2次元画像(静止画、動画)、当該空間の3次元画像(静止画、動画)、当該空間(例えば、室内)のCADデータ(例えば、BIM(Building Information Modeling),CIM(Construction Information Modeling)で作成されたCADデータ)、当該空間の点群データ(3DCG)、当該空間の360度画像(全方向画像)などであり、具体的には例えば、設計図面、見取り図、間取り図、空間の撮影画像(静止画、動画)などである。 The matching unit 292 uses the map 35 indicating the positional relationship between the information (environmental data 36) of the space (environment) in which the target OB corresponding to the mark image M is included and the mark image M in the space, or in the space. The coordinate data indicating the position of one or more target OBs (mark image M) is collated, and the environmental data 36 is superimposed on the background of the map 35 and output (displayed on the display unit 13, printed, PDF file or spreadsheet file). , Output in electronic data format such as image data). The environment data 36 is, for example, a two-dimensional image (still image, moving image) of the space including the target OB corresponding to the mark image M, a three-dimensional image (still image, moving image) of the space, or the space (for example, indoors). CAD data (for example, CAD data created by BIM (Building Information Modeling) and CIM (Construction Information Modeling)), point cloud data (3DCG) of the space, 360-degree image (omnidirectional image) of the space, and the like. Yes, specifically, for example, a design drawing, a floor plan, a floor plan, a captured image of a space (still image, moving image), or the like.

環境データ36は、例えば後述する環境情報取得手段293で生成され、あるいは別途の装置(カメラやCADなど)によって予め準備されて記憶手段14に記憶されている。環境データ36は、ユーザの操作に基づき照合手段292によって呼び出されてマッピング手段291が生成したマップ35と照合され、重ね合わせて出力される。この場合、環境データ36とマップ35にはそれぞれ照合用の基準となる照合用基準点が付与されており、照合手段292は、自動で環境データ36とマップ35の照合用基準点をマッチングし、必要に応じて縮尺や回転を行なって、マップ35の背景に環境データ36を重ね合わせて出力する。 The environment data 36 is generated by, for example, the environment information acquisition unit 293 described later, or is prepared in advance by a separate device (camera, CAD, etc.) and stored in the storage unit 14. The environment data 36 is collated with the map 35 generated by the mapping unit 291 by being called by the collation unit 292 based on the user's operation, and is superimposed and output. In this case, the environmental data 36 and the map 35 are each provided with a matching reference point which is a reference for matching, and the matching means 292 automatically matches the matching reference points of the environment data 36 and the map 35. The scale and the rotation are performed as necessary, and the environment data 36 is superimposed on the background of the map 35 and output.

より具体的に、空間が建物の室内であって当該室内の対象物Bにマーク画像Mが対応付けられている場合において、当該室内の設計図面(2次元画像)とマーク画像Mのマップ35とを重ねあわせる場合を例に説明する。 More specifically, when the space is a room in a building and the mark image M is associated with the object B in the room, the design drawing (two-dimensional image) of the room and the map 35 of the mark image M are displayed. An example will be described in which the layers are overlapped.

この場合、設計図面は例えば窓枠の位置と入り口扉の位置などに照合用基準点が付与され、環境データ36として記憶手段14に予め記憶される。また、マッピング手段291は、同図(A)に示すようなマップ35を生成する。このマップ35には、窓枠と入り口扉に対応する位置に照合用基準点が付与されている。なお、マップ35は例えば図7(B)に示すように(X,Y)座標のみの2次元画像として表示されるが、マーク画像Mは対応する対象OBの対象位置情報として、(X,Y,X)座標の値を有している。このため、照合手段292は、照合する環境データ36の座標軸に応じて、マップ35の座標軸を選択する。例えば、環境データ36が2次元画像の場合には、マップ35の座標軸は(X,Y)座標のみが選択され2次元画像として表示される。また、環境データ36が3DCGの場合には、マップ35の座標軸は(X,Y,X)が使用されるので、3DCG内であっても正しい位置にマーク画像Mが表示される。 In this case, reference points for verification are given to the design drawing at the positions of the window frame and the position of the entrance door, for example, and are stored in the storage unit 14 in advance as the environmental data 36. The mapping means 291 also generates a map 35 as shown in FIG. In this map 35, reference points for verification are provided at positions corresponding to the window frame and the entrance door. Although the map 35 is displayed as a two-dimensional image having only (X,Y) coordinates as shown in FIG. 7B, the mark image M is (X,Y) as the target position information of the corresponding target OB. , X) coordinate values. Therefore, the matching unit 292 selects the coordinate axis of the map 35 according to the coordinate axis of the environment data 36 to be matched. For example, when the environment data 36 is a two-dimensional image, only the (X, Y) coordinates are selected as the coordinate axes of the map 35 and displayed as a two-dimensional image. When the environment data 36 is 3DCG, the coordinate axis of the map 35 is (X, Y, X), so that the mark image M is displayed at the correct position even within 3DCG.

照合手段292は、例えば、照合可能な環境データ36とマップ35を一覧形式などで表示手段13に表示する。ユーザによって照合する環境データ36とマップ35とが選択されると、照合手段292は、記憶手段14から対応する環境データ36とマップ35を呼び出し、マップ35の照合用基準点(窓枠)と環境データ36の照合用基準点(窓枠)とを一致させ、マップ35の照合用基準点(入り口扉)と環境データ36の照合用基準点(入り口扉)とを一致させる。このとき、環境用データとマップ35のサイズや傾きなどが異なる場合には、照合手段292は、両者または一方の縮尺を変更し、あるいは回転等を行なうことによって両者のサイズ、方向、位置を一致させる。更に照合手段292は、マップ35の背景に環境データ36を重ね合わせた照合データ37を表示手段13に表示する。照合データ37はそのまま印刷することができ、また一纏まりのデータユニットとして記憶手段14に記憶したり、他の装置間との送受信等が可能となる。 The collating unit 292 displays the collable environment data 36 and the map 35 on the display unit 13 in a list format or the like. When the environment data 36 and the map 35 to be collated are selected by the user, the collation unit 292 calls the corresponding environment data 36 and the map 35 from the storage unit 14, and the collation reference point (window frame) of the map 35 and the environment. The matching reference point (window frame) of the data 36 is matched, and the matching reference point (entrance door) of the map 35 and the matching reference point (entrance door) of the environmental data 36 are matched. At this time, if the size and inclination of the environment data and the map 35 are different, the collating means 292 changes the scale of both or one, or performs rotation or the like to match the size, direction, and position of both. Let Further, the collation unit 292 displays the collation data 37 in which the environment data 36 is superimposed on the background of the map 35 on the display unit 13. The collation data 37 can be printed as it is, can be stored in the storage unit 14 as a set of data units, and can be transmitted/received between other devices.

また、既に述べているように本実施形態のマップ35はクリッカブルマップであり、これと環境データ36を重ね合わせた照合データ37もクリッカブルマップである。 Further, as described above, the map 35 of the present embodiment is a clickable map, and the collation data 37 obtained by superimposing the map 35 and the environment data 36 is also a clickable map.

なお、環境データ36とマップ35のそれぞれに付与される照合用基準点は、環境データ36に応じて複数付与されるが、マッチングの際に不足する場合には、一部手動で調整してもよい。 A plurality of reference points for matching given to each of the environment data 36 and the map 35 are given according to the environment data 36. However, if there is a shortage in matching, even if a part is manually adjusted. Good.

また、環境データ36が360度画像の場合には、例えば360画像を撮影時のカメラ(360度カメラ、全方向カメラ)の位置(撮影位置)および撮影方向を、マップ35上で指定(タップなど)することにより、360度画像とマップ25とを重ね合わせた照合データ37が生成される。 If the environment data 36 is a 360-degree image, for example, the position (shooting position) of the camera (360-degree camera, omnidirectional camera) and the shooting direction when shooting the 360 image are specified on the map 35 (tap, etc.). By doing so, the collation data 37 in which the 360-degree image and the map 25 are superimposed is generated.

なお、予め作成されたマップ35と環境データ36は例えば照合用IDなどによって予め紐付けられて記憶手段14に記憶されていてもよく、ユーザによる照合の操作(例えば、不図示の照合メニューの選択、あるいは照合ボタンの操作など)が行なわれると、照合手段292は、照合用IDに基づいて自動的に記憶手段14から対応する環境データ36とマップ35を呼び出し、照合用基準点に基づきマッチングして両者を重ねて出力する構成であってもよい。 The map 35 and the environment data 36 created in advance may be stored in the storage unit 14 in association with each other in advance by, for example, a collation ID, and a collation operation by the user (for example, selection of a collation menu (not shown)). , Or the operation of the matching button), the matching means 292 automatically calls the corresponding environment data 36 and the map 35 from the storage means 14 based on the matching ID and performs matching based on the matching reference point. It is also possible to adopt a configuration in which both are output in an overlapping manner.

また、照合手段292は自動的な照合(マッチング)に限らず、ユーザ操作による手動の照合を可能としてもよい。ユーザは環境データ36とマップ35を選択した後、手動操作にて両者を重ね合わせ、例えばピンチ操作やスライド操作などによって両者あるいは一方の拡大、縮小、回転等を行い、照合データ37を作成することができる。また、自動的な照合と手動による照合の両方を備えても良いし、どちらか一方のみ備えても良いし、いずれかを選択可能に構成してもよい。 The matching means 292 is not limited to automatic matching (matching), and may be manually matched by a user operation. After the user selects the environment data 36 and the map 35, the two are manually overlapped, and either one or the other is enlarged, reduced, or rotated by, for example, a pinch operation or a slide operation, and collation data 37 is created. You can Further, both automatic collation and manual collation may be provided, only one of them may be provided, or either may be selectable.

なお、環境データ36とマップ35のそれぞれの照合用基準点は、随時変更(再設定)可能に構成される。 The reference points for collation of the environmental data 36 and the map 35 can be changed (reset) at any time.

環境情報取得手段293は、情報管理装置10が備える撮像手段15、あるいは情報管理装置10とは別の装置(CAD,PC,カメラ、360度カメラ等)によって環境データ36を取得、生成する手段である。環境情報取得手段293は、予め環境データ36を取得・生成して記憶手段14に記憶する。 The environment information acquisition unit 293 is a unit that acquires and generates the environment data 36 by the imaging unit 15 included in the information management device 10 or a device (CAD, PC, camera, 360 degree camera, etc.) different from the information management device 10. is there. The environment information acquisition unit 293 acquires and generates the environment data 36 in advance and stores it in the storage unit 14.

また、全体視表示手段29は、環境情報取得手段293によってリアルタイムで環境データ36を取得・生成しつつ、照合手段292によって環境データ36とマップ35を照合させることができる。 Further, the overview display means 29 can collate the environment data 36 and the map 35 by the collating means 292 while the environment information acquiring means 293 acquires and generates the environment data 36 in real time.

また、例えば、ライブビュー映像LVをガイドとして、環境情報取得手段293によって取得した環境データ36(例えば、図面)とマップ35とを照合させることもできる。情報管理装置10は、ユーザによって環境情報取得操作(例えば不図示のボタン操作など)が行なわれると、撮像手段15を起動し、ライブビュー映像LVを撮像して表示手段13に表示する。そして環境情報取得手段293は照合用基準点の受付を待機する。 Further, for example, the environment data 36 (for example, the drawing) acquired by the environment information acquisition unit 293 can be collated with the map 35 using the live view image LV as a guide. When the user performs an environmental information acquisition operation (for example, a button operation (not shown) or the like), the information management device 10 activates the image pickup means 15, picks up the live view image LV, and displays it on the display means 13. Then, the environment information acquisition unit 293 waits for reception of the reference point for collation.

マップ35は実寸大のスケールおよび位置情報を有している。一方、環境データ36(例えば、図面)は実寸大のスケールも位置情報も有していない、もしくは有していたとしても当該空間とは違う基準で作られた位置情報やスケールである。このため、マップ35に対応する現実の空間と、環境データのスケールおよび位置を照合するために、ライブビュー映像LV[0]上の一辺を指定する。マップ35は、ライブビュー映像LVが表示する空間を俯瞰的(全体的)に示すものであり、ライブビュー映像LV[0]上の一辺を指定することで、マップ35の対応する一辺が特定される。そして、当該一辺に相当する一辺を環境データ36上で指定することで、現実の空間と環境データ36を照合させることができる。 The map 35 has scale and position information of an actual size. On the other hand, the environmental data 36 (for example, the drawing) does not have the actual size scale or the positional information, or even if it has the positional information, it is the positional information and the scale made on the basis different from the space. Therefore, one side on the live view image LV[0] is designated in order to match the scale and position of the environment data with the actual space corresponding to the map 35. The map 35 is a bird's-eye view (overall) of the space displayed by the live-view video LV. By designating one side on the live-view video LV[0], the corresponding side of the map 35 is specified. It Then, by designating one side corresponding to the one side on the environment data 36, the actual space and the environment data 36 can be collated.

具体的には、ユーザは例えば、室内のライブビュー映像LV上の一辺(例えば、撮像されている部屋の天井の一辺)を選択して照合用基準点付与操作(例えば、該当位置のスライド操作や当該一辺上の2点のタッチ(タップ)操作など)を行なう。この操作が行なわれると、環境情報取得手段293は当該照合用基準点(または点の集合である基準辺あるいは2点間を結ぶ基準辺)を取得・記憶し、必要に応じてライブビュー映像LV上に基準マーカ等を表示する。 Specifically, the user selects, for example, one side on the live view image LV in the room (for example, one side of the ceiling of the room being imaged) to perform a reference point providing operation for verification (for example, a slide operation at a corresponding position or Touch (tap) operation of two points on the one side is performed. When this operation is performed, the environment information acquisition unit 293 acquires and stores the reference point for verification (or a reference side that is a set of points or a reference side that connects two points), and if necessary, the live view image LV. A reference marker or the like is displayed on the top.

これにより、ライブビュー映像LVが表示する空間を俯瞰的(全体的)に示すマップ35の対応する一辺にも照合用基準点(辺)が付与される。 As a result, the reference point for comparison (side) is also added to the corresponding one side of the map 35 showing the space displayed by the live-view video LV in a bird's-eye view (overall).

次に、ユーザによる照合操作(例えば、不図示の照合用ボタンの操作など)が行なわれると、照合手段292は、例えば照合可能な環境データ36を一覧表示するなどしてユーザによる選択を待機する。環境データ36には、対応する位置(この例では図面の上辺の一つ)に照合用基準点(辺)が付与されている。当該照合用基準点(辺)は、予め付与されたものであってもよいし、マップ35に照合用基準点を付与後に、環境データ36に対応する照合用基準点(辺)を(再)設定することができるものであってもよい。 Next, when the user performs a matching operation (for example, operation of a matching button (not shown)), the matching means 292 waits for selection by the user, for example, by displaying a list of environment data 36 that can be matched. .. In the environment data 36, reference points (sides) for verification are provided at corresponding positions (one of the upper sides of the drawing in this example). The matching reference point (side) may be given in advance, or after the matching reference point is added to the map 35, the matching reference point (side) corresponding to the environmental data 36 is (re)repeated. It may be one that can be set.

ユーザによって所定の環境データ36が選択されると、照合手段292は、ライブビュー映像LV(マップ35)の照合用基準点(辺)と、環境データ36の照合用基準点(辺)とが一致するよう、必要に応じて縮尺の変更や回転等を行い、照合データ37を作成して表示手段13に表示する。つまり表示手段13には、環境データ36に重ねて(その上面に)対応するマップ35が表示される。 When the user selects the predetermined environment data 36, the matching means 292 causes the matching reference point (side) of the live view image LV (map 35) and the matching reference point (side) of the environment data 36 to match. As necessary, the scale is changed, the rotation is performed, and the like, and the collation data 37 is created and displayed on the display unit 13. That is, the corresponding map 35 is displayed on the display means 13 (on its upper surface) so as to be superimposed on the environmental data 36.

なお、照合するマップ35は、ライブビュー映像LVの照合用基準点の位置情報(位置特定手段23によって特定した現実環境における原点からの相対的な照合用基準点の位置情報)に基づき、照合手段292が自動的に記憶手段14から選択するように構成されていてもよい。また照合手段292によって選択されたマップ35をユーザが手動で変更可能に構成されていてもよい。 The matching map 35 is based on the position information of the reference point for matching of the live view image LV (the position information of the reference point for matching relative to the origin in the real environment specified by the position specifying means 23). 292 may be configured to automatically select from the storage means 14. The map 35 selected by the matching means 292 may be configured so that the user can manually change it.

このようにして、全体視表示手段29は、表示手段13で室内などのライブビュー映像LVを表示し、その表示に重ねて、対応する空間のマップ35を表示することができる。 In this way, the overall-view display unit 29 can display the live view image LV of the room or the like on the display unit 13 and display the corresponding space map 35 on the display.

また、対象の空間内を撮像(スキャンし)、環境情報取得手段293によって、リアルタイムで環境データ36として点群データ(3DCG)を取得しつつ、マップ35を重ねて表示する場合も上記と同様に実施できる。 Also, in the case where the target space is imaged (scanned) and the point data (3DCG) is acquired as the environment data 36 in real time by the environment information acquisition unit 293, the map 35 is displayed in an overlapping manner, the same as above. Can be implemented.

環境データ36が360度画像である場合を例に更に説明する。360度画像は、360度カメラ(全方位カメラ)で撮影したデータである。例えば、室内の360度画像を取得するには、予め、室内の例えば略中央に360度カメラを配置し、室内全体を360度撮影する。この撮影位置は例えば、マーク画像Mを付与する際の初期位置とする。そして、360度カメラの撮影位置を環境データ36の照合用基準点とし、マーク画像Mの付与操作の初期位置をマップ35の原点として両者を照合する。あるいは、360度カメラの撮影位置は任意の位置とし、例えば360度カメラが備えるGPSや、本実施形態の位置特定手段23と同様の機能などによって、当該360度カメラの位置(撮影位置)を取得し、それに基づきマップ35と照合してもよい。この場合の360度カメラは、撮像手段15の一部として情報管理装置10に備えている構成であってもよいし、情報管理装置10とは別体の360度カメラであってもよい。また、情報管理装置10とは別体の360度カメラの場合、情報管理装置10からのリモート操作によって撮影操作を行なえる構成であってもよい。 The case where the environment data 36 is a 360-degree image will be further described as an example. The 360-degree image is data captured by a 360-degree camera (omnidirectional camera). For example, in order to acquire a 360-degree image of a room, a 360-degree camera is arranged in advance, for example, in the approximate center of the room, and the entire room is photographed in a 360-degree range. This shooting position is, for example, the initial position when the mark image M is attached. Then, the shooting position of the 360-degree camera is used as a reference point for collation of the environment data 36, and the initial position of the operation of giving the mark image M is set as the origin of the map 35 to collate them. Alternatively, the shooting position of the 360-degree camera is set to an arbitrary position, and the position (shooting position) of the 360-degree camera is acquired by, for example, the GPS included in the 360-degree camera or the same function as the position specifying unit 23 of the present embodiment. However, it may be collated with the map 35 based on that. In this case, the 360-degree camera may be provided in the information management device 10 as a part of the image pickup means 15, or may be a 360-degree camera separate from the information management device 10. Further, in the case of a 360-degree camera which is separate from the information management device 10, the image management operation may be performed by a remote operation from the information management device 10.

なお、図8に示すように、本実施形態では、付与したマーク画像Mのリスト形式での一覧表示も可能である。同図は、マーク画像Mのリスト形式での一覧(サムネイル)表示の一例を示す図である。同図(A)は一覧表示(マーク画像一覧)の表示例であり、同図(B)は、マーク画像一覧のうちから特定のマーク画像M(例えば、マーク画像M3)を選択した状態の表示例である。 Note that, as shown in FIG. 8, in the present embodiment, it is also possible to display a list of the added mark images M in a list format. This figure is a diagram showing an example of a list (thumbnail) display of the mark images M in a list format. FIG. 9A is a display example of a list display (mark image list), and FIG. 9B is a table in a state in which a specific mark image M (for example, mark image M3) is selected from the mark image list. It is an example.

本実施形態では、マーク付与操作時にマーク画像Mを付与した状態で現実環境を撮影することが可能である。また、その場合に撮影された写真は、対象関連情報としてマーク画像Mに対応付けられるとともに、マーク画像一覧としてサムネイル表示などが可能である。本実施形態では、ライブビュー映像LV上でマーク画像Mを表示して撮影した場合であっても、撮像し記憶手段14に記憶される画像は、マーク画像Mを含まない現実環境のみが撮影された画像である。一方、マーク画像一覧(サムネイル)での表示(同図(A))や、マーク画像一覧から特定の画像を選択し、表示手段13の表示領域の全体で表示(プレビュー表示)する場合(同図(B))には、マーク画像M(M3)に紐付けられた対象位置情報に基づき現実環境の画像にマーク画像M(M3)を付与して(画像を再構成して)を表示するようにしている。 In the present embodiment, it is possible to photograph the real environment with the mark image M added during the mark adding operation. Further, the photograph taken in that case can be associated with the mark image M as the target related information, and can be displayed as a thumbnail as the mark image list. In the present embodiment, even when the mark image M is displayed and photographed on the live view image LV, only the real environment that does not include the mark image M is photographed as the image captured and stored in the storage unit 14. It is an image. On the other hand, in the case of displaying in the mark image list (thumbnail) (FIG. 9A) or when selecting a specific image from the mark image list and displaying the entire display area of the display unit 13 (preview display) (FIG. In (B), the mark image M(M3) is added to the image of the real environment based on the target position information associated with the mark image M(M3) (the image is reconstructed) and displayed. I have to.

情報管理プログラム20はまた、文書作成手段22を備えていても良い。文書作成手段22は、関連情報データベースに格納されたデータユニットを、マーク画像ID単位で一まとまりに、あるいは個別に取得し、そのまま文書(例えば、報告書など)を作成することができる。文書作成手段22は、例えば、利用頻度の高い書類(例えば、報告書、見積書、発注書など)については所定の書式を備えていてもよく、これらの書式の選択と、必要なデータユニットの選択・ダウンロードの操作(のみ)によって、必要な書類が作成できるように構成されていてもよい。また必要に応じて、ダウンロードしたデータの加工や編集を許容するようにしてもよい。 The information management program 20 may also include a document creating means 22. The document creating means 22 can acquire the data units stored in the related information database in units of mark image IDs individually or individually, and can create a document (for example, a report) as it is. The document creating means 22 may be provided with a predetermined format for, for example, a frequently used document (for example, a report, an estimate, a purchase order, etc.), and the selection of these formats and the necessary data unit The necessary documents may be created by the selection/download operation (only). Further, if necessary, the downloaded data may be processed or edited.

<情報管理方法(情報管理処理)の流れ>
図9を参照して本実施形態の情報管理手段(情報管理プログラム)20による情報管理処理について説明する。
<Flow of information management method (information management processing)>
The information management processing by the information management means (information management program) 20 of this embodiment will be described with reference to FIG.

本実施形態のマーク付与手段21、位置特定手段23、関連付け手段25、全体視表示手段29及び文書作成手段22は、AR処理手段27とともに情報管理処理を行う。 The mark giving means 21, the position specifying means 23, the associating means 25, the overall view displaying means 29, and the document creating means 22 of this embodiment together with the AR processing means 27 perform information management processing.

図9は情報管理処理を示す概要図である。同図に示すように、情報管理プログラム20では、初期処理(ステップSTA)、マーク付与手段21によるマーク付与処理(ステップS04)、関連付け手段25による関連付け処理(ステップS05)、全体視表示手段29による全体視表示処理(ステップS06)、文書作成手段22による文書作成処理(ステップS07)などを実行可能である。また、初期処理(ステップSTA)およびマーク付与処理(ステップS04)では、随時、撮像手段15による撮像処理(ステップS01)、表示手段13による表示処理(ステップS02)および、位置特定手段23による位置特定処理(ステップS03)を行う。また、全体視処理(ステップS06)において、撮像処理(ステップS01)、表示処理(ステップS02)および、位置特定処理(ステップS03)を行う場合もある。 FIG. 9 is a schematic diagram showing the information management process. As shown in the figure, in the information management program 20, the initial process (step STA), the mark giving process by the mark giving means 21 (step S04), the associating process by the associating means 25 (step S05), and the overview display means 29 are performed. The overall display process (step S06), the document creation process by the document creating means 22 (step S07), and the like can be executed. Further, in the initial processing (step STA) and the mark giving processing (step S04), the image pickup processing by the image pickup means 15 (step S01), the display processing by the display means 13 (step S02), and the position identification by the position identification means 23 are performed at any time. The process (step S03) is performed. In addition, in the overview process (step S06), an imaging process (step S01), a display process (step S02), and a position specifying process (step S03) may be performed.

なお、初期処理(ステップSTA)以降の各ステップ(ステップS01〜ステップS07)は、任意の順番で実行可能である。図9においては、各ステップの名称として便宜上番号を付与(S01〜S07)しているが、これらは実行順を示すものではない。 Each step (step S01 to step S07) after the initial process (step STA) can be executed in any order. In FIG. 9, numbers are given as the names of the steps for convenience (S01 to S07), but these do not indicate the order of execution.

まず、情報管理プログラム20は、起動される度に所定の初期処理(ステップSTA)が実行される。この初期処理には、情報管理処理を行なう際の基準位置(初期位置)の初期化と取得が含まれる。 First, the information management program 20 executes a predetermined initial process (step STA) every time it is started. This initial processing includes initialization and acquisition of a reference position (initial position) when performing information management processing.

初期処理(ステップSTA)では、撮像手段15が起動し、情報管理装置10が自機の位置を随時把握するために、位置特定手段23による基準位置(初期位置)のリセット(新たな基準位置(初期位置)の取得)を行う。初期位置の取得は、例えば、表示手段13にライブビュー映像LVを表示しつつ、撮像手段15によって情報管理装置10の周辺の現実環境(周辺の空間)を複数回撮像し(ステップS02の表示処理、ステップS01の撮像処理)、撮影された画像に基づき、自機の当該現実環境内における位置を把握(推定)することにより行う(ステップS03の位置特定処理)。 In the initial processing (step STA), the image pickup means 15 is activated, and the information management apparatus 10 resets the reference position (initial position) by the position specifying means 23 (new reference position ( Obtain the initial position). To obtain the initial position, for example, while displaying the live view video LV on the display unit 13, the image capturing unit 15 captures a plurality of images of the real environment (peripheral space) around the information management device 10 (display processing in step S02). , The image capturing process of step S01), and the position of the player in the real environment is grasped (estimated) based on the captured image (position specifying process of step S03).

あるいは、撮像手段15によって予めスキャン(撮像)を行い、記憶手段14に記憶した現実環境の空間の情報(環境データ36)を用いて初期位置を取得してもよい。具体的には、初期処理STAにおいて、記憶手段14から環境データ36をロードし、撮像手段15で撮像される現実環境の映像と当該環境データ36とを照合する(ステップS01の撮像処理、ステップS02の表示処理)。そして両者が一致した場合は、その環境データ36の原点からの相対位置を自機の現在位置として初期位置に設定してもよい(ステップS03の位置特定処理)。 Alternatively, the image capturing unit 15 may perform a scan (image capturing) in advance, and the initial position may be acquired using the information about the space of the real environment (environment data 36) stored in the storage unit 14. Specifically, in the initial processing STA, the environment data 36 is loaded from the storage unit 14, and the image of the real environment captured by the image capturing unit 15 is compared with the environment data 36 (imaging process in step S01, step S02. Display processing). When the two match, the relative position from the origin of the environment data 36 may be set as the initial position as the current position of the own device (position specifying process of step S03).

また、上記いずれの場合も、赤外線やレーザーの反射光を検知して自機の位置を把握するようにしてもよい。 In any of the above cases, the position of the own device may be grasped by detecting the reflected light of infrared rays or laser.

初期位置を取得後、位置特定手段23は、初期位置のリセットが行われるまで随時(逐次)、自機の初期位置からの移動情報を取得して記憶手段14に記憶する。 After acquiring the initial position, the position specifying unit 23 acquires (moves sequentially) the movement information of the own device from the initial position and stores it in the storage unit 14 until the initial position is reset.

マーク付与処理(ステップS04)では、情報を付与したい対象OBについて、個々にマークを付与し、現実環境における対象OBの位置(初期位置からの相対位置)を把握する。マークは、ユーザによるマーク付与操作によって付与される。マーク付与操作が行われた場合、位置特定手段23はそのタイミングにおける初期位置からの移動情報を取得し(ステップS01の撮像処理、ステップS02の表示処理、ステップS03の位置特定処理)マークの付与位置として記憶手段14に記憶する。 In the mark giving process (step S04), marks are individually given to the target OBs to which information is to be given, and the position (relative position from the initial position) of the target OBs in the real environment is grasped. The mark is given by a mark giving operation by the user. When the mark giving operation is performed, the position specifying means 23 acquires the movement information from the initial position at that timing (imaging process of step S01, display process of step S02, position specifying process of step S03) Mark giving position Is stored in the storage means 14.

関連付け処理(ステップS05)では、関連付け手段25により、マーク画像Mを付した対象OBに関する複数種類の対象関連情報を一括して関連付け、管理する。また、後のタイミングであっても、関連付け開始操作を行なうことで、当該マーク画像M(対象OB)に対して、対象関連情報を追加する。 In the associating process (step S05), the associating unit 25 collectively associates and manages a plurality of types of target related information regarding the target OB with the mark image M. Even at a later timing, the target related information is added to the mark image M (target OB) by performing the association start operation.

全体視処理(ステップS06)では、マーク画像Mをマップ35として表示したり、環境データ36にマップ35を重ねて表示する。 In the overview process (step S06), the mark image M is displayed as the map 35, or the map 35 is displayed so as to overlap the environment data 36.

文書作成処理(ステップS07)では、例えば所定のフォーマットに対象関連情報等を任意に埋め込み、報告書等を作成する。 In the document creation process (step S07), for example, the target related information is arbitrarily embedded in a predetermined format to create a report or the like.

引き続き同図を参照して、本実施形態に係る情報管理方法(情報管理プログラム20の処理)について、具体的な例を挙げて説明する。ここでは、一例として、建築物の1フロアに設けられた1室内の修理箇所(例えば、壁に生じた傷など)や点検箇所を対象OBとし、それぞれの対象OBについて、情報を付与する場合について説明する。 With continued reference to the figure, the information management method (processing of the information management program 20) according to the present embodiment will be described with a specific example. Here, as an example, a case where a repair place (for example, a scratch on a wall) or an inspection place in one room provided on one floor of a building is a target OB, and information is given to each target OB explain.

例えば建築・建設現場や、設備管理における点検・メンテナンスの現場などにおいては、建築物内の所定の空間(室内)などに生じた修理箇所や点検箇所(対象OB)について、例えば、報告者(現場の状況を確認する作業者)、修理担当者、点検担当者、現場責任者、施工者など、複数の関係者で当該対象OBおよびその関連情報について情報を共有することが日常的に生じている。 For example, at a building/construction site or an inspection/maintenance site in equipment management, for example, a reporter (on-site) about a repair part or an inspection part (target OB) that occurs in a predetermined space (indoor) in a building. It is common to share information about the target OB and its related information among multiple parties, such as workers who check the situation), repair personnel, inspection personnel, site managers, and construction personnel. ..

まず例えば報告者(ユーザ)は、確認作業を行なう或る室内において、本実施形態の情報管理プログラム20を起動(実行)する。これにより、初期処理(ステップSTA)としてカメラ機能が起動し、基準位置がリセットされる。具体的には、カメラ機能が起動し、撮像手段15による撮像が可能な状態となる。撮像手段15は、レンズ151の画角に納まる範囲の室内の現実環境を撮影し、ライブビュー映像LVを取得して(ステップS01)、タブレット端末101の表示手段13に表示する(ステップS02)。 First, for example, a reporter (user) activates (executes) the information management program 20 of the present embodiment in a room where confirmation work is performed. As a result, the camera function is activated as an initial process (step STA), and the reference position is reset. Specifically, the camera function is activated, and the image pickup means 15 is ready for image pickup. The image capturing means 15 captures an image of the real environment in the room within the range of the angle of view of the lens 151, acquires the live view image LV (step S01), and displays it on the display means 13 of the tablet terminal 101 (step S02).

ユーザは例えば、表示手段13に表示される複数回の撮影を促すガイドなどに基づき、撮像手段15によって情報管理装置10の周辺の現実環境(周辺の空間)を異なる視点(異なる画角のライブビュー映像LVを表示させた状態)で複数回撮像する。位置特定手段23は、この撮影された複数の画像に基づき、自機の当該現実環境内における位置を把握(推定)することにより初期位置を特定し、記憶手段14に記憶する(ステップS03)。なお、初期位置の取得方法は、これに限らず、上述の実施形態に記載の方法が適宜採用される。初期位置の設定後、位置特定手段23は随時端末移動情報を取得し、記憶手段14に記憶する。また、これに加えて例えば、モーショントラッキングなどを利用して端末の移動経過情報(移動ログ、行動ログ)を合わせて記憶手段14に記憶し、また再現可能に構成してもよい。 For example, the user uses the imaging unit 15 to view the real environment (peripheral space) around the information management device 10 based on a guide or the like displayed on the display unit 13 that prompts the user to take a plurality of images. The image is captured a plurality of times with the image LV displayed. The position specifying unit 23 specifies the initial position by grasping (estimating) the position of the own device in the real environment based on the plurality of captured images, and stores the initial position in the storage unit 14 (step S03). The method for acquiring the initial position is not limited to this, and the method described in the above-described embodiment is appropriately adopted. After setting the initial position, the position specifying means 23 acquires the terminal movement information at any time and stores it in the storage means 14. In addition to this, for example, movement tracking information (movement log, action log) of the terminal may be stored together in the storage unit 14 using motion tracking or the like, and may be reproducible.

初期位置の設定後、ユーザは情報を付与すべき実在する対象(例えば、壁の傷)OBに対してマーク画像Mを付与する(ステップS04)。ユーザは対象OBに近接可能な場合には近接し、近接不可の場合は遠方から、対象OBを含む対象領域のライブビュー映像LVを取得し(ステップS01、撮像工程(処理))、表示手段13に表示する(ステップS02、表示工程(処理))。 After setting the initial position, the user attaches the mark image M to the existing object (eg, scratch on the wall) OB to which the information should be attached (step S04). When the user can approach the target OB, the user approaches the target OB, and when the user cannot approach the target OB, acquires the live view image LV of the target region including the target OB from a distance (step S01, imaging process (process)), and the display unit 13. (Step S02, display step (processing)).

ユーザが調整値を用いてマーク付与操作を行なう場合、マーク付与手段21は、ライブビュー映像LVに重ねて移動可能にマーク画像Mを表示する。あるいは、ユーザによるマーク付与の開始を指示する操作(マーク付与操作ボタン122)の操作などに基づき、マーク付与手段21はマーク画像Mを表示する。 When the user performs the mark giving operation using the adjustment value, the mark giving means 21 displays the mark image M movably so as to be superimposed on the live view image LV. Alternatively, the mark giving means 21 displays the mark image M based on an operation of the user giving an instruction to start the mark giving (mark giving operation button 122) or the like.

ユーザは、ライブビュー映像LVに含まれる対象OBにマーク画像Mを付与するため、対象OBに対して調整値分の距離を確保しつつ、表示手段13を介して(表示手段13の上から)マーク画像Mを対象OBの位置に重畳あるいは近接させるように、マーク画像Mのスライド移動等の操作を行なう。そして所望のマーク付与位置までマーク画像Mを移動させ、マーク付与位置決定操作(マーク画像Mのタップなどの操作やマーク付与操作ボタン122操作など)を行ない、マーク画像Mの位置を決定する。 The user attaches the mark image M to the target OB included in the live-view video LV, and thus secures a distance corresponding to the adjustment value with respect to the target OB, and through the display unit 13 (from above the display unit 13). An operation such as sliding movement of the mark image M is performed so that the mark image M is superposed on or brought close to the position of the target OB. Then, the mark image M is moved to a desired mark application position, and a mark application position determination operation (operation such as tapping of the mark image M or operation of the mark application operation button 122) is performed to determine the position of the mark image M.

ユーザが平面検出を用いてマーク付与操作を行なう場合、マーク付与手段21は、ライブビュー映像LVに重ねてガイド表示G(例えば、検出した平面を示す方眼状のラベル画像)を表示し、その略中央付近にマーク画像Mを固定的に表示する。 When the user performs the mark giving operation using the plane detection, the mark giving means 21 displays the guide display G (for example, a grid-shaped label image showing the detected plane) overlaid on the live view image LV, and omits it. The mark image M is fixedly displayed near the center.

ユーザは、ライブビュー映像LVに含まれる対象OBにマーク画像Mを付与するため、固定的に表示されたマーク画像Mが対象OBに重畳する(あるいは近傍に位置する)ように情報管理装置(タブレット端末)10の姿勢や向きまたは位置を任意に移動する。そして例えば、ユーザのマーク付与位置決定操作を行い、マーク画像Mの位置を決定する。 The user adds the mark image M to the target OB included in the live-view video LV, and thus the fixedly displayed mark image M is superposed on (or located in the vicinity of) the target OB. The posture, direction, or position of the (terminal) 10 is arbitrarily moved. Then, for example, the position of the mark image M is decided by performing the mark giving position decision operation by the user.

ユーザによるマーク付与位置決定操作が行なわれると、マーク付与手段21は例えば、マーク画像Mの表示態様を変化させる(例えば、点滅表示させる)などして、後述する関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆する。 When the mark giving position determining operation is performed by the user, the mark giving means 21 can change the display mode of the mark image M (for example, display it in a blinking manner) and associate the information by the associating means 25 described later. This suggests to the user (photographer).

また、ユーザによるマーク付与位置決定操作が行なわれると、位置特定手段23は、所定空間における対象OBの相対位置を特定する。 Further, when the mark giving position determining operation is performed by the user, the position specifying means 23 specifies the relative position of the target OB in the predetermined space.

具体的には、調整値を用いて(図3(A)参照)でマーク付与位置決定操作を行なった場合、位置特定手段23(状態取得手段17)は、マーク画像Mの位置に基づき、現実環境における自機と対象OBの相対的な距離は調整値であると特定する。また、随時取得する端末移動情報に基づき、初期位置からマーク付与位置決定操作が行なわれた位置までの相対的な端末移動情報を算出し、初期位置に対する対象OBの相対的な位置を把握し、対象位置情報を特定し、記憶手段14に記憶する。 Specifically, when the mark providing position determining operation is performed using the adjustment value (see FIG. 3A), the position specifying unit 23 (state acquiring unit 17) actually calculates the mark based on the position of the mark image M. The relative distance between the own device and the target OB in the environment is specified as the adjustment value. Further, based on the terminal movement information acquired from time to time, the relative terminal movement information from the initial position to the position where the mark giving position determination operation is performed is calculated, and the relative position of the target OB with respect to the initial position is grasped, The target position information is specified and stored in the storage unit 14.

また、平面検出(図3(B)参照)でマーク付与位置決定操作を行なった場合は、位置特定手段23は、ガイド表示Gとマーク画像Mの位置に基づき、現実環境における自機と対象OBの相対的な距離を推定する。また、随時取得する端末移動情報と自機と対象OBの相対的な距離に基づき、対象OBの位置を特定し、対象位置情報を記憶手段14に記憶する。(ステップS03、位置特定工程(処理)) Further, when the mark giving position determining operation is performed by plane detection (see FIG. 3(B)), the position specifying means 23 determines the own device and the target OB in the real environment based on the positions of the guide display G and the mark image M. Estimate the relative distance of. In addition, the position of the target OB is specified based on the terminal movement information acquired at any time and the relative distance between the own device and the target OB, and the target position information is stored in the storage unit 14. (Step S03, position specifying step (processing))

このようにして、位置特定手段23は、対象(傷)OBの初期位置からの相対的な位置(対象位置情報)を把握する。 In this way, the position identifying means 23 grasps the relative position (target position information) of the target (scratch) OB from the initial position.

ユーザによるマーク付与位置決定操作が行なわれると、マーク付与手段21は例えば、マーク画像Mの表示態様を変化させる(例えば、点滅表示させる)などして、当該マーク画像Mについて対象関連情報(対象付随情報)の関連付けが可能となったこと(関連付け工程(関連付け処理(ステップS05))の開始)をユーザに示唆する。つまり、ユーザはマーク画像Mが点滅表示されている場合に、当該マーク画像Mに対して関連する画像データなどの対象付随情報を付与することができる。また、マーク画像Mが点滅表示されている場合に撮像手段15にて撮影した画像データ(対象OBの現実環境での写真など)や、音声入力手段18を介して入力された音声データ等は、自動でマーク画像Mに関連付けることができる。 When the mark giving position determining operation is performed by the user, the mark giving means 21 changes the display mode of the mark image M (for example, blinks the display), and the like, so that the target related information (subject accompanying) is given to the mark image M. It is suggested to the user that the association of information) has become possible (start of the association step (association process (step S05))). That is, when the mark image M is displayed in a blinking manner, the user can add target accompanying information such as related image data to the mark image M. Further, the image data (such as a photograph of the target OB in the real environment) taken by the image pickup unit 15 when the mark image M is displayed blinking, the voice data input through the voice input unit 18, and the like are It can be automatically associated with the mark image M.

連続して複数の対象OBに対してそれぞれマーク画像Mを付与する場合には例えば、マーク付与の開始を指示するためマーク付与操作ボタン122を操作(タッチ(タップ))する。これにより例えば、点滅表示などして、後述する関連付け手段25による情報の関連付けが可能となったことをユーザ(撮影者)に対して示唆していたマーク画像Mは静止画表示され、新たなマーク画像Mが表示される。 When the mark images M are successively given to the plurality of target OBs, for example, the mark giving operation button 122 is operated (touched (tapped)) to instruct the start of mark giving. As a result, the mark image M, which indicates to the user (photographer) that the information can be associated by the associating unit 25 described later, for example, by blinking, is displayed as a still image and a new mark is displayed. The image M is displayed.

なお、マーク付与工程と関連付け工程は任意のタイミングで行なえる。つまり、複数のマーク画像の付与を行なった後に、それぞれのマーク画像Mに対して関連付け処理を行なってもよいし、或るマーク画像Mを付与し、引き続き当該マーク画像Mに対して関連付け処理を行い、その後に新たなマーク付与の開始を指示するためマーク付与操作ボタン122を操作(タッチ(タップ))し、当該新たなマーク画像Mについて関連付け処理を行うものであってもよい。 The mark giving step and the associating step can be performed at any timing. In other words, the association process may be performed on each mark image M after assigning a plurality of mark images, or a certain mark image M may be assigned and subsequently the association process may be performed on the mark image M. Alternatively, the mark giving operation button 122 may be operated (touched) to instruct the start of new mark giving, and the associating process may be performed on the new mark image M.

ステップS05の関連付け工程(処理)では、傷OBの対象関連情報を、マーク画像M1に対応付けて記憶手段14に記憶する。 In the associating step (process) of step S05, the target related information of the scratch OB is stored in the storage unit 14 in association with the mark image M1.

ユーザがマーク画像Mに対してマーク付与位置決定操作あるいは関連付け開始操作(例えば、マーク画像Mのタップ操作など)を行なうと、マーク画像Mに対して対象関連情報(特に対象付随情報)を付与することができる。関連付け手段25は関連付け開始操作に応じて、記憶手段14に記憶されている対応付けが可能なデータ(ファイル)DDを、例えば一覧形式で、それらの中から一または複数が選択可能となるように表示手段13に表示する(図5参照)。ユーザが関連付けを行なうデータDDの選択操作(例えば、当該データのタップ操作など)を行なうと、関連付け手段25は当該データを対象付随情報としてマーク画像Mに固有のマーク識別番号MIDと関連付けて、関連情報データベース30に記憶する。ユーザによる対象関連情報の選択および関連付け手段25による関連付け処理は、例えば、ユーザによる関連付け終了操作(例えば、関連付け操作ボタン126(図5参照)が操作されるまで繰り返し実行される。 When the user performs a mark attachment position determination operation or an association start operation (for example, a tap operation on the mark image M) on the mark image M, the target related information (particularly target accompanying information) is attached to the mark image M. be able to. The associating unit 25 selects one or more data (files) DD stored in the storage unit 14 that can be associated with each other in response to the association start operation, for example, in a list format. It is displayed on the display means 13 (see FIG. 5). When the user performs an operation of selecting the data DD to be associated (for example, a tap operation of the data), the associating unit 25 associates the data as the target accompanying information with the mark identification number MID unique to the mark image M, and associates the data. It is stored in the information database 30. The selection of the target related information by the user and the associating process by the associating unit 25 are repeatedly executed until, for example, the association end operation (for example, the association operation button 126 (see FIG. 5)) is operated by the user.

あるいは、対象関連情報が画像データの場合は、マーク画像Mに対する関連付け開始操作によってタブレット端末101のカメラ機能が起動するようになっていてもよい。またマーク画像Mに対する関連付け開始操作によって、選択可能なデータ(ファイル)DDの一覧表示からの選択とカメラ機能による撮影とが選択可能になるように構成されていてもよい。関連付け処理の期間中は、カメラ機能で撮影した画像は自動的に対象付随情報として当該マーク画像Mに関連付けされる。また、情報生成手段2251(図2参照)によって写真・ビデオなどの画像(静止画、動画)についてAI解析を行ない、撮影対象の名称(例えば、「傷」、「扉」など)のタグを生成して画像に付与したタグ付き画像データを生成し、対象付随情報として関連付けしてもよい。 Alternatively, when the target related information is image data, the camera function of the tablet terminal 101 may be activated by an operation for starting the association with the mark image M. Further, the association start operation for the mark image M may be configured to allow selection from a list display of selectable data (files) DD and shooting by a camera function. During the association process, the image captured by the camera function is automatically associated with the mark image M as target incidental information. In addition, the information generation unit 2251 (see FIG. 2) performs AI analysis on images (still images, moving images) such as photographs and videos, and generates tags of names of shooting targets (for example, “scratches”, “doors”, etc.). Then, the image data with a tag added to the image may be generated and associated as the target accompanying information.

また、対象関連情報が音声データの場合は、マーク画像M1に対する関連付け開始操作によってタブレット端末101のマイク(録音)機能が起動するようになっていてもよい。関連付け処理の期間中は、マイク機能で録音した音声データは対象付随情報として自動的に当該マーク画像Mに関連付けされる。また、情報生成手段2251(図2参照)によって入力された音声を認識し、文字データを生成して対象付随情報として関連付けしてもよい。 In addition, when the target related information is voice data, the microphone (recording) function of the tablet terminal 101 may be activated by an association start operation for the mark image M1. During the association process, the voice data recorded by the microphone function is automatically associated with the mark image M as target accompanying information. Alternatively, the voice input by the information generation unit 2251 (see FIG. 2) may be recognized, character data may be generated, and the character data may be associated as target incidental information.

また、対象関連情報が文字データの場合は、マーク画像M1に対する関連付け開始操作によってタブレット端末101のメモ機能が起動するようになっていてもよい。関連付け処理の期間中は、メモ機能で入力された文字データ(テキストデータ)は自動的に対象付随情報として当該マーク画像Mに関連付けされる。 In addition, when the target related information is character data, the memo function of the tablet terminal 101 may be activated by an association start operation for the mark image M1. During the association process, the character data (text data) input by the memo function is automatically associated with the mark image M as target accompanying information.

なお、関連付け処理中に入力された画像データ、音声データ、文字(テキスト)データ等は、自動的に関連情報データベース30に登録せず、マーク画像Mに関連付ける候補のデータとして一旦、関連情報データベース30以外の記憶手段14に記憶されるようにしてもよい。 It should be noted that the image data, voice data, character (text) data, etc. input during the association process are not automatically registered in the related information database 30, but are temporarily stored as related data in the related information database 30 as candidate data to be associated with the mark image M. You may make it memorize|store in the memory|storage means 14 other than.

また、情報管理プログラム20の実行中にタブレット端末101の撮像手段15による撮像があった場合、マイク18による音声データの入力が合った場合、メモ機能による文字データの入力があった場合などにはそれらのデータ(画像データ、音声データ、文字(テキスト)データ等)と、それらの入力地点の端末移動情報とが関連付け手段25によって、マーク画像Mに固有のマーク識別番号MIDに関連付けられ、関連情報データベース30に登録される。なお、これらの情報は所定の記憶手段14に一旦記憶され、後の対象付随情報の関連付け工程においてマーク識別番号MIDに関連付けられ、関連情報データベース30に登録される構成であってもよい。 Further, when the image pickup means 15 of the tablet terminal 101 captures an image while the information management program 20 is being executed, when the voice data is input by the microphone 18, or when the character data is input by the memo function. The data (image data, voice data, character (text) data, etc.) and the terminal movement information at the input points are associated with the mark identification number MID unique to the mark image M by the association means 25, and the associated information is obtained. It is registered in the database 30. Note that such information may be temporarily stored in a predetermined storage unit 14, associated with the mark identification number MID in the subsequent step of associating the target accompanying information, and registered in the associated information database 30.

このようにして、マーク画像Mの付与に引き続いて、一または複数の対象関連情報をマーク画像Mに関連付けることができる。これにより、例えばマーク画像Mを付与したタイミングで、マーク画像Mに対して直接的に対象関連情報(対象付随情報)を紐付けることができる。 In this way, one or more pieces of target-related information can be associated with the mark image M following the application of the mark image M. Thereby, for example, the target related information (target accompanying information) can be directly linked to the mark image M at the timing when the mark image M is attached.

具体的には、対象OB1を異なる角度から撮影したり、対象OBからの距離を徐々に大きくしながら(徐々に画角を広くしながら)撮影した写真を、その場でマーク画像Mに紐付けることができる。 Specifically, a photograph taken of the target OB1 from different angles or a photograph taken while gradually increasing the distance from the target OB (while gradually increasing the angle of view) is associated with the mark image M on the spot. be able to.

情報量を増やすために多数の画像データ(写真)を取得したとしても、現場を離れたり時間が経過すると、撮影者であってもデータの撮影場所などが不明になり易く、これらの関連付けの作業は煩雑で労力を要する。 Even if a large number of image data (photos) are acquired in order to increase the amount of information, even if the photographer leaves the scene and the time passes, it is easy for the photographer to find out where the data was taken. Is cumbersome and labor intensive.

本実施形態によれば、例えば現場に滞在しているうちに、マーク画像Mに対象付随情報を紐付けることも可能になるため、ユーザの作業負担を大幅に軽減することができる。 According to the present embodiment, it is possible to associate the target incidental information with the mark image M while staying at the site, for example, so that the work load on the user can be significantly reduced.

なお、ある1つのマーク画像Mに対して一連の選択操作が終了し関連付け終了操作が行なわれた後であっても、再び同じマーク画像Mについて関連付け開始操作を行なうことで、マーク画像Mについて対象関連情報の関連付け(追加、修正等)を行なうことができる。 Even after a series of selection operations have been completed for one mark image M and the association end operation has been performed, the association start operation is performed again for the same mark image M, so that the mark image M is targeted. Related information can be associated (addition, correction, etc.).

当該情報管理プログラム20の実行中は、同じ空間(例えば、室内)において他の対象OB(例えば他の箇所に発生した傷OB)について対応するマーク画像Mの付与と、当該マーク画像Mに対する対象関連情報の関連付けを連続して行なうことができる。 While the information management program 20 is being executed, a corresponding mark image M is attached to another target OB (for example, a scratch OB generated at another location) in the same space (for example, a room), and the target relation to the mark image M is given. Information can be continuously linked.

マーク画像Mが複数存在する場合には、それぞれのマーク画像Mについて上記と同様の位置特定工程を行い、それぞれの対象OBの空間(例えば室内)における位置を特定する。 When there are a plurality of mark images M, the position specifying process similar to the above is performed for each mark image M, and the position of each target OB in the space (for example, the room) is specified.

また、マーク付与手段21およびAR処理手段27は、マーク付与位置決定操作が行なわれた場合、表示手段13に表示されている対象OBを含む対象領域のライブビュー映像LVのうち、「特徴的な点」の情報を取得、解析し対象基本情報を取得してもよい。「特徴的な点」は例えば、対象OBの外形状を示す多数の点などである。 In addition, when the mark giving position determining operation is performed, the mark giving unit 21 and the AR processing unit 27 show “characteristic of the live view image LV of the target area including the target OB displayed on the display unit 13. You may acquire and analyze the information of "a point", and may acquire object basic information. The “characteristic points” are, for example, a large number of points indicating the outer shape of the target OB.

ステップS06の全体視表示工程(処理)では、ユーザが全体視表示操作(例えば、不図示の全体視表示ボタンの操作)を行うと、全体視表示手段29のマッピング手段291が、関連情報データベース30を参照して、当該室内における全てのマーク画像Mの位置関係を全体視できるマップ35(図7(B)参照)を作成し、出力することができる。出力は、表示手段13への表示、印刷、PDFファイルや表計算ファイルなどの電子データ形式での出力などである。 In the overview display step (process) of step S06, when the user performs a overview display operation (for example, an operation of a overview display button (not shown)), the mapping unit 291 of the overview display unit 29 causes the related information database 30. With reference to, a map 35 (see FIG. 7(B)) that allows the overall positional relationship of all the mark images M in the room to be created can be created and output. The output includes display on the display unit 13, printing, output in an electronic data format such as a PDF file or a spreadsheet file.

表示手段13に表示されたマップ35では、各マーク画像Mの選択操作が可能であり、ユーザによってあるマーク画像M(例えば、マーク画像M1)が選択(タップ操作など)されると、対象関連情報(対象付随情報)がサムネイルまたは一覧表示される。ユーザはこれらの情報の閲覧および編集、データの追加および削除等の操作が可能となる。また、例えばマーク画像Mを選択的にマップ35上に表示するようにしてもよい。マーク画像Mが多すぎる場合には、随時必要なもののみマップ35に表示することができる。 In the map 35 displayed on the display unit 13, it is possible to select each mark image M, and when a user selects a certain mark image M (for example, the mark image M1) (tap operation or the like), the target related information. (Target incidental information) is displayed as a thumbnail or a list. The user can perform operations such as viewing and editing such information, and adding and deleting data. Further, for example, the mark image M may be selectively displayed on the map 35. When there are too many mark images M, only the necessary images can be displayed on the map 35 at any time.

マーク画像Mのマッピングによって、室内における対象(例えば傷)OBの位置、および互いの位置関係を容易に把握することができる。 By mapping the mark image M, it is possible to easily understand the position of the target (for example, a scratch) OB in the room and the mutual positional relationship.

また、全体視表示工程(処理)では照合手段292によって、マーク画像Mに対応する対象OBが含まれる空間(環境)の情報(環境データ36)と、マーク画像Mの当該空間内における位置関係を示すマップ35とを照合し、マップ35の背景に環境データ36を重ね合わせた照合データ37として出力することができる。 Further, in the overall display step (process), the collating means 292 shows the information (environmental data 36) of the space (environment) including the target OB corresponding to the mark image M and the positional relationship of the mark image M in the space. The map 35 shown can be collated and output as collation data 37 in which the environment data 36 is superimposed on the background of the map 35.

また、全体視表示工程(処理)では環境情報取得手段293によって、情報管理装置10が備える撮像手段15、あるいは情報管理装置10とは別の装置(CAD,PC,カメラ、360度カメラ等)によって環境データ36を取得、生成することができる。環境情報取得手段293は、予め環境データ36を取得・生成して記憶手段14に記憶することができ、照合手段292は、環境情報取得手段293が生成して記憶した環境データ36とマップ35を重ね合わせて照合データ37を作成できる。また、環境情報取得手段293はリアルタイムで環境データ36を取得・生成しつつ、照合手段292によって環境データ36とマップ35を照合させることができる。 Further, in the overview display process (processing), the environment information acquisition unit 293 is used to perform the image pickup unit 15 included in the information management device 10 or a device (CAD, PC, camera, 360 degree camera, etc.) different from the information management device 10. The environmental data 36 can be acquired and generated. The environment information acquisition unit 293 can acquire and generate the environment data 36 in advance and store it in the storage unit 14, and the collation unit 292 stores the environment data 36 and the map 35 generated and stored by the environment information acquisition unit 293. The collation data 37 can be created by superimposing them. Further, the environmental information acquisition unit 293 can collate the environmental data 36 and the map 35 by the collation unit 292 while acquiring and generating the environmental data 36 in real time.

これにより、例えば、室内の画像(写真)や、設計図等をマップ35に重ねて出力することができ、現場の状況がより把握しやすくなり、特に現場に赴いたことのない担当者にとっても、現場の状況を想定しやすくなる。 As a result, for example, an image (photograph) of the room, a design drawing, etc. can be superimposed on the map 35 and output, making it easier to understand the situation at the site, and especially for a person who has never been to the site. , It becomes easier to assume the situation at the site.

また、マップの状態で(マップ形式のデータとして)、あるいは、照合データ37として他の装置に送受信することができる。当該マップ形式のデータまたは照合データ37には、全てのマーク画像Mについて、対応する対象関連情報(データユニット)が含まれていることが望ましい。当該マップ形式のデータまたは照合データ37を受信した他の端末(例えば、他のタブレット端末)は、本情報管理プログラム20がインストールされている場合には図7(B)に示すマップ35または照合データ37を随時出力(表示手段に表示、印刷、電子データでの出力)することができ、また、マップ形式のデータまたは照合データ37に対象関連情報も含まれている場合には、マーク画像Mの選択により関連付けられている対象関連情報を閲覧、編集等することができる。 In addition, it can be transmitted/received to/from another device in a map state (as map format data) or as collation data 37. It is desirable that the map format data or the matching data 37 include corresponding target related information (data unit) for all the mark images M. When the information management program 20 is installed, the other terminal (for example, another tablet terminal) that has received the map format data or the verification data 37 receives the map 35 or the verification data shown in FIG. 7B. 37 can be output at any time (displayed on the display means, printed, output as electronic data), and when the target-related information is also included in the map format data or the collation data 37, the mark image M It is possible to browse, edit, etc. the target related information associated by selection.

なお、全体視表示させるマーク画像Mの選択だけでなく、マーク画像Mそのものを削除可能にしてもよい。マーク画像Mの削除は例えば、上述のマーク付与操作など、マーク画像Mに関する操作とは異なるマーク削除操作(例えば、マーク画像にタッチしたままスライドさせるスワイプ操作等)で行なう。またポップアップ等で削除の確認を行なうようにしてもよい。この場合、マーク画像Mの消去により自動的に関連する情報も消去されるようにしてもよいし、選択的に消去可能にしてもよいし、関連情報の自動消去は不可(別途の関連情報の消去処理によって消去可能)としてもよい。 Note that the mark image M itself may be deleted instead of only the selection of the mark image M to be displayed as a whole. The deletion of the mark image M is performed by a mark deletion operation different from the operation related to the mark image M (for example, a swipe operation of sliding while touching the mark image) such as the above-described mark addition operation. Alternatively, confirmation of deletion may be performed by pop-up or the like. In this case, the related information may be automatically deleted by erasing the mark image M, may be selectively erasable, and the related information may not be automatically erased. It can be erased by an erasing process).

ステップS07の文書作成工程(処理)は、関連情報データベース30に格納されたデータを利用して文書を作成する工程である。ユーザは、例えば必要な対象OBの選択(例えば、マップ35として表示されたマーク画像Mの少なくとも1つの選択)を行なうと、文書作成手段22は、当該マーク画像Mに関連付けられた対象関連情報を関連情報データベース30より取得し、所定の書式(例えば報告書など)に埋め込んで自動的に文書を作成する。 The document creation step (process) of step S07 is a step of creating a document using the data stored in the related information database 30. For example, when the user selects the required target OB (for example, at least one of the mark images M displayed as the map 35), the document creating unit 22 displays the target relevant information associated with the mark image M. It is acquired from the related information database 30 and embedded in a predetermined format (for example, a report) to automatically create a document.

また、文書作成手段22は、文書を作成するための必要な項目(対象関連情報)を選択的に指定できるように構成されていてもよい。 Further, the document creating unit 22 may be configured to be able to selectively specify a necessary item (target related information) for creating a document.

また、文書作成手段22は、利用頻度の高い書類(例えば、報告書、見積書、発注書など)の複数の書式を備えていてもよく、ユーザはこれらの書類の書式の選択と、必要な対象OBの選択(例えば、マップ35として表示されたマーク画像Mの少なくとも1つの選択)、必要に応じて文書を作成するための必要な項目(対象関連情報)を選択することで、容易に文書を作成することができる。また必要に応じて、ダウンロードしたデータの加工や編集を許容するようにしてもよい。 Further, the document creating means 22 may be provided with a plurality of formats of frequently used documents (for example, reports, quotations, purchase orders, etc.), and the user selects the formats of these documents and needs them. By selecting the target OB (for example, selecting at least one of the mark images M displayed as the map 35) and the necessary items (target related information) for creating the document as necessary, the document can be easily written. Can be created. Further, if necessary, the downloaded data may be processed or edited.

なお、実際の工程(処理)の手順は、上述の説明の順に限らず、順不同且つ、任意に必要な処理を繰り返し可能である。本実施形態では、対象OBの位置を位置特定手段23および状態取得手段17によって特定しており、状態取得手段17による状態の検出は、基準位置に基づいて行なわれる。 The procedure of the actual process (processing) is not limited to the order of the above description, and the necessary processing can be repeated in any order. In this embodiment, the position of the target OB is specified by the position specifying unit 23 and the state acquisition unit 17, and the state acquisition by the state acquisition unit 17 is performed based on the reference position.

なお、ARフレームワーク27によって、物体の形状を認識し、例えば記憶手段に記憶された物体の情報と照合するなどして物体の固有名称(「壁」「椅子」「机」など)を認識するものであってもよく、現実環境のライブビュー映像LVに映し出された物体の映像に、水平面や垂直面以外のデジタル情報(物体に関連するオブジェクト画像など)を合成し(重畳させ)てもよい。 It should be noted that the AR framework 27 recognizes the shape of the object and recognizes the unique name of the object (such as "wall", "chair", "desk") by, for example, collating the information of the object stored in the storage means. Alternatively, the image of the object displayed in the live view image LV of the real environment may be combined (superposed) with digital information (such as an object image related to the object) other than a horizontal plane or a vertical plane. ..

さらに、合成した(重畳させた)オブジェクト画像の配置やその状況を記録し、保存するように構成されていてもよい。この場合、後のタイミング(数日後・数週間後など)に当該対象領域(現実環境)を訪れて当該ARフレームワーク27を利用したアプリケーションプログラムを起動すると、以前に配置したオブジェクト画像を同じ位置に表示し、再編集することができる。また関連付け操作も行なうことができる。 Further, the arrangement and the situation of the combined (superposed) object images may be recorded and stored. In this case, when the target area (real environment) is visited at a later timing (a few days, a few weeks, etc.) and the application program using the AR framework 27 is started, the previously placed object image is placed at the same position. Can be viewed and edited again. Also, an associating operation can be performed.

<情報管理システム>
次に、本実施形態の情報管理システム100について説明する。図10は、情報管理システム100の全体構成を示す概要図である。
<Information management system>
Next, the information management system 100 of this embodiment will be described. FIG. 10 is a schematic diagram showing the overall configuration of the information management system 100.

同図に示すように、情報管理システム100は、少なくとも1台の情報管理装置10(例えば、情報管理装置10A〜10C)と、ネットワーク210と、ネットワーク110に接続するサーバ装置220とクラウドサーバ装置230などを有する。 As shown in the figure, the information management system 100 includes at least one information management device 10 (for example, information management devices 10A to 10C), a network 210, a server device 220 connected to the network 110, and a cloud server device 230. And so on.

各情報管理装置10A〜10Cは上述の情報管理装置10(タブレット端末101)と同様の構成であるので、説明は省略する。 Since each of the information management devices 10A to 10C has the same configuration as the above-described information management device 10 (tablet terminal 101), description thereof will be omitted.

ネットワーク210は、各装置間で相互に通信可能な任意の通信網であり、有線通信の通信網であってもよいし、無線通信の通信網であってもよいし、それらの両方により構成されるようにしてもよい。また、ネットワーク210が、1の通信網により構成されるようにしてもよいし、複数の通信網により構成されるようにしてもよい。例えば、インターネット、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、WAN(Wide Area Network)、LAN(Local Area Network)規格に準拠した通信を行う無線通信網、Bluetooth(登録商標)、Wi−Fi(登録商標)、NFC(Near Field Communication)等の近距離無線通信の通信路、赤外線通信の通信路、HDMI(登録商標)(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に準拠した有線通信の通信網等、任意の通信規格の通信網や通信路がネットワーク210に含まれるようにしてもよい。 The network 210 is an arbitrary communication network in which the respective devices can communicate with each other, and may be a wired communication network, a wireless communication network, or configured by both of them. You may do it. Further, the network 210 may be configured by one communication network or may be configured by a plurality of communication networks. For example, the Internet, a public telephone line network, a wide area communication network for wireless mobile units such as so-called 3G lines and 4G lines, a WAN (Wide Area Network), a wireless communication network for performing communication conforming to a LAN (Local Area Network) standard, Short-range wireless communication channels such as Bluetooth (registered trademark), Wi-Fi (registered trademark), NFC (Near Field Communication), infrared communication channels, HDMI (High-Definition Multimedia Interface) and USB The network 210 may include a communication network or communication path of any communication standard such as a wired communication network conforming to a standard such as (Universal Serial Bus).

各情報管理装置10は上述のとおり、情報通信手段16を備え(図2参照)、ネットワーク210を介して、他の情報管理装置10やサーバ装置220、クラウドサーバ装置230、端末装置250との間で、関連情報データベース30に格納された対象関連情報を、例えばデータパッケージ単位(マーク識別番号MID単位で)、あるいは複数の対象関連情報を一括して送受信が可能に構成されている。 As described above, each information management device 10 includes the information communication unit 16 (see FIG. 2), and is connected to another information management device 10, the server device 220, the cloud server device 230, and the terminal device 250 via the network 210. Then, the target related information stored in the related information database 30 can be transmitted and received, for example, in a data package unit (in mark identification number MID unit) or in a batch of a plurality of target related information.

一例としてサーバ装置220やクラウドサーバ装置230はそれぞれ記憶手段221,231を備え、一又は複数の情報管理装置10が生成した対象関連情報のデータパッケージをネットワーク210を介して取得し、記憶手段221,231に記憶するようにしてもよい。或る情報管理装置10Aは、例えば、他の情報管理装置10Cが生成してサーバ装置220やクラウドサーバ装置230の記憶手段221,231に格納されている対象関連情報のデータパッケージを取得し、情報管理プログラム20を起動させて表示手段13に例えばマップ35等を表示、閲覧、編集等を行うことができる。 As an example, the server device 220 and the cloud server device 230 respectively include storage means 221 and 231. The data package of the target related information generated by one or more information management apparatuses 10 is acquired via the network 210, and the storage means 221 and 231 are provided. You may make it memorize|store in 231. The certain information management device 10A acquires, for example, a data package of the target related information generated by the other information management device 10C and stored in the storage means 221 and 231 of the server device 220 or the cloud server device 230, The management program 20 can be activated to display, browse, edit, etc. the map 35 or the like on the display unit 13.

このように本実施形態の情報管理システム100によれば、例えば1台の情報管理装置10を現場に持ち込み、取得した対象OBおよびそれに関する対象関連情報を、ネットワーク210を介して複数の装置(他の情報管理装置10、サーバ装置220、クラウドサーバ装置230、端末装置250など)の間で共有することができる。なお、データの共有方法は、メールに添付して送受信する構成であってもよい。 As described above, according to the information management system 100 of the present embodiment, for example, one information management device 10 is brought to the site, and the acquired target OB and the target related information relating thereto are acquired by a plurality of devices (others) via the network 210. Information management device 10, server device 220, cloud server device 230, terminal device 250, etc.). The method of sharing the data may be a configuration in which the data is attached to an email and transmitted/received.

<情報の連携>
次に、図11から図19を参照して本実施形態における対象関連情報の連携(共有)について説明する。
<Information cooperation>
Next, cooperation (sharing) of the target related information in this embodiment will be described with reference to FIGS. 11 to 19.

図11は、情報管理装置10の構成の一例を示すブロック図であり、図12(A)は連携手段(連携処理)の概要を示すブロック図であり、同図(B)が原点マーカSPの一例を示す図である。なお、図11及び図12では、連携手段50が情報管理装置10(情報管理プログラム20)内に設けられる構成を例示している。しかしこれに限らず、図10に示すように情報管理装置10と他の装置とを備える情報管理システム100の場合には、連携手段50は、情報管理装置10と他の装置とに共用可能に(例えばサーバ装置220やクラウドサーバ装置230などに)設けられる構成であってもよい。 FIG. 11 is a block diagram showing an example of the configuration of the information management device 10, FIG. 12(A) is a block diagram showing an outline of the cooperation means (cooperation processing), and FIG. 12(B) shows the origin marker SP. It is a figure which shows an example. Note that FIGS. 11 and 12 exemplify a configuration in which the cooperation unit 50 is provided in the information management device 10 (information management program 20). However, not limited to this, in the case of the information management system 100 including the information management device 10 and another device as shown in FIG. 10, the linking unit 50 can be shared by the information management device 10 and another device. The configuration may be provided (for example, in the server device 220 or the cloud server device 230).

図11を参照して、本実施形態の情報管理装置10は連携手段50を有し、異なる空間において、詳細には、異なる空間で扱われるデータにおいて、対象関連情報を連携(共有)可能である。以下、連携手段50による対象関連情報の連携(共有)を連携処理という場合がある。 With reference to FIG. 11, the information management device 10 of the present exemplary embodiment has a coordinating unit 50, and is capable of coordinating (sharing) target related information in different spaces, specifically, in data handled in different spaces. .. Hereinafter, cooperation (sharing) of the target related information by the cooperation unit 50 may be referred to as cooperation processing.

ここで「空間」とは、この例では情報管理装置10(情報管理プログラム20)における内部仮想空間ARSおよび、該内部仮想空間ARSとは別の仮想空間(仮想2次元空間、仮想3次元空間)をいう。つまり別の仮想空間とは、例えば、同じ情報管理装置10で認識・生成される別の内部仮想空間ARSや仮想2次元空間、あるいは、外部の装置やシステム(他の情報管理装置10、端末装置250、他の撮像装置、仮想2次元空間、仮想3次元空間の座標系を有する他の装置など)において認識・生成される仮想3次元空間や仮想2次元空間などである。 Here, the “space” is, in this example, an internal virtual space ARS in the information management device 10 (information management program 20) and a virtual space (virtual two-dimensional space, virtual three-dimensional space) different from the internal virtual space ARS. Say. That is, the different virtual space is, for example, another internal virtual space ARS or virtual two-dimensional space recognized and generated by the same information management device 10, or an external device or system (other information management device 10, terminal device). 250, another imaging device, a virtual two-dimensional space, another device having a coordinate system of a virtual three-dimensional space, and the like), such as a virtual three-dimensional space and a virtual two-dimensional space.

本実施形態の情報管理装置10は、情報管理プログラム20が起動されると、(例えば所定のボタン操作などに応じて)情報管理プログラム20の作業対象となる仮想3次元空間を生成する。 When the information management program 20 is activated, the information management device 10 of the present embodiment creates a virtual three-dimensional space that is a work target of the information management program 20 (for example, in response to a predetermined button operation or the like).

具体的には、情報管理プログラム20が実行(起動)され、環境情報取得操作が行なわれると、撮像手段15が起動してライブビュー映像LVを表示する。環境情報取得操作は例えば、ユーザによる所定のボタン操作などであってもよいし、情報管理プログラム20による(制御的な)処理開始操作、または他の処理への切替操作などであってもよい。 Specifically, when the information management program 20 is executed (started) and the environment information acquisition operation is performed, the image pickup means 15 is started and the live view video LV is displayed. The environment information acquisition operation may be, for example, a predetermined button operation by the user, a (control) processing start operation by the information management program 20, or a switching operation to another processing.

環境情報取得操作が行なわれると、情報管理装置10(の例えば環境情報取得手段293)は、仮想作業空間生成操作の受付を待機し、仮想作業空間生成操作が行われた場合、ライブビュー映像LVを介して認識される現実空間に対応する仮想3次元空間を生成する。なお、環境情報取得操作が行なわれると同時に仮想作業空間生成操作が行なわれる構成であってもよい。 When the environment information acquisition operation is performed, the information management device 10 (for example, the environment information acquisition unit 293) waits for the reception of the virtual workspace generation operation, and when the virtual workspace generation operation is performed, the live view video LV. A virtual three-dimensional space corresponding to the real space recognized through is generated. Note that the virtual workspace creation operation may be performed at the same time when the environment information acquisition operation is performed.

この情報管理装置10のライブビュー映像LVを介して認識される現実空間に対応する仮想3次元空間を、以下、内部仮想空間ARSという。内部仮想空間ARSは、情報管理プログラム20の作業対象領域であり、内部仮想空間ARSにおいて(内部仮想空間ARSで扱うデータとして)マーク画像Mの付与や対象関連情報の関連付けが行なわれ、また仮想2次元空間または仮想3次元空間のデータとしてマップ35が生成される。 Hereinafter, the virtual three-dimensional space corresponding to the physical space recognized through the live view image LV of the information management device 10 will be referred to as an internal virtual space ARS. The internal virtual space ARS is a work target area of the information management program 20. In the internal virtual space ARS, the mark image M is added (as data handled by the internal virtual space ARS) and target related information is associated, and the virtual 2 The map 35 is generated as data in the dimensional space or the virtual three-dimensional space.

この内部仮想空間ARSは、仮想作業空間終了操作あるいは情報管理プログラム20の終了によって消失し、次回の仮想作業生成操作が行われると新たに生成される。仮想作業空間終了操作は例えばユーザによる適宜のボタン操作(例えば、専用のボタン操作や、他の処理への切替操作など)であってもよいし、例えば、情報管理装置10による初期位置(基準位置)の(再)取得などに基づき、制御手段11が自動で仮想作業空間終了操作を指示するなどの構成であってもよい。 The internal virtual space ARS disappears when the virtual work space ending operation or the information management program 20 ends, and is newly created when the next virtual work creating operation is performed. The virtual workspace ending operation may be, for example, an appropriate button operation by the user (for example, a dedicated button operation, a switching operation to another process, etc.), or, for example, an initial position (reference position) by the information management device 10. The control means 11 may automatically instruct the virtual workspace end operation based on the (re)acquisition of (1).

なお、環境情報取得手段293は、別途の仮想作業空間生成操作の受付を待機する。仮想作業空間生成操作は例えばユーザによる適宜のボタン操作(例えば、専用のボタン操作や、他の処理への切替操作など)であってもよいし、新たな環境情報取得操作であってもよいし、例えば、情報管理装置10による初期位置(基準位置)の取得などに基づき、制御手段11が自動で仮想作業空間生成操作を指示するなどの構成であってもよい。 The environment information acquisition unit 293 waits for reception of a separate virtual workspace creating operation. The virtual work space generation operation may be, for example, an appropriate button operation by the user (for example, a dedicated button operation, a switching operation to another process, etc.), or a new environment information acquisition operation. For example, the control unit 11 may automatically instruct the virtual workspace generation operation based on the acquisition of the initial position (reference position) by the information management device 10.

図12(A)を参照して、連携手段50は、例えば、仮想空間1と、仮想空間1とは異なる仮想空間2のそれぞれで扱われるデータにおいて、対象関連情報を連携(共有)可能である。仮想空間1とは異なる仮想空間2とは、仮想空間1の仮想作業空間終了操作後に仮想作業空間生成操作によって新たに生成される仮想空間、あるいは、仮想空間1が生成される装置(例えば情報管理装置10)とは別の他の装置(例えば、他の情報管理装置10あるいは、図10に示す他の装置220、230、250)において生成・取得される仮想空間をいう。 With reference to FIG. 12A, the linking unit 50 can link (share) the target relevant information in the data handled in each of the virtual space 1 and the virtual space 2 different from the virtual space 1, for example. .. The virtual space 2 different from the virtual space 1 is a virtual space newly created by the virtual workspace creating operation after the virtual workspace ending operation of the virtual space 1, or a device in which the virtual space 1 is created (for example, information management). The virtual space created and acquired by another device different from the device 10) (for example, the other information management device 10 or the other devices 220, 230, 250 shown in FIG. 10).

仮想空間1は、具体的には、内部仮想空間ARS,マップ35、環境データ36(他の装置で生成・取得されたものも含む)のいずれかであり、仮想空間2は、仮想空間1とは別の仮想区間であって、内部仮想空間ARS,情報管理装置10で生成されるマップ35、環境データ36(他の装置で生成・取得されたものも含む)のいずれかである。 The virtual space 1 is, specifically, one of the internal virtual space ARS, the map 35, and the environment data 36 (including those generated and acquired by other devices), and the virtual space 2 is the virtual space 1 and the virtual space 1. Is another virtual section, which is one of the internal virtual space ARS, the map 35 generated by the information management device 10, and the environment data 36 (including those generated/acquired by another device).

連携の具体例としては、連携手段50は、或る(1つの)情報管理装置10内において生成された異なる(複数の)内部仮想空間ARS(仮想空間1)と内部仮想空間ARS(仮想空間2)の間で、対象関連情報を共有できる。例えば、ユーザがある内部仮想空間ARS(仮想空間1)において対象関連情報を設定し、同じ情報管理装置10内に別のタイミングで生成された(例えば、ある内部仮想空間ARS(仮想空間1)の仮想作業空間終了操作後に、再度、仮想作業空間生成操作が行われた場合などに新たに生成された)内部仮想空間ARS(仮想空間2)に、登録済みの対象関連情報を連携させて(呼び出して)再表示させることができる。 As a specific example of the cooperation, the cooperation unit 50 uses different (plural) internal virtual spaces ARS (virtual space 1) and internal virtual space ARS (virtual space 2) generated in a certain (one) information management device 10. ) Can share target related information. For example, the user sets the target related information in a certain internal virtual space ARS (virtual space 1) and is generated in the same information management device 10 at different timings (for example, in a certain internal virtual space ARS (virtual space 1)). After the virtual work space end operation, the registered target related information is linked to the internal virtual space ARS (virtual space 2) newly generated when the virtual work space generation operation is performed again (calling). It can be displayed again.

あるいは、連携手段50は、或る情報管理装置10の内部仮想空間ARS(仮想空間1)に登録された対象関連情報について、同じ情報管理装置10のマップ35(仮想空間2)に連携させて、当該対象関連情報を再表示させることができる(図7参照)。情報管理装置10は例えば、ライブビュー映像LVの表示状態からマップ35の生成操作を行なう(例えば、ユーザによる専用のボタン操作や、他の処理への切替操作などを行なう)と、仮想空間1を終了させて新たに仮想空間2を生成する。 Alternatively, the linking unit 50 links the target related information registered in the internal virtual space ARS (virtual space 1) of a certain information management device 10 with the map 35 (virtual space 2) of the same information management device 10, The target related information can be displayed again (see FIG. 7). For example, when the information management device 10 performs a generation operation of the map 35 from the display state of the live view video LV (for example, a dedicated button operation by the user or a switching operation to another process), the virtual space 1 is displayed. The virtual space 2 is newly generated by ending the process.

あるいは、連携手段50は、異なる複数の情報管理装置10同士において対象関連情報を共有できる。詳細には連携手段50は例えば、或る情報管理装置10の仮想空間1(内部仮想空間ARSまたはマップ35)に登録された対象関連情報について、別の情報管理装置10の仮想空間2(内部仮想空間ARSまたはマップ35)に連携させて、当該別の情報管理装置10において出力(表示等)させることができる。 Alternatively, the cooperation unit 50 can share the target related information among the plurality of different information management devices 10. Specifically, for example, the coordinating unit 50, for example, relates to the target related information registered in the virtual space 1 (internal virtual space ARS or map 35) of a certain information management device 10 in the virtual space 2 (internal virtual space) of another information management device 10. It is possible to output (display, etc.) in the other information management device 10 in association with the space ARS or the map 35).

あるいは、連携手段50は、例えば情報管理システム100(図10参照)内の情報管理装置10と他の装置250の間において対象関連情報を共有できる。詳細には連携手段50は例えば、情報管理装置10の仮想空間1に登録された対象関連情報について、対象関連情報が扱える(管理が可能な)別の装置(例えば、図10に示す端末装置)250内で生成された別の空間(仮想空間2:仮想3次元空間および/または仮想2次元空間に連携させ、当該別の空間で扱うデータと共有することができる。「別の空間で扱うデータ」は例えば、情報管理装置10とは別の装置(例えば、端末装置250など)の仮想空間で扱われるデータであり、例えば、別の装置において別途取得される現実環境の空間の情報(上述の環境データ36)である。環境データ36は、例えば、3次元画像データ、3次元CADデータ、3DCG(3次元空間でのコンピュータグラフィックス)データ,点群データ、360度カメラで撮影した360度画像(静止画像、動画像)データ、2次元データは2次元画像データ、2次元CADデータ、2DCG(2次元空間でのコンピュータグラフィックス)データなどがある。また環境データ36には、情報管理装置10で撮像された現実環境の画像(動画、静止画)も含まれる。 Alternatively, the linking unit 50 can share the target related information between the information management device 10 and the other device 250 in the information management system 100 (see FIG. 10), for example. Specifically, the linking unit 50 is, for example, another device (for example, a terminal device shown in FIG. 10) that can handle (manage) the target related information regarding the target related information registered in the virtual space 1 of the information management device 10. Another space created in 250 (virtual space 2: virtual three-dimensional space and/or virtual two-dimensional space can be linked and shared with data handled in the other space. "Data handled in another space" Is, for example, data handled in a virtual space of a device different from the information management device 10 (for example, the terminal device 250 or the like), and for example, information of a space of a real environment separately acquired by the other device (described above). The environmental data 36) is, for example, three-dimensional image data, three-dimensional CAD data, 3DCG (computer graphics in three-dimensional space) data, point cloud data, a 360-degree image captured by a 360-degree camera. (Still image, moving image) data, 2D data includes 2D image data, 2D CAD data, 2DCG (computer graphics in 2D space) data, etc. Further, the environment data 36 includes the information management device 10. The image of the real environment (moving image, still image) captured in (3) is also included.

連携手段50は、情報管理装置10の仮想空間1に登録された対象関連情報を、別の装置(例えば、端末装置250など)の環境データ36(仮想空間2)に連携し、環境データ36上に出力することができる。また、連携手段50は、情報管理装置10とは別の装置(例えば、端末装置250など)の環境データ36(仮想空間2)において登録(設定)された対象関連情報を、情報管理装置10の仮想空間1に連携し、ライブビュー映像LV上に表示したり、マップ35に表示することができる。 The linking unit 50 links the target related information registered in the virtual space 1 of the information management device 10 to the environment data 36 (virtual space 2) of another device (for example, the terminal device 250), so that the environment data 36 is displayed. Can be output to. Further, the coordinating unit 50 sets the target related information registered (set) in the environment data 36 (virtual space 2) of a device (for example, the terminal device 250 or the like) different from the information management device 10 to the information management device 10. In cooperation with the virtual space 1, it can be displayed on the live view image LV or displayed on the map 35.

更にまた、連携手段50は、別の空間(仮想空間1,2)で扱うデータ(環境データ36等)同士の間で対象関連情報を連携することができる。 Furthermore, the linking unit 50 can link target related information between data (environmental data 36 and the like) handled in different spaces (virtual spaces 1 and 2).

以下、連携処理の詳細について説明する。まず、本実施形態のマーク画像Mは、情報管理装置10の表示手段13においてライブビュー映像LVに重ねて表示されるオブジェクト画像であり、詳細には、ユーザによるマーク付与操作があった場合、ライブビュー映像LVを介して認識される仮想3次元空間(内部仮想空間)内にマーク付与手段21によって設定されるものである。つまり本実施形態のマーク画像Mはそれぞれ、仮想3次元空間における位置座標(3次元座標)を有している画像である。 The details of the cooperation process will be described below. First, the mark image M of the present embodiment is an object image displayed on the live view image LV on the display unit 13 of the information management device 10, and more specifically, when the user gives a mark, the mark image M is a live image. It is set by the mark giving means 21 in the virtual three-dimensional space (internal virtual space) recognized through the view video LV. That is, each of the mark images M of this embodiment is an image having position coordinates (three-dimensional coordinates) in the virtual three-dimensional space.

また、対象関連情報は、ユーザによる関連付け開始操作が行なわれた場合、関連付け手段25によってマーク画像Mに対応付けて記憶手段14に記憶される。詳細には既述のとおり、対象関連情報は、対応するマーク画像Mに固有の識別番号(マーク識別番号MID)をキーにした1つの情報群(データユニット)として、記憶手段14に登録される。つまり、本実施形態のマーク画像Mは、仮想3次元空間における位置座標(3次元座標)を有し、対象関連情報を保持可能な情報保持手段(フォルダ)といえる。また、マーク画像Mと対応付けられる(保持される)対象関連情報も仮想3次元空間における位置座標(3次元座標)を有するといえる。そして連携手段50は、マーク画像Mが有する3次元座標に基づき、上述の連携処理を行なう。 Further, the target related information is stored in the storage unit 14 in association with the mark image M by the association unit 25 when the association start operation is performed by the user. In detail, as described above, the target related information is registered in the storage unit 14 as one information group (data unit) using the identification number (mark identification number MID) unique to the corresponding mark image M as a key. .. That is, it can be said that the mark image M of this embodiment has position coordinates (three-dimensional coordinates) in the virtual three-dimensional space and can hold the target related information. Further, it can be said that the target related information associated (held) with the mark image M also has position coordinates (three-dimensional coordinates) in the virtual three-dimensional space. Then, the linking unit 50 performs the linking process described above based on the three-dimensional coordinates of the mark image M.

本実施形態では、位置特定手段23、マーク付与手段21、関連付け手段25および全体視表示手段29、および連携手段50などがAR処理手段27と協働して位置特定処理、マーク付与処理、関連付け処理、全体視表示処理、連携処理等を行う。 In the present embodiment, the position specifying unit 23, the mark assigning unit 21, the associating unit 25, the overview display unit 29, the cooperation unit 50, and the like cooperate with the AR processing unit 27 to perform the position identifying process, the mark assigning process, and the associating process. , Overview display processing, cooperation processing, and the like.

連携手段50は、照合手段292や環境情報取得手段293などとともに、一または複数の情報管理装置10および/又は一又は複数の他の装置250との間で、対象関連情報(それが対応付けられたマーク画像M)の連携(共有)を行う。なお、照合手段292および/又は環境情報取得手段293は、連携手段50に含まれる構成であってもよいし、連携手段50とは別途の構成であってもよい。例えば、図7に示す例では、全体視表示手段29が、連携手段50(環境情報取得手段293、照合手段292)によって環境データ36とマップ35を照合させ、またライブビュー映像LVに重ねて、対応する空間のマップ35を表示しているが、連携手段50(環境情報取得手段293、照合手段292)は、図10に示す情報管理システム100の他の装置220,230,250に設けられていても良い。 The coordinating unit 50, together with the collating unit 292, the environment information acquiring unit 293, and the like, and one or more information management devices 10 and/or one or more other devices 250, target related information (that is associated with the target related information). The linked mark image M) is linked (shared). The collation unit 292 and/or the environment information acquisition unit 293 may be included in the cooperation unit 50, or may be separately provided from the cooperation unit 50. For example, in the example shown in FIG. 7, the overview display means 29 causes the cooperation means 50 (environmental information acquisition means 293, collation means 292) to collate the environment data 36 with the map 35, and superimposes them on the live view video LV. Although the map 35 of the corresponding space is displayed, the cooperation unit 50 (environmental information acquisition unit 293, collation unit 292) is provided in the other devices 220, 230, 250 of the information management system 100 shown in FIG. May be.

図12(B)はライブビュー映像LVを表示している情報管理装置10の概要図である。連携手段50は、原点マーカSPを基準とした仮想空間内の位置座標に基づき、対象関連情報(およびそれが対応付けられたマーク画像M)の連携を行なう。原点マーカSPの詳細については後述するが、情報管理装置10においては、内部仮想空間ARS(ライブビュー映像LV上)およびマップ35上でユーザが設定可能であり、また、外部の装置250等(仮想2次元空間、仮想3次元空間の座標系を有する装置)においては、環境データ36上などにおいてユーザが設定可能である。原点マーカSPは、仮想空間の始点(原点)と、仮想空間の向きおよびサイズを特定する手段である。原点マーカSPは例えば、ユーザが任意で指定する点P1(原点)と、点P1を始点とする仮想空間の方向と大きさ(空間ベクトル)を特定する点P2によって設定可能である。なお、上述の照合用基準点は、この原点マーカSPに対応する。 FIG. 12B is a schematic diagram of the information management device 10 displaying the live view image LV. The linking unit 50 links the target related information (and the mark image M with which it is associated) based on the position coordinates in the virtual space with the origin marker SP as a reference. Although the details of the origin marker SP will be described later, in the information management device 10, the user can set them on the internal virtual space ARS (on the live view image LV) and the map 35, and on the external device 250 (virtual). In a device having a coordinate system of a two-dimensional space or a virtual three-dimensional space), the user can set it on the environment data 36 or the like. The origin marker SP is means for specifying the starting point (origin) of the virtual space and the direction and size of the virtual space. The origin marker SP can be set by, for example, a point P1 (origin) arbitrarily designated by the user and a point P2 that specifies the direction and size (space vector) of the virtual space starting from the point P1. The reference point for collation described above corresponds to the origin marker SP.

例えば、上記の例では、照合手段292が、ライブビュー映像LV(マップ35)の照合用基準点(辺)と、環境データ36の照合用基準点(辺)とを一致させ、情報管理装置10の表示手段13などに環境データ36に重ねて(その上面に)対応するマップ35を表示する例を説明したが、これは照合手段292が、内部仮想空間ARSに設定された(またはマップ35に設定された)原点マーカSPと環境データ36に設定された原点マーカSPとを一致させる(仮想空間内の対象関連情報(およびそれが対応付けられたマーク画像M)の位置座標の原点を含む原点マーカを一致させる)ことを意味している。 For example, in the above example, the matching unit 292 matches the matching reference point (side) of the live view image LV (map 35) with the matching reference point (side) of the environmental data 36, and the information management device 10 The example in which the corresponding map 35 is displayed (on the upper surface thereof) by superimposing it on the environmental data 36 on the display means 13 or the like has been described. This is because the matching means 292 is set in the internal virtual space ARS (or in the map 35). An origin including the origin of the position coordinates of the target related information (and the mark image M with which it is associated) in the virtual space that matches the origin marker SP (set) and the origin marker SP set in the environment data 36. Match the markers).

ユーザは連携を開始するため環境情報取得操作(例えば適宜のボタン操作など)を行なう。これにより環境情報取得手段293は(仮想作業空間生成操作に応じて)、撮像手段15を起動し、ライブビュー映像LVを撮像して表示手段13に表示し、例えばAR処理手段27を活用して)ライブビュー映像LVを介して認識される現実空間に対応する仮想三次元空間を生成する。 The user performs an environment information acquisition operation (for example, an appropriate button operation) to start cooperation. Thereby, the environment information acquisition unit 293 (in response to the virtual work space generation operation) activates the image pickup unit 15, picks up the live view image LV and displays it on the display unit 13, and, for example, utilizes the AR processing unit 27. ) Generate a virtual three-dimensional space corresponding to the real space recognized through the live view video LV.

そして環境情報取得手段293は、異なる仮想空間(図12(A)に示す仮想空間1、仮想空間2)で対象関連情報の連携(共有)を行うために、仮想空間1(例えば、情報管理装置10の内部仮想空間ARS)における基準マーカ(原点マーカSP)の受付を待機する。原点マーカSPは、例えば、ユーザによる照合用基準点付与操作によって入力される。この例では、ユーザは照合用基準点付与操作においてライブビュー映像LV上に2点(点P1および点P2)の入力を行なう。点P1の入力(以下、点P1入力操作)は、仮想3次元空間における開始位置(始点、又は原点)を特定する操作である。また、点2の入力(以下、点P2入力操作)は、点P1を始点とする仮想3次元空間の方向と大きさ(空間ベクトル)を特定する操作である。つまり原点マーカSPは、ここでは線分(線状)で示されるマーカであり、空間ベクトルである。そして上述の照合用基準点(辺)は、この原点マーカSPに対応する。 Then, the environment information acquisition unit 293 uses the virtual space 1 (for example, the information management device) to cooperate (share) the target related information in different virtual spaces (the virtual space 1 and the virtual space 2 illustrated in FIG. 12A). It waits for the reference marker (origin marker SP) in the internal virtual space ARS of 10. The origin marker SP is input by, for example, a user's reference reference point for matching operation. In this example, the user inputs two points (point P1 and point P2) on the live-view video LV in the operation of giving reference points for matching. The input of the point P1 (hereinafter referred to as the point P1 input operation) is an operation of specifying the start position (start point or origin) in the virtual three-dimensional space. The input of the point 2 (hereinafter referred to as the point P2 input operation) is an operation of specifying the direction and size (space vector) of the virtual three-dimensional space having the point P1 as the starting point. That is, the origin marker SP is a marker indicated by a line segment (linear) here, and is a space vector. The reference point (side) for collation described above corresponds to the origin marker SP.

環境情報取得手段293は、ユーザの照合用基準点付与操作に応じて、ライブビュー映像LV上に原点マーカSPを表示する。ユーザがライブビュー映像LVを介して視認される対象OBに対してマーク付与操作、マーク付与位置決定操作を行なうと、マーク付与手段21によってマーク画像Mが付与される。 The environment information acquisition unit 293 displays the origin marker SP on the live view image LV in accordance with the reference reference point giving operation by the user. When the user performs a mark giving operation and a mark giving position determining operation on the target OB visually recognized through the live view image LV, the mark giving means 21 gives a mark image M.

位置特定手段23は、マーク付与位置決定操作が行なわれた場合、内部仮想空間ARSにおけるマーク画像Mの相対位置を特定する。具体的には、内部仮想空間ARSの原点マーカSPに対するマーク画像Mの相対位置を特定する。既に述べたがマーク画像Mは仮想3次元空間内での位置を示す座標を有しており、その座標の原点は、原点マーカSPの原点(点P1)である。 The position specifying unit 23 specifies the relative position of the mark image M in the internal virtual space ARS when the mark giving position determining operation is performed. Specifically, the relative position of the mark image M with respect to the origin marker SP of the internal virtual space ARS is specified. As described above, the mark image M has coordinates indicating the position in the virtual three-dimensional space, and the origin of the coordinates is the origin (point P1) of the origin marker SP.

図12(A)に示すように、仮想空間1において登録された対象関連情報は、仮想空間1の仮想作業空間終了操作後に仮想作業空間生成操作によって新たに生成される仮想空間2において共有できる。ここで、仮想空間1と仮想空間2とは、同じ現実環境Eに対応する別の仮想空間であり、当該現実環境Eには少なくとも対象関連情報に対応する対象OBが含まれているものとする。 As shown in FIG. 12A, the target related information registered in the virtual space 1 can be shared in the virtual space 2 newly created by the virtual workspace creating operation after the virtual workspace ending operation of the virtual space 1. Here, the virtual space 1 and the virtual space 2 are different virtual spaces corresponding to the same real environment E, and the real environment E includes at least the target OB corresponding to the target related information. ..

例えば、工事現場、建築現場などにおいては、同じ現実環境の或る対象OBについて、異なる日および/又は異なる作業者が作業を行なう場合があり、対象OBについての対象関連情報(状態や進捗等)を随時更新することが好ましい。 For example, at a construction site, a construction site, etc., different days and/or different workers may work on a certain target OB in the same real environment, and target related information (state, progress, etc.) about the target OB. Is preferably updated at any time.

本実施形態では、仮想空間1において原点マーカSP(SP1)を設定し、また仮想空間2において、仮想空間1の原点マーカSP1に対応する位置、すなわち現実環境Eにおける原点マーカSP1と(略)同じ位置(対応する位置)に原点マーカSP2を設定する。これにより、連携手段50(連携処理)によって仮想空間1の原点マーカSP1と仮想空間2の原点マーカSP2を照合させる(同じ位置と仮定する)ことができる。つまり、仮想空間1におけるマーク画像M(対象関連情報が関連付けられている)の位置(座標)をそのまま、仮想空間2に表示することで、ある一つの現実環境Eに対応する(略)同じ位置にマーク画像Mを表示(共有)することができる。 In the present embodiment, the origin marker SP (SP1) is set in the virtual space 1, and in the virtual space 2, the position corresponding to the origin marker SP1 in the virtual space 1, that is, the origin marker SP1 in the real environment E (substantially) the same. The origin marker SP2 is set at the position (corresponding position). Accordingly, the origin marker SP1 of the virtual space 1 and the origin marker SP2 of the virtual space 2 can be collated (assumed to be at the same position) by the cooperation unit 50 (cooperation processing). That is, by displaying the position (coordinates) of the mark image M (which is associated with the target related information) in the virtual space 1 as it is in the virtual space 2, the (substantially) same position corresponding to a certain one real environment E. The mark image M can be displayed (shared) on the.

ここで、原点マーカSP2の付与操作はユーザが行なうが、情報管理装置10は仮想空間1の原点マーカSP1の位置を把握可能な案内表示TTを表示可能に構成されている。この案内表示TTは、例えば、現実環境における原点マーカSP1の位置を認識可能な表示などであり、具体的には、原点マーカSP1付与時に(自動、又はユーザ操作により)撮像された、原点マーカSP1(表示)付きの現実環境の画像データ(の一覧表示)などである。ユーザはこの案内表示TTに基づき、仮想空間2において、仮想空間1の原点マーカSP1に対応する位置に原点マーカSP2を設定する。 Here, although the user performs the operation of assigning the origin marker SP2, the information management device 10 is configured to be able to display the guide display TT with which the position of the origin marker SP1 in the virtual space 1 can be grasped. This guidance display TT is, for example, a display that allows the position of the origin marker SP1 in the real environment to be recognized. Specifically, the origin marker SP1 imaged (automatically or by user operation) when the origin marker SP1 is provided. The image data (list display) of the real environment with (display). Based on this guidance display TT, the user sets the origin marker SP2 in the virtual space 2 at a position corresponding to the origin marker SP1 in the virtual space 1.

この連携処理により仮想空間1と仮想空間2の仮想3次元座標の原点が一致するので、例えば仮想空間1における対象関連情報の原点マーカSP1からの位置(座標)を、仮想空間2における原点マーカSP2からの位置(座標)として再現できる。つまり仮想空間2において(仮想空間2で扱うデータ上に)対象関連情報を出力することができ、対象関連情報の共有が行なえる。 Since the origins of the virtual three-dimensional coordinates of the virtual space 1 and the virtual space 2 coincide with each other by this cooperation processing, for example, the position (coordinates) of the target related information in the virtual space 1 from the origin marker SP1 is set to the origin marker SP2 in the virtual space 2. It can be reproduced as the position (coordinates) from. That is, the target related information can be output in the virtual space 2 (on the data handled in the virtual space 2), and the target related information can be shared.

つまり、或る情報管理装置10の内部仮想空間ARSで登録された対象関連情報(マーク画像M)がある場合、初期状態のマップ35上で原点マーカSP1に対応する位置に原点マーカSP2を設定し、連携手段50による連携処理を行うことで、マップ35上にマーク画像Mを表示できる。また、外部の装置などにおいて環境データ36上で原点マーカSPに対応する位置に更に別の原点マーカSPを設定し、連携処理を行うことで、マーク画像Mが表示されたマップ35に更に重ねて環境データ36を表示(照合データを作成)することができる。 That is, when there is the target related information (mark image M) registered in the internal virtual space ARS of the certain information management device 10, the origin marker SP2 is set at the position corresponding to the origin marker SP1 on the map 35 in the initial state. The mark image M can be displayed on the map 35 by performing the cooperation process by the cooperation unit 50. In addition, by setting another origin marker SP at a position corresponding to the origin marker SP on the environment data 36 in an external device or the like and performing the cooperation processing, the mark image M is further overlapped on the displayed map 35. It is possible to display the environmental data 36 (create collation data).

また、内部仮想空間ARSの原点マーカSP1と環境データ36の原点マーカSP2の連携処理を行うことで、情報管理装置10のライブビュー映像LVに重ねて環境データ36を表示できる。また環境データ36上(のみ)で対象関連情報が設定されている場合、情報管理装置10のライブビュー映像LVに重ねて、環境データ36上の対象関連情報を表示でき、また更新ができる。 Further, by performing the cooperative processing of the origin marker SP1 of the internal virtual space ARS and the origin marker SP2 of the environment data 36, the environment data 36 can be displayed by being superimposed on the live view image LV of the information management device 10. Further, when the target related information is set on (only) the environment data 36, the target related information on the environment data 36 can be displayed and updated so as to be superimposed on the live view image LV of the information management device 10.

図13から図16を参照して、連携処理について具体例を挙げて説明する。ここでは、或る情報管理装置10の内部仮想空間ARS1(仮想空間1)で設定した対象関連情報を、同じ情報管理装置10の別の内部仮想空間ARS2(仮想空間2)と連携し、内部仮想空間ARS2において対象関連情報を再現(例えば、情報管理装置10のライブビュー映像LVと重ねて対象関連情報を表示)する場合を例示する。なお、以下の説明において対象関連情報は、マーク画像Mと関連付けされているものとする。つまりマーク画像Mの位置(座標)が対象関連情報の保持位置(座標)である。 The cooperation process will be described with a specific example with reference to FIGS. 13 to 16. Here, the target related information set in the internal virtual space ARS1 (virtual space 1) of a certain information management device 10 is linked with another internal virtual space ARS2 (virtual space 2) of the same information management device 10 to create an internal virtual space. A case where the target related information is reproduced in the space ARS2 (for example, the target related information is displayed so as to be superimposed on the live view image LV of the information management device 10) will be exemplified. In the following description, the target related information is assumed to be associated with the mark image M. That is, the position (coordinates) of the mark image M is the holding position (coordinates) of the target related information.

図13および図14は、仮想空間1における作業を説明する図であり、例えば、或る室内(現実環境E)において壁面の傷(対象OB)に対する作業を行なう場合を示す。両図においては、ユーザが例えば対象OBが視認できる室内において情報管理装置10を操作し、そのライブビュー映像LVを介して認識できる仮想空間1において、対象OBに対応してマーク画像Mを付与し、マーク画像Mに対象関連情報を関連付ける様子を概略的に示している。 13 and 14 are diagrams for explaining the work in the virtual space 1, for example, a case where work is performed on a wall scratch (target OB) in a certain room (real environment E). In both figures, the user operates the information management device 10 in a room where the target OB can be visually recognized, and in the virtual space 1 which can be recognized through the live view image LV, the mark image M is provided corresponding to the target OB. , Schematically shows how the target related information is associated with the mark image M.

図13(A)を参照して、ユーザが作業対象の室内(現実環境E)で情報管理装置10(情報管理プログラム20)を起動すると、仮想作業空間生成操作(環境情報取得操作)に応じて、情報管理装置10は撮像手段15を起動し、ライブビュー映像LVを撮像して表示手段13に表示する。また、位置特定手段23は自機の位置(上述した基準位置(初期位置))をリセットし、その時点における自機の位置(新たな基準位置(初期位置FS1)の取得を行う。そして、環境情報取得手段293は、当該初期位置FS1を初期の原点(0,0,0)として、ライブビュー映像LVを介して認識される空間に対応する仮想三次元空間(内部仮想空間ARS1(仮想空間1))を生成する。また、環境情報取得手段293は、内部仮想空間ARS1における原点マーカSP1の受付を待機する。 Referring to FIG. 13A, when the user activates the information management device 10 (information management program 20) in the room (real environment E) as the work target, a virtual work space generation operation (environment information acquisition operation) is performed in response to the virtual work space generation operation. The information management device 10 activates the image pickup means 15, picks up the live view image LV, and displays it on the display means 13. Further, the position specifying means 23 resets the position of the own device (the above-mentioned reference position (initial position)) and acquires the position of the own device at that time (new reference position (initial position FS1). The information acquisition unit 293 uses the initial position FS1 as the initial origin (0, 0, 0) and corresponds to the space recognized through the live-view video LV (a virtual three-dimensional space (internal virtual space ARS1 (virtual space 1)). )) is generated, and the environment information acquisition unit 293 waits for reception of the origin marker SP1 in the internal virtual space ARS1.

次にユーザは同図(B)に示すように照合用基準点付与操作(原点マーカSP1の設定操作)を行なう。より詳細には、内部仮想空間ARS1における開始位置を特定するためにユーザはまず、ライブビュー映像LV上で、任意の点P1を指定する(点P1入力操作を行なう)。点P1は例えば、現実環境Eの特定し易い部位にすることが望ましく、例えばライブビュー映像LV上で視認可能な線分上の一点などがより望ましい。この例ではドアDの左下端部を点P1として設定している。 Next, the user performs a reference point for collation operation (setting operation of the origin marker SP1) as shown in FIG. More specifically, in order to specify the start position in the internal virtual space ARS1, the user first specifies an arbitrary point P1 on the live view image LV (performs a point P1 input operation). It is desirable that the point P1 be, for example, a portion where the real environment E can be easily identified, and more desirably, for example, one point on a line segment that can be visually recognized on the live view image LV. In this example, the lower left corner of the door D is set as the point P1.

点P1入力操作に基づき、環境情報取得手段293は、ユーザによって指定された任意の点P1の位置を、原点(0,0,0)とし、内部仮想空間ARS1を再生成する。 Based on the point P1 input operation, the environment information acquisition unit 293 regenerates the internal virtual space ARS1 with the position of the arbitrary point P1 designated by the user as the origin (0,0,0).

なお、位置特定手段23は、任意の点P1の位置が原点(0,0,0)に設定された場合においても起動時(初期位置)の情報を有しており、初期位置からの自機のトレースを行なうことができる。従って、マーク画像Mの位置(原点(0,0,0)からの相対位置)を特定することで、自機の位置からの現実空間における対象OBの相対位置も把握可能である。 It should be noted that the position identifying means 23 has the information at the time of startup (initial position) even when the position of the arbitrary point P1 is set at the origin (0, 0, 0), and is its own device from the initial position. Can be traced. Therefore, by specifying the position of the mark image M (relative position from the origin (0,0,0)), the relative position of the target OB in the real space from the position of the own device can be grasped.

図14(A)は図13(B)に続く状態であり、ユーザによる点P2入力操作が行われた状態である。ユーザは内部仮想空間ARS1の方向と大きさ(空間ベクトル)を特定するために、ライブビュー映像LV上で、任意の点P2を指定する点P2入力操作を行なう。点P2は例えば、現実環境Eの特定し易い部位にすることが望ましく、また例えばライブビュー映像LV上で点P1と同一線分であると視認可能な線分上の一点などがより望ましい。この例ではドアDの右下端部を点P2として設定している。点P2の位置(x1、y1、z1)は、点P1(0,0,0)からの相対位置である。 FIG. 14A is a state following FIG. 13B, and is a state in which the point P2 input operation is performed by the user. In order to specify the direction and size (space vector) of the internal virtual space ARS1, the user performs a point P2 input operation that specifies an arbitrary point P2 on the live view video LV. It is desirable that the point P2 be, for example, a portion where the real environment E can be easily identified. Further, for example, one point on the line segment that can be visually recognized as the same line segment as the point P1 on the live view image LV is more desirable. In this example, the lower right end of the door D is set as the point P2. The position (x1, y1, z1) of the point P2 is a relative position from the point P1 (0, 0, 0).

点P2入力操作に基づき、環境情報取得手段293は、原点マーカSP1を取得し、ライブビュー映像LV上に表示する。 Based on the point P2 input operation, the environment information acquisition unit 293 acquires the origin marker SP1 and displays it on the live view image LV.

また、情報処理装置10(例えば環境情報取得手段293)は、案内表示TTを呼び出し可能に記憶するように構成してもよい。案内表示TTは図14(A)に示すように、任意の原点マーカSP1が現実環境Eのどの位置に対応して設定されたかを示す情報であり、例えば、原点マーカSP1を表示している状態のライブビュー映像LVの画面を撮影した画像(スクリーンショット、プリントスクリーン)である。案内表示TTは例えば、原点マーカSP1の決定操作(ボタン操作など)によって自動で撮影され、あるいはユーザのボタン操作などにより撮影され、記憶手段14に記憶される。また、照合用基準点付与操作が行われる前には、記憶された案内表示TTがある場合に自動で呼び出され、例えばライブビュー映像LV上に表示(例えばサムネイル表示など)される。これにより、例えば、仮想空間2においては原点マーカSP2を付与する際に、表示されている案内表示TTに基づき、現実環境Eにおける原点マーカSP1と(略)同じ位置(対応する位置)に原点マーカSP2を付与することができ、連携処理(照合処理)の精度を高めることができる。 Further, the information processing device 10 (for example, the environment information acquisition unit 293) may be configured to store the guidance display TT so as to be callable. As shown in FIG. 14(A), the guidance display TT is information indicating which position of the arbitrary origin marker SP1 is set in the real environment E, and for example, the state where the origin marker SP1 is displayed. 3 is an image (screen shot, print screen) obtained by shooting the screen of the live view image LV of FIG. The guidance display TT is, for example, automatically photographed by a determination operation (button operation or the like) of the origin marker SP1 or by a user button operation or the like and stored in the storage unit 14. Further, before the reference point providing operation for collation is performed, if there is a stored guide display TT, the guide display TT is automatically called and displayed on the live view image LV (for example, thumbnail display). As a result, for example, when the origin marker SP2 is added in the virtual space 2, the origin marker is located at (substantially) the same position (corresponding position) as the origin marker SP1 in the real environment E based on the displayed guidance display TT. SP2 can be added, and the accuracy of cooperation processing (collation processing) can be improved.

図14(B)は、ユーザによるマーク付与位置決定操作が行なわた状態である。マーク付与手段21は、ユーザによって指定された位置にマーク画像Mを表示し、位置特定手段23はマーク画像Mの位置(座標(x2、y2、z2))を取得・記憶する。マーク画像Mの位置(座標(x2、y2、z2))は、対象関連情報と合わせて記憶手段14に記憶されてもよいし、マーク画像Mの位置情報(座標)として別途、記憶手段14に記憶されてもよい。 FIG. 14B shows a state in which the mark giving position determining operation is performed by the user. The mark providing unit 21 displays the mark image M at the position designated by the user, and the position specifying unit 23 acquires and stores the position (coordinates (x2, y2, z2)) of the mark image M. The position (coordinates (x2, y2, z2)) of the mark image M may be stored in the storage unit 14 together with the target related information, or may be separately stored in the storage unit 14 as the position information (coordinates) of the mark image M. It may be stored.

マーク画像Mの位置は内部仮想空間ARS1における原点(0,0,0)からの相対位置である。また、関連付け手段25は、ユーザによる関連付け開始操作が行なわれた場合、対象関連情報を、マーク画像Mに対応付けて記憶手段14に記憶する。すなわち、内部仮想空間ARS1内の位置(座標)情報を有するマーク画像Mに対応するフォルダ内に対象関連情報が保持される。換言すると、内部仮想空間ARS1において、当該内部仮想空間ARS1内の位置(座標)情報を有する対象関連情報が登録される。 The position of the mark image M is a relative position from the origin (0,0,0) in the internal virtual space ARS1. Further, the association unit 25 stores the target relevant information in the storage unit 14 in association with the mark image M when the association start operation is performed by the user. That is, the target related information is held in the folder corresponding to the mark image M having the position (coordinate) information in the internal virtual space ARS1. In other words, in the internal virtual space ARS1, the target related information having the position (coordinate) information in the internal virtual space ARS1 is registered.

そして例えば、仮想空間1における作業を行なったユーザとは別のユーザなどが、同じ現実環境Eの対象OBに対して対象関連情報の参照や情報の更新を行なったり、あるいは同じ現実環境Eの別の対象OBについて対象関連情報を新たに対応付けたりする場合、仮想空間1の対象関連情報を共有できる。 Then, for example, a user different from the user who performed the work in the virtual space 1 refers to the target related information of the target OB of the same real environment E or updates the information, or determines the target OB of the same real environment E. When the target related information is newly associated with the target OB, the target related information of the virtual space 1 can be shared.

図15および図16は、仮想空間2における対象関連情報の連携(共有)の様子を示す概要図であり、例えば、内部仮想空間ARS1に対して作業を行なったユーザ(先のユーザ)とは別のユーザ(後のユーザ)が同じ現実環境Eの同じ対象OBに対する作業を行なう場合を示している。なお先のユーザと後のユーザは同一人であっても良く、仮想空間1とは別の仮想空間2における処理であればよい。 FIG. 15 and FIG. 16 are schematic diagrams showing a state of cooperation (sharing) of the target related information in the virtual space 2, for example, different from the user (previous user) who has worked on the internal virtual space ARS1. The user (the latter user) of (1) performs the work on the same target OB in the same real environment E. Note that the previous user and the subsequent user may be the same person, as long as they are processes in a virtual space 2 different from the virtual space 1.

図15(A)を参照して、後のユーザが作業対象の室内(現実環境E)で情報管理装置10(情報管理プログラム20)を起動する。この情報管理装置10は、例えば、先のユーザが使用したものと同一の装置(タブレット端末)である。 Referring to FIG. 15A, a later user activates the information management device 10 (information management program 20) in the work target room (real environment E). The information management device 10 is, for example, the same device (tablet terminal) as that used by the previous user.

情報管理プログラム20が起動されると、仮想作業空間生成操作(環境情報取得操作)に応じて、情報管理装置10は撮像手段15を起動し、ライブビュー映像LVを撮像して表示手段13に表示する。また、位置特定手段23は自機の位置(上述した基準位置(初期位置))をリセットし、その時点における自機の位置(新たな基準位置(初期位置FS2)の取得を行う。そして、環境情報取得手段293は、当該初期位置FS2を初期の原点(0,0,0)として、ライブビュー映像LVを介して認識される空間に対応する仮想三次元空間(内部仮想空間ARS2(仮想空間2))を生成する。また、環境情報取得手段293は、内部仮想空間ARS2における原点マーカSP2の受付を待機する。 When the information management program 20 is activated, the information management device 10 activates the image capturing means 15 in response to a virtual work space generation operation (environmental information acquisition operation), captures the live view image LV, and displays it on the display means 13. To do. Further, the position specifying means 23 resets the position of the own device (the above-mentioned reference position (initial position)) and acquires the position of the own device at that time (a new reference position (initial position FS2). The information acquisition unit 293 uses the initial position FS2 as the initial origin (0, 0, 0) and corresponds to a space recognized through the live-view video LV (a virtual three-dimensional space (internal virtual space ARS2 (virtual space 2)). )) is generated, and the environment information acquisition unit 293 waits for reception of the origin marker SP2 in the internal virtual space ARS2.

ここで、初期位置FS2は、後のユーザが情報管理装置10を起動した位置であり、現実環境Eは同じであっても、先のユーザによる情報管理装置10の起動の位置(図13(A)に示す初期位置FS1)と完全に一致していない場合が多い。その場合初期位置FS2を原点とする内部仮想空間ARS2の座標も、内部仮想空間ARS1の座標とは不一致となる。 Here, the initial position FS2 is a position at which the subsequent user has started the information management device 10, and even if the real environment E is the same, the position at which the information management device 10 is started by the previous user (see FIG. In many cases, the initial position FS1) does not completely match. In that case, the coordinates of the internal virtual space ARS2 with the initial position FS2 as the origin also do not match the coordinates of the internal virtual space ARS1.

同図(B)に示すように後のユーザは、照合用基準点付与操作(原点マーカSP2の設定操作)を行なう。より詳細には、内部仮想空間ARS2における原点マーカSP2の開始位置を特定するために後のユーザはまず、ライブビュー映像LV上で、任意の点P1を指定する(点P1入力操作を行なう)。 As shown in FIG. 7B, the subsequent user performs a reference point for collation operation (setting operation of the origin marker SP2). More specifically, in order to specify the start position of the origin marker SP2 in the internal virtual space ARS2, the subsequent user first designates an arbitrary point P1 on the live view video LV (performs a point P1 input operation).

このとき、情報処理装置10(例えば環境情報取得手段293)は、記憶手段14に記憶されている1または複数の案内表示TTを呼び出し、例えばライブビュー映像LV上に表示(例えばサムネイル表示など)する。 At this time, the information processing device 10 (for example, the environment information acquisition unit 293) calls one or a plurality of guide displays TT stored in the storage unit 14 and displays the guide display TT on the live view image LV (for example, thumbnail display). ..

後のユーザは、案内表示TTを参照して、仮想空間1で設定された原点マーカSP1と同じ位置(対応する位置)に原点マーカSP2が付されるよう、ライブビュー映像LV上の点P1を指定(タップ操作等)する。具体的には、案内表示TTに基づき、ドアDの左下端部を点P1として設定する。 The subsequent user refers to the guidance display TT and sets the point P1 on the live view image LV so that the origin marker SP2 is attached to the same position (corresponding position) as the origin marker SP1 set in the virtual space 1. Specify (tap operation, etc.). Specifically, the left lower end of the door D is set as the point P1 based on the guidance display TT.

そしてこの点P1入力操作に基づき、環境情報取得手段293は、後のユーザによって指定された点P1の位置を原点(0,0,0)とし、内部仮想空間ARS2を再生成する。すなわち、内部仮想空間ARS2は、内部仮想空間ARS1と原点(0,0,0)を一致させた状態で(現実環境Eにおける同じ位置を原点(0,0,0)として)、再生成される。 Then, based on this point P1 input operation, the environment information acquisition unit 293 regenerates the internal virtual space ARS2 with the position of the point P1 designated by the user later as the origin (0, 0, 0). That is, the internal virtual space ARS2 is regenerated with the internal virtual space ARS1 and the origin (0,0,0) being matched (with the same position in the real environment E being the origin (0,0,0)). ..

図16(A)は、図15(B)に続く状態である。引き続き後のユーザは案内表示TTを参照して内部仮想空間ARS1の原点マーカSP1と同じ位置になるよう、点P2入力操作を行なう。これにより、点P2の位置が設定される(例えば、点P2はドアDの右下端部に設定される)。点P2入力操作に基づき、環境情報取得手段293は、点P1と点P2で規定される線分を、原点マーカSP2として取得し、原点マーカSP2をライブビュー映像LV上に表示する。 FIG. 16A is a state following FIG. 15B. Subsequently, the subsequent user refers to the guidance display TT and performs a point P2 input operation so that the position is the same as the origin marker SP1 of the internal virtual space ARS1. As a result, the position of the point P2 is set (for example, the point P2 is set at the lower right end of the door D). Based on the point P2 input operation, the environment information acquisition unit 293 acquires the line segment defined by the points P1 and P2 as the origin marker SP2, and displays the origin marker SP2 on the live view image LV.

なお、例えば原点マーカSP1,SP2を設定する際のユーザの位置や、ライブビュー映像LVの画角が異なるなどして、原点マーカSP1,SP2自体の表示態様(角度や長さなど)が異なっていても、原点マーカSP1,SP2はそれぞれ仮想空間1、仮想空間2の空間ベクトルとして設定されており、仮想空間1と仮想空間2の原点(0,0,0)は一致しているため、対象関連情報の共有における影響は(略)ないといってよい。 Note that the display mode (angle, length, etc.) of the origin markers SP1 and SP2 itself is different due to, for example, the position of the user when setting the origin markers SP1 and SP2 and the angle of view of the live view image LV. However, since the origin markers SP1 and SP2 are set as the space vectors of the virtual space 1 and the virtual space 2, respectively, and the origins (0, 0, 0) of the virtual space 1 and the virtual space 2 are the same, It can be said that there is no effect on the sharing of related information.

このように、案内表示TTを参照して、仮想空間1における原点マーカSP1と(略)同じ位置に仮想空間2の原点マーカSP2を付与することができるので、連携処理(照合処理)の精度を高めることができる。 In this way, since the origin marker SP2 of the virtual space 2 can be attached to the same position (substantially) as the origin marker SP1 in the virtual space 1 by referring to the guidance display TT, the accuracy of the cooperative processing (matching processing) can be improved. Can be increased.

後のユーザによって原点マーカSP2が設定され、照合操作(例えば、原点マーカSP2の確定操作または照合開始指示操作、例えば、不図示の照合用ボタンの操作など)が行なわれると、連携手段50(照合手段292)は、情報管理装置10の記憶手段14に記憶されている(先のユーザが記憶した)マーク画像Mおよび対象関連情報を呼び出し、内部仮想空間ARS2内における座標(x2、y2、z2)の位置(原点マーカSP2の点P1からの相対位置)に、既に記憶されているマーク画像Mを表示する。つまり、原点マーカSP2の位置を原点マーカSP1であるとして(原点マーカSP1と照合して)、そこからの相対位置(座標)にマーク画像Mを表示する。 When the subsequent user sets the origin marker SP2 and performs a collation operation (for example, a confirmation operation of the origin marker SP2 or a collation start instruction operation, for example, an operation of a collation button (not shown)), the cooperation unit 50 (collation). The means 292) calls the mark image M and the target related information (stored by the previous user) stored in the storage means 14 of the information management device 10, and coordinates (x2, y2, z2) in the internal virtual space ARS2. The mark image M already stored is displayed at the position (the relative position of the origin marker SP2 from the point P1). That is, assuming that the position of the origin marker SP2 is the origin marker SP1 (matching with the origin marker SP1), the mark image M is displayed at the relative position (coordinates) from that position.

このようにすることで、ユーザや作業の日時が異なる場合であっても、同一の対象OBに対して対象関連情報の共有が可能となる。つまり対象OBに対する作業の進捗や状態等の変化を対象関連情報として随時更新した場合であっても、情報の一元化が可能となる。 By doing so, it becomes possible to share the target related information for the same target OB even when the user and the date and time of the work are different. That is, even if the change in the progress or state of the work for the target OB is updated as the target related information at any time, the information can be unified.

なお、例えば内部仮想空間ARS1に複数のマーク画像M(および対象関連情報)が付与されている場合、付与されている(記憶されている、)全てのマーク画像M(および対象関連情報)を表示する。従って、一部のマーク画像Mのみを抽出して(選択的に)表示したい場合(例えば、現実環境Eの一部のみに対して付与されるマーク画像Mを選択的に表示したい場合)には、表示するマーク画像Mをユーザに選択可能に構成するとよい。具体的には例えば、マーク画像Mをグループ化して記憶手段14に記憶し、また表示の際にはマーク画像Mを選択的に(例えばグループ化した状態などで)で適宜の記憶領域(記憶手段14の一部)に準備(格納)できる構成などにしておくとよい。 In addition, for example, when a plurality of mark images M (and target related information) are added to the internal virtual space ARS1, all the mark images M (and target related information) that are added (stored) are displayed. To do. Therefore, when it is desired to extract (selectively) only a part of the mark images M (for example, to selectively display the mark images M given to only a part of the real environment E), It is preferable that the mark image M to be displayed be selectable by the user. Specifically, for example, the mark images M are grouped and stored in the storage unit 14, and at the time of display, the mark images M are selectively (for example, in a grouped state) an appropriate storage area (storage unit). It is advisable to have a configuration that can be prepared (stored) in part (14).

より具体的には、例えば異なる建物での作業や、異なる階(フロア)での作業など、作業対象となる現実環境Eが複数存在する場合には、現実環境E、あるいは現実環境E内のさらに所定の領域(以下、作業対象領域)毎に、対応するデータユニット(マーク画像Mおよび対象関連情報)をグループ分けした状態で記憶可能にするとよい。この場合例えば情報管理プログラム20の起動時に作業対象領域のグループ(作業対象領域グループ)を設定(指定)可能とし、以降のデータユニットの記憶は設定されている当該作業対象グループに行なうようにしてもよいし、後から作業対象領域グループ内のデータユニットの更新(追加・削除・移動等)が行なえるようにしてもよい。 More specifically, when there are a plurality of real environments E to be worked, such as work in different buildings or work on different floors, the real environment E or the real environment E is further Corresponding data units (mark image M and target related information) may be stored in a grouped state for each predetermined area (hereinafter referred to as a work target area). In this case, for example, a group of work target areas (work target area group) can be set (designated) when the information management program 20 is started, and subsequent data units can be stored in the set work target group. Alternatively, the data units in the work target area group may be updated (added, deleted, moved, etc.) later.

作業対象領域グループ毎にデータユニットを記憶する構成の場合、情報管理装置10(の例えば連携手段50)は、連携処理の開始時などに作業対象領域グループを選択可能に表示する。ユーザが所定の作業対象領域を選択すると、例えば連携手段50は、当該作業対象領域グループに含まれるデータユニットの全てを、生成された仮想空間に再現可能なデータとして(所定の記憶領域に)準備する。そしてユーザによって原点マーカSPが付与された場合、マーク画像Mのそれぞれが有する(仮想空間内の)座標に基づき、原点マーカSPの原点(点P1)からの相対位置として仮想空間内にマーク画像Mおよび対象関連情報を表示する。 When the data unit is stored for each work target area group, the information management device 10 (for example, the cooperation unit 50) displays the work target area group in a selectable manner at the start of the cooperation process. When the user selects a predetermined work target area, for example, the cooperation unit 50 prepares (in a predetermined storage area) all the data units included in the work target area group as reproducible data in the generated virtual space. To do. Then, when the origin marker SP is given by the user, the mark image M in the virtual space is set as a relative position from the origin (point P1) of the origin marker SP based on the coordinates (in the virtual space) of each of the mark images M. And target related information is displayed.

<連携の一例>
図17および図18を参照して、異なる仮想空間1,2における連携の一例を示す。図17(A)〜同図(D)は、一例として、或る情報管理装置10Aの内部仮想空間ARS1(仮想空間1)と、別の情報管理装置10Bの内部仮想空間ARS2(仮想空間2)で対象関連情報を共有する例である。マーク識別番号MIDをキーにした情報群(データユニット)は、複数の装置の間で送受信可能であるので、情報管理装置10Aに記憶されるデータユニットを例えば通信手段や連携手段50を介して別の情報管理装置10Bが取得すれば、情報管理装置10Bにおいてデータユニットを出力できる。この例では、情報管理装置10Aのライブビュー映像LV上で登録したマーク画像Mを、別の情報管理装置10Bのライブビュー映像LV上に表示している場合を示している。なお、マーク画像Mには対象関連情報が対応付けられている(マーク画像Mのフォルダに対応関連情報が格納されている)ものとする(以下の説明において同様)。
<Example of cooperation>
An example of cooperation in different virtual spaces 1 and 2 will be described with reference to FIGS. 17 and 18. 17A to 17D, as an example, an internal virtual space ARS1 (virtual space 1) of a certain information management apparatus 10A and an internal virtual space ARS2 (virtual space 2) of another information management apparatus 10B. This is an example of sharing target related information in. Since the information group (data unit) using the mark identification number MID as a key can be transmitted and received among a plurality of devices, the data unit stored in the information management device 10A can be separated by, for example, the communication means or the cooperation means 50. If the information management apparatus 10B of 1 is acquired, the data unit can be output in the information management apparatus 10B. In this example, the mark image M registered on the live view image LV of the information management apparatus 10A is displayed on the live view image LV of another information management apparatus 10B. Note that the target related information is associated with the mark image M (corresponding related information is stored in the folder of the mark image M) (the same applies in the following description).

同図(A)に示すように、或る現実環境E(例えば、建物A,N階,X号室)において情報管理装置10Aを操作するユーザは、ライブビュー映像LV(内部仮想空間ARS1)上で原点マーカSP1を設定し、所定の位置(座標(x1、y1、z1)、座標(x2、y2、z2))にそれぞれマーク画像M1、M2を付与する。マーク画像M1、M2のそれぞれの座標(x1、y1、z1)、座標(x2、y2、z2)は内部仮想空間ARS1の原点(0,0,0)を基準とした相対位置である。 As shown in FIG. 1A, a user who operates the information management device 10A in a certain real environment E (for example, the building A, N floor, room X) is on the live view image LV (internal virtual space ARS1). The origin marker SP1 is set, and mark images M1 and M2 are given to predetermined positions (coordinates (x1, y1, z1) and coordinates (x2, y2, z2)), respectively. The respective coordinates (x1, y1, z1) and coordinates (x2, y2, z2) of the mark images M1 and M2 are relative positions with respect to the origin (0, 0, 0) of the internal virtual space ARS1.

またこの例では、同図(B)に示すように情報管理装置10Aにおいて、複数の作業対象領域1〜3について複数のマーク画像Mが付与されている。このような場合、対象外のマーク画像Mの表示を避けるため、作業対象領域毎にマーク画像Mをグループ分けして記憶手段14に記憶できる。同図(A)ではユーザはマーク画像M1,M2を作業対象領域1グループに保存している。また作業対象領域2グループにはマーク画像M3,M4が保存されている。更にデータユニットの送受信では、作業対象領域グループの情報も合わせて送受信可能である。 Further, in this example, as shown in FIG. 3B, in the information management device 10A, a plurality of mark images M are given to the plurality of work target areas 1 to 3. In such a case, in order to avoid displaying the unmarked mark image M, the mark image M can be grouped for each work target region and stored in the storage unit 14. In FIG. 1A, the user saves the mark images M1 and M2 in the work target area 1 group. Mark images M3 and M4 are stored in the work target area 2 group. Further, in the transmission/reception of the data unit, the information of the work target area group can also be transmitted/received.

同図(C)に示すように、同じ現実環境E(例えば、建物A,N階,X号室)において情報管理装置10Bを操作するユーザは、まず、該当する作業対象領域グループを選択する。情報管理装置10Bは、情報管理プログラム20の起動時に選択可能な作業対象領域グループ1〜3を表示し、ユーザに選択させる。ユーザは作業対象領域1グループを選択する。これにより情報管理装置10B(連携手段50)は、作業対象領域1グループに含まれるマーク画像M1,M2を、共有するデータとして(所定の記憶領域に)準備する。 As shown in FIG. 7C, the user who operates the information management device 10B in the same real environment E (for example, the building A, N floor, room X) first selects the corresponding work target area group. The information management apparatus 10B displays work target area groups 1 to 3 that can be selected when the information management program 20 is activated, and prompts the user to select them. The user selects the work target area 1 group. As a result, the information management apparatus 10B (cooperation unit 50) prepares the mark images M1 and M2 included in the work target area 1 group as shared data (in a predetermined storage area).

ユーザはライブビュー映像LV(内部仮想空間ARS2)上で原点マーカSP2を設定する。ここで、原点マーカSP2は、現実環境E(作業対象領域1)における原点マーカSP1と同じ(対応する)位置(この例ではドアDの左下端)に設定する。連携手段50は、原点マーカSP1と原点マーカSP2を照合し、共有するデータとして準備されている全てのマーク画像M(ここではマーク画像M1,M2)の位置を特定する。 The user sets the origin marker SP2 on the live view image LV (internal virtual space ARS2). Here, the origin marker SP2 is set at the same (corresponding) position as the origin marker SP1 (the lower left end of the door D in this example) in the real environment E (work target area 1). The cooperation unit 50 collates the origin marker SP1 and the origin marker SP2, and specifies the positions of all the mark images M (here, the mark images M1 and M2) prepared as shared data.

同図(D)に示すように、連携手段50は、マーク画像M1、M2のぞれぞれの位置(座標(x1、y1、z1)、座標(x2、y2、z2))の原点が原点マーカSP2の原点(点P1)にあるとして、内部仮想空間ARS2内の座標(x1、y1、z1)、座標(x2、y2、z2)の位置に、マーク画像M1、M2を表示する。 As shown in FIG. 3D, the cooperation unit 50 has origins at the positions (coordinates (x1, y1, z1), coordinates (x2, y2, z2)) of the mark images M1 and M2, respectively. Mark images M1 and M2 are displayed at positions of coordinates (x1, y1, z1) and coordinates (x2, y2, z2) in the internal virtual space ARS2 assuming that they are at the origin (point P1) of the marker SP2.

この結果、情報管理装置10Bのライブビュー映像LV上(この例ではドアDの左下端)に重ねてマーク画像M1、M2が表示され、保持される対象関連情報の更新等が可能となる。例えば、情報管理装置10B側で、新たにマーク画像Mを追加することも可能であり、上述の連携手段50の処理によって情報管理装置10A側のライブビュー映像LVに重ねて追加したマーク画像Mを表示することができる。 As a result, the mark images M1 and M2 are displayed overlaid on the live view image LV of the information management apparatus 10B (in this example, the lower left corner of the door D), and it becomes possible to update the retained target related information. For example, it is possible to newly add the mark image M on the information management apparatus 10B side, and the mark image M added by being superimposed on the live view image LV on the information management apparatus 10A side by the processing of the cooperation unit 50 described above. Can be displayed.

マーク画像Mに保持される(関連付けられる)対象関連情報は例えば、マーク画像Mに対する操作(例えば、タップ、クリックなど)によって表示可能であり、また、当該対象関連情報の追加・削除・変更等が可能である(以下の実施例において同様)。 The target related information held (associated) in the mark image M can be displayed by, for example, an operation (for example, tapping or clicking) on the mark image M, and addition/deletion/change of the target related information can be performed. It is possible (similar in the following examples).

図17(E)〜同図(G)は、一例として、或る情報管理装置10の内部仮想空間ARS1(仮想空間1)と、(例えば同じ)情報管理装置10のマップ35(仮想空間2)で対象関連情報を共有する例である。 17E to 17G, as an example, the internal virtual space ARS1 (virtual space 1) of a certain information management apparatus 10 and the map 35 (virtual space 2) of the (for example, the same) information management apparatus 10 are shown. This is an example of sharing target related information in.

この例では、情報管理装置10のライブビュー映像LV上で登録したマーク画像M1、M2を、マップ35上に表示している場合を示している。 In this example, the mark images M1 and M2 registered on the live view image LV of the information management device 10 are displayed on the map 35.

同図(E)に示すように、情報管理装置10を操作するユーザは、ライブビュー映像LV(内部仮想空間ARS1)上で原点マーカSP1を設定し、所定の位置(座標(x1、y1、z1)、座標(x2、y2、z2))にそれぞれマーク画像M1、M2を付与する。それぞれのマーク画像M1,M2の座標(x1、y1、z1)、座標(x2、y2、z2)は内部仮想空間ARS1の原点(0,0,0)を基準とした相対位置である。 As shown in (E) of the figure, the user operating the information management device 10 sets the origin marker SP1 on the live view image LV (internal virtual space ARS1) and sets it at a predetermined position (coordinates (x1, y1, z1). ) And the coordinates (x2, y2, z2)) are provided with the mark images M1 and M2, respectively. The coordinates (x1, y1, z1) and the coordinates (x2, y2, z2) of the mark images M1 and M2 are relative positions based on the origin (0, 0, 0) of the internal virtual space ARS1.

マップ35の表示を行う場合、ユーザは、同図(F)に示すようにマップ35(仮想空間2)上で原点マーカSP2を設定する。ここで、原点マーカSP2は、現実環境Eにおける原点マーカSP1と同じ(対応する)位置(この例では室内奥側の床Fの端部)に設定する。 When displaying the map 35, the user sets the origin marker SP2 on the map 35 (virtual space 2) as shown in FIG. Here, the origin marker SP2 is set at the same (corresponding) position as the origin marker SP1 in the real environment E (in this example, the end portion of the floor F on the inner side of the room).

同図(G)に示すように、連携手段50は、原点マーカSP1と原点マーカSP2を照合し、マーク画像M1,M2の位置(座標(x1、y1、z1)、座標(x2、y2、z2))の原点が原点マーカSP2にあるとして、マップ35の座標(x、y)の位置に、マーク画像Mを表示する。この結果、マップ35上にマーク画像M1,M2が表示され、保持される対象関連情報の更新等が可能となる。 As shown in (G) of the figure, the cooperation means 50 collates the origin marker SP1 and the origin marker SP2, and positions of the mark images M1 and M2 (coordinates (x1, y1, z1), coordinates (x2, y2, z2). )), the mark image M is displayed at the position of the coordinates (x, y) on the map 35, assuming that the origin is the origin marker SP2. As a result, the mark images M1 and M2 are displayed on the map 35, and it becomes possible to update the retained target related information.

例えば、マップ35側で、新たにマーク画像Mを追加することも可能であり、上述の連携手段50の処理によって情報管理装置10A側のライブビュー映像LVに重ねて追加したマーク画像Mを表示することができる。また、例えばマップ35(2次元の仮想空間2)側で追加したマーク画像Mをライブビュー映像LVに重ねて内部仮想空間ARS(3時限の仮想空間2)で表示する場合、マップ35のマーク画像Mの次元が不足(例えば、z座標が不足)する。このような場合、連携手段50は、不足する座標を(例えば固定値または変数で)付与する。例えば、マップ35上でマーク画像Mを付与した際にはその座標は(x3、y3)であるが、連携手段50はz座標を追加し、マーク画像Mの座標を例えば、(x3、y3、100)などとして記憶手段14に記憶する。また、不足する次元の座標はユーザが変更可能としてもよい。内部仮想空間ARS(ライブビュー映像LV上)では、z座標追加後の3次元座標に基づき、マーク画像Mが表示される。 For example, it is possible to newly add the mark image M on the map 35 side, and the mark image M added by being overlapped with the live view image LV on the information management device 10A side by the processing of the above-mentioned cooperation means 50 is displayed. be able to. In addition, for example, when the mark image M added on the side of the map 35 (two-dimensional virtual space 2) is superimposed on the live view image LV and displayed in the internal virtual space ARS (the virtual space 2 of three time periods), the mark image of the map 35 is displayed. The dimension of M is insufficient (for example, the z coordinate is insufficient). In such a case, the cooperation unit 50 gives the missing coordinates (for example, with a fixed value or a variable). For example, when the mark image M is given on the map 35, its coordinates are (x3, y3), but the linking means 50 adds the z coordinate and sets the coordinates of the mark image M to, for example, (x3, y3, 100) and the like are stored in the storage means 14. The user may be able to change the coordinates of the missing dimension. In the internal virtual space ARS (on the live view video LV), the mark image M is displayed based on the three-dimensional coordinates after the addition of the z coordinate.

図18(A)〜同図(C)は、一例として、情報管理装置10の内部仮想空間ARS(仮想空間1)と、別の装置(例えば、図10に示す端末装置250)におけるシステム(例えば、BIM(仮想空間2))で扱う環境データ(BIMデータ)36で対象関連情報を共有する例である。マーク識別番号MIDをキーにした情報群(データユニット)は、複数の装置の間で送受信可能であるので、例えば通信手段や連携手段50を介して情報管理装置10に記憶されるデータユニットを端末装置250が取得すれば、端末装置250においてデータユニットを出力できる。 18A to 18C, as an example, a system (for example, a system) in the internal virtual space ARS (virtual space 1) of the information management device 10 and another device (for example, the terminal device 250 shown in FIG. 10). , BIM (virtual space 2)), the target related information is shared by environment data (BIM data) 36. Since the information group (data unit) using the mark identification number MID as a key can be transmitted and received between a plurality of devices, for example, the data unit stored in the information management device 10 via the communication means or the cooperation means 50 is used as a terminal. When the device 250 acquires the data unit, the terminal device 250 can output the data unit.

この例では、情報管理装置10のライブビュー映像LV上で登録したマーク画像Mを、端末装置250(のBIM等のシステム)で扱う環境データ36上に表示している場合を示している。 In this example, the mark image M registered on the live view image LV of the information management device 10 is displayed on the environment data 36 handled by the terminal device 250 (system such as BIM).

同図(A)に示すように、情報管理装置10を操作するユーザは、ライブビュー映像LV(内部仮想空間ARS)上で原点マーカSP1を設定し、所定の位置(座標(x、y、z))にマーク画像Mを付与する。マーク画像Mの座標(x、y、z)は内部仮想空間ARS1の原点(0,0,0)を基準とした相対位置である。 As shown in (A) of the figure, the user operating the information management device 10 sets the origin marker SP1 on the live view image LV (internal virtual space ARS), and sets a predetermined position (coordinates (x, y, z )) is provided with the mark image M. The coordinates (x, y, z) of the mark image M are relative positions based on the origin (0, 0, 0) of the internal virtual space ARS1.

一方、同図(B)に示すように端末装置250を操作するユーザは、例えばBIMなどのシステム上で環境データ36に原点マーカSP2を設定する。ここで、原点マーカSP2は、現実環境Eにおける原点マーカSP1と同じ(対応する)位置(この例では窓Wのの左下端)に設定する。 On the other hand, as shown in FIG. 3B, the user operating the terminal device 250 sets the origin marker SP2 in the environment data 36 on a system such as BIM. Here, the origin marker SP2 is set at the same (corresponding) position as the origin marker SP1 in the real environment E (lower left end of the window W in this example).

同図(C)に示すように、連携手段50は、原点マーカSP1と原点マーカSP2を照合し、マーク画像Mの位置(座標(x、y、z))の原点が原点マーカSP2にあるとして、環境データ36内の座標(x、y、z)の位置に、マーク画像Mを表示する。この結果、環境データ36上(この例では窓Wの左下端)に重ねてマーク画像Mが表示され、保持される対象関連情報の更新等が可能となる。例えば、情報管理装置10B側で、新たにマーク画像Mを追加することも可能であり、上述の連携手段50の処理によって情報管理装置10A側のライブビュー映像LVに重ねて追加したマーク画像Mを表示することができる。 As shown in (C) of the figure, the linking means 50 collates the origin marker SP1 and the origin marker SP2, and the origin of the position (coordinates (x, y, z)) of the mark image M is at the origin marker SP2. , The mark image M is displayed at the position of the coordinates (x, y, z) in the environment data 36. As a result, the mark image M is displayed over the environmental data 36 (in this example, the lower left corner of the window W), and it is possible to update the retained target related information. For example, it is possible to newly add the mark image M on the information management apparatus 10B side, and the mark image M added by being superimposed on the live view image LV on the information management apparatus 10A side by the processing of the cooperation unit 50 described above. Can be displayed.

図18(D)〜同図(F)は、一例として、端末装置250におけるシステム(例えば、BIM(仮想空間1))で扱う環境データ(BIMデータ)36と、情報管理装置10のマップ35(仮想空間1)で対象関連情報を共有する例である。 18D to 18F, as an example, the environment data (BIM data) 36 handled by the system (for example, BIM (virtual space 1)) in the terminal device 250 and the map 35 (of the information management device 10 ( This is an example of sharing target related information in the virtual space 1).

この例では、端末装置250のシステム(例えば、BIM)上で生成した環境データ36(例えば、CADデータなど)にマーク画像Mを新たに登録し、それを情報管理装置10のマップ35上に表示している場合を示している。 In this example, the mark image M is newly registered in the environment data 36 (for example, CAD data) generated on the system (for example, BIM) of the terminal device 250, and the mark image M is displayed on the map 35 of the information management device 10. The case is shown.

同図(D)に示すように、端末装置250のシステムを操作するユーザは、当該システム上で環境データ(例えば、点群データなど)36上で原点マーカSP1を設定し、所定の位置(座標(x1、y1、z1)、座標(x2、y2、z2))にそれぞれマーク画像M1、M2を付与する。マーク画像M1、M2の座標(x1、y1、z1)、座標(x2、y2、z2)はそれぞれ環境データ36に設定した原点マーカSP1の原点(0,0,0)を基準とした相対位置である。 As shown in FIG. 3D, the user operating the system of the terminal device 250 sets the origin marker SP1 on the environment data (for example, point cloud data) 36 on the system and sets the predetermined position (coordinates). Mark images M1 and M2 are given to (x1, y1, z1) and coordinates (x2, y2, z2)), respectively. The coordinates (x1, y1, z1) and the coordinates (x2, y2, z2) of the mark images M1 and M2 are relative positions based on the origin (0, 0, 0) of the origin marker SP1 set in the environment data 36. is there.

一方、同図(E)に示すように情報管理装置10を操作するユーザは、例えばマップ35上で原点マーカSP2を設定する。ここで、原点マーカSP2は、現実環境Eにおける原点マーカSP1と同じ(対応する)位置(この例では壁面WLの左下端)に設定する。 On the other hand, the user who operates the information management device 10 as shown in FIG. 7E sets the origin marker SP2 on the map 35, for example. Here, the origin marker SP2 is set at the same (corresponding) position as the origin marker SP1 in the real environment E (lower left end of the wall surface WL in this example).

同図(F)に示すように、連携手段50は、原点マーカSP1と原点マーカSP2を照合し、マーク画像M1、M2の位置(座標(x1、y1、z1)、座標(x2、y2、z2))の原点が原点マーカSP2にあるとして、マップ35内の座標(x1、y1、z1)、座標(x2、y2、z2)の位置に、マーク画像M1、M2を表示する。この結果、マップ35上(この例では壁面WL左下端)に重ねてマーク画像M1、M2が表示され、保持される対象関連情報の更新等が可能となる。このように、他の装置(例えば、端末装置250)などのシステム(例えば、BIM、CIMなど)で新たに設定したマーク画像M(対象関連情報)を情報管理装置10の仮想空間1(マップ35上やライブビュー映像LV上)に表示することもできる。 As shown in (F) of the figure, the cooperation unit 50 collates the origin marker SP1 and the origin marker SP2, and positions of the mark images M1 and M2 (coordinates (x1, y1, z1), coordinates (x2, y2, z2). )) is set to be the origin marker SP2 and the mark images M1 and M2 are displayed at the positions of the coordinates (x1, y1, z1) and the coordinates (x2, y2, z2) in the map 35. As a result, the mark images M1 and M2 are displayed in an overlapping manner on the map 35 (the lower left corner of the wall surface WL in this example), and the target related information that is held can be updated. In this way, the mark image M (target related information) newly set by the system (for example, BIM, CIM, etc.) such as another device (for example, the terminal device 250) is displayed in the virtual space 1 (map 35) of the information management device 10. It can also be displayed on the screen or on the live view image LV).

なお、原点マーカSPは、ユーザの操作で設定するものに限らず、点群データや現実環境Eの「特徴的な点」(環境データ36の一部)を原点マーカSPとしてもよい。例えば、環境データ36において、位置を特定可能なドアや窓などに対応する点群データやこれらに対応する「特徴的な点」を原点マーカSPとする。そして、マーク画像Mが設定された環境データ36を情報管理装置10に読み込んで、ライブビュー映像LVで表示しながら原点マーカSPと照合する(形状の一致を検出する)。原点マーカSP(例えば、ドアに対応する点群データ)と一致する形状が検出された場合、マーク画像Mをライブビュー映像LV上に表示する。 The origin marker SP is not limited to the one set by the user's operation, and point cloud data or “characteristic points” of the real environment E (a part of the environment data 36) may be used as the origin marker SP. For example, in the environmental data 36, the point group data corresponding to a door or a window whose position can be specified, or “characteristic points” corresponding to these points are set as the origin marker SP. Then, the environment data 36 in which the mark image M is set is read into the information management device 10, and is collated with the origin marker SP while displaying the live view image LV (the conformity of the shape is detected). When the shape that matches the origin marker SP (for example, the point cloud data corresponding to the door) is detected, the mark image M is displayed on the live view image LV.

図19は、情報管理装置10のライブビュー映像LVにおける表示の他の例を示す概要図であり、同図(A)が現実環境Eの概要図、同図(B)、同図(C)がライブビュー映像LVにおける表示の概要図、同図(D)が環境データ36を示す概要図、同図(E)がライブビュー映像LVにおける表示の概要図である。 FIG. 19 is a schematic diagram showing another example of the display in the live view image LV of the information management device 10. FIG. 19A is a schematic diagram of the real environment E, FIG. 19B, and FIG. Is a schematic view of the display on the live view video LV, FIG. 6D is a schematic view showing the environmental data 36, and FIG. 7E is a schematic view of the display on the live view video LV.

情報管理装置10のライブビュー映像LVの画角には限界があるため、作業対象領域グループの複数のマーク画像Mの全てが表示しきれない場合がある。具体的には、図19(A)に示すように、現実環境E(作業対象領域)に対象OB1〜OB3があり、それぞれにマーク画像M1〜M3が付与されているとする。作業対象領域が広い場合、同図(B)に示すように情報管理装置10のライブビュー映像LVのある画角ではマーク画像M1のみが表示され、マーク画像M2,M3が画角内に収まらない場合がある。このような場合、例えばマーク画像Mの存在を示唆する手段(例えば、表示リストガイドDG)などを設けるとよい。表示リストガイドDGの一例としては同図(B)に示すように、非表示になっているマーク画像Mの位置を示すマーク(同図では矢印)であってもよいし、同図(C)に示すように非表示になっているマーク画像Mのリスト(リスト表示位置によってマーク画像Mの位置も示唆されると望ましい)などである。 Since the angle of view of the live view image LV of the information management device 10 is limited, it may not be possible to display all of the plurality of mark images M in the work target area group. Specifically, as shown in FIG. 19A, it is assumed that the objects OB1 to OB3 are in the real environment E (work target area) and the mark images M1 to M3 are given to them. When the work target area is wide, only the mark image M1 is displayed at a certain angle of view of the live view image LV of the information management device 10 as shown in FIG. 7B, and the mark images M2 and M3 do not fit within the angle of view. There are cases. In such a case, for example, a means (for example, a display list guide DG) for suggesting the existence of the mark image M may be provided. An example of the display list guide DG may be a mark (arrow in the figure) indicating the position of the mark image M that is not displayed, as shown in the figure (B), or the figure (C). A list of the mark images M that are hidden as shown in (is desirable if the position of the mark image M is also suggested by the list display position).

また、同図(D)、同図(E)は環境データ36(仮想空間1)上において設定されたマーク画像M(同図(D))を、情報管理装置10のライブビュー映像LV(仮想空間2、同図(E))に連携させる一例を示している。上述のように、原点マーカSPは線分のマーカに変えて、点群データなどの「特徴的な点」であってもよい。この例では例えば、同図(D)に破線で示すように、環境データ36上の壁WLを原点マーカSPにしている。 Further, in FIGS. 2D and 2E, the mark image M (FIG. 2D) set on the environment data 36 (virtual space 1) is displayed as a live view image LV (virtual) of the information management device 10. An example is shown in which the space 2 is linked to FIG. As described above, the origin marker SP may be a "characteristic point" such as point cloud data, instead of a marker of a line segment. In this example, for example, the wall WL on the environment data 36 is used as the origin marker SP, as indicated by the broken line in FIG.

連携手段50は、仮想空間2において原点マーカSP(点群データの「特徴的な点」)の照合を行なう。具体的には、点群データと一致する形状を検出する。そして原点マーカSP(この場合、壁WL)の照合(ライブビュー映像LV上での壁WLの検出)ができた場合、マーク画像M1をライブビュー映像LV上に表示する。このとき、原点マーカSPからの相対位置として表示されるマーク画像M1の位置(同図(E)に一点鎖線で示す)がライブビュー映像LVの画角に収まっていない場合には、例えば原点マーカSPである壁WLの、点群データとしての原点Xなどに、マーク画像M1を表示するようにしてもよい。 The cooperation unit 50 collates the origin marker SP (“characteristic point” of the point cloud data) in the virtual space 2. Specifically, a shape that matches the point cloud data is detected. When the origin marker SP (in this case, the wall WL) can be collated (the wall WL is detected on the live view image LV), the mark image M1 is displayed on the live view image LV. At this time, if the position of the mark image M1 displayed as a relative position from the origin marker SP (shown by a dashed line in FIG. 7E) is not within the angle of view of the live view image LV, for example, the origin marker SP The mark image M1 may be displayed at the origin X as point cloud data on the wall WL which is SP.

なお、或る仮想空間1において新規で追加されたマーク画像Mを別の仮想空間2で表示する場合、マーク画像Mの表示態様を変化させて(例えば、点滅表示など行い)、新規に追加されたマーク画像Mであることなどを示唆するように構成してもよい。 When a newly added mark image M in a certain virtual space 1 is displayed in another virtual space 2, the display mode of the mark image M is changed (for example, blinking display is performed) and the newly added mark image M is added. The mark image M may be configured to be suggested.

また、連携手段50は、連携処理において、必要に応じて仮想空間の(座標系の)縮尺や回転を行なってもよい。 In addition, the cooperation unit 50 may perform scale reduction or rotation (in the coordinate system) of the virtual space as necessary in the cooperation processing.

また、原点マーカSPは、仮想空間の始点(原点)と、向きおよびサイズの3つを特定する手段であればよい。従って、上述の原点マーカSPに替えて、画像(例えば、物理マーカ、2次元バーコード、写真など)を原点マーカSPとしてもよい。この場合例えば、原点マーカSPは、原点、向きおよびサイズを1つの画像で規定する(1m四方の原点マーカSPを幅1mの扉の前に設定するなど)ものであってもよい。また、原点マーカSPは、原点と向きを1つの画像で指定し、サイズを点で指定するものであってもよいし、ユーザに指定される任意の点P1と点P2とをそれぞれ画像に置き換えたものであってもよい。 Further, the origin marker SP may be any means that specifies the starting point (origin) of the virtual space and the three of the direction and the size. Therefore, an image (for example, a physical marker, a two-dimensional barcode, a photograph, etc.) may be used as the origin marker SP instead of the above-mentioned origin marker SP. In this case, for example, the origin marker SP may be one that defines the origin, direction, and size in one image (for example, the origin marker SP of 1 m square is set in front of a door having a width of 1 m). Further, the origin marker SP may be one in which the origin and the direction are designated by one image and the size is designated by a point, or the arbitrary points P1 and P2 designated by the user are respectively replaced by images. It may be one.

以上説明したように、本実施形態によれば、ある空間内に存在する対象OBについて周辺環境も含めた広角の映像(ライブビュー映像LV)を表示した場合に、その空間内に存在する対象OBの位置をマーク画像Mで表示することができ、空間内の対象OBの位置を自動的に記憶することができる。 As described above, according to the present embodiment, when a wide-angle video (live view video LV) including the surrounding environment is displayed for the target OB existing in a certain space, the target OB existing in the space is displayed. Can be displayed in the mark image M, and the position of the target OB in the space can be automatically stored.

また、ユーザはライブビュー映像LVを見ながら、対象OBの位置をタッチ(タップ等)操作するのみで、対象OBに対応するマーク画像Mを付与することができる。また、マーク画像Mを選択することにより当該マーク画像Mに紐付け可能なデータが一覧で表示されるため、現場にいながら、視覚的な操作で容易にマーク画像M(対象OB)に対象関連情報(位置情報(基準位置からの相対位置)や形状などの情報も含む)を付与することができる。 Further, the user can add the mark image M corresponding to the target OB simply by touching (tapping or the like) the position of the target OB while watching the live view image LV. Further, by selecting the mark image M, the data that can be associated with the mark image M is displayed in a list, so that it is possible to easily associate the mark image M (target OB) with the target image by a visual operation while on site. Information (including position information (relative position from the reference position) and shape) can be added.

また、対象OBの対象位置情報とともに、対象OBの「特徴的な点」から対象OBの属性(「机」、「椅子」など)を対象関連情報として関連付けることにより、マーク画像Mは、他の情報管理装置10であっても、時間や日付が異なっても、同じ空間に赴いて情報管理プログラム20を実行させることで同じデータとして表示手段13に表示させることができる。 In addition, by associating the target position information of the target OB and the attributes (“desk”, “chair”, etc.) of the target OB from the “characteristic points” of the target OB as target related information, the mark image M is Even in the information management device 10, even if the time and date are different, it is possible to display the same data on the display means 13 by going to the same space and executing the information management program 20.

従来の技術では、例えば対象OBが壁の傷のような場合、傷OBの状態を示す接写写真は、枚数が多くなったり撮影から時間が経過してしまうと、撮影者であってもどこで撮った写真であるか、不明になりがちである。また、場所の特定や、現場の状況を第三者にも伝えるためには、傷OBの接写から、後退しつつ、周辺環境も含めた広い画角の写真を段階的に撮影するなど、俯瞰的な情報と詳細な情報の両方が必要となる。しかしながらそれらは後に手作業で紐づけ(関連づける)必要があり、枚数が膨大になることから整理には時間が係り、混乱を招いて煩雑となる。 In the conventional technique, for example, when the target OB is a scratch on a wall, even if the photographer takes a close-up photograph showing the state of the scratch OB, if the number of shots increases or the time elapses from the shooting. It is likely that the photo is unknown or unknown. In addition, in order to identify the location and convey the situation of the site to a third party, from the close-up of the scratch OB, while taking a retreat, step by step photographs of a wide angle of view including the surrounding environment are taken. Both detailed and detailed information is needed. However, it is necessary to manually associate (associate) them with each other later, and since the number of sheets becomes huge, it takes time to organize them, which causes confusion and becomes complicated.

また、これらを手作業で整理するには、フォルダ分けや図面への書き込みなど複数種類に渡ったドキュメントを残す必要があり、大変煩わしく、作業時間も係る問題もあった。 Further, in order to manually organize these, it is necessary to leave a plurality of types of documents such as dividing into folders and writing in drawings, which is very cumbersome, and there is a problem that it takes time to work.

また、建築・建設現場や設備管理における点検・メンテナンスの現場等では、対象OBそのものの情報だけでなく、工事や作業に関係する、あるいは直接関係のない周辺環境情報なども残す必要があり、また保存の方法も、画像データや文書データなど多様なデータ形式で柔軟性の高めた方法が望まれていた。 In addition, at the construction/construction site or the site of inspection/maintenance in facility management, it is necessary to leave not only the information of the target OB itself, but also the surrounding environment information related to the construction or work, or not directly related to it. As for the storage method, a method with increased flexibility in various data formats such as image data and document data has been desired.

本実施形態によれば、対象OBを含む空間のライブビュー映像LVを視認しながら、対象OBの位置をタッチ操作(タップ等)することで、リアルタイムで、ライブビュー映像LVに重ねてマーク画像Mを表示させることができる。また、同じ情報管理プログラム20がインストールされた装置(情報管理装置10)であれば、別の装置であっても同じ空間でライブビュー映像LVを表示させた場合に、マーク画像Mが再現される。 According to the present embodiment, by performing a touch operation (tapping or the like) on the position of the target OB while visually checking the live view image LV of the space including the target OB, the mark image M is superimposed on the live view image LV in real time. Can be displayed. In addition, if the same information management program 20 is installed in the device (information management device 10), the mark image M is reproduced even when another device displays the live view image LV in the same space. ..

また、マーク画像Mはライブビュー映像VLをタッチ操作するのみでその空間における位置関係を自動で取得し、記憶する。 In addition, the mark image M automatically acquires and stores the positional relationship in the space only by touching the live view image VL.

このように或る空間における対象OBについて、視覚的な操作で容易にマーク画像Mを付与し、また当該対象OB(マーク画像M)の情報を複数のユーザ(複数の情報管理装置10)の間で共有することができる。 In this way, the mark image M is easily attached to the target OB in a certain space by a visual operation, and the information of the target OB (mark image M) is shared among a plurality of users (a plurality of information management devices 10). Can be shared at.

さらに、マーク画像Mを直接的に操作(タッチ、タップ等)することで、当該マーク画像Mに関連する情報(対象関連情報)を容易に紐付けることができる。つまり現場等でマーク画像Mと対象関連情報の関連付けを相当程度進めることが可能となる。あるいは、マーク画像Mの空間における位置関係を、俯瞰的にマップ35で表示しつつ、個々のマーク画像Mに対して対象関連情報を関連付けることができるので、現場を離れた後であっても、情報の紐付け、整理を容易に行なうことができ、作業負担を大幅に軽減させることができる。 Further, by directly operating (touching, tapping, etc.) the mark image M, the information (target related information) related to the mark image M can be easily linked. In other words, it is possible to considerably advance the association between the mark image M and the target related information on the spot. Alternatively, since the target-related information can be associated with each mark image M while displaying the positional relationship of the mark image M in the space on the map 35 in a bird's-eye view, even after leaving the site, Information can be linked and organized easily, and the work load can be greatly reduced.

また、対象OBに関連する情報(対象関連情報)は、パッケージデータとして対象OB毎に管理(送受信、ダウンロード等)が可能であるため、複数人でのデータ共有が行ない易くなる。さらに、パッケージデータとして文書等に埋め込むことが出来るので、報告書、見積書や発注書などの書類作成の効率が向上し、誤った写真を付するなどの書類作成ミス等も回避することができる。 Further, the information related to the target OB (target related information) can be managed (transmitted/received, downloaded, etc.) for each target OB as package data, so that it becomes easy for a plurality of people to share the data. Furthermore, since it can be embedded in documents etc. as package data, the efficiency of creating documents such as reports, quotations and purchase orders can be improved, and document mistakes such as adding wrong photographs can be avoided. ..

更にまた、仮想空間が異なる場合においても、対処関連情報を共有可能となる。具体的には、例えば情報管理装置10(情報管理プログラム20)においてライブビュー映像LV上で登録した対象関連情報(画像やメモなど)を、連携手段50によって例えば外部のBIM(Building Information Modeling)やCIM(Construction Information Modeling)等で用いられるデータ(CADデータや点群データなど)上で再現(共有、参照)し、又は外部のBIM/CIM等で登録された対象関連情報を情報管理装置10において再現(共有、参照)することができる。 Furthermore, even when the virtual spaces are different, the handling related information can be shared. Specifically, for example, the target related information (images, memos, etc.) registered on the live view video LV in the information management device 10 (information management program 20) is transferred to, for example, an external BIM (Building Information Modeling) by the cooperation unit 50. In the information management device 10, target related information reproduced (shared, referenced) on data (CAD data, point cloud data, etc.) used in CIM (Construction Information Modeling) or the like or registered in external BIM/CIM or the like is used. Can be reproduced (shared, referenced).

つまり、建設現場や工事現場などの現実空間において実行される情報管理装置10のAR空間上と、遠隔の事務所内のBIM/CIM等のデータ上などにおいて双方向に対象関連情報を共有することが可能となり、ファシリティマネジメント(Facility Management)に大きく寄与できる。 That is, it is possible to bidirectionally share the target related information on the AR space of the information management device 10 executed in a real space such as a construction site or a construction site and on the data such as BIM/CIM in a remote office. It will be possible and will make a great contribution to Facility Management.

以上説明した、情報管理装置10および情報管理システム100を構成する各装置(ハードウェア)の一部または全てを、当該装置(ハードウェア)と同等の機能を実現するソフトウェアに置き換えてもよい。 A part or all of the devices (hardware) configuring the information management device 10 and the information management system 100 described above may be replaced with software that realizes a function equivalent to the device (hardware).

尚、本発明の情報管理装置、情報管理システム、情報管理方法および情報管理プログラムは、上記の例に限らない。 The information management device, information management system, information management method, and information management program of the present invention are not limited to the above examples.

例えば、上記の実施形態では、対象OBが複数ある場合、それらの位置は、例えば、同じフロアの同じ部屋内に存在する場合を例に説明したが、これに限らない。例えば、複数の対象OBは、フロアの異なる部屋や、異なるフロアに存在する部屋に分散しているものであってもよい。 For example, in the above-described embodiment, when there are a plurality of target OBs, their positions are described as an example in the same room on the same floor, but the present invention is not limited to this. For example, the plurality of target OBs may be dispersed in rooms on different floors or rooms on different floors.

また、例えば、複数の対象OB1、OB2について、関連性(例えば、親−子の関係)が生じるように関連付けを行なってもよい。具体的には、位置特定手段23によってマーク画像Mの位置を特定するため、複数の対象OB1、OB2について、マーク画像M1,M2がそれぞれ画角に収まるように広角撮影をするのであるが、マーク画像M2の広角撮影時に、マーク画像M1がその画角に収まるように撮影(対象OB1,OB2の位置を特定)する。これにより、マーク画像M1とマーク画像M2に関連性を持たせるようにしてもよい。例えばこの場合、マーク画像M1およびそれに紐付けられた対象関連情報が子のデータであり、これを含むように撮影された(位置が特定された)マーク画像M2およびそれに紐付けられた対象関連情報が親のデータであるように関連付けてもよい。マーク画像Mの数やそれらの対象関連情報の量が膨大になるような場合には、それぞれのマーク画像Mの親子関係を記録することで、効率よくデータの管理を行なうことができる。 Further, for example, the plurality of objects OB1 and OB2 may be associated with each other so that a relationship (for example, a parent-child relationship) occurs. Specifically, since the position of the mark image M is specified by the position specifying means 23, wide-angle shooting is performed for the plurality of objects OB1 and OB2 so that the mark images M1 and M2 are included in the angle of view. At the time of wide-angle shooting of the image M2, the mark image M1 is shot (the positions of the objects OB1 and OB2 are specified) so as to fit within the angle of view. Thereby, the mark image M1 and the mark image M2 may be associated with each other. For example, in this case, the mark image M1 and the target-related information associated with it are child data, and the mark image M2 (the position of which is specified) photographed so as to include this and the target-related information associated with it May be associated so that is the parent's data. When the number of mark images M and the amount of target related information thereof become enormous, the parent-child relationship of each mark image M is recorded, so that data can be efficiently managed.

また、対象OBは、物体形状認識手段によって認識・特定してもよい。 Further, the target OB may be recognized/specified by the object shape recognition means.

また、マーク画像Mの選択、変更が可能であってもよい。例えば、関連付けられている対象関連情報の属性に応じてマーク画像Mの種類が異なるように構成されていてもよい。 Further, the mark image M may be selectable and changeable. For example, the type of the mark image M may be different depending on the attribute of the associated target related information.

また、照合手段292は例えば、3次元画像として表示されているマップ35の一部に2次元画像の環境データ36を照合するものであってもよい。例えば、室内の対象OBに対して作成されたマップ35の床面部分に重畳させて、当該室内の設計図面等の2次元画像を重ねて照合データ37を作成してもよい。 The matching means 292 may match the environment data 36 of the two-dimensional image with a part of the map 35 displayed as the three-dimensional image. For example, the collation data 37 may be created by superimposing it on the floor surface portion of the map 35 created for the target OB in the room and superimposing a two-dimensional image such as a design drawing of the room.

また、上記の実施形態では、情報管理装置10がタブレット端末型の装置である場合を例に説明したが、これに限らず、例えば、ワイヤレスで頭部に装着するヘッドマウントディスプレイ型(あるいは眼鏡型)の装置(眼鏡型のARグラスや、複合現実(MR)プラットフォーム用デバイス(例えば、ホログラフィックコンピューティングを実現するヘッドマウントディスプレイ型デバイス)など)であってもよい。 Further, in the above embodiment, the case where the information management device 10 is a tablet terminal type device has been described as an example, but the invention is not limited to this, and for example, a head mounted display type (or eyeglass type that is wirelessly worn on the head). ) Apparatus (spectacle-type AR glasses, a device for mixed reality (MR) platform (for example, a head-mounted display-type device that realizes holographic computing), or the like).

また、上記の実施形態における端末移動情報は、初期位置からの情報管理装置10の相対的な位置情報として説明したが、これに加えて例えば、モーショントラッキングなどを利用して端末の移動経過情報(移動ログ、行動ログ)を合わせて記憶手段14に記憶し、また再現可能に構成してもよい。例えば、設備の点検やメンテナンスの現場において、当該情報管理装置10を使用する場合などに行動ログを再生することにより、前任者あるいは熟練者の点検・メンテナンスの実行順序をトレース・検証することができ、後の作業の効率化が図れる。 Further, although the terminal movement information in the above embodiment is described as the relative position information of the information management device 10 from the initial position, in addition to this, for example, the movement progress information of the terminal using motion tracking or the like ( The movement log and the action log) may be stored together in the storage unit 14 and may be reproducible. For example, when the information management device 10 is used at the site of equipment inspection or maintenance, the action log can be reproduced to trace/verify the inspection/maintenance execution order of the predecessor or expert. The efficiency of subsequent work can be improved.

また、本発明の情報管理装置、情報管理システム、情報管理方法および情報管理プログラムは、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 Further, the information management device, the information management system, the information management method, and the information management program of the present invention are not limited to the above-mentioned embodiments, and various modifications can be made without departing from the gist of the present invention. Of course.

本発明の情報管理装置、情報管理システム、情報管理方法および情報管理プログラムは、建実在する空間に存在する対象に対して情報を付与してデータとして記憶する技術に利用できる。 The information management device, the information management system, the information management method, and the information management program of the present invention can be used for a technique of adding information to an object existing in a real space and storing it as data.

10 情報管理装置
11 制御手段
12 入力手段
13 表示手段(ディスプレイ)
14 記憶手段
15 撮像手段
16 情報通信手段
17 状態取得手段
18 音声入力手段(マイク)
19 スピーカ
20 情報管理手段(情報管理プログラム)
21 マーク付与手段
22 文書作成手段
23 位置特定手段
25 関連付け手段
27 仮想視覚処理手段(仮想視聴覚処理手段)、AR処理手段
29 全体視表示手段
30 関連情報データベース
35 マップ
50 連携手段
250 端末装置
ARS 内部仮想空間
E 現実環境
TT 案内表示
100 情報管理システム
101 タブレット端末
110 ネットワーク
121 物理ボタン
122 マーク付与操作ボタン
123 撮影ボタン
126 操作ボタン
131 物理ボタン
151 レンズ
153 撮像素子
155 画像処理プロセッサ
210 ネットワーク
220 サーバ装置
221,231 記憶手段
230 クラウドサーバ装置
291 マッピング手段
292 照合手段
293 環境情報取得手段
10 information management device 11 control means 12 input means 13 display means (display)
14 storage means 15 imaging means 16 information communication means 17 state acquisition means 18 voice input means (microphone)
19 speaker 20 information management means (information management program)
21 mark giving means 22 document creating means 23 position specifying means 25 associating means 27 virtual visual processing means (virtual audiovisual processing means), AR processing means 29 overall view display means 30 related information database 35 map 50 cooperation means 250 terminal device ARS internal virtual Space E Real environment TT Guidance display 100 Information management system 101 Tablet terminal 110 Network 121 Physical button 122 Marking operation button 123 Shooting button 126 Operation button 131 Physical button 151 Lens 153 Image sensor 155 Image processor 210 Network 220 Server device 221, 231 Storage means 230 Cloud server device 291 Mapping means 292 Collating means 293 Environmental information acquisition means

Claims (16)

実在する対象を含む対象領域のライブビュー映像を取得可能な撮像手段と、
前記ライブビュー映像を表示可能な表示手段と、
記憶手段と、
情報管理手段と、
を有する携帯可能な情報管理装置であって、
前記情報管理手段は、
前記対象の位置を特定する位置特定手段と、
前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与手段と、
前記対象に関連する情報を、前記マーク画像に対応付けて前記記憶手段に記憶する関連付け手段と、を有する、
ことを特徴とする情報管理装置。
Imaging means capable of acquiring a live view image of a target area including a real target,
Display means capable of displaying the live view image,
Storage means,
Information management means,
A portable information management device having:
The information management means,
Position specifying means for specifying the position of the target,
Mark providing means for displaying on the display means a mark image corresponding to the target in an overlapping manner with the live view image,
Association information for storing information related to the target in the storage means in association with the mark image.
An information management device characterized by the above.
前記関連付け手段は、前記位置特定手段が特定した前記対象の位置と、前記情報とを前記マーク画像に対応付ける、
ことを特徴とする請求項1に記載の情報管理装置。
The associating unit associates the position of the target specified by the position specifying unit and the information with the mark image,
The information management device according to claim 1, characterized in that.
前記マーク付与手段は、前記マーク画像を複数付与することが可能である、
ことを特徴とする請求項1または請求項2に記載の情報管理装置。
The mark giving means can give a plurality of the mark images.
The information management device according to claim 1 or 2, wherein
少なくとも一つの前記マーク画像の位置を全体視して前記表示手段に表示する全体視表示手段を有する、
ことを特徴とする請求項1乃至請求項3のいずれかに記載の情報管理装置。
There is a holistic display means for displaying the position of at least one of the mark images as a whole on the display means.
The information management apparatus according to any one of claims 1 to 3, wherein
前記情報は、撮像データ、文字データおよび音声データの少なくとも何れかである、
ことを特徴とする請求項1乃至請求項4のいずれかに記載の情報管理装置。
The information is at least one of image pickup data, character data and voice data,
The information management device according to any one of claims 1 to 4, characterized in that.
少なくとも前記情報の送受信が可能な情報通信手段を備える、
ことを特徴とする請求項1乃至請求項5のいずれかに記載の情報管理装置。
At least information communication means capable of transmitting and receiving the information,
The information management device according to any one of claims 1 to 5, characterized in that.
異なる空間において、前記情報を共有可能にする連携手段を有する、
ことを特徴とする請求項1乃至請求項6のいずれか一項に記載の情報管理装置。
In a different space, it has a cooperation means for sharing the information,
The information management device according to any one of claims 1 to 6, wherein:
請求項1乃至請求項7のいずれか一項に記載の情報管理装置と、
前記情報の管理が可能な他の装置と、を備える、
ことを特徴とする情報管理システム。
An information management apparatus according to any one of claims 1 to 7,
And another device capable of managing the information,
An information management system characterized in that
前記他の装置は、サーバ装置であり、
ネットワークを介して前記情報管理装置と前記サーバ装置との間で少なくとも前記情報の送受信を行う、
ことを特徴とする請求項8に記載の情報管理システム。
The other device is a server device,
At least transmitting and receiving the information between the information management device and the server device via a network,
The information management system according to claim 8, wherein:
前記他の装置は、他の端末装置であり、
ネットワークを介して前記情報管理装置と前記他の端末装置との間で少なくとも前記情報の送受信を行う、
ことを特徴とする請求項8に記載の情報管理システム。
The other device is another terminal device,
At least transmitting and receiving the information between the information management device and the other terminal device via a network,
The information management system according to claim 8, wherein:
実在する対象に所定の情報を付与して情報管理装置で管理可能なデータとして保存する情報管理方法であって、
実在する対象を含む対象領域のライブビュー映像を撮像手段により取得する撮像工程と、
前記ライブビュー映像を表示手段に表示する表示工程と、
所定空間における前記対象の位置を特定する位置特定工程と、
前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与工程と、
前記対象に関連する情報を、前記マーク画像に対応付けて記憶手段に記憶する関連付け工程と、を有する、
ことを特徴とする情報管理方法。
An information management method for providing predetermined information to an existing object and storing the data as data that can be managed by an information management device,
An image capturing step of acquiring a live view image of a target region including a real target by an image capturing means;
A display step of displaying the live view image on display means,
A position specifying step of specifying the position of the target in a predetermined space,
A mark giving step of displaying a mark image corresponding to the target on the live view image on the display means,
An associating step of associating the information related to the target with the mark image and storing it in a storage means.
An information management method characterized by the following.
前記情報管理装置と、他の装置との間で前記情報の送受信を行う情報通信工程を有する、
ことを特徴とする請求項11に記載の情報管理方法。
An information communication step of transmitting and receiving the information between the information management device and another device;
The information management method according to claim 11, wherein:
実在する対象を含む対象領域のライブビュー映像を撮像手段により取得する撮像ステップと、
前記ライブビュー映像を表示手段に表示する表示ステップと、
所定空間における前記対象の位置を特定する位置特定ステップと、
前記ライブビュー映像に重ねて前記対象に対応するマーク画像を前記表示手段に表示するマーク付与ステップと、
前記対象に関連する情報を、前記マーク画像に対応付けて記憶手段に記憶する関連付けステップと、
をコンピュータに実行させることを特徴とする情報管理プログラム。
An imaging step of acquiring a live view image of a target area including a real target by an imaging means;
A display step of displaying the live view image on display means,
A position specifying step of specifying the position of the target in a predetermined space,
A mark providing step of displaying a mark image corresponding to the target on the live view image on the display means,
An associating step of storing the information related to the target in the storage means in association with the mark image;
An information management program that causes a computer to execute.
請求項13に記載のプログラムであって、
複数の情報管理装置間で前記情報の送受信を行う情報通信ステップを有する、
ことを特徴とする情報管理プログラム。
The program according to claim 13,
An information communication step of transmitting and receiving the information between a plurality of information management devices,
An information management program characterized by that.
前記空間とは、前記ライブビュー映像を介して認識される仮想空間および、該仮想空間とは別の空間の少なくともいずれかである、
ことを特徴とする請求項7に記載の情報管理装置。
The space is at least one of a virtual space recognized through the live view video and a space different from the virtual space,
The information management device according to claim 7, characterized in that.
前記情報は、仮想空間における位置座標と対応付けられる、
ことを特徴とする請求項1乃至請求項7および請求項15に記載の情報管理装置。
The information is associated with position coordinates in the virtual space,
The information management apparatus according to any one of claims 1 to 7 and 15, characterized in that.
JP2019181923A 2018-10-03 2019-10-02 Information management device, information management system, information management method, and information management program Active JP7391317B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018188544 2018-10-03
JP2018188544 2018-10-03

Publications (2)

Publication Number Publication Date
JP2020098568A true JP2020098568A (en) 2020-06-25
JP7391317B2 JP7391317B2 (en) 2023-12-05

Family

ID=71106010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019181923A Active JP7391317B2 (en) 2018-10-03 2019-10-02 Information management device, information management system, information management method, and information management program

Country Status (1)

Country Link
JP (1) JP7391317B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047532A (en) * 2019-09-17 2021-03-25 株式会社Rtプロジェクト Site information management device
CN112714295A (en) * 2020-12-31 2021-04-27 佳讯飞鸿(北京)智能科技研究院有限公司 Video calling method and device based on BIM
JP6961157B1 (en) * 2021-05-25 2021-11-05 株式会社x garden Information processing system, information processing method and program
JP6982659B1 (en) * 2020-06-26 2021-12-17 株式会社ドワンゴ Servers, terminals, distribution systems, distribution methods, and information processing methods
JP7174968B1 (en) * 2022-07-04 2022-11-18 検Net株式会社 Image management system and image management method
WO2023248619A1 (en) * 2022-06-21 2023-12-28 株式会社Nttドコモ Terminal device and object management server

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092507A1 (en) * 2010-10-13 2012-04-19 Pantech Co., Ltd. User equipment, augmented reality (ar) management server, and method for generating ar tag information
JP2013025689A (en) * 2011-07-25 2013-02-04 Konica Minolta Business Technologies Inc Information service device and information service system
JP2016014978A (en) * 2014-07-01 2016-01-28 コニカミノルタ株式会社 Air tag registration management system, air tag registration management method, air tag registration program, air tag management program, air tag provision device, air tag provision method, and air tag provision program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092507A1 (en) * 2010-10-13 2012-04-19 Pantech Co., Ltd. User equipment, augmented reality (ar) management server, and method for generating ar tag information
JP2013025689A (en) * 2011-07-25 2013-02-04 Konica Minolta Business Technologies Inc Information service device and information service system
JP2016014978A (en) * 2014-07-01 2016-01-28 コニカミノルタ株式会社 Air tag registration management system, air tag registration management method, air tag registration program, air tag management program, air tag provision device, air tag provision method, and air tag provision program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047532A (en) * 2019-09-17 2021-03-25 株式会社Rtプロジェクト Site information management device
JP7037823B2 (en) 2019-09-17 2022-03-17 株式会社Rtプロジェクト Site information management device
JP6982659B1 (en) * 2020-06-26 2021-12-17 株式会社ドワンゴ Servers, terminals, distribution systems, distribution methods, and information processing methods
JP2022020079A (en) * 2020-06-26 2022-02-01 株式会社ドワンゴ Server, terminal, distribution system, distribution method, and information processing method
CN112714295A (en) * 2020-12-31 2021-04-27 佳讯飞鸿(北京)智能科技研究院有限公司 Video calling method and device based on BIM
CN112714295B (en) * 2020-12-31 2023-04-18 佳讯飞鸿(北京)智能科技研究院有限公司 Video calling method and device based on BIM
JP6961157B1 (en) * 2021-05-25 2021-11-05 株式会社x garden Information processing system, information processing method and program
JP2022181131A (en) * 2021-05-25 2022-12-07 株式会社x garden Information processing system, information processing method and program
WO2023248619A1 (en) * 2022-06-21 2023-12-28 株式会社Nttドコモ Terminal device and object management server
JP7174968B1 (en) * 2022-07-04 2022-11-18 検Net株式会社 Image management system and image management method

Also Published As

Publication number Publication date
JP7391317B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
JP7391317B2 (en) Information management device, information management system, information management method, and information management program
US11398080B2 (en) Methods for augmented reality applications
US9424371B2 (en) Click to accept as built modeling
US10750083B2 (en) Systems and methods for processing digital image data representing multiple views of an object of interest
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
US20180300552A1 (en) Differential Tracking for Panoramic Images
US11395102B2 (en) Field cooperation system and management device
JP6597259B2 (en) Program, information processing apparatus, image display method, and image processing system
US11048345B2 (en) Image processing device and image processing method
KR20180029690A (en) Server and method for providing and producing virtual reality image about inside of offering
US10635925B2 (en) Method and system for display the data from the video camera
US20230068093A1 (en) Augmentecture software application including team viewing
JP2009229605A (en) Activity process reflection support system
CN114089836B (en) Labeling method, terminal, server and storage medium
JP7130215B1 (en) Planned building confirmation system
CN114299271A (en) Three-dimensional modeling method, three-dimensional modeling apparatus, electronic device, and readable storage medium
CN108062786B (en) Comprehensive perception positioning technology application system based on three-dimensional information model
CN114241046A (en) Data annotation method and device, computer equipment and storage medium
US20230351706A1 (en) Scanning interface systems and methods for building a virtual representation of a location
JP2021015572A (en) Information management system and information management method
JP7299653B1 (en) Planned building sunshine confirmation system
JP7467206B2 (en) Video management support system and video management support method
JP6884911B1 (en) Operation and maintenance system, operation and maintenance method and operation and maintenance program
Kitsunai et al. A Message Sharing System that Enables Highly Accurate Space Attachment Linked with the Web

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7391317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150