JP7383470B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7383470B2
JP7383470B2 JP2019230409A JP2019230409A JP7383470B2 JP 7383470 B2 JP7383470 B2 JP 7383470B2 JP 2019230409 A JP2019230409 A JP 2019230409A JP 2019230409 A JP2019230409 A JP 2019230409A JP 7383470 B2 JP7383470 B2 JP 7383470B2
Authority
JP
Japan
Prior art keywords
image
work
information processing
progress
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019230409A
Other languages
Japanese (ja)
Other versions
JP2021099603A (en
Inventor
裕美 金児
明子 平尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2019230409A priority Critical patent/JP7383470B2/en
Publication of JP2021099603A publication Critical patent/JP2021099603A/en
Application granted granted Critical
Publication of JP7383470B2 publication Critical patent/JP7383470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

この発明の一態様は、作業対象に対する作業の進捗を表す情報を提示する情報処理装置、情報処理方法、およびプログラムに関する。 One aspect of the present invention relates to an information processing device, an information processing method, and a program that present information representing the progress of work on a work target.

工事現場や建築現場では、作業の進捗を管理するために、現場の写真や動画を撮影することが一般的に行われている。管理者は、例えば、目視で写真や動画を見て作業の進捗を評価する。 At construction sites and construction sites, it is common practice to take photos and videos of the site in order to manage the progress of work. For example, the administrator visually evaluates the progress of the work by looking at photos and videos.

ここで、建築現場で撮影された画像を、進行管理やトラブル処理等のため、専用のホームページに送信して管理する技術が知られている(例えば、特許文献1参照)。
また、建築現場や不動産物件等において360°カメラで施工記録の写真を撮影することも知られている(例えば、非特許文献1参照)。
Here, a technique is known in which images taken at a construction site are sent to a dedicated homepage and managed for progress management, troubleshooting, etc. (see, for example, Patent Document 1).
It is also known to take photographs of construction records using a 360° camera at construction sites, real estate properties, etc. (see, for example, Non-Patent Document 1).

特開2003-87486号公報Japanese Patent Application Publication No. 2003-87486

株式会社レゴリス、“「RICOH THETA(リコーシータ)」と連携、施工記録を360°写真で/「国交省営繕工事電子納品対応」をリリース”、[online]、2019年12月13日検索、インターネット<URL: https://spider-plus.com/news/update/231/>Regolith Co., Ltd., “Collaborating with “RICOH THETA” to release construction records in 360° photos/“Compatible with electronic delivery of maintenance work by the Ministry of Land, Infrastructure, Transport and Tourism””, [online], searched December 13, 2019, Internet <URL: https://spider-plus.com/news/update/231/>

従来の技術では、管理者は、現場で撮影された画像から、経験に基づいて、頭の中で作業の進捗を評価していた。 With conventional technology, managers evaluate work progress in their heads based on their experience from images taken on-site.

この発明は上記事情に着目してなされたもので、その目的とするところは、経験に頼ることなく簡易にかつ的確に作業の進捗を把握できるようにする技術を提供することにある。 This invention has been made in view of the above circumstances, and its purpose is to provide a technique that allows the progress of work to be easily and accurately grasped without relying on experience.

上記課題を解決するためにこの発明の第1の態様は、作業対象に対する作業の進捗を表す情報を提示する情報処理装置にあって、上記作業対象を含む現実空間を撮影した画像データをもとに生成された、第1の撮影日時に対応する上記現実空間を表す第1の画像を取得する第1の画像取得部と、上記作業対象に対する上記作業の進捗の基準となる、上記現実空間を表す第2の画像を取得する第2の画像取得部と、上記第1の画像と上記第2の画像とを対比することによって、上記第1の撮影日時における上記作業の進捗率を求める評価部と、上記進捗率を表す情報を生成し出力する出力部とを具備し、上記評価部は、上記第1の画像に含まれる、エッジと面で構成される複数の第1の物体と、上記複数の第1の物体の各々に対応する、上記第2の画像に含まれる、エッジと面で構成される複数の第2の物体とを識別し、上記複数の第1の物体と上記複数の第2の物体の対応するもの同士を対比することによって上記各物体間の類似度を算出し、物体の種類毎にあらかじめ設定された重みを用いて上記各物体間の類似度の加重平均を算出することによって上記作業の進捗率を求めるようにしたものである。 In order to solve the above-mentioned problems, a first aspect of the present invention provides an information processing device that presents information representing the progress of work on a work object, which is based on image data taken of a real space including the work object. a first image acquisition unit that acquires a first image representing the real space corresponding to a first photographing date and time, which is generated in a second image acquisition unit that acquires a second image representing the image; and an evaluation unit that calculates the progress rate of the work at the first photographing date and time by comparing the first image and the second image. and an output unit that generates and outputs information representing the progress rate , and the evaluation unit includes a plurality of first objects comprised of edges and surfaces included in the first image, A plurality of second objects comprised of edges and surfaces, which are included in the second image and correspond to each of the plurality of first objects, are identified, and the plurality of first objects and the plurality of The similarity between the objects is calculated by comparing corresponding second objects, and the weighted average of the similarities between the objects is calculated using weights set in advance for each type of object. The progress rate of the above-mentioned work is determined by calculation .

この発明の第1の態様によれば、情報処理装置によって、特定の日時において現実空間を撮影した画像データをもとに生成された画像と、作業の進捗の基準となる画像とが取得され、それらを対比することによって、特定の日時における作業の進捗率が求められ、提示される。
これにより、管理者の経験に頼ることなく、作業の進捗を把握し、客観的な評価を行うことができる。
According to the first aspect of the invention, an image generated based on image data of a real space taken at a specific date and time and an image serving as a reference for work progress are acquired by the information processing device, By comparing them, the progress rate of the work at a specific date and time is determined and presented.
This makes it possible to grasp the progress of work and perform objective evaluations without relying on the experience of the administrator.

すなわちこの発明の各態様によれば、作業の進捗を簡易にかつ的確に把握できるようにする技術を提供することができる。 That is, according to each aspect of the present invention, it is possible to provide a technique that allows the progress of work to be easily and accurately grasped.

図1は、この発明の一実施形態に係る情報処理装置を備えたシステムの全体構成を示す図である。FIG. 1 is a diagram showing the overall configuration of a system including an information processing apparatus according to an embodiment of the present invention. 図2は、この発明の一実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of an information processing apparatus according to an embodiment of the present invention. 図3は、この発明の一実施形態に係る情報処理装置のソフトウェア構成を示すブロック図である。FIG. 3 is a block diagram showing the software configuration of an information processing apparatus according to an embodiment of the present invention. 図4は、この発明の一実施形態に係る情報処理装置を備えたシステム全体の処理シーケンスを示す図である。FIG. 4 is a diagram showing a processing sequence of an entire system including an information processing apparatus according to an embodiment of the present invention. 図5は、カメラにより現実空間を撮影するイメージを示す図である。FIG. 5 is a diagram showing an image of photographing a real space with a camera. 図6は、ユーザ端末に表示される場所選択画面の一例を示す図である。FIG. 6 is a diagram showing an example of a location selection screen displayed on a user terminal. 図7は、ユーザ端末に表示される日時選択画面の一例を示す図である。FIG. 7 is a diagram showing an example of a date and time selection screen displayed on a user terminal. 図8は、ユーザ端末に表示される撮影画像表示画面の一例を示す図である。FIG. 8 is a diagram showing an example of a captured image display screen displayed on a user terminal. 図9は、ユーザ端末に表示される対比画面の一例を示す図である。FIG. 9 is a diagram showing an example of a comparison screen displayed on a user terminal. 図10は、ユーザ端末に表示される対比画面の他の例を示す図である。FIG. 10 is a diagram showing another example of the comparison screen displayed on the user terminal. 図11は、ユーザ端末に表示される進捗評価結果の一例を示す図である。FIG. 11 is a diagram showing an example of progress evaluation results displayed on a user terminal. 図12は、進捗評価に使用されるテーブルの一例を示す図である。FIG. 12 is a diagram showing an example of a table used for progress evaluation.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
(1)システム
図1は、この発明の一実施形態に係る情報処理装置1を含むシステム全体の構成を示す図である。
このシステムは、ネットワークNWを介して、情報処理装置1と、カメラCD1,CD2,...,CDm(以下、総称して「カメラCD」と言う)と、ユーザ端末UT1,UT2,...,UTn(以下、総称して「ユーザ端末UT」と言う)とを互いに通信可能に接続する。なお、情報処理装置1には、任意の数のカメラCDおよび任意の数のユーザ端末UTが接続されてよい。
Embodiments of the present invention will be described below with reference to the drawings.
[One embodiment]
(composition)
(1) System FIG. 1 is a diagram showing the configuration of an entire system including an information processing device 1 according to an embodiment of the present invention.
This system connects an information processing device 1 and cameras CD1, CD2, . .. .. , CDm (hereinafter collectively referred to as "camera CD"), and user terminals UT1, UT2, . .. .. , UTn (hereinafter collectively referred to as "user terminals UT") are connected to each other so that they can communicate with each other. Note that an arbitrary number of cameras CD and an arbitrary number of user terminals UT may be connected to the information processing device 1.

ユーザ端末UTは、例えば、ブラウザまたはそれに代わるアプリケーションを備える、パーソナルコンピュータ、携帯電話機、スマートフォン、タブレット端末などのクライアント端末である。ユーザ端末UTは、液晶または有機EL(Electro Luminescence)等を用いた表示デバイスを備えるか、またはそのような表示デバイスと組み合わせて用いられる。一実施形態によれば、ユーザ端末UTは、例えば、建築業者、不動産販売業者、住宅事業者などによって、建築工事やリフォーム工事などの作業の進捗を管理・評価するために使用される。ユーザ端末UTはまた、作業対象である住宅の所有者などにより、作業の進捗を確認するために使用されてもよい。 The user terminal UT is, for example, a client terminal such as a personal computer, a mobile phone, a smartphone, or a tablet terminal, which is equipped with a browser or an application in its place. The user terminal UT is equipped with a display device using liquid crystal, organic EL (Electro Luminescence), or the like, or is used in combination with such a display device. According to one embodiment, the user terminal UT is used by, for example, a builder, a real estate sales agent, a housing business, etc., to manage and evaluate the progress of work such as construction work or renovation work. The user terminal UT may also be used by the owner of the house to be worked on to check the progress of the work.

カメラCDは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の固体撮像デバイスを用いたものである。カメラCDは、作業対象を含む現実空間を撮影できるものであれば、静止画または動画撮影機能を有するデジタルカメラ、パノラマカメラ、360度カメラなど、任意のカメラであってよい。カメラCDはまた通信機能を備えるものであってもよい。一実施形態によれば、カメラCDによって撮影された静止画または動画(以下、単に「画像」と言う)は、撮影した日時を表す情報(以下、「日時情報」)および撮影した現実空間を識別する情報(以下、「場所情報」)を付加されて、画像データとして情報処理装置1に送信される。場所情報は、画像の撮影者等が手作業により付加するものであってもよいし、GPS情報などの位置情報として自動的に付加されるものであってもよい。画像データはさらに、撮影したカメラCDを識別する情報を含んでもよい。 The camera CD uses, for example, a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The camera CD may be any camera, such as a digital camera, panoramic camera, or 360-degree camera, which has a still image or video shooting function, as long as it can take pictures of the real space including the work object. The camera CD may also be equipped with a communication function. According to one embodiment, a still image or a moving image (hereinafter simply referred to as an "image") taken by a camera CD is provided with information indicating the date and time of the photograph (hereinafter "date and time information") and identifying the real space in which the photograph was taken. information (hereinafter referred to as "location information") is added and transmitted to the information processing device 1 as image data. The location information may be added manually by the person taking the image, or may be added automatically as location information such as GPS information. The image data may further include information identifying the camera CD that took the image.

画像データは、カメラCDからネットワークNWを介して情報処理装置1に直接送信されてもよいし、ユーザ端末UTを経由して送信されてもよい。なお、カメラCDとユーザ端末UTは、カメラ機能を備えるスマートフォンのように一体のものであってもよい。カメラCDは、撮影のたびに画像データを送信してもよいし、画像データをカメラCDのメモリに蓄積し、一定期間または一定量ごとに送信してもよい。 The image data may be directly transmitted from the camera CD to the information processing device 1 via the network NW, or may be transmitted via the user terminal UT. Note that the camera CD and the user terminal UT may be integrated, such as a smartphone with a camera function. The camera CD may transmit image data each time a photograph is taken, or the image data may be stored in the memory of the camera CD and transmitted at fixed intervals or in fixed amounts.

ネットワークNWは、例えば、インターネットに代表されるIP網と、このIP網に対しアクセスするための複数のアクセス網とから構成される。 The network NW is composed of, for example, an IP network represented by the Internet, and a plurality of access networks for accessing this IP network.

(2)情報処理装置
情報処理装置1は、例えばクラウド上に配置されたサーバ装置であり、作業対象を含む現実空間を撮影した画像データに基づいて、当該作業対象に対する作業の進捗を評価し、進捗を表す情報を出力する。一実施形態によれば、作業とは、建築工事、内装工事および設備工事など、建物に関係する作業である。ただしこれらに限定されるものではなく、情報処理装置1は、あらかじめ設定された期限やスケジュールに従って実行される、他の作業にも適用可能である。一実施形態によれば、作業対象は、建物における工事の対象であり、例えば、柱、桁、梁、天井、壁、床、電気設備、ガス管、水道管、光ファイバーケーブル、空調・給排気設備などである。しかし、やはりこれらに限定されるものではなく、情報処理装置1は、作業の対象となるあらゆるものに適用可能である。一実施形態によれば、現実空間は、これら作業対象を含む任意の空間を言う。
(2) Information processing device The information processing device 1 is, for example, a server device placed on a cloud, and evaluates the progress of work on the work object based on image data taken of a real space including the work object, Output information showing progress. According to one embodiment, the work is work related to a building, such as construction work, interior work, and equipment work. However, the information processing device 1 is not limited to these, and can also be applied to other tasks that are executed according to preset deadlines and schedules. According to one embodiment, the work object is an object of construction in a building, such as columns, girders, beams, ceilings, walls, floors, electrical equipment, gas pipes, water pipes, optical fiber cables, air conditioning/air supply/exhaust equipment. etc. However, the information processing device 1 is not limited to these, and can be applied to any work target. According to one embodiment, real space refers to any space that includes these work objects.

一実施形態によれば、情報処理装置1は、Webサーバの機能を有し、専用のWebサイトを介して、ユーザに対し、工事の作業対象を撮影した写真や作業の進捗を表す情報の閲覧を可能にするサービスを提供する。 According to one embodiment, the information processing device 1 has the function of a web server, and allows users to view photographs of construction work objects and information representing the progress of the work through a dedicated website. Provide services that make it possible.

(2-1)ハードウェア構成
図2は、情報処理装置1のハードウェア構成の一例を示すブロック図である。
情報処理装置1は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサ20Aを有する。そして、このハードウェアプロセッサ20Aに対し、プログラムメモリ20B、データメモリ30、および通信インタフェース(I/F)10を、バス40を介して接続したものとなっている。
(2-1) Hardware Configuration FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing device 1.
The information processing device 1 includes, for example, a hardware processor 20A such as a CPU (Central Processing Unit). A program memory 20B, a data memory 30, and a communication interface (I/F) 10 are connected to this hardware processor 20A via a bus 40.

通信インタフェース10は、1つ以上の有線または無線の通信インタフェースを含む。通信インタフェース10は、ネットワークNWを介して、カメラCDおよびユーザ端末UTをはじめとする他の外部機器との間で情報の送受信を可能にする。有線インタフェースとしては、例えば有線LANが使用され、また無線インタフェースとしては、例えば無線LANやBluetooth(登録商標)などの小電力無線データ通信規格を採用したインタフェースが使用される。 Communication interface 10 includes one or more wired or wireless communication interfaces. The communication interface 10 enables the transmission and reception of information between the camera CD and other external devices such as the user terminal UT via the network NW. As the wired interface, for example, a wired LAN is used, and as the wireless interface, for example, an interface that adopts a low power wireless data communication standard such as a wireless LAN or Bluetooth (registered trademark) is used.

プログラムメモリ20Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM等の不揮発性メモリにより構成され、一実施形態に係る各種制御処理を実行するために必要なプログラムを格納している。 The program memory 20B is composed of a non-volatile memory such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive) that can be written to and read from at any time as a storage medium, and a non-volatile memory such as a ROM. Stores programs necessary to execute various control processes related to the configuration.

データメモリ30は、記憶媒体として、例えば、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリにより構成され、例えば、情報処理の過程で取得および作成された各種データを記憶するために用いられる。 The data memory 30 is composed of a nonvolatile memory such as an HDD or SSD that can be written to and read from at any time, and a volatile memory such as a RAM (Random Access Memory) as a storage medium. It is used to store various data acquired and created.

(2-2)ソフトウェア構成
図3は、この発明の一実施形態に係る情報処理装置1のソフトウェア構成を、図2に示したハードウェア構成と関連付けて示した機能ブロック図である。制御ユニット20は、上記ハードウェアプロセッサ20Aと、上記プログラムメモリ20Bとを含む。
通信インタフェース10は、外部装置から種々のデータをネットワーク経由で受信する受信部11と、外部装置へ種々のデータをネットワーク経由で送信する送信部12とを含む。例えば、受信部11は、カメラCDから画像データを受信し、これを制御ユニット20に渡す。受信部11はまた、ユーザ端末UTからユーザ要求を受信し、制御ユニット20に渡す。このユーザ要求は、例えばHTTP(Hyper Text Transport Protocol)リクエストであってよい。画像データを受信する受信部とユーザ要求を受信する受信部は別個に設けられてもよい。送信部12は、出力部として、制御ユニット20から出力される応答メッセージを受け取り、これを要求元のユーザ端末UTに送信する。この応答は、例えばHTTPレスポンスであってよい。
(2-2) Software Configuration FIG. 3 is a functional block diagram showing the software configuration of the information processing device 1 according to an embodiment of the present invention in association with the hardware configuration shown in FIG. 2. The control unit 20 includes the hardware processor 20A and the program memory 20B.
The communication interface 10 includes a receiving section 11 that receives various data from an external device via the network, and a transmitting section 12 that transmits various data to the external device via the network. For example, the receiving unit 11 receives image data from a camera CD and passes it to the control unit 20. The receiving unit 11 also receives a user request from the user terminal UT and passes it to the control unit 20. This user request may be, for example, an HTTP (Hyper Text Transport Protocol) request. The receiving unit that receives image data and the receiving unit that receives user requests may be provided separately. The transmitter 12, as an output unit, receives a response message output from the control unit 20 and transmits it to the requesting user terminal UT. This response may be, for example, an HTTP response.

データメモリ30の記憶領域には、画像データ記憶部31と、テーブル記憶部32とが設けられている。 The storage area of the data memory 30 is provided with an image data storage section 31 and a table storage section 32.

画像データ記憶部31は、カメラCDによって撮影された画像データまたはそれに基づいて生成された種々の画像データを記憶するために使用される。画像データは、日時情報および場所情報に紐づけて記憶される。 The image data storage unit 31 is used to store image data taken by the camera CD or various image data generated based on the image data. Image data is stored in association with date and time information and location information.

テーブル記憶部32は、進捗率を求めるために用いられる評価テーブルを記憶するために使用される。 The table storage unit 32 is used to store an evaluation table used to determine the progress rate.

なお、記憶部31~32は必須の構成ではなく、クラウドに配置されたデータベースサーバ等の記憶装置に設けられたものであってもよい。 Note that the storage units 31 and 32 are not essential components, and may be provided in a storage device such as a database server located in the cloud.

制御ユニット20は、ソフトウェアによる処理機能部として、画像処理部21と、ユーザ要求受付部22と、表示用画像取得部23と、進捗評価部24と、表示データ生成部25とを備えている。これらの処理機能部は、いずれもプログラムメモリ20Bに格納されたプログラムを、上記ハードウェアプロセッサ20Aに実行させることにより実現される。制御ユニット20は、また、ASIC(Application Specific Integrated Circuit)やFPGA(field-programmable gate array)などの集積回路を含む、他の多様な形式で実現されてもよい。 The control unit 20 includes an image processing section 21, a user request reception section 22, a display image acquisition section 23, a progress evaluation section 24, and a display data generation section 25 as processing function sections using software. These processing functional units are realized by causing the hardware processor 20A to execute programs stored in the program memory 20B. Control unit 20 may also be implemented in a variety of other formats, including integrated circuits such as application specific integrated circuits (ASICs) and field-programmable gate arrays (FPGAs).

画像処理部21は、受信部11から画像データを受け取り、それらをデータメモリ30に書き込む。一実施形態によれば、画像処理部21は、画像データから日時情報および場所情報を抽出し、所定の処理を行ってから、それらの画像データを日時情報および場所情報に紐づけて画像データ記憶部31に格納する。 The image processing section 21 receives image data from the receiving section 11 and writes them into the data memory 30. According to one embodiment, the image processing unit 21 extracts date and time information and location information from image data, performs predetermined processing, and then associates the image data with the date and time information and location information and stores the image data. It is stored in the section 31.

ユーザ要求受付部22は、受信部11からユーザ要求を受け取り、解析して、要求に応じた処理を行う。一実施形態によれば、ユーザ要求は、特定のWebページの閲覧に必要なデータの取得要求、特定の画像の取得要求、および作業の進捗の評価要求を含む。ユーザ要求受付部22は、ユーザ要求を受け取り、必要な識別情報を抽出して、表示用画像取得部23に渡す。 The user request receiving unit 22 receives a user request from the receiving unit 11, analyzes it, and performs processing according to the request. According to one embodiment, the user request includes a request to obtain data necessary for viewing a particular web page, a request to obtain a particular image, and a request to evaluate the progress of the task. The user request reception unit 22 receives the user request, extracts necessary identification information, and passes it to the display image acquisition unit 23.

表示用画像取得部23は、ユーザ要求受付部22から受け取った情報に基づき、必要な画像を取得または生成して、進捗評価部24または表示データ生成部25に渡す処理を行う。一実施形態によれば、表示用画像取得部23は、特定の場所および日時に対応する画像の取得要求を受け取り、画像データ記憶部31から対応する画像データを読み出して、表示データ生成部25に渡す。または、表示用画像取得部23は、作業の進捗の評価要求を受け取り、進捗を評価するために必要な画像データを画像データ記憶部31から読み出して進捗評価部24に渡す。 The display image acquisition section 23 acquires or generates a necessary image based on the information received from the user request reception section 22, and performs a process of passing the image to the progress evaluation section 24 or the display data generation section 25. According to one embodiment, the display image acquisition unit 23 receives a request to acquire an image corresponding to a specific location and date, reads out the corresponding image data from the image data storage unit 31, and sends the image data to the display data generation unit 25. hand over. Alternatively, the display image acquisition section 23 receives a request for evaluating the progress of the work, reads out image data necessary for evaluating the progress from the image data storage section 31, and passes it to the progress evaluation section 24.

進捗評価部24は、表示用画像取得部23から受け取った画像データをもとに、作業の進捗を評価し、評価結果を表示データ生成部25に渡す処理を行う。一実施形態によれば、進捗評価部24は、表示用画像取得部23から受け取った2つの画像データを対比し、それらの類似度を算出する。そして、進捗評価部24は、算出された類似度に基づき、作業の進捗を表す情報として作業の進捗率を求めて、その進捗率を含む評価結果を表示データ生成部25に渡す。進捗率は、作業の進捗の程度をパーセンテージで表すもので、すべての作業が完了した状態を基準として求められてもよいし、各評価時点において期待される作業の状態を基準として求められてもよい。 The progress evaluation section 24 performs a process of evaluating the progress of the work based on the image data received from the display image acquisition section 23 and passing the evaluation result to the display data generation section 25. According to one embodiment, the progress evaluation unit 24 compares two pieces of image data received from the display image acquisition unit 23 and calculates their similarity. Then, the progress evaluation unit 24 determines the progress rate of the work as information representing the progress of the work based on the calculated similarity, and passes the evaluation result including the progress rate to the display data generation unit 25. The progress rate expresses the degree of progress of work as a percentage, and may be determined based on the state in which all work has been completed, or may be determined based on the expected state of work at each evaluation point. good.

表示データ生成部25は、表示用画像取得部23から受け取った画像データに基づき、ユーザ要求に応じた表示データを含む応答メッセージを生成して、送信部12に渡す処理を行う。表示データ生成部25はまた、進捗評価部24から評価結果を受け取り、ユーザに提示するための表示データを含む応答メッセージを生成して、送信部12に渡す処理を行う。表示データは、文字列および画像を含み得る。 The display data generation section 25 generates a response message including display data in accordance with the user's request based on the image data received from the display image acquisition section 23 and passes the response message to the transmission section 12 . The display data generation section 25 also receives the evaluation results from the progress evaluation section 24 , generates a response message including display data to be presented to the user, and performs a process of passing the response message to the transmission section 12 . Display data may include character strings and images.

(動作)
次に、以上のように構成された情報処理装置1を含むシステム全体の動作の概要を説明する。
図4は、そのようなシステム全体の処理シーケンスの一例を示す図である。
(motion)
Next, an overview of the operation of the entire system including the information processing device 1 configured as described above will be explained.
FIG. 4 is a diagram showing an example of the processing sequence of the entire system.

(1)画像の収集・蓄積
はじめに、情報処理装置1は、カメラCDから現実空間を撮影した画像データを収集し、蓄積する。なお、図4では便宜上カメラCDを1つだけ示しているが、情報処理装置1は、複数のカメラCDから画像データを収集することができる。
(1) Collection and accumulation of images First, the information processing device 1 collects and accumulates image data obtained by photographing real space from a camera CD. Although only one camera CD is shown in FIG. 4 for convenience, the information processing device 1 can collect image data from a plurality of camera CDs.

矢印C1において、カメラCDは、工事現場の作業者等の操作により、作業対象を含む現実空間を撮影し、生成した画像データを情報処理装置1に送信する。 In the arrow C1, the camera CD photographs the real space including the work object by the operation of a worker at the construction site, and transmits the generated image data to the information processing device 1.

一実施形態によれば、カメラCDは、スマートフォンと連携して動作可能な360度カメラである。360度カメラは、例えば、前後方向に180度を超える超広角の魚眼レンズを備え、同時に前後方向の画像または映像を撮影することができる。360度カメラはまた、撮影した前後方向の画像をもとに、傾き補正、歪み補正、色補正等を含む前処理を行ったのち、いわゆる「イメージスティッチング(Image Stitching)技術」により画像をつなぎ合わせて、360度の全天球画像データを生成することができる。 According to one embodiment, the camera CD is a 360 degree camera operable in conjunction with a smartphone. A 360-degree camera, for example, is equipped with an ultra-wide-angle fisheye lens that extends over 180 degrees in the front-rear direction, and can simultaneously capture images or videos in the front-rear direction. The 360-degree camera also performs pre-processing including tilt correction, distortion correction, color correction, etc. based on the captured front and back images, and then stitches the images together using so-called "image stitching technology". Together, it is possible to generate 360-degree spherical image data.

図5は、360度カメラであるカメラCDが、作業対象を含む現実空間として、建築工事中の建物内の空間TGを撮影して画像データを生成するイメージを示す。カメラCDは、空間TGの任意の位置に固定され、スマートフォンを介した遠隔操作により前後方向の画像を撮影し、その前後方向の画像を、上記イメージスティッチングによりつなぎ合わせ、360度画像データを生成する。生成された360度画像データは、その撮影日時を表す情報とともに、例えばWiFi機能によってカメラCDからスマートフォンに転送される。画像データには、スマートフォンのユーザ(例えば、上記作業者)によって撮影場所を識別する場所情報を付加される。場所情報は、例えば、住所、建物名、部屋番号、緯度経度、高さなどを含んでよい。またこれらのうちのいくつかの情報は、カメラCD自体によって自動的に画像データに付加されてもよい。画像は、特定の空間TGについて、例えば空間TGの中央付近など、一か所で撮影されてもよいし、所定の間隔ずつ移動しながら複数の位置で撮影されてもよい。 FIG. 5 shows an image in which a camera CD, which is a 360-degree camera, photographs a space TG inside a building under construction, as a real space including a work object, and generates image data. The camera CD is fixed at an arbitrary position in the space TG, takes images in the front and back directions by remote control via a smartphone, and stitches the images in the front and back directions using the image stitching described above to generate 360-degree image data. do. The generated 360-degree image data is transferred from the camera CD to the smartphone using the WiFi function, for example, along with information indicating the date and time of the image. Location information for identifying the shooting location is added to the image data by a smartphone user (for example, the above-mentioned worker). The location information may include, for example, address, building name, room number, latitude and longitude, height, and the like. Also, some of this information may be automatically added to the image data by the camera CD itself. For a specific space TG, the image may be taken at one location, such as near the center of the space TG, or may be taken at a plurality of positions while moving at predetermined intervals.

スマートフォンは、ユーザの操作を受けて、例えば専用のWebページに画像データをアップロードすることによって、情報処理装置1に画像データを送信する。送信される各画像データは、上記のように、少なくとも場所情報および日時情報を含む。送信される画像データはまた、撮影したカメラCDまたはスマートフォンを識別する情報ならびに撮影位置に関するGPS情報を含み得る。 The smartphone transmits image data to the information processing device 1 by, for example, uploading the image data to a dedicated web page in response to a user's operation. Each piece of image data to be transmitted includes at least location information and date and time information, as described above. The transmitted image data may also include information identifying the camera CD or smartphone that took the image, as well as GPS information regarding the location of the image.

情報処理装置1は、カメラCD(またはスマートフォン)から画像データを受信すると、ステップS101において、画像処理部21の制御の下、受信した画像データを場所情報および日時情報に紐づけて画像データ記憶部31に記憶させる。例えば、画像データは、場所情報として「A県A市,Xマンション,102号室」、日時情報として「2019年6月X日」に紐づけて記憶される。 When the information processing device 1 receives image data from the camera CD (or smartphone), in step S101, under the control of the image processing unit 21, the information processing device 1 associates the received image data with location information and date and time information, and stores the image data in the image data storage unit. 31 to be memorized. For example, the image data is stored in association with "A city, A prefecture, apartment X, room 102" as location information and "June X, 2019" as date and time information.

ここで、一実施形態によれば、画像処理部21は、同日に近接する撮影位置で撮影された複数の画像データから特徴を抽出し、互いに関連付けることによって、現実空間を表す仮想的な3D空間モデルを生成することもできる。画像処理部21は、360度画像データに加えて、または代わりに、生成された3D空間モデルを画像データ記憶部31に記憶させることもできる。 Here, according to one embodiment, the image processing unit 21 extracts features from a plurality of image data photographed at close photographing positions on the same day and associates them with each other, thereby creating a virtual 3D space representing the real space. You can also generate models. The image processing unit 21 can also cause the image data storage unit 31 to store the generated 3D spatial model in addition to or instead of the 360-degree image data.

このように、情報処理装置1は、カメラCDから画像データを受け取るたびに、必要な処理を行ってから画像データ記憶部31に記憶させる。なお、情報処理装置1は、受信した2次元(2D)画像(写真)データを2Dデータのまま蓄積するようにしてもよい。また、上記で説明した複数の画像をつなぎ合わせるスティッチング処理は、情報処理装置1が行うものであってもよい。 In this manner, each time the information processing device 1 receives image data from the camera CD, it performs necessary processing and then stores the image data in the image data storage unit 31. Note that the information processing device 1 may store the received two-dimensional (2D) image (photo) data as 2D data. Further, the information processing device 1 may perform the stitching process for joining a plurality of images as described above.

さらに一実施形態によれば、画像データ記憶部31には、場所情報に紐づけて、建物または部屋のレイアウト(間取り)を表すレイアウトデータも記憶される。画像データは、生成された3次元(3D)空間モデルに基づき、上記レイアウトに関連付けられる。レイアウトデータは、例えば、情報処理装置1が画像データまたは3D空間モデルをもとに市販の間取り作成ソフトウェア等を用いて作成するものであってもよい。または、情報処理装置1が、画像データまたは3D空間モデルから抽出される特徴に基づき、あらかじめ記憶されたレイアウトデータに画像データを関連付けてもよい。あるいは、情報処理装置1のオペレータが、任意のタイミングで画像データ記憶部31に格納された画像データを読み出し、手動でレイアウトデータに関連付けてもよい。 Furthermore, according to one embodiment, the image data storage unit 31 also stores layout data representing the layout (floor plan) of a building or a room in association with location information. Image data is associated with the layout based on the generated three-dimensional (3D) spatial model. The layout data may be, for example, created by the information processing device 1 using commercially available floor plan creation software or the like based on image data or a 3D spatial model. Alternatively, the information processing device 1 may associate image data with pre-stored layout data based on features extracted from image data or a 3D spatial model. Alternatively, the operator of the information processing device 1 may read out the image data stored in the image data storage section 31 at any timing and manually associate it with the layout data.

以上のような処理により情報処理装置1にすでに一定量の画像データが収集・蓄積されているという前提で、後続の動作について以下で説明する。 The subsequent operations will be described below on the premise that a certain amount of image data has already been collected and stored in the information processing device 1 through the above-described processing.

(2)初期画面の提供
情報処理装置1は、ユーザ端末UTからの要求に応答して、蓄積された画像の閲覧サービスを提供することができる。画像の閲覧に使用されるユーザ端末UTは、画像データをアップロードするために使用されるユーザ端末と同じものであっても異なるものであってもよい。以下の例では、ユーザ端末UTが、例えば建築会社に設置され進捗管理者によって操作される、ディスプレイを備えるパーソナルコンピュータであり、ユーザUSは上記進捗管理者であるものとして説明する。
(2) Provision of initial screen The information processing device 1 can provide a service for viewing stored images in response to a request from the user terminal UT. The user terminal UT used to view images may be the same or different from the user terminal used to upload image data. In the following example, the user terminal UT is a personal computer equipped with a display installed in a construction company and operated by a progress manager, and the user US is the progress manager.

ユーザUSが、例えばある作業現場について作業の進捗を確認しようとする。ユーザUSは、そのような確認の目的で、情報処理装置1が提供するWebページを閲覧するために、図4の破線矢印U1において、パーソナルコンピュータUTを操作し、ブラウザを起動する。すると、パーソナルコンピュータUTのブラウザは、情報処理装置1に対し、当該Webページの取得要求を送信する。 For example, the user US attempts to check the progress of work at a certain work site. For the purpose of such confirmation, the user US operates the personal computer UT and starts the browser at the dashed line arrow U1 in FIG. 4 in order to view the web page provided by the information processing device 1. Then, the browser of the personal computer UT transmits a request to obtain the Web page to the information processing device 1.

ステップS102において、情報処理装置1は、受信部11により、パーソナルコンピュータUTのブラウザからWebページの取得要求を受信する。受信部11は、ユーザ要求受付部22にこの取得要求を渡す。ユーザ要求受付部22は、取得要求から必要な情報、例えば、要求に係るWebページの情報およびパーソナルコンピュータUTのブラウザ情報を抽出し、表示用画像取得部23に渡す。表示用画像取得部23は、要求されたWebページのHTMLファイルをデータメモリ30内の記憶部(図示せず)から読み出し、表示データ生成部25に渡す。表示用画像取得部23はまた、要求されたWebページの表示に必要な画像データがあれば、データメモリ30から読み出し、表示データ生成部25に渡す。表示データ生成部25は、上記HTMLファイルを含む応答メッセージを生成して送信部12に渡す。 In step S102, the information processing device 1 receives a web page acquisition request from the browser of the personal computer UT through the receiving unit 11. The receiving unit 11 passes this acquisition request to the user request accepting unit 22. The user request reception unit 22 extracts necessary information from the acquisition request, for example, information on the web page related to the request and browser information of the personal computer UT, and passes the extracted information to the display image acquisition unit 23. The display image acquisition section 23 reads the HTML file of the requested Web page from a storage section (not shown) in the data memory 30 and passes it to the display data generation section 25 . If there is image data necessary for displaying the requested Web page, the display image acquisition section 23 also reads it from the data memory 30 and passes it to the display data generation section 25 . The display data generation section 25 generates a response message including the above-mentioned HTML file and passes it to the transmission section 12.

ステップS103において、送信部12は、受け取った応答メッセージをパーソナルコンピュータUTのブラウザに送信する。 In step S103, the transmitter 12 transmits the received response message to the browser of the personal computer UT.

メッセージを受信したパーソナルコンピュータUTのブラウザは、D1において、受信したHTMLファイルに基づき、対応するWebページを表示する。 The browser of the personal computer UT that received the message displays a corresponding web page based on the received HTML file in D1.

図6は、情報処理装置1が提供するWebページの表示イメージの一例を示す。図6の例では、ページ60において、ボックス61に建物の名称「Xマンション」および住所「A県A市・・・」が表示され、ボックス62にその建物の外観の写真が表示される。同様に、ボックス63には別の建物の名称「YYビル」および住所「B県B市・・・」が表示され、ボックス64にその建物の外観の写真が表示される。一実施形態によれば、ボックス62および64にはそれぞれ他のWebページへのリンクが設定されており、ユーザUSは、例えばマウス等の入力デバイスを用いてマウスポインタ80を操作し、いずれかのボックス内をクリックすることによって、閲覧を希望する建物を選択することができる。建物名のボックス61および63にリンクが設定されてもよい。またWebページを表示する際に、ユーザごとにその権限に応じて閲覧対象が制限されるようにしてもよい。なお、マウスポインタ80は例示にすぎず、ユーザ端末UTがスマートフォンであればタッチパネルを介して選択されてもよいし、マウス操作以外にも、キーボード操作、音声入力、視線入力、ジェスチャ入力など他の操作により入力されてもよい。 FIG. 6 shows an example of a display image of a web page provided by the information processing device 1. In the example of FIG. 6, on page 60, the name of the building "X Mansion" and the address "A City, Prefecture A..." are displayed in a box 61, and a photo of the exterior of the building is displayed in a box 62. Similarly, box 63 displays the name "YY Building" and address "B City, Prefecture B..." of another building, and box 64 displays a photo of the exterior of the building. According to one embodiment, links to other web pages are set in boxes 62 and 64, respectively, and user US operates mouse pointer 80 using an input device such as a mouse to select one of the By clicking inside the box, you can select the building you wish to view. Links may be set in the building name boxes 61 and 63. Furthermore, when displaying a Web page, the objects to be viewed may be restricted for each user according to his/her authority. Note that the mouse pointer 80 is only an example, and if the user terminal UT is a smartphone, it may be selected via a touch panel, or other functions such as keyboard operation, voice input, line of sight input, gesture input, etc. can be used in addition to mouse operation. It may also be input by operation.

(3)評価対象の選択
図4の破線矢印U2は、上記のようなユーザUSによる対象の選択操作を示す。例えば、図6に示したように、ユーザUSがボックス62に表示された「Xマンション」を選択した場合、パーソナルコンピュータUTのブラウザは、このユーザの選択操作を受け付けて、リンク先のページを閲覧するための情報を再び情報処理装置1に要求する。
(3) Selection of evaluation target The dashed arrow U2 in FIG. 4 indicates the target selection operation by the user US as described above. For example, as shown in FIG. 6, when the user US selects "X Mansion" displayed in the box 62, the browser of the personal computer UT accepts the user's selection operation and browses the linked page. The information processing device 1 is again requested to provide information for the processing.

ステップS104において、情報処理装置1は、受信部11により、パーソナルコンピュータUTのブラウザからこの取得要求を受信する。受信部11は、ユーザ要求受付部22にこの取得要求を渡す。 In step S104, the receiving unit 11 of the information processing device 1 receives this acquisition request from the browser of the personal computer UT. The receiving unit 11 passes this acquisition request to the user request accepting unit 22.

次いでステップS105において、情報処理装置1は、ユーザ要求受付部22の制御の下、取得要求から必要な情報、例えば、リンク先のページの情報を抽出して表示用画像取得部23に渡す。 Next, in step S<b>105 , the information processing device 1 extracts necessary information, for example, information on a linked page, from the acquisition request under the control of the user request reception unit 22 and passes it to the display image acquisition unit 23 .

ステップS106において、情報処理装置1は、表示用画像取得部23の制御の下、データメモリ30からリンク先のページのHTMLファイルおよび必要な画像データを読み出して、表示データ生成部25に渡す。一実施形態によれば、表示用画像取得部23は、必要な画像データとして、閲覧対象とする部屋番号および閲覧対象とする日時情報をユーザUSに指定させるための画像データを取得する。表示データ生成部25は、表示用画像取得部23から受け取った情報をもとに応答メッセージを生成して送信部12に渡す。 In step S<b>106 , the information processing device 1 reads the HTML file of the linked page and necessary image data from the data memory 30 under the control of the display image acquisition unit 23 and passes them to the display data generation unit 25 . According to one embodiment, the display image acquisition unit 23 acquires, as necessary image data, image data for causing the user US to specify a room number to be viewed and date and time information to be viewed. The display data generation section 25 generates a response message based on the information received from the display image acquisition section 23 and passes it to the transmission section 12 .

ステップS107において、送信部12は、受け取った応答メッセージをパーソナルコンピュータUTのブラウザに送信する。 In step S107, the transmitter 12 transmits the received response message to the browser of the personal computer UT.

応答メッセージを受信したパーソナルコンピュータUTのブラウザは、D2において、受信したHTMLファイルに基づき、対応するWebページを表示する。 The browser of the personal computer UT that received the response message displays the corresponding web page based on the received HTML file in D2.

図7は、そのようなWebページの表示イメージの一例を示す。図7の例では、Webページ65において、ボックス66に表示中の建物の名称および住所「Xマンション,A県A市・・・」が表示され、選択ボックス67に閲覧可能な部屋番号「101号室,102号室,・・・」が表示される。部屋番号に限らず、フロア単位で閲覧可能としてもよい。またユーザごとに閲覧権限を設定してもよい。 FIG. 7 shows an example of a display image of such a web page. In the example of FIG. 7, on the web page 65, the name and address of the building currently being displayed are displayed in the box 66, "X apartment, A city, A prefecture...", and the viewable room number "Room 101" is displayed in the selection box 67. , Room 102,...'' is displayed. It may be possible to browse not only by room number but also by floor. Also, viewing authority may be set for each user.

図7に示したように、ユーザUSにより閲覧対象として「102号室」が選択されると、ボックス68に、「Xマンションの102号室」について閲覧可能な画像の有無が時系列で表示される。この例では、黒塗りの下向き三角形がその日時に撮影された画像が存在することを示す。例えば、ユーザUSがマウスポインタ80をいずれかの三角形に合わせることによって、該当する日時情報がポップアップ表示され、さらに三角形をクリックすることによって当該日時を閲覧対象として選択することができる。 As shown in FIG. 7, when "Room 102" is selected as a viewing target by the user US, the presence or absence of images that can be viewed for "Room 102 of Apartment X" is displayed in chronological order in a box 68. In this example, a black triangle pointing downward indicates that there is an image taken at that date and time. For example, when the user US places the mouse pointer 80 on one of the triangles, the corresponding date and time information is displayed as a pop-up, and by further clicking on the triangle, the user US can select the date and time to be viewed.

より詳細には、図7において、ユーザUSによりパーソナルコンピュータUTのブラウザを介して「102号室」が選択されると、再び図4の矢印U2、ステップS104~ステップS107およびD2に関して説明したのと同様の処理が行われる。例えば、情報処理装置1のユーザ要求受付部22が、取得要求から場所情報「Xマンション,102号室」を抽出し、表示用画像取得部23が、画像データ記憶部31から場所情報「Xマンション,102号室」に紐づけられた閲覧可能なすべての画像の日時情報を読み出す。そして、表示データ生成部25が、この日時情報をユーザUSが時間軸上で閲覧できるような表示を生成し、送信部12を介してパーソナルコンピュータUTのブラウザに送信する。パーソナルコンピュータUTのブラウザは、D2において図7のボックス68に示したような時間軸表示を表示する。 More specifically, in FIG. 7, when "Room 102" is selected by the user US through the browser of the personal computer UT, the process is again similar to that described with respect to arrow U2, steps S104 to S107, and D2 in FIG. processing is performed. For example, the user request reception unit 22 of the information processing device 1 extracts the location information “X Mansion, Room 102” from the acquisition request, and the display image acquisition unit 23 extracts the location information “X Mansion, Room 102” from the image data storage unit 31. Reads the date and time information of all the images that can be viewed and are linked to "Room 102". Then, the display data generating section 25 generates a display that allows the user US to view this date and time information on the time axis, and transmits it to the browser of the personal computer UT via the transmitting section 12. The browser of the personal computer UT displays a time axis display as shown in box 68 in FIG. 7 at D2.

同様に、図7のボックス68を介して、ユーザUSがさらに「6月X日」を閲覧対象として選択すると、再び図4の矢印U2、ステップS104~ステップS107に関して説明したのと同様の処理を経て、D2において、パーソナルコンピュータUTのブラウザに「6月X日」の「Xマンション102号室」に対応する画像を含むWebページが表示される。 Similarly, if the user US further selects "June Thereafter, at D2, a web page including an image corresponding to "X Mansion Room 102" on "June X" is displayed on the browser of the personal computer UT.

図8は、そのようなWebページの表示イメージの一例を示す。図8の例では、Webページ70において、ボックス71に閲覧中の建物の場所情報「Xマンション102号室」および住所「A県A市・・・」が表示され、ボックス72に閲覧中の画像の日時情報「2019年6月X日」が表示される。ボックス73には、当該場所情報および日時情報に対応する画像データ(以下、「撮影画像」)が表示される。撮影画像は、特定の場所および特定の日時における作業対象を含む現実空間を撮影した画像データをもとに作成された任意の画像であってよい。この例では、撮影画像は、360度画像データから任意のアングルを切り取って作成された画像である。 FIG. 8 shows an example of a display image of such a web page. In the example of FIG. 8, on the web page 70, box 71 displays the location information of the building being viewed, “X Mansion No. 102” and the address “A city, prefecture A...”, and box 72 displays the location information of the image being viewed. Date and time information “June X, 2019” is displayed. Box 73 displays image data (hereinafter referred to as "photographed image") corresponding to the location information and date and time information. The photographed image may be any image created based on image data of a real space including a work target at a specific place and at a specific date and time. In this example, the photographed image is an image created by cutting an arbitrary angle from 360-degree image data.

またこのとき、上述のようにあらかじめ作成され記憶されたレイアウトデータに基づき、「Xマンション102号室」のレイアウト表示がされるようにしてもよい。レイアウト表示には、例えば各部屋で撮影された画像データへのリンクが設定されてもよい。 Also, at this time, the layout of "X Mansion Room 102" may be displayed based on the layout data created and stored in advance as described above. For example, links to image data taken in each room may be set in the layout display.

(4)対比画像の取得・表示
次に、ユーザUSが、指定した場所および日時における作業の進捗を視覚的に知りたい場合、例えばWebページ70にGUI部品として表示された「比較」ボタン701を選択することができる。比較ボタン701には、例えば、画像を比較可能に表示するためのWebページへのリンクが設定される。
(4) Acquisition and Display of Comparison Images Next, if the user US wants to visually know the progress of work at a specified location and date and time, for example, click the “Compare” button 701 displayed as a GUI component on the web page 70. You can choose. For example, a link to a web page for displaying images in a comparative manner is set in the comparison button 701.

図4の破線矢印U3は、そのようなユーザ要求がパーソナルコンピュータUTのブラウザを介して入力されたことを示す。この入力を受け取ったパーソナルコンピュータUTのブラウザは、表示中の画像に係る日時情報および場所情報とともに上記要求を情報処理装置1に送信する。 The dashed arrow U3 in FIG. 4 indicates that such a user request has been entered via the browser of the personal computer UT. Upon receiving this input, the browser of the personal computer UT transmits the above request to the information processing apparatus 1 along with date and time information and location information regarding the image being displayed.

ステップS108において、情報処理装置1は、受信部11により、パーソナルコンピュータUTからユーザ要求を受信する。 In step S108, the information processing device 1 receives a user request from the personal computer UT using the receiving unit 11.

ステップS109において、情報処理装置1は、ユーザ要求受付部22の制御の下、この要求を受け付け、必要な情報を抽出して表示用画像取得部23に渡す。一実施形態によれば、ユーザ要求受付部22は、必要な情報として、リンク先のページを指定する情報と、ユーザ要求がパーソナルコンピュータUTに入力された時点でそのブラウザに表示されていた撮影画像との対比に用いるべき画像(以下、「対比画像」)に関する情報が含まれる。対比画像は、作業対象に対する作業の進捗の基準となる画像である。例えば、対比画像は、作業対象に対する作業が完了した状態を表す画像であり、完成予想図または完成予想3Dモデルをもとに作成された画像であってよい。完成予想図は、BIM(Building Information Modeling)データまたはCAD(Computer-Aided Design)データであってもよい。 In step S<b>109 , the information processing device 1 receives this request under the control of the user request receiving unit 22 , extracts necessary information, and passes it to the display image obtaining unit 23 . According to one embodiment, the user request reception unit 22 includes, as necessary information, information specifying a link destination page and a captured image displayed on the browser at the time the user request is input to the personal computer UT. Contains information regarding an image to be used for comparison (hereinafter referred to as a "comparison image"). The comparison image is an image that serves as a reference for the progress of work on the work target. For example, the comparison image is an image representing a state in which the work on the work target has been completed, and may be an image created based on an estimated completion drawing or an estimated completion 3D model. The completed concept drawing may be BIM (Building Information Modeling) data or CAD (Computer-Aided Design) data.

あるいは、対比画像は、作業スケジュールをもとに作成された当該日時に対応する画像、例えば、その日時に見込まれる予想進捗を仮想空間内で表現した画像であってもよい。このような対比画像は、例えば、あらかじめBIMデータやCADデータを用いて複数の時点における作業の進捗を表す画像として作成され記憶されたものであってもよいし、作業スケジュールをもとに機械学習等により自動作成されたものであってもよい。同様に、当該日時において作業がここまで進んでいるべきだ、作業対象がこのような状態にあるべきだという進捗を表す任意の画像が用いられてよい。対比画像はまた、作業工程ごとの完成状態を表す画像であってもよい。 Alternatively, the comparison image may be an image corresponding to the date and time created based on the work schedule, for example, an image expressing the expected progress expected at the date and time in virtual space. Such a comparison image may be created and stored in advance as an image representing work progress at multiple points in time using BIM data or CAD data, or may be created using machine learning based on the work schedule. It may be automatically created by, for example, Similarly, any image that represents the progress that the work should have made or the state that the work target should be in at the relevant date and time may be used. The comparison image may also be an image representing the completed state of each work step.

あるいは、対比画像は、撮影画像と同じ現実空間(例えば、同じ建物の同じ部屋)を、撮影画像とは異なる日時に撮影した画像であってもよい。対比画像はまた、任意の撮影日時に同じ建物または類似の建物内の他の部屋を撮影した画像であってもよい。 Alternatively, the comparison image may be an image taken of the same real space (for example, the same room in the same building) as the photographed image at a different date and time than the photographed image. The comparison image may also be an image taken of another room in the same building or a similar building at any shooting date and time.

対比画像は、場所情報または場所情報と日時情報に紐づけて、あらかじめ画像データ記憶部31に記憶される。対比画像が完成予想図である場合、撮影画像の日時情報を問わず、特定の場所情報(例えばXマンション102号室)について1つの対比画像を記憶してもよいし、または複数の場所情報(例えばXマンション内の複数の部屋)について共通の対比画像を記憶してもよい。どのような対比画像を用いるかは、情報処理装置1の管理者等により任意に設定されてよい。以下では、対比画像として部屋ごとにコンピュータグラフィックスの完成予想図が設定されているものとする。 The comparison image is stored in advance in the image data storage unit 31 in association with location information or location information and date and time information. When the comparison image is a completed rendering, one comparison image may be stored for specific location information (e.g., apartment 102), regardless of the date and time information of the photographed image, or multiple location information (e.g. A common comparison image may be stored for a plurality of rooms in the X apartment. What kind of comparison image to use may be arbitrarily set by the administrator of the information processing device 1 or the like. In the following, it is assumed that a computer graphics rendering of the completed room is set as a comparison image for each room.

表示用画像取得部23は、ユーザ要求受付部22から受け取った表示中の撮影画像の場所情報に基づき、画像データ記憶部31から対比画像としての完成予想図データを読み出す。 The display image acquisition unit 23 reads the completed image data as a comparison image from the image data storage unit 31 based on the location information of the photographed image being displayed received from the user request reception unit 22.

ステップS110において、情報処理装置1は、リンク先のページのHTMLファイルに加えて、表示中の撮影画像と、読み出した対比画像とを含む、Webページの表示に必要な応答メッセージを生成する。 In step S110, the information processing device 1 generates a response message necessary for displaying the web page, including the HTML file of the linked page, the photographed image being displayed, and the read comparison image.

ここで、情報処理装置1は、表示データ生成部25の制御の下、撮影画像と対比画像の3D空間におけるカメラアングルおよびカメラ位置を調整してもよい。そのような調整処理の一例として、両画像から特徴を抽出し、表示する2D画像内で特徴の角度や大きさを一致させるように調整する処理が考えられる。そのような特徴を抽出する方法の一例として、エッジや色変化を検出する方法がある。エッジや色変化の検出は、任意の方法で行われてよい。例えば、カラー画像をグレースケール画像に変換し、一定のバイアスをかけてから2値画像を得ることによって、エッジや色変化を検出することが可能である(例えば、特開2014-219781号公報参照)。 Here, the information processing device 1 may adjust the camera angle and camera position in the 3D space of the captured image and the comparison image under the control of the display data generation unit 25. An example of such an adjustment process is a process in which features are extracted from both images and adjusted so that the angles and sizes of the features match in the displayed 2D image. An example of a method for extracting such features is a method of detecting edges or color changes. Detection of edges and color changes may be performed using any method. For example, it is possible to detect edges and color changes by converting a color image into a grayscale image and applying a certain bias to obtain a binary image (for example, see Japanese Patent Application Laid-Open No. 2014-219781). ).

あるいは、あらかじめ窓、壁、床、天井など対象画像内に存在し得る物体を認識できるように学習させたモデルを用いて画像内の物体認識を行い、それらの対応付けに基づいて画像処理を行うことも考えられる。あるいは、カメラCDによる撮影の際に、あらかじめ用意された対比画像に応じて撮影条件を調整するようにしてもよい。 Alternatively, objects in the image are recognized using a model trained in advance to recognize objects that may exist in the target image, such as windows, walls, floors, ceilings, etc., and image processing is performed based on the correspondence between them. It is also possible. Alternatively, when photographing with the camera CD, the photographing conditions may be adjusted according to a comparison image prepared in advance.

必要に応じて以上の調整を行ったのち、表示データ生成部25は、応答メッセージを生成して送信部12に渡す。 After making the above adjustments as necessary, the display data generation section 25 generates a response message and passes it to the transmission section 12.

ステップS111において、情報処理装置1は、送信部12は、受け取った応答メッセージをパーソナルコンピュータUTのブラウザに送信する。 In step S111, the transmitter 12 of the information processing device 1 transmits the received response message to the browser of the personal computer UT.

メッセージを受信したパーソナルコンピュータUTのブラウザは、D3において、画像の埋め込まれた対応するWebページを表示する。 The browser of the personal computer UT that received the message displays the corresponding web page in which the image is embedded in D3.

図9は、そのようなWebページの表示イメージの一例を示す。ページ75には、左側に撮影画像100が、右側に対比画像200が並べて表示される。この例では、撮影画像100は、2019年6月X日に撮影された360度画像に基づいて生成された3D空間の一部を切り取った画像であり、撮影日時情報101が重ねて表示される。撮影画像100にはまた、現実空間に存在する正面の大窓102、左側の小窓103およびまだ壁クロスが貼られていない石膏ボード104が映っている。この例では、対比画像200は、撮影画像100と対比可能に大きさおよびアングルを調整された当該部屋の完成予想図に基づく画像であり、完成予想図であることを示す情報201が重ねて表示される。対比画像200にはまた、正面の大窓202および左側の小窓203も示されている。対比画像200においては、撮影画像100に映る石膏ボード104は表示されず、壁クロスが貼られている。 FIG. 9 shows an example of a display image of such a web page. On page 75, the photographed image 100 is displayed side by side on the left side, and the comparison image 200 is displayed side by side on the right side. In this example, the photographed image 100 is an image in which a part of the 3D space is generated based on the 360-degree image photographed on June . The photographed image 100 also shows a large front window 102, a small window 103 on the left side, and a gypsum board 104 to which a wall cloth has not yet been attached, which exist in the real space. In this example, the comparison image 200 is an image based on a completed rendering of the room whose size and angle have been adjusted so that it can be compared with the photographed image 100, and information 201 indicating that it is a completed rendering is overlaid. be done. The comparison image 200 also shows a large front window 202 and a small window 203 on the left side. In the comparison image 200, the gypsum board 104 that appears in the photographed image 100 is not displayed, but a wall cloth is pasted thereon.

撮影画像100として表示される画像は、360度カメラではない通常のカメラによって撮影された写真(2D画像)であってもよい。撮影画像100は、完成予想図に対応させるために、撮影された画像データを調整(拡大、縮小、トリミング等)することによって作成されたものであってもよい。対比画像200は、上述のように、コンピュータグラフィックスに基づく画像であってもよいし、同じ建物の他の部屋や他の類似の建物で撮影された静止画または動画に基づくものであってもよい。 The image displayed as the photographed image 100 may be a photograph (2D image) taken with a normal camera rather than a 360-degree camera. The photographed image 100 may be created by adjusting (enlarging, reducing, trimming, etc.) photographed image data in order to correspond to the completed rendering. The comparison image 200 may be an image based on computer graphics, as described above, or may be based on still images or videos taken in other rooms of the same building or other similar buildings. good.

一実施形態によれば、情報処理装置1は、撮影画像100および対比画像200を、カメラのアングルを変更して再表示させることができる。例えば、図9においてユーザUSが撮影画像100の左辺付近、例えば、小窓103のあたりをマウスポインタ80を介してクリックしたとする。この場合、パーソナルコンピュータUTのブラウザは、左方へのアングル変更の指示入力を受け付けたと判断し、左方へのアングル変更を要求する信号を生成してそれを情報処理装置1に送信する。この信号を受信した情報処理装置1は、ユーザ要求受付部22および表示用画像取得部23の制御の下、撮影画像100および対比画像200のそれぞれについて、3D空間においてカメラのアングルを90度左方向に回転させて切り取った画像を作成する処理を行う。これらの画像は、あらかじめ複数のアングルの画像として用意されたものでもよい。そして情報処理装置1は、表示データ生成部25により、作成した画像を含むメッセージを生成して再びパーソナルコンピュータUTのブラウザに送信する。パーソナルコンピュータUTのブラウザは、受信したメッセージをもとに表示を生成する。上記処理は、例えば図4のU3、S108~S111およびD3に関して説明したのと同様に行うことができる。 According to one embodiment, the information processing device 1 can redisplay the photographed image 100 and the comparison image 200 by changing the camera angle. For example, assume that the user US clicks near the left side of the photographed image 100, for example, around the small window 103, using the mouse pointer 80 in FIG. In this case, the browser of the personal computer UT determines that it has received an input instruction to change the angle to the left, generates a signal requesting a change of angle to the left, and transmits it to the information processing device 1 . Upon receiving this signal, the information processing device 1 changes the camera angle 90 degrees to the left in the 3D space for each of the captured image 100 and the comparison image 200 under the control of the user request reception unit 22 and the display image acquisition unit 23. Performs processing to create a rotated and cropped image. These images may be prepared in advance as images from a plurality of angles. Then, the information processing device 1 uses the display data generation unit 25 to generate a message including the created image and sends it again to the browser of the personal computer UT. The browser of the personal computer UT generates a display based on the received message. The above processing can be performed in the same manner as described with respect to U3, S108 to S111, and D3 in FIG. 4, for example.

図10は、上記アングル変更指示後にパーソナルコンピュータUTのブラウザに再表示されるイメージの一例を示す。図10のページ75には、図9と同様に、撮影画像100と対比画像200とが並べて表示される。撮影画像100および対比画像200は、いずれも図9に示した3D空間に対してアングルを90度左方向に回転させて切り取った画像を表す。図9では左方に表示されていた小窓103および203が、図10では正面に表示される。撮影画像100にはその中央付近に壁クロス未施工の石膏ボード104が表示される。 FIG. 10 shows an example of an image that is redisplayed on the browser of the personal computer UT after the angle change instruction is given. On page 75 of FIG. 10, the photographed image 100 and the comparison image 200 are displayed side by side, similarly to FIG. Both the photographed image 100 and the comparison image 200 represent images cut out by rotating the angle 90 degrees to the left with respect to the 3D space shown in FIG. The small windows 103 and 203 that were displayed on the left in FIG. 9 are displayed on the front in FIG. In the photographed image 100, a gypsum board 104 with no wall cloth installed is displayed near the center thereof.

図10に示したWebページ75はさらに、進捗の評価を指示するためのGUI部品である「進捗評価」ボタン81を含む。ユーザUSがマウスポインタ80を介して進捗評価ボタン81をクリックすると、パーソナルコンピュータUTのブラウザから情報処理装置1に対して進捗の評価開始を要求する信号が送信される。図4の破線矢印U4は、ユーザUSがパーソナルコンピュータUTのブラウザにこの要求を入力したことを示す。ステップS112において、情報処理装置1は、ユーザ要求受付部22の制御の下、この要求を受け付け、以下のように進捗の評価を開始する。 The web page 75 shown in FIG. 10 further includes a "progress evaluation" button 81, which is a GUI component for instructing progress evaluation. When the user US clicks the progress evaluation button 81 via the mouse pointer 80, the browser of the personal computer UT transmits a signal requesting the information processing device 1 to start evaluation of progress. The dashed arrow U4 in FIG. 4 indicates that the user US has entered this request into the browser of the personal computer UT. In step S112, the information processing device 1 receives this request under the control of the user request receiving unit 22, and starts evaluating the progress as follows.

(5)進捗の評価
まずステップS113において、情報処理装置1は、進捗評価部24の制御の下、進捗を評価するために用いるべき2つの画像を特定し、それらを対比する処理を行う。一実施形態によれば、進捗評価部24は、進捗評価ボタン81が押された時点でパーソナルコンピュータUTのブラウザによって表示されていた撮影画像100および対比画像200の識別情報を取得し、それらを対比の対象として特定し、対比処理を行う。
(5) Evaluation of progress First, in step S113, the information processing device 1, under the control of the progress evaluation unit 24, specifies two images to be used for evaluating progress and performs a process of comparing them. According to one embodiment, the progress evaluation unit 24 acquires the identification information of the photographed image 100 and the comparison image 200 that were displayed by the browser of the personal computer UT at the time when the progress evaluation button 81 was pressed, and compares them. , and perform comparison processing.

例えば、進捗評価部24は、対比処理の一例として2つの画像の類似度を算出する。類似度の算出には、例えば、SIFT(Scale-Invariant Feature Transform)、AKAZE(Accelerated-KAZE)、SURF(Speed-Up Robust Features)、ORB(Oriented BRIEF)、BRISK(Binary Robust Invariant Scalable Keypoints)等のアルゴリズムが使用される。この場合、進捗評価部24は、上記アルゴリズムを使用して2つの画像から特徴点をそれぞれ抽出し、抽出された各特徴点間の距離を求めることによって、類似度を算出する。 For example, the progress evaluation unit 24 calculates the degree of similarity between two images as an example of comparison processing. For calculating the similarity, for example, SIFT (Scale-Invariant Feature Transform), AKAZE (Accelerated-KAZE), SURF (Speed-Up Robust Features), ORB (Oriented BRIEF), BRISK (Binary Robust Invariant Scalable Keypoints), etc. algorithm is used. In this case, the progress evaluation unit 24 extracts feature points from each of the two images using the above algorithm, and calculates the degree of similarity by determining the distance between each of the extracted feature points.

進捗評価部24はまた、背景差分法を用いて2つの画像間の相違を検出することもできる。その際、上記SIFT、AKAZE、SURF、ORB、BRISK等のアルゴリズムを使用して特徴点マッチングを行ってから背景差分法を用いてもよい。これにより、例えば、図10における撮影画像100および対比画像200の相違点として、石膏ボード104がむき出しになった壁クロス未施工箇所を容易に検出することができる。 The progress evaluation unit 24 can also detect differences between two images using a background subtraction method. At that time, the background subtraction method may be used after feature point matching is performed using algorithms such as SIFT, AKAZE, SURF, ORB, and BRISK. Thereby, for example, as a difference between the photographed image 100 and the comparison image 200 in FIG. 10, it is possible to easily detect a portion where the wall cloth is not installed where the gypsum board 104 is exposed.

対比処理の別の例として以下のような各種手法も採用することができる。第1の手法は、入力画像に対して物体認識を行う学習済みのCNN(Convolutional Neural Network)の隠れ層から特徴量を抽出し、類似度を算出するものである。第2の手法は、各画像の画素値のヒストグラムを作成し、それらを対比することによって類似度を算出するものである。第3の手法は、各画素値の相関係数を得ることによって画像間の類似度を算出するものである。第4の手法は、各画素のRGB値それぞれの平均値を画像ごとに算出し、それらの距離に基づいて類似度を算出するものである。 As another example of the comparison process, the following various methods can also be adopted. The first method is to extract features from a hidden layer of a trained CNN (Convolutional Neural Network) that performs object recognition on an input image, and calculate a degree of similarity. The second method is to create a histogram of pixel values of each image and calculate the degree of similarity by comparing the histograms. The third method is to calculate the degree of similarity between images by obtaining the correlation coefficient of each pixel value. The fourth method is to calculate the average value of the RGB values of each pixel for each image, and calculate the degree of similarity based on the distance between them.

あるいは、進捗評価部24は、上記で説明したエッジ検出を行ってもよい。すなわち、進捗評価部24は、両画像を2値化して、エッジ検出を行い、検出されたエッジの長さ、角度、画素数等を比較することによって、類似度を算出することができる。また、あらかじめ多数の画像データを用いて類似度を出力するように学習させた学習済みモデルを用いて、類似度を算出してもよい。あるいは、各画像を複数のセグメントに分割し、分割されたセグメントごとに、上記様々な方法のいずれかを用いて類似度を算出するようにしてもよい。 Alternatively, the progress evaluation unit 24 may perform edge detection as described above. That is, the progress evaluation unit 24 can calculate the degree of similarity by binarizing both images, performing edge detection, and comparing the length, angle, number of pixels, etc. of the detected edges. Alternatively, the similarity may be calculated using a trained model that is trained in advance to output the similarity using a large amount of image data. Alternatively, each image may be divided into a plurality of segments, and the degree of similarity may be calculated for each divided segment using any of the various methods described above.

次いで、ステップS114において、情報処理装置1は、進捗評価部24の制御の下、算出された類似度に基づいて、作業の進捗を評価する処理を行う。一実施形態によれば、進捗評価部24は、算出された類似度に基づき、作業の進捗を表す情報として進捗率を求める。進捗率は任意の方法で求められてよい。例えば、進捗評価部24は、算出された類似度(例えば、パーセンテージで算出される)をそのまま進捗率の値としてもよい。あるいは、進捗評価部24は、まず天井、床、壁、窓などの物体認識を行い、認識された物体ごとに上記類似度算出方法により類似度を算出するようにしてもよい。そして、物体ごとに算出された類似度を加算平均することによって、あるいはあらかじめ設定された重み付けを用いて加重平均することによって、全体の進捗率を求めるようにしてもよい。 Next, in step S114, the information processing device 1 performs a process of evaluating the progress of the work based on the calculated similarity under the control of the progress evaluation unit 24. According to one embodiment, the progress evaluation unit 24 obtains a progress rate as information representing the progress of the work based on the calculated similarity. The progress rate may be determined using any method. For example, the progress evaluation unit 24 may use the calculated degree of similarity (for example, calculated as a percentage) as the value of the progress rate. Alternatively, the progress evaluation unit 24 may first perform object recognition such as a ceiling, floor, wall, window, etc., and then calculate the degree of similarity for each recognized object using the above-described degree of similarity calculation method. Then, the overall progress rate may be determined by averaging the degrees of similarity calculated for each object, or by performing a weighted average using preset weighting.

ステップS115において、情報処理装置1は、表示データ生成部25の制御の下、評価結果として上記進捗率をユーザに提示するための表示データを含む応答メッセージを生成する。 In step S115, the information processing device 1 generates a response message including display data for presenting the progress rate to the user as an evaluation result under the control of the display data generation unit 25.

そしてステップS116において、情報処理装置1は、送信部12を介して、応答メッセージをパーソナルコンピュータUTのブラウザに送信する。 Then, in step S116, the information processing device 1 transmits the response message to the browser of the personal computer UT via the transmitter 12.

パーソナルコンピュータUTのブラウザは、D4において、受信したメッセージに基づき、Webページを表示することができる。 The browser of the personal computer UT can display a web page based on the received message in D4.

図11は、パーソナルコンピュータUTのブラウザにより表示される、評価結果を表示するイメージの一例である。ボックス82に、作業の進捗を表す情報として「進捗率は約70%です」と表示されている。 FIG. 11 is an example of an image displaying evaluation results displayed by the browser of the personal computer UT. Box 82 displays "Progress rate is approximately 70%" as information representing the progress of the work.

作業の進捗を表す情報は、文字だけに限られない。例えば、特に相違する箇所(類似度が低い箇所)を強調表示するようにしてもよい。図11の例では、特に類似度が低い箇所を示すため、撮影画像100および対比画像200上で、まだクロスが貼られていない石膏ボード104に対応する部分がそれぞれ破線105,205で囲まれて強調表示されている。これは、例えばまず物体認識を行い、認識された物体ごとに類似度を算出し、類似度を所定のしきい値と比較することにより、類似度が所定のしきい値を下回る物体を識別することによって実施される。そして、表示データ生成部25が、類似度がしきい値を下回る物体に対し、当該物体を強調表示するための表示を生成して、上記画像に重ねて表示させる。 Information indicating the progress of work is not limited to text only. For example, particularly different parts (parts with low similarity) may be highlighted. In the example of FIG. 11, in order to indicate areas where the degree of similarity is particularly low, parts of the photographed image 100 and comparison image 200 corresponding to the plasterboard 104 to which the cross has not yet been pasted are surrounded by broken lines 105 and 205, respectively. Highlighted. This can be done, for example, by first performing object recognition, calculating the similarity for each recognized object, and comparing the similarity with a predetermined threshold to identify objects whose similarity is below the predetermined threshold. It is carried out by Then, the display data generation unit 25 generates a display for emphasizing an object whose degree of similarity is less than a threshold value, and causes the display to be displayed superimposed on the image.

図12は、進捗評価部24が進捗率を求めるために使用し得る評価テーブルの一例を示す。評価テーブルは、画像データから認識可能な物体ごとにあらかじめ設定された重み係数を指定するもので、例えば情報処理装置1の管理者によりテーブル記憶部32に記憶される。進捗評価部24は、例えば、認識された物体ごとに類似度を算出し、算出した類似度にこのテーブルで指定された重みを乗じて物体ごとの進捗率を求めることができる。図12の評価テーブルの例では、「対象」は、認識可能な物体を指し、例えば、窓、天井、床、壁・・・等が含まれる。「重み係数」は、物体(対象)ごとに重要度などを考慮してあらかじめ任意に設定され、例えば0以上1以下の値に設定される。ただしこれに限るものではなく、重み係数は1よりも大きな値でもよいし、全重み係数の和は1であってもよいし1でなくてもよい。「類似度」は上記のように進捗評価部24によって算出される物体ごとの類似度である。「進捗率」は、ここでは物体ごとの進捗率を表し、例えば「類似度」に「重み係数」を乗じることによって求められる。図12の例では、窓について類似度が83%と算出され、窓の重み係数があらかじめ0.8と設定されているので、窓に対する作業の進捗率は83×0.8=66.4%と算出される。なお、物体ごとの進捗率は必ずしも求めなくてもよい。 FIG. 12 shows an example of an evaluation table that can be used by the progress evaluation unit 24 to determine the progress rate. The evaluation table specifies a preset weighting coefficient for each object that can be recognized from the image data, and is stored in the table storage unit 32 by, for example, the administrator of the information processing device 1. For example, the progress evaluation unit 24 can calculate the degree of similarity for each recognized object, and multiply the calculated degree of similarity by the weight specified in this table to obtain the progress rate for each object. In the example of the evaluation table in FIG. 12, the "object" refers to a recognizable object, and includes, for example, a window, ceiling, floor, wall, etc. The "weighting coefficient" is arbitrarily set in advance for each object (object) in consideration of its importance, etc., and is set, for example, to a value of 0 or more and 1 or less. However, the present invention is not limited to this, and the weighting coefficient may be a value larger than 1, and the sum of all weighting coefficients may be 1 or may not be 1. “Similarity” is the degree of similarity for each object calculated by the progress evaluation unit 24 as described above. The "progress rate" here represents the progress rate for each object, and is determined by, for example, multiplying the "similarity" by the "weighting coefficient." In the example shown in Figure 12, the degree of similarity for the window is calculated as 83%, and the weighting coefficient for the window is set to 0.8 in advance, so the progress rate of the work on the window is 83 x 0.8 = 66.4%. It is calculated as follows. Note that the progress rate for each object does not necessarily need to be determined.

さらに、進捗評価部24は、評価テーブルを用いて全体の進捗率を求めることができる。例えば、進捗評価部24は、物体ごとに算出された類似度の加重平均として全体の進捗率を求める。図12の例では、各物体の類似度に重み係数を乗じて物体ごとの進捗率(66.4%,94.0%,85.5%,15.0%,...)を算出し、これらの進捗率の和を重み係数の和で除算することによって((66.4+94.0+85.5+15.0+・・・)/(0.8+1+0.95+0.75+・・・))、全体の進捗率「70.2%」を得る。あるいは各物体の進捗率の和を物体の数の和で除算してもよい。あるいは単に各物体の類似度の加算平均を求めて、全体の進捗率としてもよい。さらに他のテーブルや他の数式を用いて進捗率を求めてもよい。 Further, the progress evaluation unit 24 can determine the overall progress rate using the evaluation table. For example, the progress evaluation unit 24 obtains the overall progress rate as a weighted average of the degrees of similarity calculated for each object. In the example of FIG. 12, the progress rate for each object (66.4%, 94.0%, 85.5%, 15.0%, ...) is calculated by multiplying the similarity of each object by a weighting coefficient. , by dividing the sum of these progress rates by the sum of weighting factors ((66.4+94.0+85.5+15.0+...)/(0.8+1+0.95+0.75+...)), the overall progress is calculated. A rate of ``70.2%'' is obtained. Alternatively, the sum of the progress rates of each object may be divided by the sum of the number of objects. Alternatively, the overall progress rate may be determined by simply calculating the average of the similarities of each object. Furthermore, the progress rate may be determined using another table or other formula.

(効果)
以上詳述したように、この発明の一実施形態では、作業対象に対する作業の進捗を表す情報を提示する情報処理装置にあって、上記作業対象を含む現実空間を撮影した画像データをもとに生成された、第1の撮影日時に対応する上記現実空間を表す第1の画像を取得し、上記作業対象に対する上記作業の進捗の基準となる、上記現実空間を表す第2の画像を取得し、上記第1の画像と上記第2の画像とを対比することによって、上記第1の撮影日時における上記作業の進捗率を求め、作業対象に対する作業の進捗を表す情報として上記進捗率を表す情報を出力するようにした。
(effect)
As described in detail above, in one embodiment of the present invention, an information processing device that presents information representing the progress of work on a work object is provided, and the information processing apparatus presents information representing the progress of work on a work object, based on image data taken of a real space including the work object. A generated first image representing the real space corresponding to the first photographing date and time is obtained, and a second image representing the real space is obtained as a reference for the progress of the work on the work object. , by comparing the first image and the second image, determine the progress rate of the work at the first photographing date and time, and obtain information representing the progress rate as information representing the progress of the work on the work target. is now output.

これにより、対象を撮影した画像に基づき、評価者の経験や主観に依存しない客観的な進捗評価を行うことができる。画像を撮影場所および日時情報に紐づけて蓄積しているので、ユーザが指定した場所および日時に基づいて容易に撮影画像を抽出し、その時点における作業の進捗率を求めることができる。 This makes it possible to perform an objective progress evaluation that does not depend on the experience or subjectivity of the evaluator, based on images of the object. Since the images are stored in association with the location and date/time information specified by the user, the captured images can be easily extracted based on the location and date/time specified by the user, and the progress rate of the work at that point can be determined.

また、進捗率を求めるにあたっては、上記第1の画像および上記第2の画像から特徴を抽出し、抽出した特徴を対比することによって上記第1の画像と上記第2の画像との類似度を算出し、上記類似度に基づいて上記作業の進捗率を求めることもできる。これにより、画像類似度の算出による、安定した客観的な評価結果を得ることができる。 Furthermore, in determining the progress rate, features are extracted from the first image and the second image, and the degree of similarity between the first image and the second image is calculated by comparing the extracted features. The progress rate of the work can also be determined based on the degree of similarity. Thereby, stable and objective evaluation results can be obtained by calculating the degree of image similarity.

また、進捗率を求めるにあたっては、上記第1の画像に含まれる第1の物体と、上記第2の画像に含まれる上記第1の物体に対応する第2の物体とを識別し、上記第1の物体と上記第2の物体との類似度を算出し、算出された上記類似度に基づいて上記作業の進捗率を求めることもできる。このように、画像内の物体認識が可能な場合には、2つの画像内で認識された対比し得る物体間の類似度を算出して、算出された類似度に基づき進捗率を求める。これにより、より明確な基準を用いて進捗率を求めることが可能となる。 Furthermore, in determining the progress rate, a first object included in the first image and a second object corresponding to the first object included in the second image are identified, and a second object corresponding to the first object included in the second image is identified. It is also possible to calculate the degree of similarity between the first object and the second object, and determine the progress rate of the work based on the calculated degree of similarity. In this way, when objects in images can be recognized, the similarity between comparable objects recognized in two images is calculated, and the progress rate is determined based on the calculated similarity. This makes it possible to determine the progress rate using clearer criteria.

また、物体認識が可能な場合、2つの画像間の類似度が所定のしきい値を下回る物体に対しては、それらを強調表示させることも可能である。これにより、ユーザに対し、類似度が低い物体を明確に提示することができ、進捗が遅れている対象の特定など、作業の進捗の評価に役立てることができる。 Furthermore, if object recognition is possible, objects for which the degree of similarity between two images is less than a predetermined threshold can be highlighted. This makes it possible to clearly present objects with a low degree of similarity to the user, which can be useful for evaluating the progress of a task, such as identifying an object whose progress is delayed.

また、進捗率を評価するために、撮影した画像と対比すべき画像としてBIM画像やCAD画像のような仮想空間内の画像を使用してもよい。対比画像は、完成予想図に対応するものであってもよいし、作業計画または作業スケジュールに含まれる各工程が完了した状態を表すものであってもよい。または対比画像は、特定の時点において予想される作業の進捗を表すものであってもよい。あるいは、例えば、工事開始時点や、1か月ごとに撮影された画像など、同じ現実空間を異なる日時に撮影した画像であってもよい。対比画像は、特定の場所および日時において作業の進捗がどのような状態であるべきかを表す任意の画像であってよい。撮影画像および対比画像は、2次元的表示であっても3次元的表示であってもよい。 Further, in order to evaluate the progress rate, an image in a virtual space such as a BIM image or a CAD image may be used as an image to be compared with the photographed image. The comparison image may correspond to a conceptual drawing, or may represent a state in which each process included in the work plan or work schedule has been completed. Alternatively, the contrast image may represent the expected progress of the work at a particular point in time. Alternatively, the images may be images taken of the same real space at different dates and times, such as images taken at the start of construction or every month. The comparison image may be any image that represents what the progress of the work should be at a specific location and date and time. The photographed image and the comparison image may be displayed in a two-dimensional or three-dimensional manner.

このように多種多様な画像を利用できるので、作業または評価の対象や内容、目的等に応じて、最適な対比画像を用いて進捗を評価することができる。また、適切な対比画像を用いて撮影画像と並べて表示することにより、作業スケジュールにおいてどのような進捗状況にあるかを視覚的により的確に確認することができる。 Since a wide variety of images can be used in this way, it is possible to evaluate progress using an optimal comparison image depending on the object, content, purpose, etc. of the work or evaluation. Furthermore, by displaying an appropriate comparison image alongside the photographed image, it is possible to visually confirm the progress of the work schedule more accurately.

[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、情報処理装置1は、必ずしも360度画像データを用いる必要はなく、また必ずしも3D空間モデルを作成する必要もない。情報処理装置1は、対比画像との対比が可能な静止画を収集することによって上記実施形態を実現することができる。
[Other embodiments]
Note that this invention is not limited to the above embodiments. For example, the information processing device 1 does not necessarily need to use 360-degree image data, nor does it necessarily need to create a 3D spatial model. The information processing device 1 can realize the above embodiment by collecting still images that can be compared with a comparison image.

また、進捗率の算出に上記のような評価テーブルを使用する場合、工事の内容や工法ごとに異なるテーブルを用意してもよい。あるいは、類似度を算出せず、認識可能な物体ごとに単に「作業未了/作業完了」の2択判定を行い、その判定結果に応じて進捗率を求めるようにしてもよい。 Furthermore, when using an evaluation table such as the one described above to calculate the progress rate, different tables may be prepared for each type of construction work or construction method. Alternatively, the degree of similarity may not be calculated, and the two-choice determination of "work unfinished/work completed" may be simply performed for each recognizable object, and the progress rate may be determined according to the determination result.

あるいは、評価テーブルではなく回帰式を用意し、工事の内容や工法ごとに重回帰分析によってあらかじめ係数を算出して用いてもよい。例えば以下のような回帰式を使用することが考えられる。
Y=α+α+α+・・・
式中、Yは算出される進捗率であり、X,X,X,...は、各物体の画像類似度である。係数α,α,α,...は、重回帰分析によってあらかじめ算出してもよいし、建材・資材メーカーや施工業者から提供される資料をもとに情報処理装置1の管理者が任意に設定してもよい。
Alternatively, instead of an evaluation table, a regression formula may be prepared, and coefficients may be calculated and used in advance by multiple regression analysis for each construction content and construction method. For example, it is possible to use the following regression equation.
Y=α 1 X 1 + α 2 X 2 + α 3 X 3 +...
In the formula, Y is the calculated progress rate, and X 1 , X 2 , X 3 , . .. .. is the image similarity of each object. Coefficients α 1 , α 2 , α 3 , . .. .. may be calculated in advance by multiple regression analysis, or may be arbitrarily set by the administrator of the information processing device 1 based on materials provided by building material/material manufacturers and construction companies.

また図6~図11に示した表示イメージは一例にすぎず、多様なバリエーションが可能である。いくつかの表示を組み合わせてもよいし、いくつかの表示を省略してもよい。例えば、図8に示したような比較ボタン701を押すことによってただちに進捗率が表示されてもよい。また、ユーザUSが指定するたびに画像を読み出して進捗率を求めるのではなく、各撮影画像についてあらかじめ完成予想図との対比により進捗率を求めておき、ユーザUSが場所と日時を指定するとあらかじめ算出された進捗率が表示されるようにしてもよい。 Further, the display images shown in FIGS. 6 to 11 are merely examples, and various variations are possible. Some displays may be combined or some displays may be omitted. For example, the progress rate may be displayed immediately by pressing a comparison button 701 as shown in FIG. In addition, instead of reading out images and determining the progress rate each time the user US specifies, the progress rate is determined in advance by comparing each photographed image with a rendering of the completed image, and when the user US specifies the location and date, The calculated progress rate may be displayed.

上記実施形態では、情報処理装置1がいくつかの機能部を含むものとして説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。また上記実施形態において説明された各機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 In the above embodiment, the information processing device 1 has been described as including several functional units, but these are only examples of implementation of each functional unit. For example, multiple functional units described as being implemented in one device may be implemented across multiple separate devices, and conversely, multiple functional units described as being implemented across multiple separate devices may be implemented across multiple separate devices. It is also possible that the functional units described above are implemented in one device. Furthermore, each of the functional units described in the above embodiments may be realized using a circuit. The circuit may be a dedicated circuit that implements a specific function, or may be a general-purpose circuit such as a processor.

また、以上で説明した各処理の流れは、説明した手順に限定されるものではなく、いくつかのステップの順序が入れ替えられてもよいし、いくつかのステップが同時並行で実施されてもよい。また、以上で説明した一連の処理は、時間的に連続して実行される必要はなく、各ステップは任意のタイミングで実行されてもよい。 Furthermore, the flow of each process explained above is not limited to the procedures described, and the order of some steps may be changed, or some steps may be executed in parallel. . Further, the series of processes described above does not need to be executed continuously in time, and each step may be executed at any timing.

上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。 At least part of the processing in each of the embodiments described above can also be realized by using, for example, a processor installed in a general-purpose computer as the basic hardware. A program that implements the above processing may be provided while being stored in a computer-readable recording medium. The program is stored on a recording medium as an installable file or an executable file. Examples of recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. The recording medium may be any medium as long as it can store the program and is readable by a computer. Further, a program for realizing the above processing may be stored on a computer (server) connected to a network such as the Internet, and may be downloaded to a computer (client) via the network.

要するにこの発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 In short, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the invention at the implementation stage. Moreover, each embodiment may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, the embodiments described above include various inventions, and various inventions can be extracted by combinations selected from the plurality of constituent features disclosed. For example, if a problem can be solved and an effect can be obtained even if some constituent features are deleted from all the constituent features shown in the embodiment, the configuration from which these constituent features are deleted can be extracted as an invention.

1…情報処理装置
10…通信インタフェース(I/F)
11…受信部
12…送信部
20…制御ユニット
20A…ハードウェアプロセッサ
20B…プログラムメモリ
21…画像処理部
22…ユーザ要求受付部
23…表示用画像取得部
24…進捗評価部
25…表示データ生成部
30…データメモリ
31…画像データ記憶部
32…テーブル記憶部
40…バス
60,65,70,75…Webページ
701…比較ボタン
80…マウスポインタ
81…進捗評価ボタン
100…撮影画像
200…対比画像
CD,CD1,CD2,CDm…カメラ
UT,UT1,UT2,UTn…ユーザ端末
TG…空間
1... Information processing device 10... Communication interface (I/F)
DESCRIPTION OF SYMBOLS 11...Reception part 12...Transmission part 20...Control unit 20A...Hardware processor 20B...Program memory 21...Image processing part 22...User request reception part 23...Display image acquisition part 24...Progress evaluation part 25...Display data generation part 30...Data memory 31...Image data storage unit 32...Table storage unit 40...Bus 60, 65, 70, 75...Web page 701...Comparison button 80...Mouse pointer 81...Progress evaluation button 100...Photographed image 200...Comparative image CD , CD1, CD2, CDm...Camera UT, UT1, UT2, UTn...User terminal TG...Space

Claims (9)

作業対象に対する作業の進捗を表す情報を提示する情報処理装置であって、
前記作業対象を含む現実空間を撮影した画像データをもとに生成された、第1の撮影日時に対応する前記現実空間を表す第1の画像を取得する、第1の画像取得部と、
前記作業対象に対する前記作業の進捗の基準となる、前記現実空間を表す第2の画像を取得する、第2の画像取得部と、
前記第1の画像と前記第2の画像とを対比することによって、前記第1の撮影日時における前記作業の進捗率を求める評価部と、
前記進捗率を表す情報を生成し出力する出力部と
を具備し、
前記評価部は、前記第1の画像に含まれる、エッジと面で構成される複数の第1の物体と、前記複数の第1の物体の各々に対応する、前記第2の画像に含まれる、エッジと面で構成される複数の第2の物体とを識別し、前記複数の第1の物体と前記複数の第2の物体の対応するもの同士を対比することによって前記各物体間の類似度を算出し、物体の種類毎にあらかじめ設定された重みを用いて前記各物体間の類似度の加重平均を算出することによって前記作業の進捗率を求める情報処理装置。
An information processing device that presents information representing the progress of work on a work target,
a first image acquisition unit that acquires a first image representing the real space corresponding to a first shooting date and time, which is generated based on image data taken of the real space including the work target;
a second image acquisition unit that acquires a second image representing the real space, which serves as a reference for the progress of the work on the work target;
an evaluation unit that calculates the progress rate of the work at the first photographing date and time by comparing the first image and the second image;
an output unit that generates and outputs information representing the progress rate ;
Equipped with
The evaluation unit includes a plurality of first objects composed of edges and surfaces included in the first image, and a plurality of first objects included in the second image corresponding to each of the plurality of first objects. , identify a plurality of second objects composed of edges and surfaces, and compare the corresponding ones of the plurality of first objects and the plurality of second objects to determine the similarity between the objects. The information processing device calculates the progress rate of the work by calculating the degree of similarity between the objects and calculating a weighted average of the degrees of similarity between the objects using weights set in advance for each type of object.
前記物体の種類毎にあらかじめ設定された重みを記憶した評価テーブルを更に具備し、further comprising an evaluation table storing preset weights for each type of object,
前記評価部は、前記各物体間の類似度の加重平均を算出するのに用いる前記重みを決定する、請求項1に記載の情報処理装置。The information processing device according to claim 1, wherein the evaluation unit determines the weight used to calculate a weighted average of similarities between the objects.
前記評価部は、前記第1の画像および前記第2の画像からそれぞれ特徴を抽出し、抽出された前記各特徴を対比することによって前記第1の物体と前記第2の物体との類似度を算出し、算出された前記類似度に基づいて前記作業の進捗率を求める、請求項1に記載の情報処理装置。 The evaluation unit extracts features from the first image and the second image, and compares the extracted features to evaluate the degree of similarity between the first object and the second object . The information processing device according to claim 1, wherein the information processing device calculates the progress rate of the work based on the calculated similarity. 前記出力部は、前記類似度が所定のしきい値を下回る場合に、前記第1の画像および前記第2の画像のうちの少なくとも一方において前記第1または第2の物体を強調表示させるための情報を生成し出力する、請求項に記載の情報処理装置。 The output unit is configured to highlight the first or second object in at least one of the first image and the second image when the similarity is less than a predetermined threshold. The information processing device according to claim 1 , which generates and outputs information. 前記第2の画像が、前記第1の撮影日時における、仮想空間内の前記作業対象に対する予想進捗を表す画像である、
請求項1に記載の情報処理装置。
the second image is an image representing the expected progress of the work object in the virtual space at the first photographing date and time;
The information processing device according to claim 1.
前記第1の画像が、前記画像データをもとに作成された、前記現実空間を2次元的または3次元的に表す画像であり、
前記第2の画像が、前記画像データをもとに作成された、前記第1の撮影日時とは異なる第2の撮影日時に対応する前記現実空間を2次元的または3次元的に表す画像である、
請求項1に記載の情報処理装置。
The first image is an image that is created based on the image data and represents the real space two-dimensionally or three-dimensionally,
The second image is an image two-dimensionally or three-dimensionally representing the real space corresponding to a second photographing date and time different from the first photographing date and time, which is created based on the image data. be,
The information processing device according to claim 1.
前記第2の画像が、前記作業が完了した状態に対応する、仮想空間内の前記作業対象を表す画像である、
請求項1に記載の情報処理装置。
the second image is an image representing the work object in a virtual space corresponding to a state in which the work is completed;
The information processing device according to claim 1.
作業対象に対する作業の進捗を表す情報を提示する情報処理装置が実行する情報処理方法であって、
前記作業対象を含む現実空間を撮影した画像データをもとに生成された、第1の撮影日時に対応する前記現実空間を表す第1の画像を取得する過程と、
前記作業対象に対する前記作業の進捗の基準となる、前記現実空間を表す第2の画像を取得する過程と、
前記第1の画像と前記第2の画像とを対比することによって、前記第1の撮影日時における前記作業の進捗率を求める過程と、
前記進捗率を表す情報を生成し出力する過程と
を具備し、
前記進捗率を求める過程は、前記第1の画像に含まれる、エッジと面で構成される複数の第1の物体と、前記複数の第1の物体の各々に対応する、前記第2の画像に含まれる、エッジと面で構成される複数の第2の物体とを識別し、前記複数の第1の物体と前記複数の第2の物体の対応するもの同士を対比することによって前記各物体間の類似度を算出し、物体の種類毎にあらかじめ設定された重みを用いて前記各物体間の類似度の加重平均を算出することによって前記作業の進捗率を求める情報処理方法。
An information processing method executed by an information processing device that presents information representing the progress of work on a work target, the method comprising:
a step of obtaining a first image representing the real space corresponding to a first shooting date and time, which is generated based on image data taken of the real space including the work object;
acquiring a second image representing the real space, which serves as a reference for the progress of the work on the work object;
determining the progress rate of the work at the first photographing date and time by comparing the first image and the second image;
a step of generating and outputting information representing the progress rate ;
Equipped with
The process of determining the progress rate includes determining a plurality of first objects comprised of edges and surfaces included in the first image, and a second image corresponding to each of the plurality of first objects. by identifying a plurality of second objects comprised of edges and surfaces included in the object, and comparing corresponding ones of the plurality of first objects and the plurality of second objects. The information processing method calculates the degree of progress of the work by calculating the degree of similarity between objects, and calculating the weighted average of the degrees of similarity between the objects using weights set in advance for each type of object.
請求項1乃至請求項の何れか一項に記載の情報処理装置の各部による処理をプロセッサに実行させるプログラム。 A program that causes a processor to execute processing by each part of the information processing apparatus according to any one of claims 1 to 7 .
JP2019230409A 2019-12-20 2019-12-20 Information processing device, information processing method and program Active JP7383470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019230409A JP7383470B2 (en) 2019-12-20 2019-12-20 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019230409A JP7383470B2 (en) 2019-12-20 2019-12-20 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2021099603A JP2021099603A (en) 2021-07-01
JP7383470B2 true JP7383470B2 (en) 2023-11-20

Family

ID=76541268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230409A Active JP7383470B2 (en) 2019-12-20 2019-12-20 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7383470B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7390743B2 (en) * 2022-01-05 2023-12-04 株式会社 Sai Object measuring device and method
CN118071306B (en) * 2024-04-18 2024-06-18 广州天奕技术股份有限公司 Method, system and related equipment for monitoring construction progress of product component

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090130A (en) 2001-09-19 2003-03-28 Kajima Corp Process planning system, process planning method, process planning program and computer readable recording medium recording process planning program
JP2004005237A (en) 2002-05-31 2004-01-08 Hitachi Plant Eng & Constr Co Ltd Work progress management support method and system
JP2007094962A (en) 2005-09-30 2007-04-12 Seiko Epson Corp Specifying of object expressed in image
JP2009210403A (en) 2008-03-04 2009-09-17 Japan Atomic Energy Agency System for assisting management of installation dismantling work
US20130155058A1 (en) 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
JP2015207105A (en) 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program
JP2018049421A (en) 2016-09-21 2018-03-29 株式会社 日立産業制御ソリューションズ Work support device and work support method
JP2019016098A (en) 2017-07-05 2019-01-31 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019148946A (en) 2018-02-27 2019-09-05 前田建設工業株式会社 Construction process management system and construction process management method
US20190325089A1 (en) 2018-04-18 2019-10-24 Reconstruct Inc. Computation of point clouds and joint display of point clouds and building information models with project schedules for monitoring construction progress, productivity, and risk for delays

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090130A (en) 2001-09-19 2003-03-28 Kajima Corp Process planning system, process planning method, process planning program and computer readable recording medium recording process planning program
JP2004005237A (en) 2002-05-31 2004-01-08 Hitachi Plant Eng & Constr Co Ltd Work progress management support method and system
JP2007094962A (en) 2005-09-30 2007-04-12 Seiko Epson Corp Specifying of object expressed in image
JP2009210403A (en) 2008-03-04 2009-09-17 Japan Atomic Energy Agency System for assisting management of installation dismantling work
US20130155058A1 (en) 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
JP2015207105A (en) 2014-04-18 2015-11-19 Necフィールディング株式会社 Information processor, information processing system, information processing method and program
JP2018049421A (en) 2016-09-21 2018-03-29 株式会社 日立産業制御ソリューションズ Work support device and work support method
JP2019016098A (en) 2017-07-05 2019-01-31 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019148946A (en) 2018-02-27 2019-09-05 前田建設工業株式会社 Construction process management system and construction process management method
US20190325089A1 (en) 2018-04-18 2019-10-24 Reconstruct Inc. Computation of point clouds and joint display of point clouds and building information models with project schedules for monitoring construction progress, productivity, and risk for delays

Also Published As

Publication number Publication date
JP2021099603A (en) 2021-07-01

Similar Documents

Publication Publication Date Title
US11057561B2 (en) Capture, analysis and use of building data from mobile devices
US9953112B2 (en) Method and system for displaying room interiors on a floor plan
US12033289B2 (en) Method and system for visualizing overlays in virtual environments
US10242280B2 (en) Determining regions of interest based on user interaction
JP2018106696A (en) Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
JP2011524571A5 (en)
US10282862B2 (en) Digital image generation and capture hint data
JP6555026B2 (en) Information provision system
JP2018049623A (en) Method of sorting spatial objects in search result, and cloud system
JP7383470B2 (en) Information processing device, information processing method and program
JP2008225862A (en) System for picking-up construction photograph with electric blackboard and automatically preparing construction management ledger and program for use in the same
US10515103B2 (en) Method and system for managing viewability of location-based spatial object
US9792021B1 (en) Transitioning an interface to a neighboring image
JP6132811B2 (en) Program and information processing apparatus
JP6617547B2 (en) Image management system, image management method, and program
TW201823929A (en) Method and system for remote management of virtual message for a moving object
US20230260052A1 (en) Method and system for identifying conditions of features represented in a virtual model
US20150185992A1 (en) Providing geolocated imagery related to a user-selected image
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP7451170B2 (en) Information processing device, information processing method and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2015139001A (en) Information processing device, information processing method and program
KR102656584B1 (en) Real estate information management server based on video images and method of proving real estate information using the same
JP6297739B1 (en) Property information server
JP2021015572A (en) Information management system and information management method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7383470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150