JP2020135737A - Gaze action search system, and control program - Google Patents

Gaze action search system, and control program Download PDF

Info

Publication number
JP2020135737A
JP2020135737A JP2019031792A JP2019031792A JP2020135737A JP 2020135737 A JP2020135737 A JP 2020135737A JP 2019031792 A JP2019031792 A JP 2019031792A JP 2019031792 A JP2019031792 A JP 2019031792A JP 2020135737 A JP2020135737 A JP 2020135737A
Authority
JP
Japan
Prior art keywords
shooting
information
gaze
virtual
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019031792A
Other languages
Japanese (ja)
Other versions
JP7266422B2 (en
Inventor
西村 修
Osamu Nishimura
修 西村
昭信 本間
Akinobu Homma
昭信 本間
聖人 青山
Kiyoto Aoyama
聖人 青山
章仁 森島
Akihito Morishima
章仁 森島
祐一郎 蓮池
Yuichiro Hasuike
祐一郎 蓮池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Gas Co Ltd
Pasco Corp
Original Assignee
Osaka Gas Co Ltd
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Gas Co Ltd, Pasco Corp filed Critical Osaka Gas Co Ltd
Priority to JP2019031792A priority Critical patent/JP7266422B2/en
Publication of JP2020135737A publication Critical patent/JP2020135737A/en
Application granted granted Critical
Publication of JP7266422B2 publication Critical patent/JP7266422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a gage action search system that acquires a location of terminals provided in users, and can readily grasp a check-up situation of facilities within a premise.SOLUTION: A gaze action search system according to the present invention includes: a wearable device that acquires shooting information shot from a plurality of different shooting locations by an imaging unit, and acquires visual line information indicative of a visual line direction of a user in a timing at a time of acquiring the shooting information; and a server that calculates the shooting location in a virtual three-dimensional space for each shooting information, calculates a gaze point location where the user gazes, and a gaze time in the virtual three-dimensional space on the basis of the visual line information, stores a virtual three-dimensional space model indicative of a three-dimensional shape of a peripheral environment of the user in the virtual three-dimensional space, and causes a display unit to display the shooting location in the identifiable gaze point location according to the gaze time and/or in the visual line information serving the basis of the calculation of the gaze point location, and the virtual three-dimensional space model.SELECTED DRAWING: Figure 1

Description

本発明は、注視行動調査システム、及び制御プログラムに関する。 The present invention relates to a gaze behavior investigation system and a control program.

従来から、ユーザが所有する携帯端末と当該携帯端末と通信可能なサーバとを備え、ユーザの位置を追跡するシステムが知られている。このようなシステムでは、サーバは、携帯端末の位置情報及び各種情報を携帯端末から取得し、取得した情報を蓄積及び分析を行うことができる。 Conventionally, a system that includes a mobile terminal owned by a user and a server capable of communicating with the mobile terminal and tracks the position of the user has been known. In such a system, the server can acquire the position information and various information of the mobile terminal from the mobile terminal, and accumulate and analyze the acquired information.

例えば、特許文献1には、RFID(Radio Frequency IDentifier)等の電波を発信するセンサ機器が施設内の設備に設置され、点検作業員が所有する携帯端末が、センサ機器からの電波の強度に基づいて携帯端末の位置を特定する技術について記載されている。このシステムでは、携帯端末が、携帯端末の位置とともに点検結果を送信することで、サーバが、送信された位置に基づいて、送信された点検結果がどの設備に対するものであるかを特定する。このように、特許文献1に開示されたシステムでは、サーバによって、特定された点検結果が蓄積されるので、点検作業員が作業結果を登録する手間が省略されて、作業効率が向上する。 For example, in Patent Document 1, a sensor device that emits radio waves such as RFID (Radio Frequency IDentifier) is installed in equipment in the facility, and a mobile terminal owned by an inspection worker is based on the strength of radio waves from the sensor device. The technology for identifying the position of the mobile terminal is described. In this system, the mobile terminal transmits the inspection result together with the position of the mobile terminal, and the server identifies which equipment the transmitted inspection result is for based on the transmitted position. As described above, in the system disclosed in Patent Document 1, since the specified inspection results are accumulated by the server, the time and effort for the inspection worker to register the work results is omitted, and the work efficiency is improved.

特開2014−146217号公報Japanese Unexamined Patent Publication No. 2014-146217

しかしながら、工場及びプラント等の施設及び商業施設内のレイアウトは必要に応じて変更がなされることがあり、特許文献1で開示されたシステムが用いられた場合、レイアウトの変更のたびに、システム管理者がセンサ機器を設置し直す必要があった。また、施設が広大である場合又は施設外の広い範囲でシステムが用いられる場合、設置すべきセンサ機器の量が膨大となるため、設置コスト及び維持管理コストが増大するという問題も生じていた。 However, the layout in facilities such as factories and plants and commercial facilities may be changed as necessary, and when the system disclosed in Patent Document 1 is used, system management is performed every time the layout is changed. The person had to re-install the sensor equipment. In addition, when the facility is vast or the system is used in a wide range outside the facility, the amount of sensor equipment to be installed becomes enormous, which causes a problem that the installation cost and the maintenance cost increase.

さらに、GPS(Global Positioning System)信号が受信できない場所がある施設内においてこのシステムが用いられる場合、ユーザがGPS信号受信機付きの端末を用いたとしても、撮影した位置を安定して取得することができなかった。 Furthermore, when this system is used in a facility where there is a place where GPS (Global Positioning System) signals cannot be received, even if the user uses a terminal with a GPS signal receiver, the captured position should be stably acquired. I couldn't.

本発明は、このような課題を解決すべくなされたものであり、ユーザに備えられた端末の位置を安定して取得するとともにユーザが注視している対象を容易に把握可能な注視行動調査システム、及び制御プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and is a gaze behavior survey system that can stably acquire the position of a terminal provided by a user and easily grasp an object that the user is gaze at. , And to provide a control program.

本発明に係る注視行動調査システムは、ユーザの頭部に装着されるウェアラブル装置、及び、ウェアラブル装置と通信可能なサーバを含む注視行動調査システムであって、ウェアラブル装置は、撮影部と、撮影部によって複数の異なる撮影位置から撮影された撮影情報を取得するとともに、撮影情報を取得したタイミングにおけるユーザの視線方向を示す視線情報を当該撮影情報に対応付けて取得する取得部と、を有し、サーバは、表示部と、撮影情報ごとに仮想3次元空間における撮影位置を算出する第1算出部と、視線情報に基づいて、仮想3次元空間においてユーザが注視している注視点位置及び注視時間を算出する第2算出部と、仮想3次元空間においてユーザの周辺環境の立体形状を示す仮想3次元空間モデルを記憶する記憶部と、注視時間に応じて識別可能な注視点位置及び/又は注視点位置の算出のもととなった視線情報における撮影位置と、仮想3次元空間モデルとを表示部に表示させるサーバ表示処理部と、を有する。 The gaze behavior investigation system according to the present invention is a gaze behavior investigation system including a wearable device worn on the user's head and a server capable of communicating with the wearable device, and the wearable device includes a photographing unit and a photographing unit. It has an acquisition unit that acquires shooting information shot from a plurality of different shooting positions and acquires line-of-sight information indicating the user's line-of-sight direction at the timing of acquiring the shooting information in association with the shooting information. The server has a display unit, a first calculation unit that calculates a shooting position in the virtual three-dimensional space for each shooting information, and a gazing point position and a gazing time that the user is gazing at in the virtual three-dimensional space based on the line-of-sight information. A second calculation unit that calculates, a storage unit that stores a virtual 3D space model that shows the three-dimensional shape of the user's surrounding environment in the virtual 3D space, and a gaze point position and / or note that can be identified according to the gaze time. It has a shooting position in the line-of-sight information that is the basis for calculating the viewpoint position, and a server display processing unit that displays the virtual three-dimensional space model on the display unit.

また、本発明に係る注視行動調査システムにおいて、第2算出部は、注視点位置の算出のもととなった撮影位置ごとに注視時間を算出することが好ましい。 Further, in the gaze behavior investigation system according to the present invention, it is preferable that the second calculation unit calculates the gaze time for each imaging position from which the gaze position is calculated.

また、本発明に係る注視行動調査システムにおいて、第1算出部は、撮影位置を仮想3次元空間における所定領域内を同一の撮影位置として算出することが好ましい。 Further, in the gaze behavior investigation system according to the present invention, it is preferable that the first calculation unit calculates the shooting position as the same shooting position within a predetermined region in the virtual three-dimensional space.

また、本発明に係る注視行動調査システムにおいて、第2算出部は、注視点位置を仮想3次元空間における所定領域内を同一の注視点位置として算出することが好ましい。 Further, in the gaze behavior investigation system according to the present invention, it is preferable that the second calculation unit calculates the gaze position as the same gaze position in a predetermined region in the virtual three-dimensional space.

また、本発明に係る注視行動調査システムにおいて、仮想3次元空間モデルを撮影情報から生成する仮想3次元空間モデル生成部を更に有することが好ましい。 Further, in the gaze behavior investigation system according to the present invention, it is preferable to further have a virtual three-dimensional space model generation unit that generates a virtual three-dimensional space model from shooting information.

また、本発明に係る注視行動調査システムにおいて、第2算出部は、撮影位置ごとに、各撮影位置から、対応する視線方向に延長した線分を算出し、撮影位置ごとに、算出された線分と仮想3次元空間モデルの外形の表面との交点を、注視点として算出することが好ましい。 Further, in the gaze behavior investigation system according to the present invention, the second calculation unit calculates a line segment extending in the corresponding line-of-sight direction from each shooting position for each shooting position, and the calculated line segment is calculated for each shooting position. It is preferable to calculate the intersection of the line segment and the outer surface of the virtual three-dimensional space model as the gazing point.

本発明に係る制御プログラムは、ユーザの頭部に装着されるウェアラブル装置と通信可能なサーバの制御プログラムであって、ウェアラブル装置が備える撮影部によって複数の異なる撮影位置から撮影された撮影情報と、撮影情報を取得したタイミングにおけるユーザの視線方向を示す視線情報とを、ウェアラブル装置から受信し、撮影情報ごとに仮想3次元空間における撮影位置を算出し、視線情報に基づいて、仮想3次元空間においてユーザが注視している注視点位置及び注視時間を算出し、注視時間に応じて識別可能な注視点位置及び/又は注視点位置の算出のもととなった視線情報における撮影位置と、仮想3次元空間においてユーザの周辺環境の立体形状を示す仮想3次元空間モデルとを表示させる、ことをサーバに実行させる。 The control program according to the present invention is a control program of a server capable of communicating with a wearable device mounted on the user's head, and includes shooting information shot from a plurality of different shooting positions by a shooting unit included in the wearable device. The line-of-sight information indicating the user's line-of-sight direction at the timing of acquiring the shooting information is received from the wearable device, the shooting position in the virtual three-dimensional space is calculated for each shooting information, and based on the line-of-sight information, in the virtual three-dimensional space. The gaze position and gaze time that the user is gazing at are calculated, and the gaze position that can be identified according to the gaze time and / or the shooting position in the gaze information that is the basis for calculating the gaze position, and the virtual 3 The server is made to display a virtual three-dimensional space model showing the three-dimensional shape of the user's surrounding environment in the three-dimensional space.

本発明に係る注視行動調査システム、及び制御プログラムによって、ユーザに備えられた端末の位置が安定して取得されるとともにユーザが注視している対象が容易に把握可能となる。 By the gaze behavior investigation system and the control program according to the present invention, the position of the terminal provided to the user can be stably acquired, and the target gaze by the user can be easily grasped.

注視行動調査システム1が有する機能の概要を説明するための機能説明図である。It is a function explanatory drawing for demonstrating the outline of the function which a gaze behavior investigation system 1 has. 注視行動調査システム1の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the gaze behavior investigation system 1. (a)は、ウェアラブル装置2の外観の一例を示す斜視図であり、(b)は、ウェアラブル装置2の概略構成の一例を示す図である。(A) is a perspective view showing an example of the appearance of the wearable device 2, and (b) is a diagram showing an example of a schematic configuration of the wearable device 2. サーバ3の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the server 3. (a)は、ウェアラブル装置2の使用例を示す模式図であり、(b)及び(c)は、ウェアラブル装置2によって撮影された撮影情報の一例を示す図である。(A) is a schematic diagram showing a usage example of the wearable device 2, and (b) and (c) are diagrams showing an example of shooting information captured by the wearable device 2. (a)は、3次元モデル画像と撮影位置と視線情報を示す模式図であり、(b)は、3次元モデル画像及び注視点の表示の一例を示す図である。(A) is a schematic diagram showing a three-dimensional model image, a shooting position, and line-of-sight information, and (b) is a diagram showing an example of displaying a three-dimensional model image and a gazing point. (a)は、設備配置テーブルのデータ構造の一例を示す図であり、(b)は、点検結果テーブルのデータ構造の一例を示す図である。(A) is a diagram showing an example of the data structure of the equipment arrangement table, and (b) is a diagram showing an example of the data structure of the inspection result table. 注視行動調査システム1の動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation sequence of the gaze behavior investigation system 1. 3次元情報算出処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of 3D information calculation processing. 注視点算出処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of the gaze point calculation process. 点検記録算出処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of inspection record calculation processing. 注視行動調査システム10の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the gaze behavior investigation system 10.

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, but extends to the inventions described in the claims and their equivalents.

(注視行動調査システム1の概要)
図1は、本実施形態の注視行動調査システム1が有する機能の概要を説明するための機能説明図である。本実施形態の注視行動調査システム1は、ユーザの位置及び注視行動を特定するために用いられる。注視行動調査システム1は、ウェアラブル装置2及びサーバ3を含む。
(Overview of Gaze Behavior Survey System 1)
FIG. 1 is a function explanatory diagram for explaining an outline of the function of the gaze behavior survey system 1 of the present embodiment. The gaze behavior survey system 1 of the present embodiment is used to identify the position and gaze behavior of the user. The gaze behavior survey system 1 includes a wearable device 2 and a server 3.

ウェアラブル装置2は、ユーザの頭部に装着される端末である。ウェアラブル装置2は、例えば、ゴーグル型ウェアラブル端末又は眼鏡型ウェアラブル端末である。ウェアラブル装置2は、周辺環境を撮影し且つ撮影した撮影情報を取得する撮像機能、ユーザの視線方向を検出するアイトラッキング機能、撮影機能において取得された撮影情報等を記憶する記憶機能、各種情報を記憶媒体に記憶する媒体記憶機能を少なくとも有する機器であればどのような形態でもよい。ウェアラブル装置2は、記憶媒体から各種情報を読み出す機能を有してもよい。記憶媒体は、SDメモリカード、SmartMedia(登録商標)、USB(Universal Serial Bus)メモリ等である。ウェアラブル装置2は、サーバ3との通信機能、及び各種情報の表示機能を有してもよい。サーバ3との通信機能を有するウェアラブル装置2は、各種情報を記憶媒体に記憶する記憶機能を有していなくてもよい。 The wearable device 2 is a terminal worn on the user's head. The wearable device 2 is, for example, a goggle-type wearable terminal or a glasses-type wearable terminal. The wearable device 2 has an imaging function for photographing the surrounding environment and acquiring the photographed information, an eye tracking function for detecting the direction of the user's line of sight, a storage function for storing the photographing information acquired by the photographing function, and various information. Any form may be used as long as it is a device having at least a medium storage function for storing in a storage medium. The wearable device 2 may have a function of reading various information from the storage medium. The storage medium is an SD memory card, SmartMedia (registered trademark), USB (Universal Serial Bus) memory, or the like. The wearable device 2 may have a communication function with the server 3 and a display function of various information. The wearable device 2 having a communication function with the server 3 does not have to have a storage function for storing various information in a storage medium.

サーバ3は、ウェアラブル装置2からの情報を取得可能なコンピュータであり、記憶媒体に記憶された各種情報を取得する機能、及び表示機能等を有する。サーバ3は、記憶媒体に各種情報を記憶する機能を有してもよい。サーバ3はウェアラブル装置2との通信機能を有してもよく、この場合、記憶媒体に記憶された各種情報を取得する機能、及び、記憶媒体に各種情報を記憶する機能を有していなくてもよい。以降、ウェアラブル装置2と通信可能なコンピュータとしてサーバ3について説明するが、ウェアラブル装置2と通信可能なコンピュータは、多機能携帯電話(所謂「スマートフォン」)等の端末装置、タブレット端末又はタブレットPC(Personal Computer)等でもよい。なお、ウェアラブル装置2とウェアラブル装置2からの情報を取得可能なコンピュータとは、ともにBluetooth(登録商標)等の近距離無線通信機能を有してもよい。 The server 3 is a computer capable of acquiring information from the wearable device 2, and has a function of acquiring various information stored in a storage medium, a display function, and the like. The server 3 may have a function of storing various information in the storage medium. The server 3 may have a communication function with the wearable device 2, and in this case, the server 3 does not have a function of acquiring various information stored in the storage medium and a function of storing various information in the storage medium. May be good. Hereinafter, the server 3 will be described as a computer capable of communicating with the wearable device 2, but the computer capable of communicating with the wearable device 2 is a terminal device such as a multifunctional mobile phone (so-called “smartphone”), a tablet terminal, or a tablet PC (Personal). It may be a computer) or the like. The wearable device 2 and the computer capable of acquiring information from the wearable device 2 may both have a short-range wireless communication function such as Bluetooth (registered trademark).

以下、図1を参照して、注視行動調査システム1が有する機能の概要について説明する。 Hereinafter, the outline of the function of the gaze behavior survey system 1 will be described with reference to FIG.

ユーザに装着されたウェアラブル装置2が有するカメラ等の撮影部は、所定時間(例えば、1/30秒、1/15秒、又は1秒)ごとに特定方向の空間を撮影する。撮影部は、ユーザによって指定された任意のタイミングで撮影してもよい。特定方向は、撮影部に備えられた撮像素子の垂直方向且つ被写体方向である。 An imaging unit such as a camera included in the wearable device 2 attached to the user photographs a space in a specific direction at predetermined time intervals (for example, 1/30 second, 1/15 second, or 1 second). The photographing unit may take an image at an arbitrary timing specified by the user. The specific direction is the vertical direction and the subject direction of the image sensor provided in the photographing unit.

図1の(1)には、ユーザに装着されたウェアラブル装置2が、撮影地点S1において撮影を行って撮影情報IM1を取得し、且つ、撮影地点S2において撮影を行って撮影情報IM2を取得したことが示されている。撮影情報IM1及びIM2は静止画像を示す情報である。撮影情報IM1及びIM2は、動画像を示す情報であってもよい。 In FIG. 1 (1), the wearable device 2 mounted on the user shoots at the shooting point S1 to acquire the shooting information IM1, and shoots at the shooting point S2 to acquire the shooting information IM2. Is shown. The shooting information IM1 and IM2 are information indicating a still image. The shooting information IM1 and IM2 may be information indicating a moving image.

ウェアラブル装置2が有する視線検出部は、所定時間(例えば、1/30秒、1/15秒、又は1秒)ごとにユーザの視線方向又は注視点位置を示す視線情報を検出する。撮影部による撮影タイミングと視線検出部による検出タイミングは同時であってもよい。 The line-of-sight detection unit included in the wearable device 2 detects line-of-sight information indicating the user's line-of-sight direction or gaze position at predetermined time (for example, 1/30 second, 1/15 second, or 1 second). The imaging timing by the imaging unit and the detection timing by the line-of-sight detection unit may be the same.

ウェアラブル装置2は、記憶媒体を着脱可能に保持するスロットを備える。ウェアラブル装置2は取得した撮影情報と当該撮影情報に対応する視線情報とを、スロットに保持された記憶媒体に記憶する。撮影情報に対応する視線情報は、撮影情報が取得されたタイミング(取得時刻)に最も近いタイミングで取得された視線情報である。ウェアラブル装置2は、撮影情報と視線情報とに関連付けて、当該撮影情報に対応する取得時刻を記憶媒体に記憶してもよい。 The wearable device 2 includes a slot for holding the storage medium detachably. The wearable device 2 stores the acquired shooting information and the line-of-sight information corresponding to the shooting information in the storage medium held in the slot. The line-of-sight information corresponding to the shooting information is the line-of-sight information acquired at the timing closest to the timing (acquisition time) at which the shooting information was acquired. The wearable device 2 may store the acquisition time corresponding to the shooting information in the storage medium in association with the shooting information and the line-of-sight information.

ウェアラブル装置2は、撮影部によって撮影情報が取得されるたびに、取得された撮影情報と当該撮影情報に対応する視線情報とを、サーバ3に送信してもよい。この場合、ウェアラブル装置2は、撮影情報と視線情報とに関連付けて、当該撮影情報に対応する取得時刻をサーバ3に送信してもよい。ウェアラブル装置2は、所定の送信タイミングにおいて、未送信の撮影情報及び視線情報を、複数同時にサーバ3に送信してもよい。 The wearable device 2 may transmit the acquired shooting information and the line-of-sight information corresponding to the shooting information to the server 3 each time the shooting information is acquired by the shooting unit. In this case, the wearable device 2 may associate the shooting information with the line-of-sight information and transmit the acquisition time corresponding to the shooting information to the server 3. The wearable device 2 may simultaneously transmit a plurality of untransmitted shooting information and line-of-sight information to the server 3 at a predetermined transmission timing.

サーバ3は、ウェアラブル装置2によって記憶された撮影情報を、記憶媒体を介して取得する。サーバ3は、取得した撮影情報から仮想3次元空間における周辺環境の3次元座標である位置情報と、位置情報によりその立体形状を示す仮想3次元空間モデルと、上記仮想3次元空間における撮影位置の3次元座標を示す撮影位置情報及び撮影方向とを算出する3次元情報算出処理を実行する。仮想3次元空間モデルは、例えば、仮想3次元空間の所定の座標系(モデル座標系又はワールド座標系)の3次元座標により周辺環境の立体形状を示すサーフェスモデルである。サーバ3は、ウェアラブル装置2から取得した撮影情報を受信することによって、当該撮影情報を取得してもよい。3次元情報算出処理は、例えば、連続する複数の撮影情報を用いる公知のSfM(Structure from Motion)処理に基づくものである。 The server 3 acquires the shooting information stored by the wearable device 2 via the storage medium. The server 3 has a position information which is a three-dimensional coordinate of the surrounding environment in the virtual three-dimensional space from the acquired shooting information, a virtual three-dimensional space model which shows the three-dimensional shape by the position information, and a shooting position in the virtual three-dimensional space. The 3D information calculation process for calculating the shooting position information indicating the 3D coordinates and the shooting direction is executed. The virtual three-dimensional space model is, for example, a surface model that shows the three-dimensional shape of the surrounding environment by the three-dimensional coordinates of a predetermined coordinate system (model coordinate system or world coordinate system) of the virtual three-dimensional space. The server 3 may acquire the shooting information by receiving the shooting information acquired from the wearable device 2. The three-dimensional information calculation process is based on, for example, a known SfM (Structure from Motion) process that uses a plurality of consecutive shooting information.

図1の(2)には、3次元情報算出処理による算出結果の一例が示されている。例えば、サーバ3が当該算出結果を記憶するとともに表示部に表示する。ウェアラブル装置2が各種情報の表示機能を有する場合、記憶媒体を介してウェアラブル装置2がサーバ3から取得した算出結果(又はサーバ3から送信された算出結果)は、ウェアラブル装置2の表示部によって表示されてもよい。 FIG. 1 (2) shows an example of the calculation result by the three-dimensional information calculation process. For example, the server 3 stores the calculation result and displays it on the display unit. When the wearable device 2 has various information display functions, the calculation result acquired from the server 3 by the wearable device 2 via the storage medium (or the calculation result transmitted from the server 3) is displayed by the display unit of the wearable device 2. May be done.

図1の(2)に示されるように、撮影情報IM1及び撮影情報IM2の両者に含まれる周辺環境の外形上の特徴点が抽出され、同一と想定される特徴点が満たすべきエピポーラ幾何の拘束条件に基づいて、撮影情報IM1及び撮影情報IM2のそれぞれの撮影位置及び撮影方向と、各特徴点について仮想3次元空間における3次元座標とが復元される。 As shown in (2) of FIG. 1, feature points on the outer shape of the surrounding environment included in both the shooting information IM1 and the shooting information IM2 are extracted, and the epipolar geometric constraints that the feature points assumed to be the same should satisfy. Based on the conditions, the respective shooting positions and shooting directions of the shooting information IM1 and the shooting information IM2, and the three-dimensional coordinates in the virtual three-dimensional space for each feature point are restored.

次に、復元された撮影情報IM1及び撮影情報IM2のそれぞれの撮影位置及び撮影方向に基づいて、両者の撮影情報に含まれる各画素の仮想3次元空間における3次元座標である位置情報が算出される。この位置情報は、周辺環境の立体形状を示すための仮想3次元空間における3次元座標を持つ3次元点群データである。全ての撮影情報に対して撮影位置及び撮影方向が復元されることで、全ての撮影情報に含まれる各画素の仮想3次元空間における3次元座標の特定が可能となり、全ての撮影情報の範囲内にある各種物体の位置情報が算出される。さらに、算出された位置情報である仮想3次元空間における各種物体の立体形状を示す3次元点群データに基づいて、周辺環境のサーフェスモデルである仮想3次元空間モデルが生成される。なお、復元対象の撮影位置及び撮影方向は、一部の撮影情報に対応するものであってもよい。 Next, based on the respective shooting positions and shooting directions of the restored shooting information IM1 and shooting information IM2, the position information which is the three-dimensional coordinates in the virtual three-dimensional space of each pixel included in the shooting information of both is calculated. To. This position information is three-dimensional point cloud data having three-dimensional coordinates in a virtual three-dimensional space for showing the three-dimensional shape of the surrounding environment. By restoring the shooting position and shooting direction for all shooting information, it is possible to specify the 3D coordinates of each pixel included in all shooting information in the virtual 3D space, and within the range of all shooting information. The position information of various objects in is calculated. Further, a virtual three-dimensional space model, which is a surface model of the surrounding environment, is generated based on the three-dimensional point cloud data showing the three-dimensional shapes of various objects in the virtual three-dimensional space, which is the calculated position information. The shooting position and shooting direction of the restoration target may correspond to some shooting information.

図1の(2)に示される仮想3次元空間における撮影位置の3次元座標を示す撮影位置情報は、例えば、先に撮影を行った撮影位置S1と次に撮影を行った撮影位置S2との間の並進ベクトル及び回転行列に基づいて算出される。 The shooting position information indicating the three-dimensional coordinates of the shooting position in the virtual three-dimensional space shown in FIG. 1 (2) is, for example, the shooting position S1 in which the shooting was performed first and the shooting position S2 in which the shooting was performed next. Calculated based on the translation vector and rotation matrix between.

サーバ3は、複数の撮影情報に基づいて仮想3次元空間モデル及び撮影位置情報を算出すると、視線情報と算出した仮想3次元空間モデル及び撮影位置情報とに基づいて、各撮影位置においてユーザが注視している周辺環境の注視点位置の仮想3次元空間における3次元座標を示す注視点位置情報を算出する注視点算出処理を実行する。 When the server 3 calculates the virtual 3D space model and the shooting position information based on a plurality of shooting information, the user gazes at each shooting position based on the line-of-sight information and the calculated virtual 3D space model and the shooting position information. The gaze point calculation process for calculating the gaze point position information indicating the three-dimensional coordinates in the virtual three-dimensional space of the gaze point position of the surrounding environment is executed.

注視点算出処理では、まず、サーバ3は、撮影位置情報及び視線情報に基づいて、撮影位置から視線情報に基づく視線方向に延長した線分を算出する。そして、サーバ3は、生成された仮想3次元空間モデルに基づいて、周辺環境の外形の表面と線分との最初の交点を注視点とし、注視点の位置の仮想3次元空間における位置座標を注視点位置情報として算出する。 In the gazing point calculation process, the server 3 first calculates a line segment extending from the shooting position in the line-of-sight direction based on the line-of-sight information based on the shooting position information and the line-of-sight information. Then, based on the generated virtual three-dimensional space model, the server 3 sets the first intersection of the outer surface of the surrounding environment and the line segment as the gazing point, and sets the position coordinates of the gazing point position in the virtual three-dimensional space. Calculated as gazing point position information.

図1の(3)には、仮想3次元空間モデルに基づき、任意の視点位置から対象の周辺環境を鳥瞰した3次元モデル画像と、注視点の位置とを含む表示画面の一例が示されている。当該表示画面は、例えば、サーバ3によって表示される。当該表示画面は、サーバ3からウェアラブル装置2に送信され、ウェアラブル装置2の表示部によって表示されてもよい。ウェアラブル装置2が3次元モデル画像を表示する場合は、ウェアラブル装置2の現在の位置に対応する仮想3次元空間内の視点位置からの透視投影によって、仮想3次元空間内の仮想3次元空間モデルを仮想スクリーンに投影した3次元モデル画像が表示される。 FIG. 1 (3) shows an example of a display screen including a three-dimensional model image that gives a bird's-eye view of the surrounding environment of the target from an arbitrary viewpoint position and the position of the gazing point based on the virtual three-dimensional space model. There is. The display screen is displayed by, for example, the server 3. The display screen may be transmitted from the server 3 to the wearable device 2 and displayed by the display unit of the wearable device 2. When the wearable device 2 displays a three-dimensional model image, the virtual three-dimensional space model in the virtual three-dimensional space is displayed by perspective projection from the viewpoint position in the virtual three-dimensional space corresponding to the current position of the wearable device 2. The 3D model image projected on the virtual screen is displayed.

このように、注視行動調査システム1は、複数の撮影情報及び複数の視線情報により、施設内におけるどのような位置においてもウェアラブル装置2の撮影位置及びユーザの注視点を安定して取得することが可能となり、同時にユーザの周辺環境の仮想3次元空間モデルを生成することが可能となる。また、GPSが使用できない室内の施設内においても、位置特定装置を新たに設ける必要がないため、注視行動調査システム1は、ウェアラブル装置2の撮影位置及びユーザの注視点の位置の算出処理を安価に実行することが可能となる。さらに、注視行動調査システム1は、複数の撮影情報及び複数の視線情報に基づいて、周辺環境の立体形状を示す3次元モデル画像を表示するとともに、ユーザの注視点を3次元モデル画像上に表示することができる。 In this way, the gaze behavior survey system 1 can stably acquire the shooting position of the wearable device 2 and the gaze point of the user at any position in the facility by using a plurality of shooting information and a plurality of line-of-sight information. At the same time, it becomes possible to generate a virtual three-dimensional space model of the user's surrounding environment. Further, since it is not necessary to newly install a position identification device even in an indoor facility where GPS cannot be used, the gaze behavior survey system 1 inexpensively calculates the shooting position of the wearable device 2 and the position of the user's gaze point. It becomes possible to execute. Further, the gaze behavior investigation system 1 displays a three-dimensional model image showing the three-dimensional shape of the surrounding environment based on a plurality of shooting information and a plurality of gaze information, and displays the user's gaze point on the three-dimensional model image. can do.

なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above description of FIG. 1 is merely a description for deepening the understanding of the contents of the present invention. Specifically, the present invention may be carried out in each of the embodiments described below, and may be carried out by various modifications without substantially exceeding the principles of the present invention. All such variations are included within the scope of the present invention and the present specification.

(注視行動調査システム1)
図2は、注視行動調査システム1の概略構成の一例を示す図である。注視行動調査システム1は、ウェアラブル装置2と、サーバ3とを有する。以下、注視行動調査システム1は、点検作業者等のユーザが所定の施設内の複数の点検対象を点検する際に使用される場合を例に説明する。図2に示すように、ウェアラブル装置2とサーバ3との情報の受け渡しは、記憶媒体Mを介して行われる。
(Gaze behavior survey system 1)
FIG. 2 is a diagram showing an example of a schematic configuration of the gaze behavior survey system 1. The gaze behavior survey system 1 has a wearable device 2 and a server 3. Hereinafter, the gaze behavior survey system 1 will be described as an example when a user such as an inspection worker is used to inspect a plurality of inspection targets in a predetermined facility. As shown in FIG. 2, the transfer of information between the wearable device 2 and the server 3 is performed via the storage medium M.

所定の施設は、石油、石油精製、石油化学、ガス、一般化学、電気、製鉄、原子力、石炭、造水、農業、飼料、生化学、食品、医薬品、医療、情報、通信、運輸、流通、備蓄、都市開発、上下水道、産業公害防止、災害防止、環境保全、宇宙開発、建設、土木、測量等に関する施設、紙・パルプ、窯業・セメント、金属精錬、建築資材等の製造、生産に関する施設等である。設備の点検の対象は、施設内の設備(配管、機器、機械等)からの漏れ、減肉若しくは損傷等の健全性監視、又は、振動、計器類、気温、湿度若しくは特定のガス濃度等、作業員の健康管理のためのバイタル生命センサ等を計測する地点等である。以下、所定の施設を、単に「施設」と称する場合がある。 Prescribed facilities include petroleum, petroleum refining, petroleum chemistry, gas, general chemistry, electricity, steelmaking, nuclear power, coal, water production, agriculture, feed, biochemistry, food, pharmaceuticals, medical care, information, communications, transportation, distribution, Facilities related to stockpiling, urban development, water and sewage, industrial pollution prevention, disaster prevention, environmental conservation, space development, construction, civil engineering, surveying, etc., facilities related to paper / pulp, ceramics / cement, metal refining, building materials, etc. And so on. Equipment inspection targets include health monitoring of leaks, wall thinning or damage from equipment (piping, equipment, machinery, etc.) in the facility, or vibration, instruments, temperature, humidity, specific gas concentration, etc. It is a point to measure vital life sensors for worker health management. Hereinafter, a predetermined facility may be simply referred to as a "facility".

(ウェアラブル装置2)
図3(a)は、ウェアラブル装置2の外観の一例を示す斜視図である。
(Wearable device 2)
FIG. 3A is a perspective view showing an example of the appearance of the wearable device 2.

図3(a)に示すウェアラブル装置2は、所定の施設内に配置される複数の設備を点検するユーザの頭部に装着される眼鏡型ウェアラブル端末である。ウェアラブル装置2は、各種情報を保存する記憶部21、施設内を撮影し且つ撮影した撮影情報を取得する撮影部22、ユーザの視線方向及び注視点位置を検出する視線検出部23、記憶媒体を着脱可能に保持する装着部24、各種情報を処理する処理部25を備える。また、ウェアラブル装置2は、各種情報を表示するためのヘッドマウントディスプレイ(Head Mounted Display,HMD)方式の表示部を備えてもよい。また、ウェアラブル装置2は、サーバ3との通信のための通信部を備えてもよい。また、ウェアラブル装置2の記憶部21、撮影部22、視線検出部23、装着部24及び処理部25は、同一の筐体内に格納される。なお、記憶部21、撮影部22、視線検出部23、装着部24及び処理部25は、それぞれ異なる筐体内に格納されてもよく、また、少なくとも2つの筐体に格納されてもよい。 The wearable device 2 shown in FIG. 3A is a spectacle-type wearable terminal worn on the head of a user who inspects a plurality of facilities arranged in a predetermined facility. The wearable device 2 includes a storage unit 21 that stores various information, a photographing unit 22 that photographs the inside of the facility and acquires the photographed information, a line-of-sight detection unit 23 that detects the user's line-of-sight direction and gaze point position, and a storage medium. A mounting unit 24 that is detachably held and a processing unit 25 that processes various information are provided. Further, the wearable device 2 may include a head-mounted display (HMD) type display unit for displaying various information. Further, the wearable device 2 may include a communication unit for communication with the server 3. Further, the storage unit 21, the photographing unit 22, the line-of-sight detection unit 23, the mounting unit 24, and the processing unit 25 of the wearable device 2 are stored in the same housing. The storage unit 21, the photographing unit 22, the line-of-sight detection unit 23, the mounting unit 24, and the processing unit 25 may be stored in different housings, or may be stored in at least two housings.

図3(b)は、ウェアラブル装置2の概略構成の一例を示す図である。 FIG. 3B is a diagram showing an example of a schematic configuration of the wearable device 2.

記憶部21は、例えば、半導体メモリを有する。記憶部21は、処理部25での処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶部21は、ドライバプログラムとして、撮影部22を制御する撮影デバイスドライバプログラム、視線検出部23を制御する検出デバイスドライバプログラム、装着部24を制御する情報記録/読出デバイスドライバプログラム等を記憶する。また、記憶部21は、アプリケーションプログラムとして、記憶媒体Mに情報を記憶する記憶処理プログラム等を記憶する。また、記憶部21は、データとして、撮影部22が撮像した画像を記憶する。 The storage unit 21 has, for example, a semiconductor memory. The storage unit 21 stores a driver program, an operating system program, an application program, data, and the like used for processing in the processing unit 25. For example, the storage unit 21 stores as a driver program a photographing device driver program that controls the photographing unit 22, a detection device driver program that controls the line-of-sight detection unit 23, an information recording / reading device driver program that controls the mounting unit 24, and the like. To do. Further, the storage unit 21 stores a storage processing program or the like for storing information in the storage medium M as an application program. In addition, the storage unit 21 stores the image captured by the photographing unit 22 as data.

撮影部22は、結像光学系、及び撮像素子等を有する。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。撮影部22は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して出力する。又は、撮影部22は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して出力する。撮影部22は、画像を出力する際に、画像の取得時刻を対応付けてもよい。 The photographing unit 22 includes an imaging optical system, an imaging element, and the like. The imaging optical system is, for example, an optical lens, and a light flux from a subject is imaged on an imaging surface of an image pickup device. The image pickup device is a CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor), or the like, and outputs an image of a subject image formed on the image pickup surface. The photographing unit 22 creates and outputs moving image data in a predetermined file format at predetermined intervals from the images continuously generated by the image sensor. Alternatively, the photographing unit 22 creates and outputs still image data in a predetermined file format from the image generated by the image sensor. When the image is output, the photographing unit 22 may associate the acquisition time of the image with the image.

視線検出部23は、例えば、ユーザの眼球に赤外線を照射するとともに角膜表面における反射像を撮影し、瞳孔中心と反射像との距離によって視線を求める角膜反射法を用いて、ユーザの視線の方向を検出する。視線検出部23は、眼電位センサを用いた眼球電位法を用いてユーザの視線の方向を検出してもよい。視線検出部23は、上述の2つの手法に限らず、ユーザの視線の方向を検出できる手法であればどのようなものを用いてもよく、また、視線検出部23はその手法を実現するための各種装置を備えてもよい。 The line-of-sight detection unit 23 uses, for example, a corneal reflex method in which the user's eyeball is irradiated with infrared rays, a reflected image on the corneal surface is photographed, and the line of sight is obtained from the distance between the center of the pupil and the reflected image, and the direction of the user's line of sight is obtained. Is detected. The line-of-sight detection unit 23 may detect the direction of the user's line of sight by using an eye potential method using an electro-oculography sensor. The line-of-sight detection unit 23 is not limited to the above two methods, and any method that can detect the direction of the user's line of sight may be used, and the line-of-sight detection unit 23 realizes the method. Various devices may be provided.

図3(a)に示すように、視線検出部23は、ユーザの左右の眼球毎に視線の方向を検出し、両者の視線が交差した地点を注視点として算出するとともに、ウェアラブル装置2の中心位置(例えば、左右の眼球の中間位置等)から注視点に向けて結んだ直線の方向を、ユーザの視線方向として検出する。なお、撮影部22による撮影タイミングと視線検出部23による検出タイミングは同時であってもよい。 As shown in FIG. 3A, the line-of-sight detection unit 23 detects the direction of the line-of-sight for each of the left and right eyes of the user, calculates the point where the two lines of sight intersect as the gazing point, and is the center of the wearable device 2. The direction of a straight line connected from a position (for example, an intermediate position between the left and right eyeballs) toward the gazing point is detected as the user's line-of-sight direction. The imaging timing by the photographing unit 22 and the detection timing by the line-of-sight detection unit 23 may be simultaneous.

視線検出部23によって検出された視線方向は、例えば、図3(a)に示されるx軸、y軸、z軸に示される装置座標系に基づく単位ベクトルで示される。なお、装置座標系のz軸方向は撮影方向である。視線検出部23は、検出された視線方向を示す視線情報を所定時間ごとに出力する。視線検出部23は、視線情報を出力する際に、同一のタイミングにて取得された撮影情報、及び、視線情報の取得時刻、のうちの少なくとも一方を、当該視線情報に対応付けてもよい。 The line-of-sight direction detected by the line-of-sight detection unit 23 is represented by, for example, a unit vector based on the device coordinate system shown in the x-axis, y-axis, and z-axis shown in FIG. 3A. The z-axis direction of the device coordinate system is the photographing direction. The line-of-sight detection unit 23 outputs line-of-sight information indicating the detected line-of-sight direction at predetermined time intervals. When the line-of-sight detection unit 23 outputs the line-of-sight information, at least one of the shooting information acquired at the same timing and the acquisition time of the line-of-sight information may be associated with the line-of-sight information.

装着部24は、記憶媒体Mを着脱可能に保持するカードスロットを備える。例えば、記憶媒体MがSDメモリカードである場合は、装着部24はSDカードスロットを備える。装着部24は、装着された記憶媒体Mに記憶された各種情報を読み出す機能及び装着された記憶媒体Mに各種情報を記録する機能を有する。 The mounting unit 24 includes a card slot that holds the storage medium M detachably. For example, when the storage medium M is an SD memory card, the mounting unit 24 includes an SD card slot. The mounting unit 24 has a function of reading various information stored in the mounted storage medium M and a function of recording various information in the mounted storage medium M.

処理部25は、一又は複数個のプロセッサ及びその周辺回路を有する。処理部25は、ウェアラブル装置2の全体的な動作を統括的に制御するものであり、例えば、各種プログラムによって、各種処理の実行及び機器の制御等を行う回路(circuitry)であるCPU(Central Processing Unit)である。処理部25は、ウェアラブル装置2の各種処理が記憶部21に記憶されているプログラムからの出力等に応じて適切な手順で実行されるように、撮影部22、視線検出部23、装着部24等の動作を制御する。処理部25は、記憶部21に記憶されているプログラム(ドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、処理部25は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。 The processing unit 25 includes one or more processors and peripheral circuits thereof. The processing unit 25 comprehensively controls the overall operation of the wearable device 2. For example, the CPU (Central Processing), which is a circuitry that executes various processes and controls devices by various programs. Unit). The processing unit 25 includes the photographing unit 22, the line-of-sight detection unit 23, and the mounting unit 24 so that various processes of the wearable device 2 are executed in an appropriate procedure according to the output from the program stored in the storage unit 21. Etc. are controlled. The processing unit 25 executes processing based on a program (driver program, operating system program, application program, etc.) stored in the storage unit 21. Further, the processing unit 25 can execute a plurality of programs (application programs and the like) in parallel.

処理部25は、取得部251と、記憶処理部252とを有する。処理部25が有するこれらの各部は、処理部25が有するプロセッサ上で実行されるプログラムによって実装される機能モジュールである。あるいは、処理部25が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、又はファームウェアとしてウェアラブル装置2に実装されてもよい。 The processing unit 25 includes an acquisition unit 251 and a storage processing unit 252. Each of these units included in the processing unit 25 is a functional module implemented by a program executed on the processor included in the processing unit 25. Alternatively, each of these units included in the processing unit 25 may be mounted on the wearable device 2 as an independent integrated circuit, microprocessor, or firmware.

(サーバ3)
図4は、サーバ3の概略構成の一例を示す図である。
(Server 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the server 3.

サーバ3は、特に、ウェアラブル装置2からのデータを取得し、3次元情報算出処理、注視点算出処理、及び点検記録算出処理を実行し、各種算出処理の結果等のデータを記憶及び/又は表示する機能を有する。これらの機能を実現するために、サーバ3は、サーバ記憶部31、サーバ表示部32、サーバ装着部33、サーバ処理部34を備える。 In particular, the server 3 acquires data from the wearable device 2, executes three-dimensional information calculation processing, gaze point calculation processing, and inspection record calculation processing, and stores and / or displays data such as the results of various calculation processes. Has the function of In order to realize these functions, the server 3 includes a server storage unit 31, a server display unit 32, a server mounting unit 33, and a server processing unit 34.

サーバ記憶部31は、例えば、半導体メモリ、磁気ディスク装置及び光ディスク装置のうちの少なくとも一つを有する。サーバ記憶部31は、サーバ処理部34による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、サーバ記憶部31は、ドライバプログラムとして、サーバ表示部32を制御する表示デバイスドライバプログラム、サーバ装着部33を制御する情報記録/読出デバイスドライバプログラム等を記憶する。各種プログラムは、例えばCD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてサーバ記憶部31にインストールされてもよい。なお、サーバ記憶部31は、データとして、後述する各種テーブル等を記憶する。 The server storage unit 31 has, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. The server storage unit 31 stores driver programs, operating system programs, application programs, data, and the like used for processing by the server processing unit 34. For example, the server storage unit 31 stores, as a driver program, a display device driver program that controls the server display unit 32, an information recording / reading device driver program that controls the server mounting unit 33, and the like. The various programs may be installed in the server storage unit 31 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. The server storage unit 31 stores various tables and the like, which will be described later, as data.

サーバ表示部32は、動画像、静止画像等の出力が可能であればどのようなデバイスでもよく、例えば、タッチパネル式の表示装置、液晶ディスプレイ、有機ELディスプレイ等である。サーバ表示部32は、サーバ処理部34から供給される動画像データに応じた動画像、静止画像データに応じた静止画像等を表示する。 The server display unit 32 may be any device as long as it can output a moving image, a still image, or the like, and is, for example, a touch panel type display device, a liquid crystal display, an organic EL display, or the like. The server display unit 32 displays a moving image according to the moving image data supplied from the server processing unit 34, a still image corresponding to the still image data, and the like.

サーバ装着部33は、記憶媒体Mを着脱可能に保持するカードスロットを備える。例えば、記憶媒体MがSDメモリカードである場合は、サーバ装着部33はSDカードスロットを備える。サーバ装着部33は、装着された記憶媒体Mに記憶された各種情報を読み出す機能及び装着された記憶媒体Mに各種情報を記録する機能を有する。 The server mounting unit 33 includes a card slot that holds the storage medium M detachably. For example, when the storage medium M is an SD memory card, the server mounting unit 33 includes an SD card slot. The server mounting unit 33 has a function of reading various information stored in the mounted storage medium M and a function of recording various information in the mounted storage medium M.

サーバ処理部34は、一又は複数個のプロセッサ及びその周辺回路を備える。サーバ処理部34は、サーバ3の全体的な動作を統括的に制御するものであり、例えば、各種プログラムによって、各種処理の実行及び機器の制御等を行う回路(circuitry)であるCPUである。サーバ処理部34は、サーバ3の各種処理がサーバ記憶部31に記憶されているプログラム等に基づいて適切な手順で実行されるように、サーバ表示部32及びサーバ装着部33等の動作を制御する。サーバ処理部34は、サーバ記憶部31に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、サーバ処理部34は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。 The server processing unit 34 includes one or more processors and peripheral circuits thereof. The server processing unit 34 is a CPU that comprehensively controls the overall operation of the server 3, and is, for example, a circuitry that executes various processes and controls devices by various programs. The server processing unit 34 controls the operations of the server display unit 32, the server mounting unit 33, and the like so that various processes of the server 3 are executed in an appropriate procedure based on a program or the like stored in the server storage unit 31. To do. The server processing unit 34 executes processing based on a program (operating system program, driver program, application program, etc.) stored in the server storage unit 31. Further, the server processing unit 34 can execute a plurality of programs (application programs and the like) in parallel.

サーバ処理部34は、サーバ取得部341と、算出部342と、サーバ表示処理部343と、サーバ記憶処理部344とを有する。サーバ処理部34が有するこれらの各部は、サーバ処理部34が有するプロセッサ上で実行されるプログラムによって実装される機能モジュールである。あるいは、サーバ処理部34が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、又はファームウェアとしてサーバ3に実装されてもよい。 The server processing unit 34 includes a server acquisition unit 341, a calculation unit 342, a server display processing unit 343, and a server storage processing unit 344. Each of these units included in the server processing unit 34 is a functional module implemented by a program executed on the processor included in the server processing unit 34. Alternatively, each of these units included in the server processing unit 34 may be mounted on the server 3 as an independent integrated circuit, microprocessor, or firmware.

図5(a)は、ウェアラブル装置2の使用例を示す模式図である。 FIG. 5A is a schematic diagram showing a usage example of the wearable device 2.

図5(a)に示されるように、ユーザは、所定の施設内の複数の点検対象を点検する場合にウェアラブル装置2を装着する。ユーザの頭部に装着されたウェアラブル装置2の撮影部22は、所定時間ごとに撮影を行う。 As shown in FIG. 5A, the user wears the wearable device 2 when inspecting a plurality of inspection targets in a predetermined facility. The photographing unit 22 of the wearable device 2 mounted on the user's head takes an image at predetermined time intervals.

図5(b)及び(c)は、ウェアラブル装置2の撮影部22によって撮影された、連続する2つの撮影情報の一例である。図5(b)に示される撮影情報が、ウェアラブル装置2の撮影部22によって先に撮影されたものであり、図5(c)に示される撮影情報が、ウェアラブル装置2の撮影部22によって後に撮影されたものである。 5 (b) and 5 (c) are examples of two consecutive shooting information shot by the shooting unit 22 of the wearable device 2. The shooting information shown in FIG. 5B was first shot by the shooting unit 22 of the wearable device 2, and the shooting information shown in FIG. 5C was later shot by the shooting unit 22 of the wearable device 2. It was taken.

サーバ3が、図5(b)及び(c)に示される連続する2つの撮影情報を、ウェアラブル装置2から取得すると、サーバ3は、取得した連続する2つの撮影情報に基づいて、公知のSfM処理等の3次元情報算出処理を実行する。 When the server 3 acquires two consecutive shooting information shown in FIGS. 5B and 5C from the wearable device 2, the server 3 obtains the known SfM based on the two consecutive shooting information acquired. Execute 3D information calculation processing such as processing.

3次元情報算出処理において、まず、サーバ3は、2つの撮影情報のそれぞれに対して、公知の局所特徴量抽出法等を用いて、複数の特徴点を抽出して、各特徴点の局所特徴量を算出する。局所特徴量抽出法は、SURF(Speeded Up Robust Features)法又はSIFT(Scale-Invariant Feature Transform)法等である。図5(b)及び(c)には、特徴点の抽出結果が示されている。特徴点の抽出方法は、上述の方法に限らず、ヘシアン行列等の既知の方法であってもよい。 In the three-dimensional information calculation process, first, the server 3 extracts a plurality of feature points from each of the two shooting information by using a known local feature amount extraction method or the like, and local features of each feature point. Calculate the amount. The local feature extraction method is a SURF (Speeded Up Robust Features) method, a SIFT (Scale-Invariant Feature Transform) method, or the like. The extraction results of the feature points are shown in FIGS. 5 (b) and 5 (c). The method for extracting feature points is not limited to the above-mentioned method, and may be a known method such as a Hessian matrix.

次に、サーバ3は、エピポーラ幾何の拘束条件により、2つの撮影情報のそれぞれで抽出した複数の特徴点に基づいて、図6(a)に示すようなX軸、Y軸、Z軸からなる仮想3次元空間における、撮影位置の並進ベクトルt及び回転行列Rを算出する。エピポーラ幾何の拘束条件は、次の式(1)のとおりである。 Next, the server 3 comprises an X-axis, a Y-axis, and a Z-axis as shown in FIG. 6A based on a plurality of feature points extracted from each of the two shooting information under the constraint condition of epipolar geometry. The translation vector t and the rotation matrix R of the shooting position in the virtual three-dimensional space are calculated. The constraint conditions of epipolar geometry are as shown in the following equation (1).

先の撮影情報に含まれる特徴点の画像平面座標は、次の式(2)のとおりである。 The image plane coordinates of the feature points included in the above shooting information are as shown in the following equation (2).

後の撮影情報に含まれる特徴点の画像平面座標は、次の式(3)のとおりである。 The image plane coordinates of the feature points included in the subsequent shooting information are as shown in the following equation (3).

次に、サーバ3は、先の撮影情報に対応する撮影部22の内部パラメータ行列K1、後の撮影情報に対応する撮影部22の内部パラメータ行列K2と、式(1)で導出される基礎行列Fとを用いて、次の式(4)に従って基本行列Eを算出する。 Next, the server 3 has an internal parameter matrix K1 of the photographing unit 22 corresponding to the earlier shooting information, an internal parameter matrix K2 of the photographing unit 22 corresponding to the later shooting information, and an elementary matrix derived by the equation (1). Using F, the basic matrix E is calculated according to the following equation (4).

次に、サーバ3は、公知の分解方法を用いて、基本行列Eを、並進ベクトルt及び回転行列Rに分解する。並進ベクトルt及び回転行列Rによって、複数の特徴点の位置、先の撮影情報に対応する撮影位置、後の撮影情報に対応する撮影位置のそれぞれについての3次元での相対位置が示される。 Next, the server 3 decomposes the fundamental matrix E into a translation vector t and a rotation matrix R by using a known decomposition method. The translation vector t and the rotation matrix R indicate the relative positions in three dimensions for each of the positions of the plurality of feature points, the shooting position corresponding to the earlier shooting information, and the shooting position corresponding to the later shooting information.

次に、サーバ3は、ウェアラブル装置2から取得した複数の撮影情報において、全ての連続する2の撮影情報の組合せについて、上述のように、並進ベクトルt及び回転行列Rを算出する。 Next, the server 3 calculates the translation vector t and the rotation matrix R for all the combinations of the continuous two shooting information in the plurality of shooting information acquired from the wearable device 2 as described above.

例えば、サーバ3は、ウェアラブル装置2から取得した複数の撮影情報のうちの最初の撮影情報の位置を、仮想3次元空間の原点座標(X,Y,Z)=(0,0,0)とする。次に、サーバ3は、撮影情報の順番に従って、連続する2の撮影情報の組合せについて算出した並進ベクトルtを順次累積することで、連続する2の撮影情報の組合せうちの後の撮影情報の撮影位置の仮想3次元空間における座標値を算出する。次に、サーバ3は、回転行列Rを累積することで、撮影部22の姿勢(仮想3次元空間の座標系と装置座標系との回転量)を算出する。すなわち、撮影部22の装置座標系のz軸が撮影方向であるので、サーバ3は、連続する2の撮影情報の組合せについて算出した回転行列Rを用いて、各撮影情報を撮影した際の装置座標系のz軸方向(例えばz軸方向の単位ベクトル等)を仮想3次元空間の座標系に変換する。次に、サーバ3は、撮影位置の仮想3次元空間における座標値を起点とした変換後のz軸の方向を撮影方向として算出する。次に、サーバ3は、複数の撮影情報のそれぞれについて算出した仮想三次元空間における撮影位置を示す情報及び撮影方向を示す情報を、それぞれ撮影位置情報及び撮影方向情報としてサーバ記憶部31に記憶する。なお、サーバ3は、撮影情報から当該撮影情報に含まれる設備の高さ方向を算出し、仮想3次元空間の座標系のZ軸方向を算出した高さ方向となるように、撮影位置及び撮影方向を回転させてもよい。 For example, the server 3 sets the position of the first shooting information among the plurality of shooting information acquired from the wearable device 2 as the origin coordinates (X, Y, Z) = (0,0,0) in the virtual three-dimensional space. To do. Next, the server 3 sequentially accumulates the translation vector t calculated for the combination of two consecutive shooting information according to the order of the shooting information, so that the subsequent shooting information of the combination of the two consecutive shooting information is shot. The coordinate value of the position in the virtual three-dimensional space is calculated. Next, the server 3 calculates the posture of the photographing unit 22 (the amount of rotation between the coordinate system in the virtual three-dimensional space and the device coordinate system) by accumulating the rotation matrix R. That is, since the z-axis of the device coordinate system of the imaging unit 22 is the imaging direction, the server 3 captures each imaging information using the rotation matrix R calculated for the combination of the two consecutive imaging information. The z-axis direction of the coordinate system (for example, a unit vector in the z-axis direction) is converted into a coordinate system in a virtual three-dimensional space. Next, the server 3 calculates the direction of the z-axis after conversion starting from the coordinate value in the virtual three-dimensional space of the shooting position as the shooting direction. Next, the server 3 stores the information indicating the shooting position and the information indicating the shooting direction in the virtual three-dimensional space calculated for each of the plurality of shooting information in the server storage unit 31 as the shooting position information and the shooting direction information, respectively. .. The server 3 calculates the height direction of the equipment included in the shooting information from the shooting information, and shoots the shooting position and shooting so that the height direction is the calculated Z-axis direction of the coordinate system of the virtual three-dimensional space. You may rotate the direction.

そして、サーバ3は、公知の技術である多視点画像計測の手法を用い、複数の撮影情報に対応する撮影位置と撮影方向から、対象の施設の3次元点群計測を行う。サーバ3は、撮影位置及び撮影方向に代えて、複数の撮影情報に対応する並進ベクトルt及び回転行列Rを用いて対象の施設の3次元点群計測を行ってもよい。サーバ3は、複数枚の撮影情報(画像)の各画素を、各撮影情報の撮影位置、撮影方向から自動マッチングし、各画素に対応する仮想3次元空間における3次元座標を算出する。なお、複数の撮影情報の画素に対して算出した3次元座標が、施設の外形の表面を規定する仮想3次元空間における3次元座標である。施設の外形の表面を規定する複数の3次元座標が、施設の外形の表面を示す3次元点群データであり、サーバ3は、当該3次元点群データを設備位置情報としてサーバ記憶部31に記憶する。さらに、サーバ3は、施設の外形の表面を規定する仮想3次元空間における3次元座標である設備位置情報より、立体形状の表面認識を行うことで、施設内の設備の立体形状を示したサーフェスモデルである仮想3次元空間モデルを生成し、生成した仮想3次元空間モデルをサーバ記憶部31に記憶する。以上により、3次元情報算出処理が終了する。 Then, the server 3 uses a known technique of multi-viewpoint image measurement to measure a three-dimensional point cloud of the target facility from a shooting position and a shooting direction corresponding to a plurality of shooting information. The server 3 may perform three-dimensional point group measurement of the target facility by using the translation vector t and the rotation matrix R corresponding to a plurality of shooting information instead of the shooting position and the shooting direction. The server 3 automatically matches each pixel of a plurality of shooting information (images) from the shooting position and shooting direction of each shooting information, and calculates the three-dimensional coordinates in the virtual three-dimensional space corresponding to each pixel. The three-dimensional coordinates calculated for the pixels of the plurality of shooting information are the three-dimensional coordinates in the virtual three-dimensional space that defines the outer surface of the facility. A plurality of three-dimensional coordinates that define the outer surface of the facility are three-dimensional point cloud data indicating the outer surface of the facility, and the server 3 stores the three-dimensional point cloud data as equipment position information in the server storage unit 31. Remember. Further, the server 3 recognizes the surface of the three-dimensional shape from the equipment position information which is the three-dimensional coordinates in the virtual three-dimensional space that defines the outer surface of the facility, thereby showing the three-dimensional shape of the equipment in the facility. A virtual three-dimensional space model, which is a model, is generated, and the generated virtual three-dimensional space model is stored in the server storage unit 31. With the above, the three-dimensional information calculation process is completed.

図6(a)に示される例では、サーバ3は、設備位置情報に基づいて、仮想3次元空間における施設内の設備の立体形状を示す仮想3次元空間モデルを作成する。次に、サーバ3は、仮想3次元空間モデルに基づいて、任意の視点位置から対象の設備を俯瞰または仰瞰した3次元モデル画像を生成し、サーバ表示部32に表示する。サーバ3は、3次元モデル画像を表示する際に、仮想3次元空間モデルである設備のサーフェスモデルの表面に、その位置に該当する撮影情報の画像を貼り付けて表示してもよい。 In the example shown in FIG. 6A, the server 3 creates a virtual three-dimensional space model showing the three-dimensional shape of the equipment in the facility in the virtual three-dimensional space based on the equipment position information. Next, the server 3 generates a three-dimensional model image of the target equipment from an arbitrary viewpoint position based on the virtual three-dimensional space model, and displays it on the server display unit 32. When displaying the three-dimensional model image, the server 3 may paste an image of shooting information corresponding to the position on the surface of the surface model of the equipment which is a virtual three-dimensional space model and display the image.

3次元情報算出処理が終了すると、注視点算出処理が実行される。以下、注視点算出処理について説明する。 When the three-dimensional information calculation process is completed, the gaze point calculation process is executed. The gaze point calculation process will be described below.

まず、サーバ3は、サーバ記憶部31に記憶されている各撮影情報の撮影位置から、当該撮影情報に対応する視線情報によって示される視線方向に延長した線分を算出する。なお、撮影情報に対応する視線情報は、撮影情報によって示される撮影位置において撮影が行われたタイミング(撮影情報の取得タイミング)に最も近いタイミングで取得された視線情報である。このように、視線方向に延長した線分を算出することによって、例えば、視線情報が、単位ベクトルで表現された情報である場合、仮想3次元空間モデルによって示される各設備の外形の表面と視線情報によって示されるベクトルとが交差しないことを未然に防ぐことが可能となる。 First, the server 3 calculates a line segment extended in the line-of-sight direction indicated by the line-of-sight information corresponding to the shooting information from the shooting position of each shooting information stored in the server storage unit 31. The line-of-sight information corresponding to the shooting information is the line-of-sight information acquired at the timing closest to the timing (acquisition timing of the shooting information) at which the shooting was performed at the shooting position indicated by the shooting information. By calculating the line segment extended in the line-of-sight direction in this way, for example, when the line-of-sight information is information expressed by a unit vector, the surface and line-of-sight of the outer shape of each facility shown by the virtual three-dimensional space model. It is possible to prevent the vector indicated by the information from not intersecting.

そして、サーバ3は、仮想3次元空間モデルに基づいて、各設備の外形の表面と線分との最初の交点を、注視点として算出する。サーバ3は、算出した注視点の仮想3次元座標を示す情報を注視点位置情報として記憶する。 Then, the server 3 calculates the first intersection of the outer surface of each facility and the line segment as a gazing point based on the virtual three-dimensional space model. The server 3 stores the calculated information indicating the virtual three-dimensional coordinates of the gazing point as the gazing point position information.

サーバ3は撮影情報によって示される撮影位置から、各撮影情報に対応する視線情報によって示される注視点までのベクトル画像を生成して、サーバ表示部32に表示する。図6(b)に示すように、仮想3次元空間モデルに基づく3次元モデル画像とともに、撮影位置及び注視点が表示されることによって、ユーザが各設備のどの位置を、どの場所から注視していたかを把握することができる。 The server 3 generates a vector image from the shooting position indicated by the shooting information to the gazing point indicated by the line-of-sight information corresponding to each shooting information, and displays it on the server display unit 32. As shown in FIG. 6B, the shooting position and the gazing point are displayed together with the 3D model image based on the virtual 3D space model, so that the user is gazing at which position of each facility and from which location. You can figure out what it is.

さらに、サーバ3は、注視点位置情報に基づいて、対象の設備の表面のうち注視点が集中している位置を抽出し、当該位置を強調表示した3次元モデル画像をサーバ表示部32に表示してもよい。例えば、サーバ3は、注視点間の距離を算出し、注視点ごとに、算出された距離が所定距離以内である他の注視点の数を算出し、算出された他の注視点の数に応じた表示態様に基づいて、各注視点をサーバ表示部32に表示してもよい。あるいは、サーバ3は、仮想3次元空間モデルの外形の表面を所定の間隔による格子状の領域に分割、分割された各領域内に含まれる注視点の数を集計し、注視点の数に応じて当該領域を階調表現で表示してもよい。 Further, the server 3 extracts the position where the gazing point is concentrated on the surface of the target equipment based on the gazing point position information, and displays a three-dimensional model image highlighting the position on the server display unit 32. You may. For example, the server 3 calculates the distance between the gazing points, calculates the number of other gazing points whose calculated distance is within a predetermined distance for each gazing point, and sets the calculated number of other gazing points to the calculated number of gazing points. Each gaze point may be displayed on the server display unit 32 based on the corresponding display mode. Alternatively, the server 3 divides the outer surface of the virtual three-dimensional space model into grid-like regions at predetermined intervals, totals the number of gaze points included in each of the divided regions, and responds to the number of gaze points. The area may be displayed in gradation expression.

例えば、図6(b)では、注視点が集中している箇所は、注視点の集中程度に応じて☆のマークを大きく、それ以外の場所は小さく表示されている。これは、設備上の任意の箇所に対して、所定の時間間隔毎に発生する注視点の数が集計されることで、当該箇所の注視時間が算出される。すなわち、注視点の数に所定の時間間隔を乗算することで、当該注視点に対応する箇所の注視時間が算出される。従って、注視点が集中している箇所は、長時間又は高頻度で当該箇所を注視していたこととなり、重要な点検箇所であることが把握できる。このように、より注視している位置の表示態様を、他の注視点よりも明瞭に表示することで、重要な箇所を容易に提示することが可能となる。 For example, in FIG. 6B, a star mark is displayed large in a portion where the gazing point is concentrated, and a small mark is displayed in other locations according to the degree of concentration of the gazing point. This is because the number of gaze points generated at predetermined time intervals is totaled for any place on the facility, and the gaze time of the place is calculated. That is, by multiplying the number of gaze points by a predetermined time interval, the gaze time of the portion corresponding to the gaze point is calculated. Therefore, it can be understood that the place where the gaze point is concentrated is an important inspection point because the place is gaze at the place for a long time or frequently. In this way, by displaying the display mode of the position of gaze more clearly than other gaze points, it is possible to easily present an important part.

サーバ3は、撮影位置情報に基づいて、その平面座標を使用してユーザが対象の設備を点検する際の点検経路情報を生成してもよい。点検経路情報は、撮影位置情報の平面座標を連続させた線情報として生成される。なお、点検経路情報が生成される際に用いられる撮影位置情報は、3次元情報算出処理で算出された撮影位置情報の全て又は一部であり、平面座標は、撮影位置情報に含まれる高さ情報(Z軸方向の座標値)の座標以外の2次元座標(X軸方向及びY軸方向の座標値)である。例えば、算出部X342は、3次元情報算出処理で算出された撮影位置情報の全て又は一部を抽出し、抽出された各撮影位置情報に含まれる平面座標を特定する。そして、算出部342は、各撮影位置情報の時刻に従って連続する2つの平面座標を線分で結ぶことによって生成した折れ線を示す点検経路情報を生成する。生成された点検経路情報は、サーバ表示部32の3次元モデル画像上に表示することで、サーバ3は、点検者の経路情報を明示することができる。又はウェアラブル装置2は、点検者の経路情報を表示部(図示しない)上に表示することで、ユーザは、本実施形態のウェアラブル装置2を、設備の点検時における経路情報の案内として利用することが可能となる。 The server 3 may generate inspection route information when the user inspects the target equipment by using the plane coordinates based on the shooting position information. The inspection route information is generated as line information in which the plane coordinates of the shooting position information are continuous. The shooting position information used when the inspection route information is generated is all or a part of the shooting position information calculated by the three-dimensional information calculation process, and the plane coordinates are the height included in the shooting position information. Two-dimensional coordinates (coordinate values in the X-axis direction and Y-axis direction) other than the coordinates of the information (coordinate values in the Z-axis direction). For example, the calculation unit X342 extracts all or a part of the shooting position information calculated by the three-dimensional information calculation process, and specifies the plane coordinates included in each of the extracted shooting position information. Then, the calculation unit 342 generates inspection route information indicating a polygonal line generated by connecting two continuous plane coordinates with a line segment according to the time of each shooting position information. By displaying the generated inspection route information on the three-dimensional model image of the server display unit 32, the server 3 can clearly indicate the route information of the inspector. Alternatively, the wearable device 2 displays the route information of the inspector on the display unit (not shown), so that the user can use the wearable device 2 of the present embodiment as a guide for the route information at the time of equipment inspection. Is possible.

さらに、サーバ3は、点検経路上の任意の地点に対して、所定の時間毎に発生する撮影位置の数を集計することで、当該地点の滞留時間を算出する。撮影位置が一部地点に集中している場所は、ユーザが点検に時間を要している場所であることから、サーバ3は、当該地点を重点点検地点として抽出し、当該地点を強調表示した3次元モデル画像をサーバ表示部32に表示してもよい。例えば、サーバ3は、複数の撮影位置相互間の距離を算出し、撮影位置ごとに、距離が所定距離以内である他の撮影位置の数を算出し、算出された他の撮影位置の数に応じた表示態様に基づいて、各撮影位置をサーバ表示部32に表示してもよい。また、ウェアラブル装置2は、サーバ3から取得した各撮影位置における他の撮影位置の数に応じた表示態様に基づいて、各撮影位置を表示部(図示しない)に表示してもよい。 Further, the server 3 calculates the residence time at an arbitrary point on the inspection route by totaling the number of shooting positions generated at predetermined time intervals. Since the places where the shooting positions are concentrated in some points are the places where the user needs time for inspection, the server 3 extracts the points as priority inspection points and highlights the points. The three-dimensional model image may be displayed on the server display unit 32. For example, the server 3 calculates the distance between a plurality of shooting positions, calculates the number of other shooting positions whose distance is within a predetermined distance for each shooting position, and sets the calculated number of other shooting positions. Each shooting position may be displayed on the server display unit 32 based on the corresponding display mode. Further, the wearable device 2 may display each shooting position on a display unit (not shown) based on a display mode according to the number of other shooting positions at each shooting position acquired from the server 3.

また、点検作業が同一フロアで行われる場合では、撮影位置情報の高さ情報(Z軸方向の座標値)が、他の撮影位置情報の高さ情報と異なる場所は、ユーザが点検する際に体をかがませる等の体勢を変えたり、はしごや踏み台等を使ったりして点検をしている場所であることがわかる。従って、サーバ3は、撮影位置情報から該当する場所(他の撮影位置情報の高さ情報と異なる場所)を抽出し、その場所を他の撮影位置と異なる表示態様で、各撮影位置をサーバ表示部32に表示してもよい。また、ウェアラブル装置2は、サーバ3から取得した他の撮影位置情報の高さ情報と異なる場所においては、他の撮影位置と異なる表示態様で各撮影位置を表示部(図示しない)に表示してもよい。 Further, when the inspection work is performed on the same floor, the place where the height information (coordinate value in the Z-axis direction) of the shooting position information is different from the height information of other shooting position information is when the user inspects. It can be seen that this is a place where inspections are carried out by changing the posture such as bending over or using a ladder or stepping stone. Therefore, the server 3 extracts the corresponding place (a place different from the height information of other shooting position information) from the shooting position information, and displays each shooting position on the server in a display mode different from the other shooting positions. It may be displayed in unit 32. Further, the wearable device 2 displays each shooting position on a display unit (not shown) in a display mode different from that of the other shooting positions in a place different from the height information of the other shooting position information acquired from the server 3. May be good.

さらに、サーバ3は、抽出した重点点検地点毎に、対応する視線情報より注視点が集中している対象の設備上の位置を重点点検箇所として抽出し、ユーザの操作により、重点点検地点と重点点検箇所とを関連付けた表示態様で、サーバ表示部32に表示してもよい。また、ウェアラブル装置2は、サーバ3から取得した重点点検地点及び重点点検箇所に基づいて、重点点検地点と重点点検箇所とを関連付けた表示態様で、表示部(図示しない)に表示してもよい。 Further, the server 3 extracts the position on the target facility where the gaze point is concentrated from the corresponding line-of-sight information as the priority inspection point for each extracted priority inspection point, and the user operates the priority inspection point and the priority inspection point. It may be displayed on the server display unit 32 in a display mode associated with the inspection location. Further, the wearable device 2 may be displayed on a display unit (not shown) in a display mode in which the priority inspection points and the priority inspection points are associated with each other based on the priority inspection points and the priority inspection points acquired from the server 3. ..

従来から、大規模な工場及びプラント等の施設内では、定期的に作業員による設備の巡回点検が行われているが、作業員が点検すべき対象は広範囲にわたり且つ巡回点検作業が複雑であるにもかかわらず、詳細な点検マニュアルが整備されている事例は必ずしも多くない。このため、熟練した作業員が巡回点検を行う場合における巡回経路、点検地点、点検箇所を含む設備の点検手法を可視化し、点検マニュアルを整備することが望まれている。これに対し、上述のように、大規模な工場及びプラント等の施設内において注視行動調査システム1が用いられることによって、ユーザの点検経路、重点点検地点、重点点検箇所の明示が可能となり、当該注視行動調査システム1は、大規模な工場及び/又はプラント等の設備の点検手法の可視化に資するものとなる。 Traditionally, in facilities such as large-scale factories and plants, workers regularly inspect equipment, but the objects that workers should inspect are wide-ranging and the patrol inspection work is complicated. Nevertheless, there are not always many cases where detailed inspection manuals are prepared. For this reason, it is desired to visualize the inspection method of the equipment including the patrol route, the inspection point, and the inspection point when the skilled worker performs the patrol inspection, and to prepare the inspection manual. On the other hand, as described above, by using the gaze behavior survey system 1 in facilities such as large-scale factories and plants, it becomes possible to clearly indicate the user's inspection route, priority inspection point, and priority inspection point. The gaze behavior survey system 1 contributes to visualization of inspection methods for large-scale factories and / or facilities such as plants.

図7(a)には、設備配置テーブルが示されている。設備配置テーブルには、各設備について、当該設備の設備ID、3次元設計モデル情報、設備名称、設備図面、座標系等が互いに関連付けて記憶される。3次元設計モデル情報は、所定の施設内に配置された複数の設備の配置位置及び外形の形状等を示す設計モデル情報である。設備配置テーブルには、設備の他に、計器類及び気温、湿度若しくは特定のガス濃度等を計測する地点等に係る情報が記憶されてもよい。この場合、3次元設計モデル情報として、計器類又は計測地点の位置情報が記憶される。設備配置テーブルの作成対象を、重点点検箇所を対象としてもよい。 FIG. 7A shows an equipment layout table. In the equipment arrangement table, the equipment ID of the equipment, the three-dimensional design model information, the equipment name, the equipment drawing, the coordinate system, and the like are stored in association with each other for each equipment. The three-dimensional design model information is design model information indicating the arrangement position and the outer shape of a plurality of facilities arranged in a predetermined facility. In addition to the equipment, the equipment arrangement table may store information related to instruments and points for measuring temperature, humidity, a specific gas concentration, and the like. In this case, the position information of the instruments or the measurement points is stored as the three-dimensional design model information. The target for creating the equipment layout table may be the priority inspection points.

図7(b)には、点検結果テーブルが示されている。点検結果テーブルには、時刻ごとに、撮影位置情報、視線情報及び注視点位置情報等が互いに関連付けて記憶される。 FIG. 7B shows an inspection result table. In the inspection result table, shooting position information, line-of-sight information, gaze point position information, and the like are stored in association with each other for each time.

(注視行動調査システム1の動作シーケンス)
図8は、注視行動調査システム1の動作シーケンスの一例を示す図である。この動作シーケンスは、予めサーバ記憶部31及び記憶部21に記憶されているプログラムに基づいて、主にサーバ処理部34及び処理部25により、サーバ3及びウェアラブル装置2の各要素と協働して実行される。
(Operation sequence of gaze behavior survey system 1)
FIG. 8 is a diagram showing an example of an operation sequence of the gaze behavior investigation system 1. This operation sequence is based on a program stored in the server storage unit 31 and the storage unit 21 in advance, and is mainly performed by the server processing unit 34 and the processing unit 25 in cooperation with each element of the server 3 and the wearable device 2. Will be executed.

最初に、ユーザの頭部に装着されるウェアラブル装置2の撮影部22は、所定時間ごとに、特定方向の施設内を撮影する。また、ウェアラブル装置2の視線検出部23は、所定時間ごとに、ユーザの視線方向を検出する。取得部251は、撮影部22から撮影情報を取得するとともに、視線検出部23から視線情報を取得し、記憶処理部252は、取得した撮影情報と視線情報とを、装着部24に装着された記憶媒体Mに記憶する(ステップS101)。 First, the photographing unit 22 of the wearable device 2 mounted on the user's head photographs the inside of the facility in a specific direction at predetermined time intervals. Further, the line-of-sight detection unit 23 of the wearable device 2 detects the line-of-sight direction of the user at predetermined time intervals. The acquisition unit 251 acquires the shooting information from the shooting unit 22, and also acquires the line-of-sight information from the line-of-sight detection unit 23, and the storage processing unit 252 attaches the acquired shooting information and the line-of-sight information to the mounting unit 24. Store in the storage medium M (step S101).

次に、サーバ3のサーバ取得部341は、ウェアラブル装置2から記憶媒体Mを介して撮影情報及び視線情報を取得すると、取得時刻に対応する撮影情報及び視線情報を算出部342に渡すとともに、3次元情報算出処理の実行を算出部342に指示する。算出部342は、サーバ取得部341から算出処理の実行を指示されると、3次元情報算出処理を実行する(ステップS102)。3次元情報算出処理の詳細は後述する。 Next, when the server acquisition unit 341 of the server 3 acquires the shooting information and the line-of-sight information from the wearable device 2 via the storage medium M, the server acquisition unit 341 passes the shooting information and the line-of-sight information corresponding to the acquisition time to the calculation unit 342 and 3 The calculation unit 342 is instructed to execute the dimension information calculation process. When the server acquisition unit 341 instructs the calculation unit 342 to execute the calculation process, the calculation unit 342 executes the three-dimensional information calculation process (step S102). The details of the three-dimensional information calculation process will be described later.

次に、算出部342は、3次元情報算出処理が終了すると、注視点算出処理を実行する(ステップS103)。注視点算出処理の詳細は後述する。 Next, when the three-dimensional information calculation process is completed, the calculation unit 342 executes the gazing point calculation process (step S103). The details of the gazing point calculation process will be described later.

次に、算出部342は、注視点算出処理が終了すると、点検記録算出処理を実行する(ステップS104)。点検記録算出処理の詳細は後述する。 Next, when the gazing point calculation process is completed, the calculation unit 342 executes the inspection record calculation process (step S104). Details of the inspection record calculation process will be described later.

なお、サーバ3のサーバ表示処理部343は、システム管理者等の指示に応じて、3次元モデル画像及び注視点を、サーバ表示部32に表示してもよい。サーバ表示処理部343は、点検記録算出処理にて算出された、点検経路情報、重点点検地点、及び重点点検箇所のうちの少なくとも一方を、3次元モデル画像に代えて又は3次元モデル画像とともに表示してもよい。次に、サーバ記憶処理部344は、取得した撮影情報と視線情報とともに、算出した点検経路情報や重点点検地点、重点点検箇所とを、あるいは、点検結果テーブル及び/または設備配置テーブルに含まれる各種情報とを、サーバ装着部33に装着された記憶媒体Mに記憶する(ステップS105)。 The server display processing unit 343 of the server 3 may display the three-dimensional model image and the gazing point on the server display unit 32 in response to an instruction from the system administrator or the like. The server display processing unit 343 displays at least one of the inspection route information, the priority inspection point, and the priority inspection point calculated by the inspection record calculation process in place of the 3D model image or together with the 3D model image. You may. Next, the server storage processing unit 344 includes the calculated inspection route information, priority inspection points, and priority inspection points together with the acquired shooting information and line-of-sight information, or various types included in the inspection result table and / or the equipment arrangement table. The information is stored in the storage medium M mounted on the server mounting unit 33 (step S105).

次に、ウェアラブル装置2の取得部251は、記憶媒体Mを介してサーバ3から各種情報を取得すると、記憶処理部252は、取得した各種情報を記憶部21に記憶する(ステップS106)。 Next, when the acquisition unit 251 of the wearable device 2 acquires various information from the server 3 via the storage medium M, the storage processing unit 252 stores the acquired various information in the storage unit 21 (step S106).

以下、ウェアラブル装置2が眼鏡型ウェアラブル端末のVRディスプレイを備える場合を例に説明する。ウェアラブル装置2の処理部25は、公知の画像照合技術を用いて、撮影情報に含まれる設備の形状と設備位置情報に含まれる設備の形状とをマッチングする。次に、処理部25は、マッチング結果に基づいて、ユーザの眼球の位置から見た場合における、各施設のVRディスプレイ上の位置を算出する。そして、処理部25は、ユーザが注視点の位置を見た場合におけるユーザの視線とディスプレイの交点に注視点を示す画像を表示する。あるいは、算出した点検経路情報、重点点検地点、重点点検箇所のうちの少なくとも一方を示す画像を表示してもよい。 Hereinafter, a case where the wearable device 2 includes a VR display of a glasses-type wearable terminal will be described as an example. The processing unit 25 of the wearable device 2 uses a known image matching technique to match the shape of the equipment included in the photographing information with the shape of the equipment included in the equipment position information. Next, the processing unit 25 calculates the position on the VR display of each facility when viewed from the position of the user's eyeball based on the matching result. Then, the processing unit 25 displays an image showing the gazing point at the intersection of the user's line of sight and the display when the user sees the position of the gazing point. Alternatively, an image showing at least one of the calculated inspection route information, the priority inspection point, and the priority inspection point may be displayed.

また、処理部25は、3次元モデル画像を眼鏡型ウェアラブル端末のVRディスプレイに表示するとともに、3次元モデル画像の設備の形状上に、注視点位置情報によって示される注視点及び/または算出した点検経路情報、重点点検地点、重点点検箇所のうちの少なくとも一方とを示す画像を表示してもよい。 In addition, the processing unit 25 displays the 3D model image on the VR display of the eyeglass-type wearable terminal, and the gaze point indicated by the gaze point position information and / or the calculated inspection on the shape of the equipment of the 3D model image. An image showing route information, a priority inspection point, or at least one of the priority inspection points may be displayed.

(3次元情報算出処理)
図9は、3次元情報算出処理の動作フローの一例を示す図である。図9に示す3次元情報算出処理は、図8のステップS102において実行される。
(3D information calculation processing)
FIG. 9 is a diagram showing an example of an operation flow of the three-dimensional information calculation process. The three-dimensional information calculation process shown in FIG. 9 is executed in step S102 of FIG.

最初に、算出部342は、サーバ取得部341から受け取った撮影情報のうち、連続する2つの撮影画像を取得する(ステップS201)。 First, the calculation unit 342 acquires two consecutive captured images out of the captured information received from the server acquisition unit 341 (step S201).

次に、算出部342は、既知の抽出方法に基づいて2つの撮影情報の中に共通して含まれる設備の特徴点を抽出する(ステップS202)。 Next, the calculation unit 342 extracts the feature points of the equipment commonly included in the two shooting information based on the known extraction method (step S202).

次に、算出部342は、SfM処理等を用いて、撮影位置の並進ベクトルt及び回転行列Rを算出する(ステップS203)。 Next, the calculation unit 342 calculates the translation vector t of the photographing position and the rotation matrix R by using SfM processing or the like (step S203).

そして、算出部342は、並進ベクトルt及び回転行列Rに基づいて、先の撮影情報に対応する撮影位置と撮影方向を、後の撮影情報に対応する撮影位置と撮影方向とを仮想3次元空間における3次元座標に変換し、変換した3次元座標を示す撮影位置情報と撮影方向とを算出する。同様の処理を全ての撮影情報に対して行い、全ての撮影情報に対応する撮影位置と撮影方向とを算出する(ステップS204)。 Then, the calculation unit 342 sets the shooting position and shooting direction corresponding to the earlier shooting information and the shooting position and shooting direction corresponding to the later shooting information in a virtual three-dimensional space based on the translation vector t and the rotation matrix R. It is converted into the three-dimensional coordinates in the above, and the shooting position information indicating the converted three-dimensional coordinates and the shooting direction are calculated. The same process is performed for all the shooting information, and the shooting position and the shooting direction corresponding to all the shooting information are calculated (step S204).

全ての撮影情報に対応する撮影位置と撮影方向を使って、複数枚の撮影情報(画像)の各画素を、各撮影情報の撮影位置、撮影方向から自動マッチングし、各画素に対応する仮想3次元空間における3次元座標を示す設備位置情報を算出することで、施設内の設備の立体形状を示す仮想3次元空間モデルを生成し(ステップS205)、一連のステップを終了する。なお、算出部342は、算出した各種情報を、取得時刻に対応付けて点検結果テーブル等に記憶する。また、算出部342は、設備位置情報及び/又は仮想3次元空間モデルをサーバ記憶部31に記憶する。算出部342は記憶処理部の一例である。 Using the shooting position and shooting direction corresponding to all shooting information, each pixel of multiple shooting information (images) is automatically matched from the shooting position and shooting direction of each shooting information, and virtual 3 corresponding to each pixel By calculating the equipment position information indicating the three-dimensional coordinates in the dimensional space, a virtual three-dimensional space model showing the three-dimensional shape of the equipment in the facility is generated (step S205), and a series of steps are completed. The calculation unit 342 stores the calculated various information in the inspection result table or the like in association with the acquisition time. Further, the calculation unit 342 stores the equipment position information and / or the virtual three-dimensional space model in the server storage unit 31. The calculation unit 342 is an example of a storage processing unit.

(注視点算出処理)
図10は、注視点算出処理の動作フローの一例を示す図である。図10に示す注視点算出処理は、図8のステップS103において実行される。
(Gaze point calculation process)
FIG. 10 is a diagram showing an example of an operation flow of the gaze point calculation process. The gaze point calculation process shown in FIG. 10 is executed in step S103 of FIG.

最初に、算出部342は、各撮影情報に対応する撮影位置の仮想3次元空間における3次元座標から、同じタイミングで取得された視線情報によって示される視線方向に延長した線分を算出する(ステップS301)。 First, the calculation unit 342 calculates a line segment extended in the line-of-sight direction indicated by the line-of-sight information acquired at the same timing from the three-dimensional coordinates of the shooting position corresponding to each shooting information in the virtual three-dimensional space (step). S301).

次に、算出部342は、設備の仮想3次元空間モデルに基づいて、各設備の外形の表面と線分との最初の交点を、注視点として算出し(ステップS302)、一連のステップを終了する。 Next, the calculation unit 342 calculates the first intersection of the outer surface of each equipment and the line segment as a gazing point based on the virtual three-dimensional space model of the equipment (step S302), and ends a series of steps. To do.

(点検記録算出処理)
図11は、点検経路情報、重点点検地点、重点点検箇所等を含む点検記録を算出する点検記録算出処理の動作フローの一例を示す図である。図11に示す点検記録算出処理は、図8のステップS104において実行される。
(Inspection record calculation process)
FIG. 11 is a diagram showing an example of an operation flow of the inspection record calculation process for calculating the inspection record including the inspection route information, the priority inspection point, the priority inspection point, and the like. The inspection record calculation process shown in FIG. 11 is executed in step S104 of FIG.

全ての撮影情報の撮影位置、注視点位置が算出されたら、算出部342は、対象の設備の表面のうち注視点が集中している位置を抽出する。設備を示す仮想3次元空間モデルの外形の表面に対して、単位領域(例えば、仮想3次元空間モデルの外形の表面を、所定の間隔で分割した複数の格子状の領域等)あたりの注視点の数を集計する。算出部342は、集計した注視点の数が、所定の数を超える単位領域を重点点検箇所とする(ステップS401)。 When the shooting position and the gazing point position of all the shooting information are calculated, the calculation unit 342 extracts the position where the gazing point is concentrated on the surface of the target equipment. Gaze point per unit area (for example, a plurality of grid-like areas obtained by dividing the outer surface of the virtual 3D space model at predetermined intervals) with respect to the outer surface of the virtual 3D space model indicating the equipment. Aggregate the number of. The calculation unit 342 sets a unit area in which the total number of gazing points exceeds a predetermined number as a priority inspection point (step S401).

次に、算出部342は、撮影位置情報に基づいて、その平面座標を使用して点検経路情報を生成する(ステップS402)。点検経路情報は、撮影位置情報の平面座標を連続させた線情報として生成される。 Next, the calculation unit 342 generates inspection route information using the plane coordinates based on the shooting position information (step S402). The inspection route information is generated as line information in which the plane coordinates of the shooting position information are continuous.

次に、算出部342は、点検経路上のうち撮影位置が集中している場所を重点点検地点として抽出する。例えば、算出部342は、複数の撮影位置相互間の距離を算出し、撮影位置ごとに、距離が所定距離以内である他の撮影位置の数を算出し、所定の数を超えるものを重点点検地点とする。また、算出部342は、併せて撮影位置情報の高さ情報(Z軸方向の座標値)が、他の撮影位置情報の高さ情報と異なる場所を抽出する(ステップS403)。 Next, the calculation unit 342 extracts the locations on the inspection route where the shooting positions are concentrated as the priority inspection points. For example, the calculation unit 342 calculates the distance between a plurality of shooting positions, calculates the number of other shooting positions whose distance is within a predetermined distance for each shooting position, and performs a priority inspection of those exceeding the predetermined number. Let it be a point. In addition, the calculation unit 342 also extracts a location where the height information (coordinate values in the Z-axis direction) of the shooting position information is different from the height information of other shooting position information (step S403).

次に、算出部342は、設備配置テーブルを作成する。設備配置テーブルは、各設備について、当該設備の設備ID、3次元設計モデル情報、設備名称、設備図面、座標系等が互いに関連付けて記憶されることで作成するが、算出された重点点検地点から、その撮影場所に対応する重点点検箇所を対応させて作成してもよい(ステップS404)。 Next, the calculation unit 342 creates an equipment arrangement table. The equipment layout table is created by storing the equipment ID, 3D design model information, equipment name, equipment drawing, coordinate system, etc. of the equipment in association with each other for each equipment, but from the calculated priority inspection points. , The priority inspection points corresponding to the shooting location may be created (step S404).

サーバ3のサーバ表示処理部343は、ステップS401〜S404のように作成された点検経路情報、重点点検地点、及び重点点検箇所のうちの少なくとも一方を、システム管理者等の指示に応じて、3次元モデル画像及び注視点上に重ね合わせてサーバ表示部32で表示し(ステップS405)、一連のステップが終了する。サーバ3は、ウェアラブル装置2の表示部(図示しない)で表示できるように、点検経路情報、重点点検地点、及び重点点検箇所のうちの少なくとも一方と、3次元モデル画像及び注視点とをウェアラブル装置2に送信してもよい。 The server display processing unit 343 of the server 3 sets at least one of the inspection route information, the priority inspection points, and the priority inspection points created as in steps S401 to S404 according to the instruction of the system administrator or the like. The three-dimensional model image and the gazing point are superimposed and displayed on the server display unit 32 (step S405), and a series of steps is completed. The server 3 wears at least one of the inspection route information, the priority inspection point, and the priority inspection point, and the three-dimensional model image and the gazing point so that it can be displayed on the display unit (not shown) of the wearable device 2. You may send to 2.

以上説明してきたように、注視行動調査システム1は、複数の撮影情報及び複数の視線情報により、どのような位置においてもウェアラブル装置2の撮影位置及びユーザの注視点を安定して取得することが可能となり、同時にユーザ周辺の仮想3次元空間モデルを生成することが可能となる。また、注視行動調査システム1では、カメラ等の光学センサ以外のセンサを用いる必要がないため、ウェアラブル装置2の撮影位置及びユーザの注視点の位置の算出処理を安価に実行することが可能となる。また、注視行動調査システム1は、複数の撮影情報及び複数の視線情報に基づいて、ユーザの周辺環境の立体形状を示す3次元モデル画像を表示するとともに、ユーザの注視点や、点検経路情報、重点点検地点、重点点検箇所を3次元モデル画像上に表示することができる。 As described above, the gaze behavior investigation system 1 can stably acquire the shooting position of the wearable device 2 and the gaze point of the user at any position by using a plurality of shooting information and a plurality of line-of-sight information. At the same time, it becomes possible to generate a virtual three-dimensional space model around the user. Further, since the gaze behavior survey system 1 does not need to use a sensor other than an optical sensor such as a camera, it is possible to inexpensively execute the calculation process of the shooting position of the wearable device 2 and the position of the user's gaze point. .. In addition, the gaze behavior survey system 1 displays a three-dimensional model image showing the three-dimensional shape of the user's surrounding environment based on a plurality of shooting information and a plurality of gaze information, and also displays the user's gaze point of view and inspection route information. Priority inspection points and priority inspection points can be displayed on the 3D model image.

(変形例1)
上述では、注視行動調査システム1が点検作業者等のユーザが所定の施設内の複数の点検対象を点検する際に使用される場合を例に説明したが、注視行動調査システム1の適用場所は、点検作業者が点検する施設に限らない。
(Modification example 1)
In the above description, the case where the gaze behavior survey system 1 is used when a user such as an inspection worker inspects a plurality of inspection targets in a predetermined facility has been described as an example, but the place where the gaze behavior survey system 1 is applied is , Not limited to facilities inspected by inspection workers.

例えば、注視行動調査システム1のウェアラブル装置2は、一般のユーザによって日常的に用いられてもよい。この場合、サーバ3は、ユーザが移動した際の周辺環境における注視点に対する物体(例えば、商業施設内においてユーザによって注視された商品、街路においてユーザによって注視された広告)を特定することが可能となる。 For example, the wearable device 2 of the gaze behavior survey system 1 may be used on a daily basis by a general user. In this case, the server 3 can identify an object (for example, a product watched by the user in a commercial facility, an advertisement watched by the user in the street) with respect to the gazing point in the surrounding environment when the user moves. Become.

(変形例2)
また、設備の仮想3次元空間モデルとして、あらかじめCAD(Computer Aided Design)等により作成されている3次元設計モデルが使用されてもよい。この場合、サーバ3は、3次元設計モデルにおける設備の位置座標を、仮想3次元空間における位置座標に適用させた上でサーバ記憶部31に記憶させる。また、注視点は、3次元設計モデル情報と、撮影位置から視線情報に基づく視線方向に延長した線分との交点でもよい。
(Modification 2)
Further, as a virtual three-dimensional space model of the equipment, a three-dimensional design model created in advance by CAD (Computer Aided Design) or the like may be used. In this case, the server 3 applies the position coordinates of the equipment in the three-dimensional design model to the position coordinates in the virtual three-dimensional space, and then stores the position coordinates in the server storage unit 31. Further, the gazing point may be an intersection of the three-dimensional design model information and a line segment extending in the line-of-sight direction based on the line-of-sight information from the shooting position.

例えば、算出部342は、公知の立体モデルの照合処理を用いて、設備位置情報によって規定される各設備の外形の形状と、3次元設計モデル情報によって示される複数の設備の外形の形状とが略一致するように、設備位置情報における仮想3次元空間モデルの座標軸、又は、3次元設計モデル情報の座標軸を、所定距離だけ移動させるとともに所定の回転角度で回転させる。 For example, the calculation unit 342 uses a known three-dimensional model collation process to obtain the outer shape of each equipment defined by the equipment position information and the outer shape of a plurality of equipment indicated by the three-dimensional design model information. The coordinate axes of the virtual three-dimensional space model in the equipment position information or the coordinate axes of the three-dimensional design model information are moved by a predetermined distance and rotated at a predetermined rotation angle so as to substantially match.

次に、算出部342は、仮想3次元空間モデルにおける座標軸の移動及び回転の場合は、それに伴い、撮影位置情報によって示される撮影位置及び視線情報によって示される視線方向も、所定距離だけ移動させるとともに所定の回転角度で回転させる。そして、算出部342は、3次元設計モデル情報によって示される複数の設備の外形の表面と、移動及び回転後の撮影位置から、移動及び回転後の視線方向に延長した線分との交点を、注視点として算出し、算出した注視点を示す位置情報を注視点位置情報として、サーバ記憶部31に記憶する。3次元設計モデル情報の座標軸を移動及び回転した場合は、本処理は行わない。 Next, in the case of movement and rotation of the coordinate axes in the virtual three-dimensional space model, the calculation unit 342 also moves the shooting position indicated by the shooting position information and the line-of-sight direction indicated by the line-of-sight information by a predetermined distance. Rotate at a predetermined rotation angle. Then, the calculation unit 342 determines the intersection of the outer surface of the plurality of facilities indicated by the three-dimensional design model information and the line segment extending in the line-of-sight direction after the movement and rotation from the shooting position after the movement and rotation. It is calculated as a gaze point, and the position information indicating the calculated gaze point is stored in the server storage unit 31 as the gaze point position information. When the coordinate axes of the 3D design model information are moved and rotated, this process is not performed.

(変形例3)
また、注視行動調査システム10は、通信ネットワークを介して相互に接続される、ウェアラブル装置20とサーバ30とを有してもよい。例えば、図12に示されるように、注視行動調査システム10が有するウェアラブル装置20とサーバ30とは、アクセスポイント4、ルータ5、及びインターネット6を介して相互に接続される。アクセスポイント4は、所定の施設内で構築される無線LAN(Local Area Network)のアクセスポイントである。サーバ30は、施設内に設置されても、施設外に設置されてもよい。なお、注視行動調査システム1は、サーバ30を制御するための外部コンピュータ(図示せず)を有してもよい。
(Modification 3)
Further, the gaze behavior survey system 10 may have a wearable device 20 and a server 30 that are connected to each other via a communication network. For example, as shown in FIG. 12, the wearable device 20 and the server 30 included in the gaze behavior survey system 10 are connected to each other via the access point 4, the router 5, and the Internet 6. The access point 4 is a wireless LAN (Local Area Network) access point constructed in a predetermined facility. The server 30 may be installed inside the facility or outside the facility. The gaze behavior survey system 1 may have an external computer (not shown) for controlling the server 30.

この場合、サーバ30で実行されるプログラム(例えば、制御プログラム)と、ウェアラブル装置20で実行されるプログラム(例えば、通信プログラム)とは、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルを用いて通信を行う。 In this case, the program executed by the server 30 (for example, a control program) and the program executed by the wearable device 20 (for example, a communication program) are communication protocols such as Hypertext Transfer Protocol (HTTP). Communicate using.

ウェアラブル装置20は、図3に示すウェアラブル装置2と同様の構成を備え、更に通信部を備える。サーバ30は、図4に示すサーバ3と同様の構成を備え、更に、サーバ通信部を備える。 The wearable device 20 has the same configuration as the wearable device 2 shown in FIG. 3, and further includes a communication unit. The server 30 has the same configuration as the server 3 shown in FIG. 4, and further includes a server communication unit.

ウェアラブル装置20の通信部は、主に2.4GHz帯、5GHz帯等を感受帯域とするアンテナを含む、通信インターフェース回路を有する。通信部は、無線LANのアクセスポイント4との間でIEEE(The Institute of Electrical and Electronics Engineers, Inc.)802.11規格の無線通信方式に基づいて無線通信を行う。なお、通信部の周波数帯域は、上記した周波数帯域に限定されない。そして、通信部は、アクセスポイント4から受信したデータを処理部25に供給し、処理部25から供給されたデータをアクセスポイント4に送信する。 The communication unit of the wearable device 20 has a communication interface circuit including an antenna whose sensitive band is mainly a 2.4 GHz band, a 5 GHz band, or the like. The communication unit performs wireless communication with the access point 4 of the wireless LAN based on the wireless communication method of the IEEE (The Institute of Electrical and Electronics Engineers, Inc.) 802.11 standard. The frequency band of the communication unit is not limited to the frequency band described above. Then, the communication unit supplies the data received from the access point 4 to the processing unit 25, and transmits the data supplied from the processing unit 25 to the access point 4.

なお、通信部は、主に2.1GHz帯を感受帯域とするアンテナを含む、通信インターフェース回路を有し、ウェアラブル装置20を通信ネットワーク(図示せず)に接続してもよい。この場合、通信部は、基地局(図示せず)により割り当てられるチャネルを介して、基地局との間でCDMA(Code Division Multiple Access)方式等による無線信号回線を確立し、基地局との間で通信を行う。なお、基地局との間の通信方式は、CDMA方式に限定されず、W−CDMA(Wideband Code Division Multiple Access)方式、LTE(Long Term Evolution)方式等の他の通信方式でもよく、今後使用される通信方式でもよい。また、通信部の周波数帯域は、上記した周波数帯域に限定されない。通信部は、基地局から受信したデータを処理部25に供給し、処理部25から供給されたデータを基地局に送信する。 The communication unit may have a communication interface circuit including an antenna whose sensitive band is mainly 2.1 GHz, and may connect the wearable device 20 to a communication network (not shown). In this case, the communication unit establishes a wireless signal line with the base station by a CDMA (Code Division Multiple Access) method or the like via a channel assigned by the base station (not shown), and communicates with the base station. Communicate with. The communication method with the base station is not limited to the CDMA method, and other communication methods such as W-CDMA (Wideband Code Division Multiple Access) method and LTE (Long Term Evolution) method may be used in the future. Communication method may be used. Further, the frequency band of the communication unit is not limited to the frequency band described above. The communication unit supplies the data received from the base station to the processing unit 25, and transmits the data supplied from the processing unit 25 to the base station.

サーバ30のサーバ通信部は、サーバ30をインターネット6に接続するための通信インターフェース回路を有する。サーバ通信部は、ウェアラブル装置20等から受信したデータをサーバ処理部34に供給する。また、サーバ通信部は、サーバ処理部34から供給されたデータをウェアラブル装置2等に送信する。 The server communication unit of the server 30 has a communication interface circuit for connecting the server 30 to the Internet 6. The server communication unit supplies the data received from the wearable device 20 and the like to the server processing unit 34. Further, the server communication unit transmits the data supplied from the server processing unit 34 to the wearable device 2 and the like.

(変形例4)
また、ウェアラブル装置2又はウェアラブル装置20は表示部を備えてもよい。表示部は、動画像、静止画像等の出力が可能なHMD方式のディスプレイ装置である。表示部は、動画像、静止画像等の出力が可能であればどのようなデバイスでもよく、例えば、タッチパネル式の表示装置、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等でもよい。表示部は、処理部25から供給される動画像データに応じた動画像、静止画像データに応じた静止画像等を表示する。
(Modification example 4)
Further, the wearable device 2 or the wearable device 20 may include a display unit. The display unit is an HMD-type display device capable of outputting moving images, still images, and the like. The display unit may be any device as long as it can output a moving image, a still image, or the like, and may be, for example, a touch panel type display device, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. The display unit displays a moving image according to the moving image data supplied from the processing unit 25, a still image corresponding to the still image data, and the like.

当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions, and modifications can be made to this without departing from the spirit and scope of the invention.

1,10 注視行動調査システム
2,20 ウェアラブル装置
21 記憶部
22 撮影部
23 視線検出部
24 装着部
25 処理部
251 取得部
252 記憶処理部
3,30 サーバ
31 サーバ記憶部
32 サーバ表示部
33 サーバ装着部
34 サーバ処理部
341 サーバ取得部
342 算出部
343 サーバ表示処理部
344 サーバ記憶処理部
4 アクセスポイント
5 ルータ
6 インターネット
1,10 Gaze behavior investigation system 2,20 Wearable device 21 Storage unit 22 Imaging unit 23 Line-of-sight detection unit 24 Mounting unit 25 Processing unit 251 Acquisition unit 252 Storage processing unit 3,30 Server 31 Server storage unit 32 Server display unit 33 Server mounting Unit 34 Server processing unit 341 Server acquisition unit 342 Calculation unit 343 Server display processing unit 344 Server storage processing unit 4 Access point 5 Router 6 Internet

Claims (7)

ユーザの頭部に装着されるウェアラブル装置、及び、前記ウェアラブル装置と通信可能なサーバを含む注視行動調査システムであって、
前記ウェアラブル装置は、
撮影部と、
前記撮影部によって複数の異なる撮影位置から撮影された撮影情報を取得するとともに、前記撮影情報を取得したタイミングにおける前記ユーザの視線方向を示す視線情報を当該撮影情報に対応付けて取得する取得部と、を有し、
前記サーバは、
表示部と、
前記撮影情報ごとに仮想3次元空間における撮影位置を算出する第1算出部と、
前記視線情報に基づいて、前記仮想3次元空間において前記ユーザが注視している注視点位置及び注視時間を算出する第2算出部と、
前記仮想3次元空間においてユーザの周辺環境の立体形状を示す仮想3次元空間モデルを記憶する記憶部と、
前記注視時間に応じて識別可能な前記注視点位置及び/又は前記注視点位置の算出のもととなった前記視線情報における撮影位置と、前記仮想3次元空間モデルとを前記表示部に表示させるサーバ表示処理部と、を有する、
ことを特徴とする注視行動調査システム。
A gaze behavior survey system including a wearable device worn on the user's head and a server capable of communicating with the wearable device.
The wearable device is
With the shooting department
An acquisition unit that acquires shooting information shot from a plurality of different shooting positions by the shooting unit, and acquires line-of-sight information indicating the line-of-sight direction of the user at the timing of acquiring the shooting information in association with the shooting information. Have,
The server
Display and
The first calculation unit that calculates the shooting position in the virtual three-dimensional space for each shooting information,
Based on the line-of-sight information, a second calculation unit that calculates the gaze position and gaze time that the user is gazing at in the virtual three-dimensional space
A storage unit that stores a virtual three-dimensional space model showing the three-dimensional shape of the user's surrounding environment in the virtual three-dimensional space.
The display unit displays the shooting position in the line-of-sight information that is the basis for calculating the gaze position and / or the gaze position that can be identified according to the gaze time, and the virtual three-dimensional space model. Has a server display processing unit,
A gaze behavior survey system characterized by this.
前記第2算出部は、前記注視点位置の算出のもととなった撮影位置ごとに前記注視時間を算出する、請求項1に記載の注視行動調査システム。 The gaze behavior investigation system according to claim 1, wherein the second calculation unit calculates the gaze time for each imaging position on which the gaze position is calculated. 前記第1算出部は、前記撮影位置を前記仮想3次元空間における所定領域内を同一の撮影位置として算出する、請求項1又は請求項2に記載の注視行動調査システム。 The gaze behavior investigation system according to claim 1 or 2, wherein the first calculation unit calculates the shooting position as the same shooting position in a predetermined area in the virtual three-dimensional space. 前記第2算出部は、前記注視点位置を前記仮想3次元空間における所定領域内を同一の注視点位置として算出する、請求項1〜3のいずれか1項に記載の注視行動調査システム。 The gaze behavior investigation system according to any one of claims 1 to 3, wherein the second calculation unit calculates the gaze position as the same gaze position in a predetermined area in the virtual three-dimensional space. 前記仮想3次元空間モデルを前記撮影情報から生成する仮想3次元空間モデル生成部を更に有する、請求項1〜4のいずれか1項に記載の注視行動調査システム。 The gaze behavior investigation system according to any one of claims 1 to 4, further comprising a virtual three-dimensional space model generation unit that generates the virtual three-dimensional space model from the shooting information. 前記第2算出部は、
前記撮影位置ごとに、各撮影位置から、対応する視線方向に延長した線分を算出し、
前記撮影位置ごとに、算出された前記線分と前記仮想3次元空間モデルの外形の表面との交点を、注視点として算出する、請求項1〜5のいずれか1項に記載の注視行動調査システム。
The second calculation unit
For each shooting position, a line segment extended in the corresponding line-of-sight direction is calculated from each shooting position.
The gaze behavior survey according to any one of claims 1 to 5, wherein the intersection of the calculated line segment and the outer surface of the virtual three-dimensional space model is calculated as a gaze point for each shooting position. system.
ユーザの頭部に装着されるウェアラブル装置と通信可能なサーバの制御プログラムであって、
前記ウェアラブル装置が備える撮影部によって複数の異なる撮影位置から撮影された撮影情報と、前記撮影情報を取得したタイミングにおける前記ユーザの視線方向を示す視線情報とを、前記ウェアラブル装置から受信し、
前記撮影情報ごとに仮想3次元空間における撮影位置を算出し、
前記視線情報に基づいて、前記仮想3次元空間において前記ユーザが注視している注視点位置及び注視時間を算出し、
前記注視時間に応じて識別可能な前記注視点位置及び/又は前記注視点位置の算出のもととなった前記視線情報における撮影位置と、前記仮想3次元空間においてユーザの周辺環境の立体形状を示す仮想3次元空間モデルとを表示させる、
ことを前記サーバに実行させることを特徴とする制御プログラム。
A server control program that can communicate with a wearable device worn on the user's head.
The wearable device receives the shooting information shot from a plurality of different shooting positions by the shooting unit included in the wearable device and the line-of-sight information indicating the line-of-sight direction of the user at the timing when the shooting information is acquired.
The shooting position in the virtual three-dimensional space is calculated for each of the shooting information.
Based on the line-of-sight information, the gaze point position and gaze time that the user is gazing at in the virtual three-dimensional space are calculated.
The shooting position in the line-of-sight information that is the basis for calculating the gaze position and / or the gaze position that can be identified according to the gaze time, and the three-dimensional shape of the user's surrounding environment in the virtual three-dimensional space. Display the virtual 3D space model shown,
A control program characterized by causing the server to execute the above.
JP2019031792A 2019-02-25 2019-02-25 Gaze behavior survey system and control program Active JP7266422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019031792A JP7266422B2 (en) 2019-02-25 2019-02-25 Gaze behavior survey system and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019031792A JP7266422B2 (en) 2019-02-25 2019-02-25 Gaze behavior survey system and control program

Publications (2)

Publication Number Publication Date
JP2020135737A true JP2020135737A (en) 2020-08-31
JP7266422B2 JP7266422B2 (en) 2023-04-28

Family

ID=72278849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019031792A Active JP7266422B2 (en) 2019-02-25 2019-02-25 Gaze behavior survey system and control program

Country Status (1)

Country Link
JP (1) JP7266422B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395973A (en) * 2020-11-16 2021-02-23 华中科技大学鄂州工业技术研究院 User intention identification method, device, equipment and storage medium
JP7431714B2 (en) 2020-10-16 2024-02-15 株式会社日立製作所 Gaze analysis device, gaze analysis method, and gaze analysis system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002656A1 (en) * 2014-06-30 2016-01-07 凸版印刷株式会社 Line-of-sight measurement system, line-of-sight measurement method, and program
JP2016143321A (en) * 2015-02-04 2016-08-08 凸版印刷株式会社 Image processing system, visual axis measuring system, image processing method, visual axis measuring method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002656A1 (en) * 2014-06-30 2016-01-07 凸版印刷株式会社 Line-of-sight measurement system, line-of-sight measurement method, and program
JP2016143321A (en) * 2015-02-04 2016-08-08 凸版印刷株式会社 Image processing system, visual axis measuring system, image processing method, visual axis measuring method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7431714B2 (en) 2020-10-16 2024-02-15 株式会社日立製作所 Gaze analysis device, gaze analysis method, and gaze analysis system
CN112395973A (en) * 2020-11-16 2021-02-23 华中科技大学鄂州工业技术研究院 User intention identification method, device, equipment and storage medium
CN112395973B (en) * 2020-11-16 2023-04-25 华中科技大学鄂州工业技术研究院 User intention recognition method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP7266422B2 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
US11151799B2 (en) System and method for monitoring field based augmented reality using digital twin
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
JP5762892B2 (en) Information display system, information display method, and information display program
JP6364952B2 (en) Information processing apparatus, information processing system, and information processing method
CN101833115B (en) Life detection and rescue system based on augment reality technology and realization method thereof
KR101533320B1 (en) Apparatus for acquiring 3 dimension object information without pointer
US10451403B2 (en) Structure-based camera pose estimation system
WO2013186160A1 (en) Closed loop 3d video scanner for generation of textured 3d point cloud
CN111192321A (en) Three-dimensional positioning method and device for target object
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
CN113066195A (en) Power equipment inspection method and device, AR glasses and storage medium
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
JP7266422B2 (en) Gaze behavior survey system and control program
JP6895598B2 (en) Equipment inspection system, server, equipment inspection method, and control program
CN110717994A (en) Method for realizing remote video interaction and related equipment
CN113934389A (en) Three-dimensional scanning processing method, system, processing device and storage medium
KR20220010356A (en) System and method for augmented reality content-based work management
JP7414395B2 (en) Information projection system, control device, and information projection control method
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
CN109669539B (en) Electric wearable field operation man-machine interaction method, device and system
JP2020144776A (en) Work support system, work support device, and work support method
KR102458559B1 (en) Construction management system and method using mobile electric device
JP2019066196A (en) Inclination measuring device and inclination measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230418

R150 Certificate of patent or registration of utility model

Ref document number: 7266422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150