JP2016012168A - Information sharing system - Google Patents

Information sharing system Download PDF

Info

Publication number
JP2016012168A
JP2016012168A JP2014132354A JP2014132354A JP2016012168A JP 2016012168 A JP2016012168 A JP 2016012168A JP 2014132354 A JP2014132354 A JP 2014132354A JP 2014132354 A JP2014132354 A JP 2014132354A JP 2016012168 A JP2016012168 A JP 2016012168A
Authority
JP
Japan
Prior art keywords
data
instruction
image
terminal device
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014132354A
Other languages
Japanese (ja)
Inventor
聡一 戎野
Soichi Ebino
聡一 戎野
吉田 稔
Minoru Yoshida
稔 吉田
テュィフィック メフタ
Mehta Tuific
テュィフィック メフタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schneider Electric Japan Holdings Ltd
Original Assignee
Digital Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Electronics Corp filed Critical Digital Electronics Corp
Priority to JP2014132354A priority Critical patent/JP2016012168A/en
Publication of JP2016012168A publication Critical patent/JP2016012168A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To effectively perform sharing of information that allows for connection between a designer of a device and an operator who performs maintenance of the device.SOLUTION: A portable terminal device 2 includes: an imaging unit 22 that picks up an image of a device 5; and a view point data generation unit 26 that generates view point data showing a position and direction of the portable terminal device 2 with respect to the device 5 on the basis of a picked up real image of the device 5. A PC 1 includes an instruction data generation unit 18 that generates instruction data including instruction image data of an instruction image showing instruction given to an operator who uses the portable terminal device 2 and display position data specified on the basis of the view point data and appearance data showing appearance of the device 5 in order to display the instruction image superimposed on the real image of the device 5.

Description

本発明は、装置の設計者と装置の保守を行う作業員とが連携するための情報を設計者と作業員との間で共有化する情報共有化システムに関する。   The present invention relates to an information sharing system for sharing information for cooperation between a designer of a device and a worker who performs maintenance of the device between the designer and the worker.

装置の保守には、実際に現場で装置の保守作業を担当する作業員と、装置について熟知している装置の設計者との連携が欠かせない。また、通常、設計者が現場から離れたオフィスにいるため、設計者と作業員との間の意思疎通は、設計図を参照した携帯電話による会話、インターネット電話サービスを利用した音声および動画の送信などの形態で行われる。例えば、携帯電話を利用する場合、作業員が、携帯電話を介して、設計図を参照しながら装置の保守についての相談を設計者にして、設計者からの指示を得る。また、インターネット電話サービスを利用する場合、作業員が、装置を撮影した動画像のデータと、当該動画像について説明した音声のデータとをインターネットを介して設計者に送信して相談し、設計者からの指示を得る。   For device maintenance, it is indispensable to collaborate with workers who are actually in charge of device maintenance work on site and device designers who are familiar with the device. In addition, since the designer is usually in an office away from the site, the communication between the designer and the worker is performed by a mobile phone conversation referring to the blueprint, and transmission of voice and video using the Internet telephone service. It is performed in the form. For example, when using a mobile phone, an operator obtains an instruction from the designer by using the mobile phone as a designer to consult about maintenance of the apparatus with reference to the design drawing. In addition, when using the Internet telephone service, the worker sends the data of the moving image obtained by photographing the device and the audio data explaining the moving image to the designer via the Internet to consult with the designer. Get instructions from.

設計者と作業員との他の連携の例としては、特許文献1や特許文献2に開示されているようなシステムがある。特許文献1には、プラント全体を表現する固定画画面データと収集されたプラント各部の状態データとを組み合わせたハイパーテキストデータを、監視対象側からオフィス側へデータ伝送路を介して転送し、オフィス側において表示することが開示されている。特許文献2には、監視カメラによって撮影された業務サーバの監視映像に対し、予め更新された業務サーバのステータスを、業務サーバに付されたマーカーを基準にして、対応する業務サーバの近傍に重畳させて拡張現実映像を表示することが開示されている。これらのシステムを利用することにより、作業員は、作業員側から設計者側に送られた情報に基づいて、装置の保守について設計者に相談することができる。   Examples of other cooperation between designers and workers include systems disclosed in Patent Document 1 and Patent Document 2. In Patent Document 1, hypertext data, which is a combination of fixed image screen data representing the entire plant and collected state data of each part of the plant, is transferred from the monitoring target side to the office side via a data transmission path, and the office Display on the side. Patent Document 2 superimposes the business server status updated in advance on the business server monitoring video taken by the monitoring camera in the vicinity of the corresponding business server with reference to the marker attached to the business server. It is disclosed that an augmented reality image is displayed. By using these systems, the worker can consult the designer about the maintenance of the apparatus based on the information sent from the worker side to the designer side.

特開平10−41861号公報(1998年2月13日公開)JP 10-41861 A (published February 13, 1998) 特開2012−18605号公報(2012年1月26日公開)JP 2012-18605 A (published January 26, 2012)

作業員から相談を受けた設計者が、適切な対処法を判断するために、所望とする装置の部分の状態を知りたいことがある。例えば、作業員が伝えてきた装置のある部分の不具合について、その部分に関連する他の部分の状態についても知っておく必要がある場合、作業員から得た情報だけでは不十分である。   In some cases, a designer who has consulted with an operator wants to know the state of the desired part of the device in order to determine an appropriate countermeasure. For example, when it is necessary to know the state of other parts related to a part of a device that has been reported by the worker, information obtained from the worker is not sufficient.

しかしながら、上述の携帯電話やインターネット電話サービスを利用した手法では、装置の画像を参照した音声でのやり取りとなるので、装置の構成によっては、設計者が状態を知りたい装置の部分を音声(口頭)のみで作業員に伝えることが難しい場合もある。また、特許文献1および2には、装置側(作業員側)からオフィス側(設計者側)に装置の状況を伝える手法が開示されているものの、設計者が知りたい装置の情報を設計者側から作業員側に伝える手法については開示されていない。   However, in the method using the cellular phone or Internet telephone service described above, since the voice exchange refers to the image of the device, the part of the device that the designer wants to know the state of is spoken (verbal) depending on the device configuration. ) May be difficult to convey to workers. Patent Documents 1 and 2 disclose a method for transmitting the status of the apparatus from the apparatus side (worker side) to the office side (designer side). There is no disclosure of the method of transmitting from the side to the worker side.

このように、従来の技術では、設計者と作業員との間で装置の情報を効率的に共有することが容易ではなかった。   As described above, according to the conventional technology, it is not easy to efficiently share information on the apparatus between the designer and the worker.

本発明は上記の問題点を解決するためになされたものであり、その目的は、装置の設計者と装置の保守を行う作業員とが連携するための情報の共有化を効率的に行うことにある。   The present invention has been made to solve the above-described problems, and its purpose is to efficiently share information for cooperation between a device designer and a worker who performs maintenance of the device. It is in.

上記の課題を解決するために、本発明に係る情報共有化システムは、監視対象を撮像する撮像部と、前記撮像部によって撮像された前記監視対象の実画像に基づいて前記監視対象に対する携帯端末装置の位置および方向を示す視点データを作成する視点データ作成手段とを有する携帯端末装置と、前記携帯端末装置を使用する作業員に与える指示を示す指示画像の指示画像データおよび前記指示画像を前記実画像に重ねて表示するために前記視点データおよび前記監視対象の外観を表す外観データに基づいて特定された前記監視対象の立体的な配置領域における表示位置データを含む指示データを作成する指示データ作成手段を有するデータ作成装置とを備え、前記携帯端末装置が、前記撮像部によって撮像された前記実画像上の前記表示位置データで特定された表示位置に、前記指示画像データにより示された前記指示画像を重ねて表示する処理を行う指示画像表示処理手段をさらに有していることを特徴としている。   In order to solve the above-described problem, an information sharing system according to the present invention includes an imaging unit that images a monitoring target, and a portable terminal for the monitoring target based on an actual image of the monitoring target captured by the imaging unit. A portable terminal device having viewpoint data creating means for creating viewpoint data indicating the position and direction of the device, and instruction image data of an instruction image indicating an instruction given to a worker who uses the portable terminal device, and the instruction image Instruction data for creating instruction data including display position data in the stereoscopic arrangement region of the monitoring target specified based on the viewpoint data and the appearance data representing the appearance of the monitoring target to be displayed overlaid on the actual image The display position on the actual image captured by the imaging unit. The display position specified by the data, is characterized by having further an instruction image display processing means for performing processing for displaying overlapping the instruction image shown by the instruction image data.

なお、“監視対象の立体的な配置領域”とは、撮像された監視対象は平面的に表示されることになるが、実際には立体的であるのに平面的に表示される監視対象の領域を表わすものである。   Note that the “three-dimensional arrangement area of the monitoring target” means that the captured monitoring target is displayed in a two-dimensional manner, but in reality it is a three-dimensional monitoring target that is displayed in a two-dimensional manner. It represents an area.

上記の構成では、携帯端末装置において、データ作成装置では、指示データ作成手段によって、視点データおよび外観データとに基づいて、作業員に指示を与えるための指示データ(指示画像データおよび表示位置データを含む)が作成される。これにより、データ作成装置を使用する設計者は、携帯端末装置を使用する作業員から受け取った視点データに基づいて、作業員の目線で指示データを作成することができる。   In the above configuration, in the mobile terminal device, in the data creation device, the instruction data creation means provides the instruction data (instruction image data and display position data for giving an instruction to the worker based on the viewpoint data and the appearance data. Is created). Thereby, the designer who uses the data creation device can create the instruction data from the viewpoint of the worker based on the viewpoint data received from the worker who uses the mobile terminal device.

一方、携帯端末装置において、指示画像表示処理手段によって、データ作成装置で作成された指示データに基づいて、監視対象の実画像上の表示位置データで特定された表示位置に、指示画像データにより示された指示画像を重ねて表示する処理が行われると、指示画像が、撮像部によって撮像された実画像上に重ねて表示される。   On the other hand, in the portable terminal device, the instruction image display processing means displays the instruction position by the instruction image data on the display position specified by the display position data on the real image to be monitored based on the instruction data created by the data creation device. When the process of displaying the designated instruction image in a superimposed manner is performed, the instruction image is displayed so as to be superimposed on the actual image captured by the imaging unit.

したがって、設計者は、指示データを共有の情報として、より明確(直感的)に指示を作業員に伝えたり、作業員と打ち合わせを円滑に行ったりすることが可能となる。   Therefore, the designer can transmit the instructions to the worker more clearly (intuitively) by using the instruction data as shared information, and can smoothly meet with the worker.

前記情報共有化システムにおいて、前記携帯端末装置は、前記外観データを記憶する第1記憶部と、前記実画像の画像データに基づいて比較のための比較外観データを作成し、当該比較外観データと前記外観データとの差分である差分データを作成する差分データ作成手段と、前記第1記憶部に記憶された前記外観データを前記差分データに基づいて更新する第1更新手段とをさらに有し、前記データ作成装置は、前記外観データを記憶する第2記憶部と、前記第2記憶部に記憶された前記外観データを前記差分データに基づいて更新する第2更新手段とをさらに有していることが好ましい。   In the information sharing system, the portable terminal device creates a first storage unit that stores the appearance data, comparative appearance data for comparison based on the image data of the real image, and the comparison appearance data Difference data creating means for creating difference data that is a difference from the appearance data; and first update means for updating the appearance data stored in the first storage unit based on the difference data; The data creation device further includes a second storage unit that stores the appearance data, and a second update unit that updates the appearance data stored in the second storage unit based on the difference data. It is preferable.

上記の構成では、携帯端末装置において、差分データ作成手段によって、差分データが作成されると、第1更新手段により、その差分データに基づいて外観データが更新される。また、データ作成装置でも、第2更新手段により、その差分データに基づいて外観データが更新される。これにより、携帯端末装置およびデータ作成装置において、共有される外観データが同様に更新される。また、このように差分データを用いることにより、携帯端末装置からデータ作成装置に差分データを送信する際のデータサイズを小さくすることができる。   In the above configuration, when the difference data is created by the difference data creation means in the mobile terminal device, the appearance data is updated based on the difference data by the first update means. Also in the data creation device, the appearance data is updated based on the difference data by the second updating means. Thereby, the shared appearance data is similarly updated in the mobile terminal device and the data creation device. Further, by using the difference data in this way, it is possible to reduce the data size when the difference data is transmitted from the mobile terminal device to the data creation device.

前記情報共有化システムにおいて、前記携帯端末装置は、更新された前記外観データを密度が異なる複数の分割データに分割し、当該分割データを、疎な前記分割データから密な前記分割データへと順に、前記外観データを記憶する機器に送信する送信処理手段をさらに有していることが好ましい。   In the information sharing system, the mobile terminal device divides the updated appearance data into a plurality of pieces of divided data having different densities, and sequentially converts the divided data from the sparse divided data to the dense divided data. It is preferable to further include a transmission processing means for transmitting to the device for storing the appearance data.

上記の構成では、送信処理手段によって、上記のように分割された分割データが送信される。これにより、外観データの全ての送信が完了していない段階で、分割データの送信のみで、外観データの内容を推測することができる。それゆえ、設計者および作業員の作業効率を向上させることができる。また、サイズの大きいデータを一度に送信することが回避されるので、分割データを送信する通信回線が低品質であっても、その回線を圧迫することなく、データを送信することができる。   In the above configuration, the divided data divided as described above is transmitted by the transmission processing means. Thereby, the content of appearance data can be estimated only by transmission of division data in the stage where transmission of all appearance data is not completed. Therefore, the work efficiency of the designer and the worker can be improved. Further, since it is possible to avoid transmitting large data at a time, even if the communication line for transmitting the divided data has a low quality, the data can be transmitted without squeezing the line.

本発明は、上記のように構成されることにより、装置の設計者と装置の保守を行う作業員とが連携するための情報の共有化を効率的に行うことができるという効果を奏する。   The present invention, which is configured as described above, has an effect of efficiently sharing information for cooperation between an apparatus designer and an operator who performs maintenance of the apparatus.

本発明の一実施形態に係る情報共有化システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information sharing system which concerns on one Embodiment of this invention. 上記情報共有化システムにおけるパーソナルコンピュータで作成された3Dモデルデータの画像を示す図である。It is a figure which shows the image of 3D model data produced with the personal computer in the said information sharing system. テクスチャーデータの画像を示す図である。It is a figure which shows the image of texture data. 作業員の視点で見た装置の状態を仮想的に表した仮想像を示す図である。It is a figure which shows the virtual image which represented the state of the apparatus seen from the viewpoint of the worker virtually. 作業員に与える指示を上記仮想象に付加して得た図である。It is the figure obtained by adding the instruction | indication given to a worker to the said virtual elephant. 上記指示が示された上記情報共有化システムにおける携帯端末装置で表示される装置の画像を示す図である。It is a figure which shows the image of the apparatus displayed with the portable terminal device in the said information sharing system in which the said instruction | indication was shown. 作業員が撮影する装置の撮影範囲が付加された図である。It is the figure to which the imaging range of the apparatus which an operator image | photographs was added. 作業員が撮影する装置の撮影方向が付加された図である。It is the figure where the imaging | photography direction of the apparatus which an operator image | photographs was added. (a)〜(c)は装置の撮影箇所および撮影方向を上記仮想象に付加して得た図である。(A)-(c) is the figure obtained by adding the imaging | photography location and imaging | photography direction of an apparatus to the said virtual elephant. (a)は設計者と作業員とで共有されるテクスチャーを示す図であり、(b)は上記携帯端末装置で撮影された画像に基づいて作成されたテクスチャーを示す図であり、(c)および(d)は(a)および(b)のテクスチャー間の差分をそれぞれ示す図であり、(e)は当該差分に基づいて更新されたテクスチャーを示す図である。(A) is a figure which shows the texture shared by a designer and a worker, (b) is a figure which shows the texture produced based on the image image | photographed with the said portable terminal device, (c) (D) is a figure which shows the difference between the textures of (a) and (b), respectively, (e) is a figure which shows the texture updated based on the said difference. 一部が更新された(累進的な更新における途中の状態の)上記3Dモデルを示す図である。It is a figure which shows the said 3D model in which the part was updated (the state in the middle in progressive update). 全部が更新された(累進的な更新における最後の状態の)3Dモデルを示す図である。FIG. 3 shows a 3D model that has been fully updated (in the last state in a progressive update). 一部が更新された(累進的な更新における途中の状態の)テクスチャーを示す図である。It is a figure which shows the texture in which the part was updated (the state in the middle in progressive update). 全部が更新された(累進的な更新における最後の状態の)テクスチャーを示す図である。FIG. 5 shows a texture that has been completely updated (in the last state in a progressive update).

〔実施形態〕
本発明の一実施形態を図1〜図14に基づいて説明すれば、以下の通りである。
Embodiment
An embodiment of the present invention will be described with reference to FIGS.

図1は、本実施形態に係る情報共有化システム100の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an information sharing system 100 according to the present embodiment.

図1に示すように、情報共有化システム100は、装置5(後述)の設計者側で各種のデータを作成するパーソナルコンピュータ(図中「PC」にて示し、以降単に「PC」と称する)1と、上記各種のデータに基づいて設計者に提供するデータを作成する携帯端末装置2と、PC1と携帯端末装置2とを通信可能に接続するネットワーク3とを備えている。また、情報共有化システム100は、必要に応じて、上記各種のデータを保存するサーバ4を備えている。   As shown in FIG. 1, the information sharing system 100 is a personal computer (indicated by “PC” in the figure, hereinafter simply referred to as “PC”) for creating various data on the designer side of the apparatus 5 (described later). 1, a mobile terminal device 2 that creates data to be provided to a designer based on the various types of data, and a network 3 that connects the PC 1 and the mobile terminal device 2 so that they can communicate with each other. In addition, the information sharing system 100 includes a server 4 that stores the various types of data as necessary.

なお、基本となる3Dモデルデータおよびテクスチャーデータ(いずれも詳細は後述)はあらかじめ、外部からPC1および携帯端末装置2に供給されている。基本となる3Dモデルデータおよびテクスチャーデータは、装置5の設計時に作成されるものである。本実施形態において、3Dモデルデータは、公知のモデリング手法を用い、装置5の立体的な外観を三角形や四角形を組み合わせて表したデータ(3Dモデルデータ,立体的な外観データ)であるものとする。また、本実施形態において、テクスチャーデータは、装置5の外観を平面的に表した図(正面図、側面図など)に基づいて作成されたものであり、テクスチャーデータは、装置5の外観を平面的に表現した図のデータ(平面的な外観データ)であり、さらに装置5の表面の質感を表すものとする。   Note that basic 3D model data and texture data (both described later in detail) are supplied in advance to the PC 1 and the mobile terminal device 2 from the outside. The basic 3D model data and texture data are created when the device 5 is designed. In the present embodiment, the 3D model data is data (3D model data, stereoscopic appearance data) in which the stereoscopic appearance of the apparatus 5 is represented by combining triangles and quadrangles using a known modeling technique. . Further, in the present embodiment, the texture data is created based on a diagram (front view, side view, etc.) that represents the appearance of the device 5 in plan view, and the texture data is a plan view of the appearance of the device 5. It is assumed that the figure data (planar appearance data) is expressed as a model, and further represents the texture of the surface of the device 5.

装置5(監視対象)は、作業員が保守のために監視の対象としている装置であり、工場などの現場に設置されている。また、装置5の設計者は、装置5が設置された現場から離れたオフィスにおり、PC1を用いて携帯端末装置2に対して作業員への指示を与える。   The device 5 (monitoring target) is a device to be monitored by a worker for maintenance, and is installed at a site such as a factory. The designer of the device 5 is in an office away from the site where the device 5 is installed, and gives an instruction to the worker to the portable terminal device 2 using the PC 1.

PC1(データ作成装置、主として後述する指示データを作成する)は、CPU、メモリ、記憶装置(HDDやSSDなど)、通信インターフェースなどを備えるとともに、OS(Operating System)が実装されている汎用のコンピュータである。また、PC1(データ作成装置)は、データを作成するデータ作成部10と、上記データを記憶する記憶部11(第2記憶部)と、携帯端末装置2などと通信を行う送受信部12と、送受信部12を介して通話を行う通話部13と、表示用のモニタ14と、入力操作を行う入力装置15とを有している。   The PC 1 (data creation device, mainly creating instruction data described later) includes a CPU, a memory, a storage device (HDD, SSD, etc.), a communication interface, etc., and a general-purpose computer on which an OS (Operating System) is mounted. It is. The PC 1 (data creation device) includes a data creation unit 10 that creates data, a storage unit 11 (second storage unit) that stores the data, a transmission / reception unit 12 that communicates with the mobile terminal device 2, and the like. It has a call unit 13 for making a call via the transmission / reception unit 12, a display monitor 14, and an input device 15 for performing an input operation.

データ作成部10は、作業員に与える指示の指示データを作成する指示データ作成部18と、3Dモデルデータおよびテクスチャーデータの更新処理を行う更新処理部19とを含んでいる。   The data creation unit 10 includes an instruction data creation unit 18 that creates instruction data for instructions given to workers, and an update processing unit 19 that performs update processing of 3D model data and texture data.

指示データ作成部18(指示データ作成手段)は、作業員に与える指示に関する指示データを作成する。指示データは、指示を画像化して表す指示画像を表すデータ(指示画像データ)と、指示内容を表すデータ(指示内容データ)と、当該指示画像および指示内容を表示する位置のデータ(表示位置データ)とを含んでいる。さらに、指示データ作成部18は、携帯端末装置2から送られてきた視点データを用いることにより、作業員が装置5を見た視点と同じ視点で見た仮想的な立体象(仮想象)に重ね合わせることができるように指示データを作成する。なお、視点データおよび仮想象の詳細については後述する。   The instruction data creation unit 18 (instruction data creation means) creates instruction data relating to instructions given to the worker. The instruction data includes data (instruction image data) representing an instruction image representing the instruction as an image, data representing the instruction content (instruction content data), and position data (display position data) for displaying the instruction image and the instruction content. ). Furthermore, the instruction data creation unit 18 uses the viewpoint data sent from the mobile terminal device 2 to create a virtual three-dimensional figure (virtual elephant) viewed from the same viewpoint as the viewpoint at which the worker viewed the apparatus 5. Instruction data is created so that it can be overlaid. Details of the viewpoint data and the virtual elephant will be described later.

更新処理部19(第2更新手段)は、携帯端末装置2からの更新のためのデータに基づいて、記憶部11に記憶された3Dモデルデータおよびテクスチャーデータを更新する処理を行う。   The update processing unit 19 (second update unit) performs processing for updating 3D model data and texture data stored in the storage unit 11 based on data for update from the mobile terminal device 2.

携帯端末装置2は、タブレット端末のように、無線通信機能、撮像機能、表示機能および入力機能を基本機能として備えた端末機器である。携帯端末装置2は、これらの基本機能を実現するために、ネットワーク3との間で無線通信する送受信部20と、送受信部20を介して通話を行う通話部21と、被写体を撮影する撮像部22と、画像を表示する表示パネル23と、表示パネル23上でタッチ入力を受け付けるタッチパネル24と、これら各部を制御する制御部25とを備えている。撮像部22は、被写体の光学像を電気信号に変換して撮像データとして出力する撮像機能だけでなく、撮像データを静止画像や動画像として取り込む撮影機能も有している。制御部25は、送受信部20により受信されたデータの記憶部29への書き込みや、記憶部29から読み出されたデータの送受信部20による送信も制御する。   The mobile terminal device 2 is a terminal device including a wireless communication function, an imaging function, a display function, and an input function as basic functions, like a tablet terminal. In order to realize these basic functions, the mobile terminal device 2 includes a transmission / reception unit 20 that performs wireless communication with the network 3, a call unit 21 that performs a call via the transmission / reception unit 20, and an imaging unit that captures a subject. 22, a display panel 23 that displays an image, a touch panel 24 that receives a touch input on the display panel 23, and a control unit 25 that controls these units. The imaging unit 22 has not only an imaging function that converts an optical image of a subject into an electrical signal and outputs the electrical signal, but also an imaging function that captures the imaging data as a still image or a moving image. The control unit 25 also controls writing of data received by the transmission / reception unit 20 to the storage unit 29 and transmission of data read from the storage unit 29 by the transmission / reception unit 20.

また、携帯端末装置2は、基本となるデータ(後述する共有化データ)に対する差分データを作成し、PC1へ提供する。携帯端末装置2は、このようなデータ作成を行うために、視点データを作成する視点データ作成部26と、指示データを表示するための処理を行う指示画像表示処理部27と、撮影データ(画像データ)に基づいて3Dモデルデータおよびテクスチャーデータの間で変化した差分のデータ(差分データ)を作成する差分データ作成部28と、記憶部29(第1記憶部)とを備えている。   In addition, the mobile terminal device 2 creates difference data for basic data (shared data described later) and provides the difference data to the PC 1. In order to create such data, the mobile terminal device 2 generates a viewpoint data creating unit 26 that creates viewpoint data, an instruction image display processing unit 27 that performs processing for displaying instruction data, and imaging data (images). A difference data creating unit 28 that creates difference data (difference data) changed between the 3D model data and the texture data based on the data), and a storage unit 29 (first storage unit).

視点データ作成部26(視点データ作成手段)は、作業員が撮像部22を通して装置を見た視点(携帯端末装置2(撮像部22のレンズ)の位置および方向(角度))を示すデータ(視点データ)をAR(Augmented Reality)技術などを利用して作成する。視点データは、作業員が、撮像部22を通して、どの位置(装置5とどれだけ離れて、どのくらいの高さから)、かつどの方向から装置5を見ているかというデータである。   The viewpoint data creation unit 26 (viewpoint data creation means) is data (viewpoint) indicating the viewpoint (position and direction (angle) of the mobile terminal device 2 (lens of the imaging unit 22)) when the worker views the device through the imaging unit 22. Data) is created using AR (Augmented Reality) technology. The viewpoint data is data indicating which position (how far away from the apparatus 5 is from what height) and from which direction the worker is viewing the apparatus 5 through the imaging unit 22.

指示画像表示処理部27(指示画像表示処理手段)は、PC1から提供された指示データに基づいて上述の指示画像を表示パネル23に表示させる処理を行う。   The instruction image display processing unit 27 (instruction image display processing means) performs a process of displaying the above-described instruction image on the display panel 23 based on the instruction data provided from the PC 1.

差分データ作成部28(差分データ作成手段)は、撮像部22の撮影機能によって得られた撮影データ(静止画像)に基づいて、装置5が、基本となるあるいは前回撮像時の3Dモデルデータおよびテクスチャーデータから変化した差分を差分データとして作成する。   The difference data creation unit 28 (difference data creation means) is based on the shooting data (still image) obtained by the shooting function of the imaging unit 22, and the apparatus 5 is used as the basis or the 3D model data and texture at the time of previous shooting. A difference changed from the data is created as difference data.

記憶部29は、3Dモデルデータ、テクスチャーデータおよび携帯端末装置2内で作成されたデータを保存するために設けられている。具体的には、記憶部29は、基本となるテクスチャーデータおよび3Dモデルデータと、指示データとを保存し、かつ携帯端末装置2内で作成された視点データ、撮影データおよび差分データを保存する。   The storage unit 29 is provided for storing 3D model data, texture data, and data created in the mobile terminal device 2. Specifically, the storage unit 29 stores basic texture data and 3D model data, and instruction data, and stores viewpoint data, shooting data, and difference data created in the mobile terminal device 2.

送受信部20は、PC1へ各種のデータを送信する。また、送受信部20(送信処理手段)は、3Dモデルデータおよびテクスチャーデータを更新するためのデータの送信を累進的に行うように送信データを分割して順次送信する処理を行う。   The transmission / reception unit 20 transmits various data to the PC 1. Further, the transmission / reception unit 20 (transmission processing means) performs processing of dividing the transmission data and sequentially transmitting the data so as to progressively transmit data for updating the 3D model data and the texture data.

ネットワーク3は、インターネットやイントラネットなどの通信網であり、PC1および携帯端末装置2が接続されており、必要に応じてサーバ4が接続される。携帯端末装置2は、無線による通信を行うため、アクセスポイントなどを介してネットワーク3と接続される。サーバ4には、バックアップなどの目的のために、PC1と携帯端末装置2との間で共有化されるデータが保存されている。   The network 3 is a communication network such as the Internet or an intranet. The PC 1 and the mobile terminal device 2 are connected to each other, and a server 4 is connected as necessary. The mobile terminal device 2 is connected to the network 3 via an access point or the like for wireless communication. The server 4 stores data shared between the PC 1 and the portable terminal device 2 for purposes such as backup.

ここで、上記のように構成される情報共有化システム100の動作について説明する。まず、作業員側での視点データの作成を経て、設計者側での指示データの作成に至る動作について説明する。   Here, the operation of the information sharing system 100 configured as described above will be described. First, operations from creation of viewpoint data on the worker side to creation of instruction data on the designer side will be described.

図2は、PC1で作成された3Dモデルデータの画像を示す図である。図3は、テクスチャーデータの画像を示す図である。図4は、作業員の視点で見た装置5の状態を仮想的に表した仮想像を示す図である。図5は、作業員に与える指示を仮想像に付加して得た指示画像を示す図である。図6は、上記指示が示された携帯端末装置2で表示される装置5の画像を示す図である。図7は、作業員が撮影する装置5の撮影範囲が付加された図である。図8は、作業員が撮影する装置5の撮影方向が付加された図である。   FIG. 2 is a diagram illustrating an image of 3D model data created by the PC 1. FIG. 3 is a diagram illustrating an image of texture data. FIG. 4 is a diagram showing a virtual image that virtually represents the state of the device 5 viewed from the viewpoint of the worker. FIG. 5 is a diagram illustrating an instruction image obtained by adding an instruction given to a worker to a virtual image. FIG. 6 is a diagram showing an image of the device 5 displayed on the mobile terminal device 2 in which the above instruction is shown. FIG. 7 is a diagram in which a shooting range of the device 5 for shooting by the worker is added. FIG. 8 is a diagram in which the shooting direction of the device 5 for shooting by the worker is added.

なお、基本となる3Dモデルデータおよびテクスチャーデータは、上述のように、PC1および携帯端末装置2にすでに共有されている。   The basic 3D model data and texture data are already shared by the PC 1 and the mobile terminal device 2 as described above.

作業員は、携帯端末装置2を用いて視点データを作成する。視点データの作成において、まず、作業員が、携帯端末装置2を用いて装置5を撮像する(撮像部22を通して装置5を見る)。この状態で、視点データ作成部26は、例えば、AR技術を利用する場合、装置5に貼り付けられたマーカーを撮像部22から出力された撮像データより読み取って解析する。視点データ作成部26は、この解析の結果、マーカーを基準とした装置5に対する携帯端末装置2の位置および方向を算出して、視点データを作成する。   The worker creates viewpoint data using the mobile terminal device 2. In creating the viewpoint data, first, an operator images the device 5 using the mobile terminal device 2 (sees the device 5 through the imaging unit 22). In this state, for example, when the AR technology is used, the viewpoint data creation unit 26 reads and analyzes the marker attached to the device 5 from the imaging data output from the imaging unit 22. As a result of this analysis, the viewpoint data creation unit 26 calculates the position and direction of the mobile terminal device 2 with respect to the device 5 with reference to the marker, and creates viewpoint data.

なお、視点データ作成部26は、AR技術以外の技術を用いて視点データを作成してもよい。例えば、視点データ作成部26は、距離センサを用いて携帯端末装置2からの装置5の距離を測定し、かつ地磁気センサを用いて装置5に対する携帯端末装置2の角度を検出することにより、視点データを作成してもよい。   Note that the viewpoint data creation unit 26 may create viewpoint data using a technique other than the AR technique. For example, the viewpoint data creation unit 26 measures the distance of the device 5 from the mobile terminal device 2 using a distance sensor, and detects the angle of the mobile terminal device 2 with respect to the device 5 using a geomagnetic sensor. Data may be created.

視点データ作成部26は、作成した視点データを記憶部29に記憶させ、必要に応じてPC1に送信するように制御部25に指示する。これにより、視点データが送受信部20によりPC1に送信される。PC1に送信された視点データは、記憶部11に保存される。   The viewpoint data creation unit 26 stores the created viewpoint data in the storage unit 29 and instructs the control unit 25 to transmit it to the PC 1 as necessary. Thus, the viewpoint data is transmitted to the PC 1 by the transmission / reception unit 20. The viewpoint data transmitted to the PC 1 is stored in the storage unit 11.

設計者は、受信した視点データに基づいて指示データ作成部18により指示データを作成する。指示データ作成部18は、まず、視点データに基づいて仮想データを一時的に作成し、作成した仮想データに適するように、すなわち仮想データに重ね合わせることのできる指示データを作成する。   The designer creates instruction data by the instruction data creation unit 18 based on the received viewpoint data. The instruction data creation unit 18 first creates virtual data temporarily based on the viewpoint data, and creates instruction data suitable for the created virtual data, that is, can be superimposed on the virtual data.

指示データ作成部18は、3Dモデルデータおよびテクスチャーデータに基づいて、装置5の仮想的な立体像(仮想像)を、視点データで示される作業者の視点から見た方向と同じ方向から見たように、例えば図4に示すように仮想データを作成する。指示データ作成部18は、このように作成した仮想像の仮想データを記憶部11に一時的に保存しておき、指示データの作成の際に読み出す。   The instruction data creation unit 18 viewed the virtual stereoscopic image (virtual image) of the device 5 from the same direction as viewed from the viewpoint of the operator indicated by the viewpoint data based on the 3D model data and the texture data. For example, virtual data is created as shown in FIG. The instruction data creation unit 18 temporarily stores the virtual data of the virtual image created in this way in the storage unit 11 and reads it when creating the instruction data.

指示データの作成において、指示データ作成部18は、記憶部11から読み出した仮想データに指示データを付加する。具体的には、指示データ作成部18は、仮想データに基づいてモニタ14に表示された仮想像上に付加すなわち重ね合わせることができる指示画像および指示内容をそれぞれ示す指示画像データおよび指示内容データと、指示画像および指示内容を付加する(重ね合わせる)表示位置を特定する表示位置データとを含む指示データを作成する。指示データを作成するための情報は、設計者が入力装置15によって入力することによって得られる。指示内容は、文字による説明であるが(テキストなど)、文字以外の記号で表されるものであってもよい。また、指示内容を画像で表現できる場合は、指示画像が指示内容を兼ねていてもよい。   In creating the instruction data, the instruction data creating unit 18 adds the instruction data to the virtual data read from the storage unit 11. Specifically, the instruction data creation unit 18 includes instruction image data and instruction content data respectively indicating instruction images and instruction contents that can be added, that is, superimposed on a virtual image displayed on the monitor 14 based on the virtual data. The instruction data including the display position data for specifying the display position to which the instruction image and the instruction content are added (overlapped) is created. Information for creating the instruction data is obtained when the designer inputs the information using the input device 15. The instruction content is a description by characters (such as text), but may be expressed by symbols other than characters. When the instruction content can be expressed by an image, the instruction image may also serve as the instruction content.

図5に示す指示データは、バルーンメッセージ状の指示画像を成し、かつ指示内容を含んでいる。そして、指示データは、作業員に見てほしい装置5の部分を指すように付加される。上記の指示画像が指示内容を含んでいることから、指示内容と一体に表現される指示画像としての指示画像データが作成される。   The instruction data shown in FIG. 5 forms an instruction image in the form of a balloon message and includes instruction contents. The instruction data is added so as to indicate the part of the device 5 that the worker wants to see. Since the instruction image includes the instruction content, instruction image data as an instruction image that is expressed integrally with the instruction content is created.

指示データ作成部18は、このようにして作成した指示画像データ(指示内容データを含む)および指示画像をどの位置に表示するかを特定する表示位置データを含む指示データを記憶部11に保存する。なお、指示データは、指示画像データおよび指示画像を表示する座標(位置情報)を表示位置データとして含むものであるので、仮想データおよび携帯端末装置2に表示されている画像に適切に重ね合わすことができる。すなわち、指示データは、上述の仮想データを含まない。   The instruction data creating unit 18 stores the instruction image data (including the instruction content data) created in this way and instruction data including display position data for specifying the position where the instruction image is displayed in the storage unit 11. . The instruction data includes the instruction image data and the coordinates (position information) for displaying the instruction image as display position data, so that the instruction data can be appropriately superimposed on the virtual data and the image displayed on the mobile terminal device 2. . That is, the instruction data does not include the virtual data described above.

指示データは、携帯端末装置2(および必要に応じてサーバ4)に送信されて保存されることにより、PC1(設計者)と携帯端末装置2(作業員)との間で共有化される。   The instruction data is shared between the PC 1 (designer) and the portable terminal device 2 (worker) by being transmitted to and stored in the portable terminal device 2 (and the server 4 as necessary).

携帯端末装置2において、指示画像表示処理部27は、記憶部29(および必要に応じてサーバ4)に保存されている指示データに基づいて、作業員が装置5を撮像している状態で表示パネル23に表示されている装置5の実画像上に、指示データが示す指示画像を重ねるように表示パネル23に表示させる。図6に示す例では、装置5の実画像上の表示位置データで定められる位置に上述のバルーンメッセージで表示される指示画像内に指示内容が含まれている。作業員は、このような指示内容にしたがって、作業を行う。   In the portable terminal device 2, the instruction image display processing unit 27 is displayed in a state where the worker is imaging the device 5 based on the instruction data stored in the storage unit 29 (and the server 4 as necessary). The instruction panel indicated by the instruction data is displayed on the display panel 23 so as to overlap the actual image of the device 5 displayed on the panel 23. In the example shown in FIG. 6, the instruction content is included in the instruction image displayed by the above-described balloon message at the position determined by the display position data on the actual image of the device 5. The worker performs work according to such instruction content.

指示データとしては、図5に示すメッセージを含むもの以外にも、例えば、作業員が装置5を撮影する撮影箇所や撮影方向を指示内容として示すものも作成される。図7に示す例では、装置5の仮想像上に撮影箇所を楕円形の破線で示している。この例では、設計者と作業員との間で、破線にて示す領域が撮影箇所を示すものであるとの合意がとれていることを前提条件とすれば、破線の指示画像が指示内容をも表現していると言える。したがって、指示データとしては、破線の指示画像の指示画像データと、当該指示画像の表示位置を定める表示位置データとが作成される。   As the instruction data, in addition to the data including the message shown in FIG. 5, for example, data indicating an imaging location and an imaging direction in which the worker images the apparatus 5 is indicated. In the example shown in FIG. 7, the shooting location is indicated by an elliptical broken line on the virtual image of the device 5. In this example, if it is a precondition that the designer and the worker agree that the area indicated by the broken line indicates the shooting location, the broken instruction image indicates the instruction content. Can also be said. Therefore, as the instruction data, instruction image data of a broken line instruction image and display position data for determining the display position of the instruction image are created.

また、図8に示す例では、装置5の仮想像上の作業員の位置および撮影方向をそれぞれ顔の絵および矢印で示している。この例では、設計者と作業員との間で、顔の絵が作業員の位置を表し、矢印が撮影方向を表すものであるとの合意がとれていることを前提条件とすれば、顔の絵および矢印の指示画像が指示内容をも表現していると言える。したがって、指示データとしては、顔の絵および矢印の指示画像の指示画像データと、当該指示画像の表示位置を定める表示位置データとが作成される。   In the example shown in FIG. 8, the position of the worker on the virtual image of the apparatus 5 and the shooting direction are indicated by a face picture and an arrow, respectively. In this example, assuming that there is an agreement between the designer and the worker that the face picture represents the worker's position and that the arrow represents the shooting direction, the face It can be said that the picture and the arrow instruction image also express the instruction content. Therefore, as the instruction data, instruction image data of a face picture and an arrow instruction image and display position data for determining the display position of the instruction image are created.

指示データ作成部18は、このような指示データを作成して携帯端末装置2に提供することにより、携帯端末装置2では、図6に示すような実画像上にバルーンメッセージの代わりに、上記の撮影箇所や撮影方向を示す指示画像が表示される。設計者と作業員とは、上記のような共有化された撮影指示を参照しながら、PC1の通話部13と携帯端末装置2の通話部21を介して互いに通話して、指示画像で表される指示内容を確認し合う。   The instruction data creating unit 18 creates such instruction data and provides it to the mobile terminal device 2, so that the mobile terminal device 2 does not display the balloon message on the actual image as shown in FIG. An instruction image indicating the shooting location and shooting direction is displayed. The designer and the worker talk with each other via the call unit 13 of the PC 1 and the call unit 21 of the mobile terminal device 2 while referring to the shared shooting instruction as described above, and are displayed in the instruction image. Check the instructions.

なお、指示データに基づいて作業員に指示を示すためには、設計者と作業員とが視点を合わせることが望ましいが、必ずしも両者の視点が一致していなくてもよい。   In order to give an instruction to the worker based on the instruction data, it is desirable for the designer and the worker to match the viewpoints, but the viewpoints of both do not necessarily match.

また、指示データ作成部18は、仮想データを作成して記憶部11に保存しているが、仮想データの作成および保存をしなくてもよい。例えば、指示データ作成部18は、3Dモデルデータおよびテクスチャーデータに基づいて、視点データで示される作業者の視点から見た方向と同じ方向から見たような装置5の位置を計算し、この位置に基づいて、装置5が配置される立体的な領域(空間)を立方体や当該立方体の頂点を表すデータとして作成してもよい。このデータに基づいて立方体や頂点を表示すれば、簡易な処理により、少なくとも、作業者が装置5を見ている方向を表現することができる。仮想データも、装置5の立体的な配置領域を表すものである。   In addition, the instruction data creation unit 18 creates virtual data and saves it in the storage unit 11, but the virtual data need not be created and saved. For example, based on the 3D model data and the texture data, the instruction data creation unit 18 calculates the position of the device 5 as seen from the same direction as seen from the viewpoint of the worker indicated by the viewpoint data. Based on the above, a three-dimensional area (space) in which the device 5 is arranged may be created as data representing a cube or a vertex of the cube. If the cube and the vertex are displayed based on this data, at least the direction in which the operator is looking at the device 5 can be expressed by a simple process. The virtual data also represents the three-dimensional arrangement area of the device 5.

続いて、情報共有化システム100の3Dモデルデータの更新時の動作について説明する。   Next, the operation at the time of updating the 3D model data of the information sharing system 100 will be described.

図9の(a)〜(c)は装置の撮影箇所および撮影方向を上記仮想像に付加して得た図である。なお、携帯端末装置2上では仮想画像に代えて実画像が用いられる。   FIGS. 9A to 9C are diagrams obtained by adding the shooting location and shooting direction of the apparatus to the virtual image. On the mobile terminal device 2, a real image is used instead of a virtual image.

装置5の実際の形状が変わるような状態(変形、破損など)の場合、実際の装置5と3Dモデルデータで示される3Dモデルが異なるので、3Dモデルデータを更新(修正)する必要がある。3Dモデルデータを更新するためには多視点から撮影した装置5の画像が必要である。図5、図7および図8に示すような指示方法で多地点からの画像撮影をすることもできるが、アニメーションを使用した動きと方向とを伴った動画像の撮影指示を指示画像として作成することができる。   In a state where the actual shape of the device 5 changes (deformation, breakage, etc.), the 3D model indicated by the 3D model data is different from the actual device 5 and thus it is necessary to update (correct) the 3D model data. In order to update the 3D model data, an image of the device 5 taken from multiple viewpoints is necessary. Although it is possible to shoot images from multiple points by the instruction method as shown in FIGS. 5, 7, and 8, a moving image shooting instruction with movement and direction using animation is created as an instruction image. be able to.

このため、指示データ作成部18は、設計者が入力した情報に基づいて、多視点から装置5を撮影する指示内容を含む指示データを作成する。例えば、図9に示す例では、装置5の正面から装置5の中央上部を撮影し(図9の(a))、装置5の右側側方から装置5の上部を撮影し(図9の(b))、装置5の右側後方から装置5の上部を撮影する(図9の(c))という指示を連続した動き(指示画像)で示している。この例では、動画像を撮影する指示を示しているが、図9の(a)〜(c)を1つの指示画像(静止画像)にまとめてもよい。これにより、図9の(a)〜(c)に示される3方向から装置5を撮影する指示を作業員に与えることができる。   For this reason, the instruction data creation unit 18 creates instruction data including instruction contents for photographing the device 5 from multiple viewpoints based on information input by the designer. For example, in the example illustrated in FIG. 9, the upper center of the device 5 is photographed from the front of the device 5 (FIG. 9A), and the upper portion of the device 5 is photographed from the right side of the device 5 ( b)), an instruction to photograph the upper part of the apparatus 5 from the right rear side of the apparatus 5 ((c) in FIG. 9) is indicated by a continuous movement (instruction image). In this example, an instruction to shoot a moving image is shown, but (a) to (c) in FIG. 9 may be combined into one instruction image (still image). Thereby, it is possible to give an instruction to the operator to shoot the device 5 from the three directions shown in FIGS.

なお、上記の指示画像以外に、装置5を撮影する指示と、撮影する画像の種類(静止画像または動画像)とを説明するメッセージを追加してもよい。この撮影指示およびメッセージは、図6に示すようなバルーンメッセージ(指示画像)として追加されてもよいし、テキストで示す指示内容として追加されてもよい。これにより、設計者から作業員への音声による指示を省くことができる。   In addition to the above instruction image, a message explaining an instruction to shoot the device 5 and the type of image to be shot (still image or moving image) may be added. This photographing instruction and message may be added as a balloon message (instruction image) as shown in FIG. 6, or may be added as instruction contents shown in text. Thereby, the voice instruction from the designer to the worker can be omitted.

このような指示画像が指示画像表示処理部27によって表示パネル23に表示されると、作業員は、その指示にしたがって、装置5の撮影を行う。この結果得られた撮影データは、記憶部29に一旦保存される。   When such an instruction image is displayed on the display panel 23 by the instruction image display processing unit 27, the worker takes an image of the apparatus 5 in accordance with the instruction. Shooting data obtained as a result is temporarily stored in the storage unit 29.

差分データ作成部28は、動画像または多視点の静止画像に基づいて、公知のモデリング手法を用いて比較のための3Dモデルデータ(比較外観データ)やテクスチャーデータ(比較外観データ)を作成する。まず、3Dモデルデータ(比較外観データ)の場合について説明する。また、差分データ作成部28は、当該3Dモデルデータと、共有化されている3Dモデルデータとを比較することにより、両者の差分(変化部分)を抽出し、抽出された部分に基づいて差分データを作成する。また、差分データ作成部28(第1更新手段)は、作成した差分データに基づいて変化部分を反映するように、記憶部29に記憶された3Dモデルデータを更新する。そして、差分データ作成部28は、作成した差分データを記憶部29に記憶させ、記憶された差分データを必要に応じてPC1に送信するように制御部25に指示する。これにより、差分データが送受信部20によりPC1に送信される。PC1に送信された差分データは、記憶部11に保存されてもよいが、必ずしも保存される必要はない。   The difference data creation unit 28 creates 3D model data (comparative appearance data) and texture data (comparative appearance data) for comparison using a known modeling technique based on a moving image or a multi-viewpoint still image. First, the case of 3D model data (comparative appearance data) will be described. Further, the difference data creation unit 28 compares the 3D model data with the shared 3D model data to extract the difference (changed part) between the two, and based on the extracted part, the difference data Create Further, the difference data creation unit 28 (first update unit) updates the 3D model data stored in the storage unit 29 so as to reflect the changed portion based on the created difference data. Then, the difference data creation unit 28 stores the created difference data in the storage unit 29 and instructs the control unit 25 to transmit the stored difference data to the PC 1 as necessary. Thereby, the difference data is transmitted to the PC 1 by the transmission / reception unit 20. The difference data transmitted to the PC 1 may be stored in the storage unit 11, but is not necessarily stored.

更新処理部19は、上記の差分データで示される変化部分を反映するように3Dモデルデータを更新して、PC1の記憶部11に記憶させる。このようにして、更新された3Dモデルデータが設計者と作業員との間で共有化される。   The update processing unit 19 updates the 3D model data so as to reflect the changed portion indicated by the difference data, and stores the updated 3D model data in the storage unit 11 of the PC 1. In this way, the updated 3D model data is shared between the designer and the worker.

引き続いて、情報共有化システム100のテクスチャーデータの更新時の動作について説明する。   Subsequently, an operation at the time of updating the texture data of the information sharing system 100 will be described.

図10の(a)は設計者と作業員とで共有されるテクスチャーデータを示す図であり、図10の(b)は上記携帯端末装置で撮影された画像に基づいて作成されたテクスチャーを示す図である。また、図10の(c)および(d)は、図10の(a)および(b)のテクスチャー間の差分をそれぞれ示す図であり、図10の(e)は当該差分に基づいて更新されたテクスチャーを示す図である。   FIG. 10A is a diagram showing texture data shared by the designer and the worker, and FIG. 10B shows a texture created based on an image taken by the portable terminal device. FIG. FIGS. 10C and 10D are diagrams showing the difference between the textures of FIGS. 10A and 10B, respectively. FIG. 10E is updated based on the difference. FIG.

次いで、テクスチャーデータの場合について説明する。差分データ作成部28は、記憶部11における撮影データ(静止画像)に基づいて、比較用のテクスチャーデータを作成する。また、差分データ作成部28は、当該テクスチャーデータと、共有化されているテクスチャーデータとを比較することにより、両者の差分(変化部分)を抽出し、抽出された部分に基づいて差分データを作成する。また、差分データ作成部28は、作成した差分データに基づいて変化部分を反映するように、記憶部29に記憶されたテクスチャーデータを更新する。そして、差分データ作成部28は、3Dモデルデータの差分データと同様、作成した差分データを記憶部29に記憶させ、記憶された差分データを必要に応じてPC1に送信するように制御部25に指示する。これにより、差分データは、PC1に送信されて、記憶部11に保存されもよいが、必ずしも保存される必要はない。   Next, the case of texture data will be described. The difference data creation unit 28 creates texture data for comparison based on the shooting data (still image) in the storage unit 11. Further, the difference data creation unit 28 compares the texture data with the shared texture data to extract a difference (change part) between the two, and creates difference data based on the extracted part. To do. Moreover, the difference data creation unit 28 updates the texture data stored in the storage unit 29 so as to reflect the changed portion based on the created difference data. Then, similarly to the difference data of the 3D model data, the difference data creation unit 28 stores the created difference data in the storage unit 29 and transmits the stored difference data to the PC 1 as necessary. Instruct. Thereby, the difference data may be transmitted to the PC 1 and stored in the storage unit 11, but it is not necessarily stored.

更新処理部19は、上記の差分データで示される変化部分を反映するようにテクスチャーデータを更新して、PC1の記憶部11に記憶させる。このようにして、更新されたテクスチャーデータが設計者と作業員との間で共有化される。   The update processing unit 19 updates the texture data so as to reflect the changed portion indicated by the difference data, and stores it in the storage unit 11 of the PC 1. In this way, the updated texture data is shared between the designer and the worker.

例えば、図10の(a)に示す共有化されているテクスチャー(テクスチャーデータ)と、図10の(b)に示す比較用のテクスチャー(テクスチャーデータ)とが比較された結果、図10の(c)および(d)に示すような変化部分の差分データが作成されて、携帯端末装置2からPC1に提供される。PC1の更新処理部19は、図10の(e)に示すテクスチャーのように、差分データを反映させた新たなテクスチャーデータを作成する。   For example, as a result of comparison between the shared texture (texture data) shown in FIG. 10A and the comparative texture (texture data) shown in FIG. 10B, (c) in FIG. ) And difference data of the changed portion as shown in (d) are created and provided from the mobile terminal device 2 to the PC 1. The update processing unit 19 of the PC 1 creates new texture data reflecting the difference data like the texture shown in FIG.

なお、3Dモデルデータおよびテクスチャーデータを更新するためのデータは、必ずしも差分データでなくてもよい。例えば、差分データ作成部28による制御部25への指示に基づいて、上述の比較用のテクスチャーデータがPC1に送信されると、更新処理部19が、記憶部11に記憶されたテクスチャーデータを比較用のテクスチャーデータとの差分に基づいて更新する。   Note that the data for updating the 3D model data and texture data is not necessarily difference data. For example, when the above-described comparison texture data is transmitted to the PC 1 based on an instruction from the difference data creation unit 28 to the control unit 25, the update processing unit 19 compares the texture data stored in the storage unit 11. Update based on the difference from the texture data for use.

最後に、更新された3DモデルデータおよびテクスチャーデータのPC1による送信処理について説明する。   Finally, transmission processing by the PC 1 of the updated 3D model data and texture data will be described.

図11は、一部が更新された、すなわち後に説明する累進的な更新における途中の状態の上記3Dモデルを示す図である。図12は、全部が更新された、すなわち累進的な更新における最後の状態の3Dモデルを示す図である。図13は、一部が更新された、すなわち累進的な更新における途中のテクスチャーを示す図である。図14は、全部が更新された、すなわち累進的な更新における最後の状態のテクスチャーを示す図である。   FIG. 11 is a diagram showing the 3D model in a partially updated state, that is, a state in the middle of a progressive update described later. FIG. 12 is a diagram showing the 3D model in the last state in which all of the data has been updated, that is, in a progressive update. FIG. 13 is a diagram illustrating a texture partially updated, that is, a texture in the middle of a progressive update. FIG. 14 is a diagram showing the texture in the final state in which all the data has been updated, that is, in the progressive update.

装置5の3Dモデルデータおよびテクスチャーデータの更新結果が、設計者と作業員との間で共有されないと、3Dモデルデータおよびテクスチャーデータに基づいた両者の連携作業を始めることができない。また、作業員から設計者に3Dモデルデータおよびテクスチャーデータの更新を依頼しても、携帯端末装置2からPC1への更新のためのデータ(差分データを含む)の送信が完了するまで、PC1において更新作業を始めることができない。   If the update result of the 3D model data and the texture data of the device 5 is not shared between the designer and the worker, it is not possible to start the cooperative work between the two based on the 3D model data and the texture data. Further, even if the worker requests the designer to update the 3D model data and the texture data, until the transmission of data (including difference data) for updating from the mobile terminal device 2 to the PC 1 is completed, the PC 1 The update process cannot be started.

これに対し、例えば、送受信部20は、3Dモデルデータについて、外形の頂点のデータ、外形線のデータ、内部線のデータを作成し、これらの順に携帯端末装置2に送信する。密度が異なるように分割された複数の分割データが携帯端末装置2からPC1に疎な分割データから密な分割データへと順に送信されることにより、PC1において、疎な状態から密な状態へ変化するように3Dモデルデータが累進的に更新される。   On the other hand, for example, the transmitter / receiver 20 creates outline vertex data, outline data, and internal line data for the 3D model data, and transmits them to the mobile terminal device 2 in this order. A plurality of pieces of divided data divided so as to have different densities are transmitted from the portable terminal device 2 to the PC 1 in order from sparse divided data to dense divided data, so that the PC 1 changes from a sparse state to a dense state. Thus, the 3D model data is updated progressively.

具体的には、まず、頂点のデータおよび外形線のデータにより、図11に示すように、3Dモデルの外形が更新され、内部線のデータにより、図12に示すように、内部も含めて3Dモデルの全てが更新される。   Specifically, first, as shown in FIG. 11, the outline of the 3D model is updated by the vertex data and the outline data, and the 3D including the inside is updated by the internal line data as shown in FIG. All of the models are updated.

また、送受信部20は、テクスチャーデータについて、異なる周波数帯域成分の複数の分割データを作成し、分割データの周波数帯域が低周波数帯域から段階的に高くなる順に分割データを携帯端末装置2に送信する。これにより、密度の異なる分割データがPC1に順次(累進的に)送信されると、PC1において、テクスチャーデータが疎から密へ変化するように更新される。具体的には、まず、低周波数成分のデータにより、図13に示すように、テクスチャーの疎な全体像が更新され、より高い周波数帯域の成分のデータにより、図14に示すように、テクスチャーの密な全体像が更新される。送受信部20は、3Dモデルデータおよびテクスチャーデータについて、差分データだけ送信する場合、差分の部分の低周波数成分だけ出力する。   In addition, the transmission / reception unit 20 creates a plurality of divided data of different frequency band components for the texture data, and transmits the divided data to the mobile terminal device 2 in order of increasing the frequency band of the divided data from the low frequency band. . As a result, when the divided data having different densities are transmitted sequentially (progressively) to the PC 1, the texture data is updated in the PC 1 so as to change from sparse to dense. Specifically, first, the sparse overall image of the texture is updated by the low frequency component data as shown in FIG. 13, and the texture of the texture is updated by the higher frequency band component data as shown in FIG. A dense picture is updated. When only the difference data is transmitted for the 3D model data and the texture data, the transmission / reception unit 20 outputs only the low frequency component of the difference portion.

このように、更新データや差分データが累進的に送信されるので、各データを受信した設計者や作業員は、データの送信が完了することにより相互のデータの共有化が完了する前に、次の作業を始めることができる。   In this way, update data and differential data are transmitted progressively, so that designers and workers who have received each data can complete the data transmission before the mutual data sharing is completed. You can start the next task.

以上のように、本実施形態に係る情報共有化システム100において、PC1が、指示データ作成部18および更新処理部19を備え、携帯端末装置2が、送受信部20、視点データ作成部26、指示画像表示処理部27および差分データ作成部28を備えている。   As described above, in the information sharing system 100 according to the present embodiment, the PC 1 includes the instruction data creation unit 18 and the update processing unit 19, and the mobile terminal device 2 includes the transmission / reception unit 20, the viewpoint data creation unit 26, and the instruction. An image display processing unit 27 and a difference data creation unit 28 are provided.

これにより、設計者は、作業員から受け取った視点データに基づいて、作業員の目線で指示データを作成することができる。したがって、設計者は、指示データを共有の情報として、より明確(直感的)に指示を作業員に伝えたり、作業員と打ち合わせを円滑に行ったりすることが可能となる。   Thereby, the designer can create instruction data from the viewpoint of the worker based on the viewpoint data received from the worker. Therefore, the designer can transmit the instructions to the worker more clearly (intuitively) by using the instruction data as shared information, and can smoothly meet with the worker.

また、共有化データ(3Dモデルデータおよびテクスチャーデータ)の更新のために、作業員から設計者に差分データを送信することにより、作業員が撮影した撮影データをそのまま送信するよりもデータサイズを小さくすることができる。設計者は、その差分データに基づいて、共有化データを更新することができる。   In addition, by transmitting difference data from the worker to the designer for updating the shared data (3D model data and texture data), the data size is smaller than when the photographed data photographed by the worker is transmitted as it is. can do. The designer can update the shared data based on the difference data.

また、3Dモデルデータを共有化データとして用いることにより、装置5の外形(変形、破損など)の見かけ上の変化を更新することができる。この更新された3Dモデルデータに基づいて、装置5の全体の確認を行うことができる。これに加えて、テクスチャーデータを共有化データとして用いることにより、装置5の表面上の変化(汚れなど)を更新することができる。この更新されたテクスチャーデータに基づいて、装置5の詳細部分の確認を行うことができる。   Further, by using the 3D model data as shared data, it is possible to update an apparent change in the external shape (deformation, damage, etc.) of the device 5. Based on the updated 3D model data, the entire apparatus 5 can be confirmed. In addition, changes on the surface of the device 5 (such as dirt) can be updated by using the texture data as shared data. Based on the updated texture data, the details of the device 5 can be confirmed.

そして、携帯端末装置2からの共有化データを更新するためのデータ(差分データを含む)の送信を疎から密へと累進的に行うことにより、完全に送信が終了する(更新が完了する)までに、受信されたデータからデータの内容を推測することができる。これにより、設計者および作業員の作業効率を向上させることができる。また、サイズの大きいデータを一度に送信することが回避されるので、ネットワーク3が低品質であっても、その回線を圧迫することなく、データを送信することができる。   Then, transmission of data (including difference data) for updating the shared data from the mobile terminal device 2 is progressively performed from sparse to dense, thereby completing transmission completely (update is completed). By the time, the contents of the data can be estimated from the received data. Thereby, the work efficiency of a designer and a worker can be improved. Also, since it is possible to avoid transmitting large data at a time, even if the network 3 is of low quality, it is possible to transmit data without squeezing the line.

なお、上記実施形態においては、外観データ(3Dモデルデータおよびテクスチャーデータ)は、PC1および携帯端末装置2のいずれにも記憶されているが、外観データをPC1にのみに記憶させ、携帯端末装置2では常に実画像を用いることもできる。   In the above embodiment, the appearance data (3D model data and texture data) is stored in both the PC 1 and the portable terminal device 2, but the appearance data is stored only in the PC 1, and the portable terminal device 2 is stored. So you can always use real images.

〔ソフトウェアによる実現例〕
PC1のデータ作成部10および携帯端末装置2の送受信部20、視点データ作成部26、指示画像表示処理部27および差分データ作成部28は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPUを用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The data creation unit 10 of the PC 1 and the transmission / reception unit 20 of the mobile terminal device 2, the viewpoint data creation unit 26, the instruction image display processing unit 27, and the difference data creation unit 28 are logic circuits (IC chips) or the like formed in an integrated circuit (IC chip) or the like. Hardware), or software using a CPU.

後者の場合、PC1および携帯端末装置2は、各機能を実現するプログラムの命令を実行するCPU、当該プログラムおよび各種データがCPUで読み取り可能に記録されたROMまたは記憶装置(記録媒体)、上記プログラムを展開するRAMなどを備えている。そして、CPUが上記プログラムを上記記録媒体から読み取って実行する。上記記録媒体としては、「一時的でない有形の媒体」を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークなど)を介してPC1および携帯端末装置2に供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the PC 1 and the portable terminal device 2 include a CPU that executes instructions of a program that realizes each function, a ROM or a storage device (recording medium) in which the program and various data are recorded so as to be readable by the CPU, and the program RAM and the like are provided. Then, the CPU reads the program from the recording medium and executes it. As the recording medium, a “non-temporary tangible medium” can be used. Further, the program may be supplied to the PC 1 and the mobile terminal device 2 via any transmission medium (such as a communication network) capable of transmitting the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

特に、視点データ作成部26、指示画像表示処理部27および差分データ作成部28を実現するプログラムは、タブレット端末のような携帯端末装置2に実装される。したがって、これらのプログラムを、アプリケーションプログラムを提供する一般的なサイトなどから入手できるようにしてもよい。   In particular, a program that realizes the viewpoint data creation unit 26, the instruction image display processing unit 27, and the difference data creation unit 28 is installed in the mobile terminal device 2 such as a tablet terminal. Therefore, these programs may be made available from general sites that provide application programs.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、装置の設計者と装置の保守を担当する作業員との間の連携を効率的に行う用途に好適に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be suitably used for applications in which cooperation between an apparatus designer and an operator in charge of apparatus maintenance is efficiently performed.

1 PC(データ作成装置)
2 携帯端末装置(機器)
4 サーバ(機器)
5 装置(監視対象)
11 記憶部(第2記憶部)
18 指示データ作成部(指示データ作成手段)
19 更新処理部(第2更新手段)
20 送受信部(送信処理手段)
22 撮像部
26 視点データ作成部(視点データ作成手段)
27 指示画像表示処理部(指示画像表示処理手段)
28 差分データ作成部(差分データ作成手段,第1更新手段)
29 記憶部(第1記憶部)
100 情報共有化システム
1 PC (data creation device)
2 Mobile terminal devices (equipment)
4 Server (equipment)
5 Equipment (monitoring target)
11 Storage unit (second storage unit)
18 Instruction data creation unit (instruction data creation means)
19 Update processing unit (second update means)
20 Transmitter / receiver (transmission processing means)
22 Imaging unit 26 Viewpoint data creation unit (viewpoint data creation means)
27 Instruction image display processing unit (instruction image display processing means)
28 Difference data creation unit (difference data creation means, first update means)
29 storage unit (first storage unit)
100 Information sharing system

Claims (3)

監視対象を撮像する撮像部と、
前記撮像部によって撮像された前記監視対象の実画像に基づいて前記監視対象に対する携帯端末装置の位置および方向を示す視点データを作成する視点データ作成手段とを有する携帯端末装置と、
前記携帯端末装置を使用する作業員に与える指示を示す指示画像の指示画像データおよび前記指示画像を前記実画像に重ねて表示するために前記視点データおよび前記監視対象の外観を表す外観データに基づいて特定された表示位置データを含む指示データを作成する指示データ作成手段を有するデータ作成装置とを備え、
前記携帯端末装置は、前記撮像部によって撮像された前記実画像上の前記表示位置データで特定された表示位置に、前記指示画像データにより示された前記指示画像を重ねて表示する処理を行う指示画像表示処理手段をさらに有していることを特徴とする情報共有化システム。
An imaging unit for imaging a monitoring target;
A portable terminal device having viewpoint data creating means for creating viewpoint data indicating the position and direction of the portable terminal device with respect to the monitoring target based on the actual image of the monitoring target imaged by the imaging unit;
Based on instruction image data of an instruction image indicating an instruction to be given to a worker who uses the mobile terminal device, and appearance data representing the appearance of the monitoring target in order to display the instruction image on the actual image. A data creation device having instruction data creation means for creating instruction data including the display position data specified by
The portable terminal device performs an instruction to perform a process of superimposing and displaying the instruction image indicated by the instruction image data at a display position specified by the display position data on the actual image captured by the imaging unit. An information sharing system further comprising image display processing means.
前記携帯端末装置は、
前記外観データを記憶する第1記憶部と、
前記実画像の画像データに基づいて比較のための比較外観データを作成し、当該比較外観データと前記外観データとの差分である差分データを作成する差分データ作成手段と、
前記第1記憶部に記憶された前記外観データを前記差分データに基づいて更新する第1更新手段とをさらに有し、
前記データ作成装置は、
前記外観データを記憶する第2記憶部と、
前記第2記憶部に記憶された前記外観データを前記差分データに基づいて更新する第2更新手段とをさらに有していることを特徴とする請求項1に記載の情報共有化システム。
The portable terminal device
A first storage unit for storing the appearance data;
Creating comparison appearance data for comparison based on the image data of the actual image, and creating difference data that is a difference between the comparison appearance data and the appearance data;
First update means for updating the appearance data stored in the first storage unit based on the difference data;
The data creation device includes:
A second storage unit for storing the appearance data;
2. The information sharing system according to claim 1, further comprising: a second update unit configured to update the appearance data stored in the second storage unit based on the difference data.
前記携帯端末装置は、
更新された前記外観データを密度が異なる複数の分割データに分割し、当該分割データを、疎な前記分割データから密な前記分割データへと順に、前記外観データを記憶する機器に送信する送信処理手段をさらに有していることを特徴とする請求項2に記載の情報共有化システム。
The portable terminal device
A transmission process for dividing the updated appearance data into a plurality of pieces of divided data having different densities, and sequentially sending the divided data from the sparse divided data to the dense divided data to a device that stores the appearance data. The information sharing system according to claim 2, further comprising means.
JP2014132354A 2014-06-27 2014-06-27 Information sharing system Pending JP2016012168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014132354A JP2016012168A (en) 2014-06-27 2014-06-27 Information sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014132354A JP2016012168A (en) 2014-06-27 2014-06-27 Information sharing system

Publications (1)

Publication Number Publication Date
JP2016012168A true JP2016012168A (en) 2016-01-21

Family

ID=55228869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014132354A Pending JP2016012168A (en) 2014-06-27 2014-06-27 Information sharing system

Country Status (1)

Country Link
JP (1) JP2016012168A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123971A1 (en) * 2017-12-18 2019-06-27 株式会社日立システムズ Ar information providing system and information processing device
JP2021047610A (en) * 2019-09-18 2021-03-25 五洋建設株式会社 State grasping assist system
JP2021047649A (en) * 2019-09-18 2021-03-25 ソフトバンク株式会社 Determination device, program, system, and determination method
JP2021177317A (en) * 2020-05-08 2021-11-11 シンメトリー・ディメンションズ・インク Three-dimensional model construction system and three-dimensional model construction method
JP7366618B2 (en) 2019-07-23 2023-10-23 東芝エネルギーシステムズ株式会社 Field collaboration system and management device
WO2023214510A1 (en) * 2022-05-02 2023-11-09 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing system, and information processing method
JP7467206B2 (en) 2020-04-03 2024-04-15 株式会社東芝 Video management support system and video management support method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123971A1 (en) * 2017-12-18 2019-06-27 株式会社日立システムズ Ar information providing system and information processing device
JP2019109319A (en) * 2017-12-18 2019-07-04 株式会社日立システムズ AR information providing system and information processing apparatus
JP7366618B2 (en) 2019-07-23 2023-10-23 東芝エネルギーシステムズ株式会社 Field collaboration system and management device
JP2021047610A (en) * 2019-09-18 2021-03-25 五洋建設株式会社 State grasping assist system
JP2021047649A (en) * 2019-09-18 2021-03-25 ソフトバンク株式会社 Determination device, program, system, and determination method
JP7315422B2 (en) 2019-09-18 2023-07-26 五洋建設株式会社 Situational understanding support system
JP7467206B2 (en) 2020-04-03 2024-04-15 株式会社東芝 Video management support system and video management support method
JP2021177317A (en) * 2020-05-08 2021-11-11 シンメトリー・ディメンションズ・インク Three-dimensional model construction system and three-dimensional model construction method
WO2023214510A1 (en) * 2022-05-02 2023-11-09 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing system, and information processing method

Similar Documents

Publication Publication Date Title
JP2016012168A (en) Information sharing system
US20210337138A1 (en) Method and apparatus for controlling a plurality of virtual characters, device, and storage medium
US9332243B2 (en) Handheld portable optical scanner and method of using
JP7090410B2 (en) Methods, devices and systems for automatic zooming when playing augmented reality scenes
US10497140B2 (en) Hybrid depth sensing pipeline
US10999412B2 (en) Sharing mediated reality content
WO2020215858A1 (en) Object construction method and apparatus based on virtual environment, computer device, and readable storage medium
CN110599593B (en) Data synthesis method, device, equipment and storage medium
WO2020220956A1 (en) Screen display method and terminal
CN111311757B (en) Scene synthesis method and device, storage medium and mobile terminal
WO2014037972A1 (en) Display device, display method, and program
US20210181506A1 (en) Image Display Method, Apparatus, and System
KR20210147033A (en) A method and apparatus for displaying a hotspot map, and a computer device and a readable storage medium
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2018033107A (en) Video distribution device and distribution method
JP5215211B2 (en) Related information display position specifying system and related information display position specifying program
JP6359333B2 (en) Telecommunications system
JP5896445B2 (en) Display device, display method, and program
TWM630947U (en) Stereoscopic image playback apparatus
CN115131507A (en) Image processing method, image processing apparatus, and three-dimensional reconstruction method of metauniverse
JP2006197036A (en) Device and method for stereoscopic image display
CN114093020A (en) Motion capture method, motion capture device, electronic device and storage medium
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium
TWI817335B (en) Stereoscopic image playback apparatus and method of generating stereoscopic images thereof
WO2021095537A1 (en) Information processing device, information processing method, and program