JP2023060799A - Content display device, content display program, content display method, and content display system - Google Patents

Content display device, content display program, content display method, and content display system Download PDF

Info

Publication number
JP2023060799A
JP2023060799A JP2022042877A JP2022042877A JP2023060799A JP 2023060799 A JP2023060799 A JP 2023060799A JP 2022042877 A JP2022042877 A JP 2022042877A JP 2022042877 A JP2022042877 A JP 2022042877A JP 2023060799 A JP2023060799 A JP 2023060799A
Authority
JP
Japan
Prior art keywords
content
content display
display device
virtual
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022042877A
Other languages
Japanese (ja)
Other versions
JP7330323B2 (en
Inventor
麻周 中村
Mashu Nakamura
潤 ▲高▼橋
Jun Takahashi
翔太 斎藤
Shota Saito
秉哲 ▲裴▼
Byung-Chull Bae
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to CN202280031873.1A priority Critical patent/CN117222970A/en
Priority to PCT/JP2022/020692 priority patent/WO2023067836A1/en
Publication of JP2023060799A publication Critical patent/JP2023060799A/en
Priority to JP2023079460A priority patent/JP2023104964A/en
Application granted granted Critical
Publication of JP7330323B2 publication Critical patent/JP7330323B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technique that can achieve determination work for an object using MR technology with a less expensive device.SOLUTION: According to an embodiment, a content display device includes: a parameter calculation unit 101 that calculates, as initial parameters, the initial position and initial orientation of the device using the position of a real object as the origin, based on a captured image of the real object; a parameter update unit 102 that calculates the displacement of the position and orientation of the device, and updates the position and orientation of the device using the initial position and initial orientation as a start point; a display processing unit 104 that superimposes and displays content disposed in a virtual space using the position of the real object as the origin on the real object; and a determination processing unit 105 that changes a determination state for a virtual object when the virtual object included in the displayed content is selected.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、コンテンツを表示する技術に関する。 TECHNICAL FIELD Embodiments of the present invention relate to techniques for displaying content.

従来、現実世界と仮想世界を重ね合わせるMR(Mixed Reality)技術や、現実世界に対して仮想情報を付加するAR(Augmented Reality)技術が知られている。また、MR技術やAR技術を作業現場に導入する試みがなされているが、ヘッドマウントディスプレイのような汎用的ではない装置が必要となるため、導入には多額の設備投資費が掛かることとなる。 Conventionally, MR (Mixed Reality) technology that superimposes the real world and virtual world and AR (Augmented Reality) technology that adds virtual information to the real world are known. Attempts have also been made to introduce MR and AR technologies into work sites, but they require equipment that is not general-purpose, such as head-mounted displays. .

また、関連する技術として、作業者が装着している第1撮像部の映像と、第1撮像部の位置姿勢に基づく仮想物体画像とに基づく複合現実空間画像を取得する複合現実空間画像取得工程と、作業者によって行われた仮想物体に対するイベント情報を取得するイベント情報取得工程と、指示者の視点位置姿勢情報を取得する第2ユーザ指定位置姿勢情報取得工程と、指示者の視点位置姿勢情報に基づき、イベント情報に応じた仮想物体画像を生成する生成工程とを有し、第1画像を指示者に提示する第1モードと、仮想物体画像を指示者に提示する第2モードとを有する情報処理方法、が知られている(特許文献1)。 In addition, as a related technology, a mixed reality space image acquisition process for acquiring a mixed reality space image based on an image of a first imaging unit worn by a worker and a virtual object image based on the position and orientation of the first imaging unit an event information acquisition step of acquiring event information on the virtual object performed by the worker; a second user-specified position/posture information acquisition step of acquiring viewpoint position/posture information of the instructor; and a generating step of generating a virtual object image according to the event information based on the first mode of presenting the first image to the instructor and a second mode of presenting the virtual object image to the instructor. An information processing method is known (Patent Document 1).

特開2006-293605号公報JP 2006-293605 A

より安価な装置によりMR技術を用いた対象物に対する判定作業を行うことがひとつの課題である。 One of the challenges is to use less expensive equipment to perform determination work on objects using MR technology.

本発明の実施形態は、上述した問題点を解決するためになされたものであり、より安価な装置によりMR技術を用いた対象物に対する判定作業を実現することができる技術を提供することを目的とする。 The embodiments of the present invention have been made to solve the above-described problems, and it is an object of the present invention to provide a technology capable of realizing determination work on an object using MR technology with a less expensive device. and

上述した課題を解決するため、本発明の実施形態は、少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示装置であって、実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした前記コンテンツ表示装置の初期位置及び初期姿勢を初期パラメータとして算出するパラメータ算出部と、前記コンテンツ表示装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記コンテンツ表示装置の位置及び姿勢を更新するパラメータ更新部と前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示する表示処理部と、表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更する判定処理部とを備える。 In order to solve the above-described problems, an embodiment of the present invention provides a content display device for displaying content including at least one or more virtual objects, wherein the position of the real object is determined based on a captured image of the real object. a parameter calculation unit that calculates, as initial parameters, an initial position and an initial orientation of the content display device taken as an origin; A parameter updating unit that updates the position and orientation of a content display device, a display processing unit that superimposes and displays the content placed in a virtual space with the position of the real object as the origin, and the content to be displayed. and a determination processing unit that changes a determination state for the virtual object when a selection operation is performed on the virtual object included in the virtual object.

第1の実施形態に係るコンテンツ表示システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a content display system according to a first embodiment; FIG. 第1の実施形態に係るコンテンツ表示装置のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the content display device according to the first embodiment; FIG. 第1の実施形態に係るコンテンツ管理装置のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the content management device according to the first embodiment; FIG. 第1の実施形態に係るコンテンツ表示装置の機能構成を示すブロック図である。1 is a block diagram showing the functional configuration of a content display device according to a first embodiment; FIG. 第1の実施形態に係るコンテンツ管理装置の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the content management device according to the first embodiment; FIG. 第1の実施形態に係るコンテンツ生成処理を示すフローチャートである。4 is a flowchart showing content generation processing according to the first embodiment; 第1の実施形態に係るコンテンツ管理情報を示す図である。4 is a diagram showing content management information according to the first embodiment; FIG. 第1の実施形態に係るオブジェクト情報を示す図である。It is a figure which shows the object information which concerns on 1st Embodiment. 第1の実施形態に係るコンテンツ表示装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the content display device according to the first embodiment; 第1の実施形態に係る実オブジェクトを示す概略図である。FIG. 2 is a schematic diagram showing a real object according to the first embodiment; FIG. 第1の実施形態に係る初期位置及び初期姿勢の算出を説明するための概略図である。FIG. 4 is a schematic diagram for explaining calculation of an initial position and an initial orientation according to the first embodiment; 第1の実施形態に係るコンテンツ表示処理を示すフローチャートである。4 is a flowchart showing content display processing according to the first embodiment; 第1の実施形態に係る実オブジェクトに重畳されたコンテンツを示す概略図である。FIG. 2 is a schematic diagram showing content superimposed on a real object according to the first embodiment; FIG. 第1の実施形態に係る判定対象である仮想オブジェクトを示す概略図である。FIG. 3 is a schematic diagram showing a virtual object that is a determination target according to the first embodiment; 第1の実施形態に係る判定処理を示すフローチャートである。4 is a flowchart showing determination processing according to the first embodiment; 第1の実施形態に係る判定された仮想オブジェクトを示す概略図である。FIG. 4 is a schematic diagram showing a determined virtual object according to the first embodiment; FIG. 第1の実施形態に係る出力処理を示すフローチャートである。4 is a flowchart showing output processing according to the first embodiment; 第1の実施形態に係る判定結果表示画面を示す概略図である。It is a schematic diagram showing a determination result display screen according to the first embodiment. 第1の実施形態に係る判定結果情報を示す図である。It is a figure which shows the determination result information which concerns on 1st Embodiment. 第1の実施形態に係る実オブジェクトを示す概略図である。FIG. 2 is a schematic diagram showing a real object according to the first embodiment; FIG. 第1の実施形態に係る実オブジェクトに重畳されたコンテンツを表示するコンテンツ表示装置を示す図である。FIG. 2 is a diagram showing a content display device that displays content superimposed on a real object according to the first embodiment; FIG. 第1の実施形態に係るピンオブジェクトを表示するコンテンツ表示装置を示す図である。It is a figure which shows the content display apparatus which displays the pin object which concerns on 1st Embodiment. 第2の実施形態に係るコンテンツ生成処理を示すフローチャートである。9 is a flowchart showing content generation processing according to the second embodiment; 第2の実施形態に係るオブジェクト情報を示す図である。FIG. 10 is a diagram showing object information according to the second embodiment; FIG. 第2の実施形態に係るコンテンツ表示装置の動作を示すフローチャートである。9 is a flow chart showing the operation of the content display device according to the second embodiment; 第2の実施形態に係る可変処理を示すフローチャートである。9 is a flowchart showing variable processing according to the second embodiment; 第2の実施形態に係る実オブジェクトを示す概略図である。FIG. 11 is a schematic diagram showing a real object according to the second embodiment; FIG. 第2の実施形態に係る実オブジェクトに重畳された仮想オブジェクトを表示するコンテンツ表示装置を示す図である。FIG. 10 is a diagram showing a content display device that displays a virtual object superimposed on a real object according to the second embodiment; 第2の実施形態に係る可変された仮想オブジェクトを表示するコンテンツ表示装置を示す図である。FIG. 10 is a diagram showing a content display device that displays a changed virtual object according to the second embodiment; FIG. 第2の実施形態に係るコンテンツ生成処理を示すフローチャートである。9 is a flowchart showing content generation processing according to the second embodiment; 第3の実施形態に係るオブジェクト情報を示す図である。FIG. 13 is a diagram showing object information according to the third embodiment; FIG. 第3の実施形態に係る階層化された仮想オブジェクト群を示す図である。FIG. 13 is a diagram showing a hierarchical virtual object group according to the third embodiment; FIG.

以下、本発明の実施形態について図面を参照しつつ説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
(ハードウェア構成)
第1の実施形態に係るコンテンツ表示システムのハードウェア構成について説明する。図1は、本実施形態に係るコンテンツ表示システムの構成を示す概略図である。図2、図3は、それぞれ、コンテンツ表示装置、コンテンツ管理装置のハードウェア構成を示すブロック図である。
<First Embodiment>
(Hardware configuration)
A hardware configuration of the content display system according to the first embodiment will be described. FIG. 1 is a schematic diagram showing the configuration of a content display system according to this embodiment. 2 and 3 are block diagrams showing the hardware configurations of the content display device and the content management device, respectively.

図1に示すように、本実施形態に係るコンテンツ表示システム1は、コンテンツ表示装置10とコンテンツ管理装置20とを備える。本実施形態において、コンテンツ表示装置10は、実オブジェクトに関するコンテンツを閲覧するユーザが用いる端末装置であり、携帯可能な端末装置、具体的にはタブレット型端末装置として構成される。コンテンツ管理装置20は、コンテンツ表示装置10を用いて閲覧されるコンテンツを管理する装置であり、本実施形態においては、PC(Personal Computer)として構成される。なお、コンテンツ表示装置10は、スマートフォンやヘッドマウントディスプレイとして構成されても良く、後述する判定機能を用いない場合においては、ディスプレイへの表示やプロジェクタによる投影を実行可能な装置として構成されても良い。また、コンテンツ管理装置20は、ローカル環境やクラウド環境により代替されても良い。 As shown in FIG. 1 , the content display system 1 according to this embodiment includes a content display device 10 and a content management device 20 . In this embodiment, the content display device 10 is a terminal device used by a user who browses content related to real objects, and is configured as a portable terminal device, specifically a tablet-type terminal device. The content management device 20 is a device that manages content viewed using the content display device 10, and is configured as a PC (Personal Computer) in this embodiment. Note that the content display device 10 may be configured as a smartphone or a head-mounted display, or may be configured as a device capable of executing display on a display or projection by a projector when a determination function described later is not used. . Also, the content management device 20 may be replaced by a local environment or a cloud environment.

実オブジェクトは、ユーザにより任意の作業がなされる対象であり、後に詳述するマーカーが付された実在する物体である。このような実オブジェクトとしては、例えば、各部の検査を要する装置、各部の配色を決定すべき装置などが挙げられる。本実施形態においては、実オブジェクトが各部の検査を要する装置であるものとして説明を行う。コンテンツ表示装置10は、実オブジェクトが配された作業現場に設置された無線LAN(Local Area Network)を介してネットワークに接続し、ネットワークを介してコンテンツ管理装置20と通信する。なお、コンテンツ表示装置10によるコンテンツ管理装置20との通信は、USB(Universal Serial Bus)ケーブルなどを用いた有線接続を介してなされても良い。 A real object is an object on which arbitrary work is performed by the user, and is a real object to which a marker, which will be described in detail later, is attached. Such real objects include, for example, a device that requires inspection of each part, a device that determines the color scheme of each part, and the like. In this embodiment, the description will be made assuming that the real object is a device that requires inspection of each part. The content display device 10 connects to a network via a wireless LAN (Local Area Network) installed at a work site where real objects are arranged, and communicates with the content management device 20 via the network. Communication between the content display device 10 and the content management device 20 may be performed via a wired connection using a USB (Universal Serial Bus) cable or the like.

コンテンツ表示装置10は、図2に示すように、ハードウェアとして、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、記憶装置13、タッチパネル14、ネットワークI/F(Interface)15、カメラ16、深度センサ17を備える。CPU11及びRAM12は協働して各種機能を実行し、記憶装置13は各種機能により実行される処理に用いられる各種データを記憶する。タッチパネル14は、ディスプレイとタッチセンサとを有し、コンテンツ表示装置10の正面側に備えられた入出力装置である。ネットワークI/F15は、コンテンツ管理装置20との無線通信を行う。なお、コンテンツ管理装置20によるコンテンツ管理装置10との通信は、USB(Universal Serial Bus)ケーブルなどを用いた有線接続を介してなされても良い。 As shown in FIG. 2, the content display device 10 includes, as hardware, a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a storage device 13, a touch panel 14, a network I/F (Interface) 15, and a camera. 16 and a depth sensor 17 . The CPU 11 and RAM 12 cooperate to execute various functions, and the storage device 13 stores various data used for processing executed by the various functions. The touch panel 14 is an input/output device that has a display and a touch sensor and is provided on the front side of the content display device 10 . The network I/F 15 performs wireless communication with the content management device 20 . Communication between the content management device 20 and the content management device 10 may be performed via a wired connection using a USB (Universal Serial Bus) cable or the like.

カメラ16は、コンテンツ表示装置10の背面側に備えられ、可視光による2次元画像及び映像を撮像する撮像装置である。深度センサ17は、コンテンツ表示装置10の背面側に備えられ、レーザを投光してその反射光を受光素子により受光することにより、コンテンツ表示装置10から周囲の物体までの距離を測定するセンサである。この深度センサ17は、本実施形態においては、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、コンテンツ表示装置10から周囲の物体までの距離を測定して3次元点群化するセンサとする。なお、カメラ16による撮像方向と深度センサ17による測定方向は一致しているものとする。 The camera 16 is provided on the back side of the content display device 10, and is an imaging device that captures two-dimensional images and videos using visible light. The depth sensor 17 is provided on the back side of the content display device 10, and is a sensor that measures the distance from the content display device 10 to surrounding objects by projecting a laser beam and receiving the reflected light with a light receiving element. be. In this embodiment, the depth sensor 17 measures the distance from the content display device 10 to surrounding objects using a ToF (Time of Flight) method that converts the delay time of the light receiving pulse to the light emitting pulse into a distance. It is assumed that the sensor is converted into a three-dimensional point group. It is assumed that the imaging direction of the camera 16 and the measurement direction of the depth sensor 17 are the same.

コンテンツ管理装置20は、図3に示すように、ハードウェアとして、CPU21、RAM22、記憶装置23、入出力I/F24、ネットワークI/F25を備える。CPU21及びRAM22は協働して各種機能を実行し、記憶装置23は各種機能により実行される処理に用いられる各種データを記憶する。入出力I/F24は、コンテンツ管理装置20に接続されるキーボードなどの入力装置やディスプレイなどの出力装置とのデータの入出力を行う。ネットワークI/F25は、コンテンツ表示装置10を含む他の装置との有線通信及び無線通信を行う。 The content management device 20 includes, as hardware, a CPU 21, a RAM 22, a storage device 23, an input/output I/F 24, and a network I/F 25, as shown in FIG. The CPU 21 and RAM 22 cooperate to execute various functions, and the storage device 23 stores various data used for processing executed by the various functions. The input/output I/F 24 inputs and outputs data to and from an input device such as a keyboard and an output device such as a display connected to the content management device 20 . The network I/F 25 performs wired communication and wireless communication with other devices including the content display device 10 .

(機能構成)
コンテンツ表示装置及びコンテンツ管理装置の機能構成について説明する。図4、図5は、それぞれ、本実施形態に係るコンテンツ表示装置、コンテンツ管理装置の機能構成を示すブロック図である。
(Functional configuration)
Functional configurations of the content display device and the content management device will be described. 4 and 5 are block diagrams showing the functional configurations of the content display device and the content management device according to this embodiment, respectively.

コンテンツ表示装置10は、図4に示すように、機能として、パラメータ算出部101、パラメータ更新部102、コンテンツ受信部103、表示処理部104、判定処理部105、出力処理部106、判定結果送信部107を備える。 As shown in FIG. 4, the content display device 10 has, as functions, a parameter calculation unit 101, a parameter update unit 102, a content reception unit 103, a display processing unit 104, a determination processing unit 105, an output processing unit 106, and a determination result transmission unit. 107.

パラメータ算出部101は、カメラ16により実オブジェクトが撮像された撮像画像におけるマーカーを認識し、認識したマーカーに基づいて、マーカーを原点としたマーカー座標におけるコンテンツ表示装置10の初期位置及び初期姿勢をパラメータとして算出する。パラメータ更新部102は、深度センサ17により取得される3次元点群の前後のフレーム間の変位に基づいて、コンテンツ表示装置10の位置及び姿勢の変位をフレーム毎に算出し、この変位に基づいて、パラメータ算出部101により算出された初期位置及び初期姿勢を起点としたコンテンツ表示装置10の位置及び姿勢を更新する。 The parameter calculation unit 101 recognizes the marker in the captured image of the real object captured by the camera 16, and based on the recognized marker, the initial position and the initial orientation of the content display device 10 at the marker coordinates with the marker as the origin. Calculate as The parameter update unit 102 calculates the displacement of the position and orientation of the content display device 10 for each frame based on the displacement between the frames before and after the three-dimensional point cloud acquired by the depth sensor 17, and based on this displacement, , update the position and orientation of the content display device 10 starting from the initial position and initial orientation calculated by the parameter calculation unit 101 .

コンテンツ受信部103は、コンテンツ管理装置20から送信されたコンテンツを受信する。表示処理部104は、コンテンツ受信部103により受信されたコンテンツを、コンテンツ表示装置10の位置及び姿勢に基づいて、タッチパネル14に表示する。判定処理部105は、タッチパネル14に対するユーザの選択操作に基づくコンテンツの判定処理を行う。出力処理部106は、判定処理部105による判定処理結果を示す判定結果情報を出力する。判定結果送信部107は、判定処理部105により出力された判定結果情報をコンテンツ管理装置20へ送信する。 The content receiving unit 103 receives content transmitted from the content management device 20 . The display processing unit 104 displays the content received by the content receiving unit 103 on the touch panel 14 based on the position and orientation of the content display device 10 . The determination processing unit 105 performs content determination processing based on the user's selection operation on the touch panel 14 . The output processing unit 106 outputs determination result information indicating the result of determination processing by the determination processing unit 105 . The determination result transmission unit 107 transmits determination result information output by the determination processing unit 105 to the content management apparatus 20 .

コンテンツ管理装置20は、図5に示すように、機能として、変換部201、管理部202、コンテンツ送信部203、判定結果受信部204を備える。変換部201は、実オブジェクトに関連する3次元データをコンテンツに変換する。なお、コンテンツに変換される3次元データとしては、実オブジェクトの設計情報であるCAD(Computer Aided Design)データが挙げられる。管理部202は、変換部201により変換されたコンテンツを管理する。コンテンツ送信部203は、管理部202により管理されるコンテンツをコンテンツ表示装置10へ送信する。判定結果受信部204は、コンテンツ表示装置10により送信された判定結果情報を受信する。 As shown in FIG. 5, the content management device 20 includes a conversion unit 201, a management unit 202, a content transmission unit 203, and a determination result reception unit 204 as functions. A conversion unit 201 converts three-dimensional data related to a real object into content. Note that CAD (Computer Aided Design) data, which is design information of a real object, can be cited as three-dimensional data converted into content. A management unit 202 manages the content converted by the conversion unit 201 . The content transmission unit 203 transmits content managed by the management unit 202 to the content display device 10 . The determination result receiving unit 204 receives determination result information transmitted by the content display device 10 .

(コンテンツ生成処理)
コンテンツ生成処理について説明する。図6は、コンテンツ生成処理を示すフローチャートである。図7、図8は、それぞれ、コンテンツ管理情報、オブジェクト情報を示す図である。なお、図6においては、コンテンツ管理装置に対して、実オブジェクトに関連する3Dデータがすでに入力されているものとする。
(content generation processing)
Content generation processing will be described. FIG. 6 is a flowchart showing content generation processing. 7 and 8 are diagrams showing content management information and object information, respectively. In FIG. 6, it is assumed that 3D data related to real objects has already been input to the content management apparatus.

図6に示すように、まず、変換部201は、コンテンツ管理装置20に入力された3Dデータのうち、変換対象である3Dデータを選択する(S101)。 As shown in FIG. 6, the conversion unit 201 first selects 3D data to be converted from the 3D data input to the content management device 20 (S101).

ここで、コンテンツに変換される3Dデータについて説明する。変換対象としての3Dデータは、例えば、実オブジェクトとして検査対象である装置の設計データである。この3Dデータには、装置の各部品が3Dモデルとして表現された仮想オブジェクトが少なくとも1つ以上含まれている。3Dデータに複数の仮想オブジェクトが含まれている場合、複数の仮想オブジェクトは、3Dデータの作成者によって、配置位置、部品の種別などの基準により区分され、区分毎にグループ化されているものとする。 Here, 3D data converted into content will be described. The 3D data to be converted is, for example, design data of a device to be inspected as a real object. This 3D data includes at least one or more virtual objects representing each part of the device as a 3D model. When 3D data contains multiple virtual objects, the multiple virtual objects are classified by the creator of the 3D data according to criteria such as placement positions and types of parts, and are grouped by division. do.

コンテンツ生成処理に先立って、3Dデータに含まれるグループの少なくとも一部はコンテンツに変換すべき仮想オブジェクトである変換対象に設定され、変換対象であるグループの少なくとも一部は判定処理がなされる仮想オブジェクトである判定対象に設定される。 Prior to content generation processing, at least a portion of groups included in 3D data are set as conversion targets, which are virtual objects to be converted into content, and at least a portion of the conversion target groups are virtual objects subjected to determination processing. is set as a determination target.

3Dデータの選択後、変換部201は、選択中の3Dデータに対して、コンテンツを一意に示す識別子であるコンテンツIDを生成し、図7に示すように、コンテンツIDと、3Dデータのファイル名と、3Dデータのファイルパスとが対応付けられたコンテンツ情報を生成する(S102)。 After selecting the 3D data, the conversion unit 201 generates a content ID, which is an identifier that uniquely identifies the content, for the 3D data being selected. and the file path of the 3D data are associated with each other to generate content information (S102).

次に、変換部201は、選択中の3Dデータにおける未選択のグループを選択し(S103)、選択中のグループが変換対象に設定されているか否かを判定する(S104)。 Next, the conversion unit 201 selects an unselected group in the 3D data being selected (S103), and determines whether or not the group being selected is set as a conversion target (S104).

選択中のグループが変換対象である場合(S104,YES)、変換部201は、選択中のグループが判定対象に設定されているか否かを判定する(S105)。 If the selected group is to be converted (S104, YES), the conversion unit 201 determines whether the selected group is set as a determination target (S105).

選択中のグループが判定対象である場合(S105,YES)、変換部201は、選択中のグループに含まれる仮想オブジェクトのそれぞれに対して、仮想オブジェクトを一意に示す識別子であるオブジェクトIDを含むオブジェクト情報を生成して、オブジェクト情報における判定対象フラグを“ON”にする(S106)。 If the selected group is to be determined (S105, YES), the conversion unit 201 converts each virtual object included in the selected group into an object including an object ID that is an identifier that uniquely identifies the virtual object. Information is generated, and the determination target flag in the object information is set to "ON" (S106).

オブジェクト情報は、図8に示すように、オブジェクトIDと、コンテンツIDと、作成者IDと、名称と、グループIDと、判定対象フラグとが対応付けられた情報である。コンテンツIDは、対応する仮想オブジェクトが属するコンテンツを示す。作成者IDは、コンテンツの作成者を一意に示す識別子である。名称は、対応する仮想オブジェクトに対して作成者により付された名称を示す。グループIDは、対応する仮想オブジェクトが属するグループを一意に示す識別子である。判定対象フラグは、対応する仮想オブジェクトが判定対象であるか否かを示すフラグであり、判定対象である場合には“ON”に設定され、判定対象ではない場合には“OFF”に設定される。また、変換部201は、グループに含まれる全て仮想オブジェクトに対して判定対象フラグを“ON”とした後に、ユーザに選択された仮想オブジェクトの設定フラグを“OFF”に変更しても良い。 The object information is information in which an object ID, a content ID, a creator ID, a name, a group ID, and a determination target flag are associated with each other, as shown in FIG. The content ID indicates the content to which the corresponding virtual object belongs. The creator ID is an identifier that uniquely indicates the creator of content. The name indicates the name given by the creator to the corresponding virtual object. A group ID is an identifier that uniquely indicates a group to which a corresponding virtual object belongs. The determination target flag is a flag indicating whether or not the corresponding virtual object is a determination target. be. Further, the conversion unit 201 may change the setting flag of the virtual object selected by the user to "OFF" after setting the determination target flag to "ON" for all the virtual objects included in the group.

ステップS106の動作後、変換部201は、選択中の3Dデータに未選択のグループが存在するか否かを判定する(S107)。 After the operation of step S106, the conversion unit 201 determines whether or not an unselected group exists in the 3D data being selected (S107).

未選択のグループが存在しない場合(S107,NO)、変換部201は、入力された3Dデータに対するコンテンツ生成処理を終了する。一方、未選択のグループが存在する場合(S107,YES)、変換部201は、再度、選択中の3Dデータにおける未選択のグループを選択する(S103)。 If there is no unselected group (S107, NO), the conversion unit 201 terminates content generation processing for the input 3D data. On the other hand, if an unselected group exists (S107, YES), the conversion unit 201 selects an unselected group in the 3D data being selected again (S103).

また、ステップS105において、選択中のグループが判定対象ではない場合(S105,NO)、変換部201は、選択中のグループに含まれる仮想オブジェクトのそれぞれに対して、仮想オブジェクトを一意に示す識別子であるオブジェクトIDを含むオブジェクト情報を生成して、オブジェクト情報における判定対象フラグを“OFF”にする(S108)。ステップS108の動作後、変換部201は、選択中の3Dデータに未選択のグループが存在するか否かを判定する(S107)。 Further, in step S105, if the selected group is not the determination target (S105, NO), the conversion unit 201 assigns an identifier that uniquely identifies the virtual object to each of the virtual objects included in the selected group. Object information including a certain object ID is generated, and the determination target flag in the object information is set to "OFF" (S108). After the operation of step S108, the conversion unit 201 determines whether or not an unselected group exists in the 3D data being selected (S107).

また、ステップS104において、選択中のグループが変換対象ではない場合(S104,NO)、変換部201は、選択中の3Dデータから、選択中のグループに属する仮想オブジェクトを削除する(S109)。ステップS109の動作後、変換部201は、選択中の3Dデータに未選択のグループが存在するか否かを判定する(S107)。 Also, in step S104, if the group being selected is not the conversion target (S104, NO), the conversion unit 201 deletes the virtual objects belonging to the group being selected from the 3D data being selected (S109). After the operation of step S109, the conversion unit 201 determines whether or not an unselected group exists in the 3D data being selected (S107).

このように、コンテンツ生成処理によれば、入力された3Dデータに対して、コンテンツとして不要な仮想オブジェクトを削除し、一部の仮想オブジェクトを判定対象とすることによってコンテンツを生成する。コンテンツは、不要な仮想オブジェクトが削除された3Dデータと、この3DデータにコンテンツIDを付すコンテンツ情報と、3Dデータに含まれる仮想オブジェクトのそれぞれにオブジェクトIDを付すオブジェクト情報とを含む。3Dデータ、コンテンツ情報、オブジェクト情報は、いずれも管理部202によって管理される。 In this way, according to the content generation process, content is generated by deleting unnecessary virtual objects as content from the input 3D data and making some of the virtual objects subject to determination. The content includes 3D data from which unnecessary virtual objects have been deleted, content information that assigns a content ID to the 3D data, and object information that assigns an object ID to each virtual object included in the 3D data. 3D data, content information, and object information are all managed by the management unit 202 .

(コンテンツ表示装置の動作)
コンテンツ表示装置の動作について説明する。図9は、コンテンツ表示装置の動作を示すフローチャートである。図10は、実オブジェクトを示す概略図である。図11は、初期位置及び初期姿勢の算出を説明するための概略図である。なお、図9に示す動作に先立って、実オブジェクトに関するコンテンツはコンテンツ管理装置によりコンテンツ表示装置に送信されているものとする。
(Operation of content display device)
The operation of the content display device will be described. FIG. 9 is a flow chart showing the operation of the content display device. FIG. 10 is a schematic diagram showing a real object. FIG. 11 is a schematic diagram for explaining calculation of the initial position and initial orientation. It is assumed that, prior to the operation shown in FIG. 9, the content related to the real object has been transmitted to the content display device by the content management device.

図9に示すように、まず、パラメータ算出部101は、カメラ16による撮像画像において、マーカーMが認識されたか否かを判定する(S201)。 As shown in FIG. 9, first, the parameter calculator 101 determines whether or not the marker M is recognized in the image captured by the camera 16 (S201).

図10に示すように、マーカーMは、実オブジェクトROに付加された二次元画像であり、コンテンツが配される仮想空間の原点を現実空間に定めるものである。このようなマーカーMとしては、実オブジェクトROに貼着された二次元画像、実オブジェクトに刻印された二次元画像状の凹凸などが挙げられる。なお、マーカーMは、必ずしも実オブジェクトROに付加される必要はなく、実オブジェクトROの周辺にある床面、壁面、天井面などに付加されてもよい。 As shown in FIG. 10, the marker M is a two-dimensional image attached to the real object RO, and defines the origin of the virtual space where the content is arranged in the real space. Examples of such a marker M include a two-dimensional image attached to the real object RO, a two-dimensional image-like unevenness stamped on the real object, and the like. Note that the marker M does not necessarily have to be attached to the real object RO, and may be attached to the floor surface, wall surface, ceiling surface, etc. around the real object RO.

また、マーカーMを用いず、三点測量方式や位置固定方式により、仮想空間の原点を現実空間に定めても良い。三点測量方式は、少なくとも3箇所の実オブジェクトの形状を選択し、選択された箇所を結ぶ面をマーカーMの代わりに用いる方式である。位置固定方式は、実オブジェクトの配置位置と、コンテンツ表示システム1の利用位置、具体的にはコンテンツ表示装置10の初期位置を予め固定し、常に同位置からコンテンツ表示システム1を利用することによって、仮想空間の原点を現実空間に定める方法である。このように、仮想空間の原点はどのような方法で現実空間に定められても良い。 Alternatively, the origin of the virtual space may be determined in the real space by a three-point survey method or a fixed position method without using the marker M. The trilateration method is a method in which at least three shapes of a real object are selected, and a plane connecting the selected locations is used instead of the marker M. FIG. In the fixed position method, the arrangement position of the real object and the use position of the content display system 1, specifically, the initial position of the content display device 10 are fixed in advance, and the content display system 1 is always used from the same position. This is a method of setting the origin of the virtual space in the real space. In this way, the origin of the virtual space may be set in the real space by any method.

マーカーMが認識されない場合(S201,NO)、パラメータ算出部101は、再度、カメラ16による撮像画像において、マーカーMが認識されたか否かを判定する(S201)。一方、マーカーMが認識された場合(S201,YES)、パラメータ算出部101は、マーカーMを原点とするコンテンツ表示装置10の初期位置及び初期姿勢をパラメータとして算出する(S202)。 When the marker M is not recognized (S201, NO), the parameter calculation unit 101 again determines whether the marker M is recognized in the image captured by the camera 16 (S201). On the other hand, when the marker M is recognized (S201, YES), the parameter calculation unit 101 calculates the initial position and initial orientation of the content display device 10 with the marker M as the origin as parameters (S202).

ここで、初期位置及び初期姿勢の算出について説明する。図11に示すように、実オブジェクトROに付加されたマーカーMを含む撮像範囲Sがカメラ16により撮像されると、マーカーMとコンテンツ表示装置10との位置関係によって、撮像画像上のマーカーmに拡縮、変形が生じる。パラメータ算出部101は、基準となるマーカーMの形状及び大きさを示すマーカー情報に基づいて、マーカーmの大きさ及び形状から、マーカーMに対するコンテンツ表示装置10の相対位置及び相対姿勢を算出する。更にパラメータ算出部101は、この相対位置及び相対姿勢からマーカーMを原点とした3軸上(図中x,y,z)のコンテンツ表示装置10の位置及び、これら3軸に平行する回転軸(x1,y1,z1)周りのコンテンツ表示装置10の回転を算出することによって、コンテンツ表示装置10の初期位置及び初期姿勢を算出する。なお、本実施形態において、マーカーMの中心点を原点Oとし、カメラ16の中心、具体的にはイメージセンサの中心点を回転軸の原点Iとする。 Here, the calculation of the initial position and initial orientation will be described. As shown in FIG. 11, when the imaging range S including the marker M added to the real object RO is captured by the camera 16, the positional relationship between the marker M and the content display device 10 causes the marker m on the captured image to be Scaling and deformation occur. The parameter calculation unit 101 calculates the relative position and orientation of the content display device 10 with respect to the marker M from the size and shape of the marker m based on the marker information indicating the shape and size of the marker M serving as a reference. Furthermore, the parameter calculation unit 101 calculates the position of the content display device 10 on three axes (x, y, z in the drawing) with the marker M as the origin, and the rotation axis ( By calculating the rotation of the content display device 10 around x1, y1, z1), the initial position and initial attitude of the content display device 10 are calculated. In this embodiment, the center point of the marker M is the origin O, and the center of the camera 16, specifically the center point of the image sensor, is the origin I of the rotation axis.

パラメータの算出後、パラメータ更新部102は、深度センサ17により検出される3次元特徴点群の変位に基づいてコンテンツ表示装置10の現在位置及び現在姿勢を更新する(S203)。 After calculating the parameters, the parameter update unit 102 updates the current position and current orientation of the content display device 10 based on the displacement of the three-dimensional feature point group detected by the depth sensor 17 (S203).

ここで、現在位置及び現在姿勢の更新について説明する。パラメータ更新部102は、時系列に前後する3次元特徴点群の変位に基づいて、コンテンツ表示装置10の位置及び姿勢の変位を算出し、この変位を初期位置及び初期姿勢または前回更新した位置及び姿勢に積算することによって、コンテンツ表示装置10の現在位置及び現在姿勢を逐次更新する。なお、3次元特徴点群の変位に基づく自位置及び自姿勢の変位の算出については、SLAM(Simultaneous Localization and Mapping)法やSfM(Structure from Motion)法など既知の手法を用いるものとする。また、VSLAM(Visual SLAM)法を用いて、カメラ16により撮像された撮像画像に基づいてコンテンツ表示装置10の位置及び姿勢の変位を算出するようにしても良い。 Here, updating of the current position and current attitude will be described. The parameter updating unit 102 calculates the displacement of the position and orientation of the content display device 10 based on the displacement of the three-dimensional feature point group that changes in chronological order, and converts this displacement to the initial position and initial orientation or the previously updated position and orientation. The current position and current attitude of the content display device 10 are successively updated by accumulating the attitude. It should be noted that a known method such as SLAM (Simultaneous Localization and Mapping) or SfM (Structure from Motion) is used to calculate the displacement of self-position and self-orientation based on the displacement of the three-dimensional feature point group. Alternatively, the VSLAM (Visual SLAM) method may be used to calculate the displacement of the position and posture of the content display device 10 based on the captured image captured by the camera 16 .

現在位置及び現在姿勢の更新後、コンテンツ表示処理が実行され(S204)、判定処理が実行され(S205)、出力処理が実行される(S206)。コンテンツ表示処理、判定処理、出力処理については後述する。 After the current position and orientation are updated, content display processing is executed (S204), determination processing is executed (S205), and output processing is executed (S206). Content display processing, determination processing, and output processing will be described later.

出力処理の実行後、表示処理部104は、ユーザにより、タッチパネル14を介して、コンテンツの表示を終了させる終了指示がなされたか否かを判定する(S207)。終了指示がなされた場合(S207,YES)、コンテンツ表示装置10の動作が終了される。一方、終了指示がなされない場合(S207,NO)、パラメータ更新部102は、再度、深度センサ17により検出される3次元特徴点群の変位に基づいてコンテンツ表示装置10の現在位置及び現在姿勢を更新する(S203)。 After executing the output process, the display processing unit 104 determines whether or not the user has given an end instruction to end the display of the content via the touch panel 14 (S207). If the end instruction is given (S207, YES), the operation of the content display device 10 is ended. On the other hand, if the end instruction is not issued (S207, NO), the parameter updating unit 102 updates the current position and current orientation of the content display device 10 based on the displacement of the three-dimensional feature point group detected by the depth sensor 17 again. Update (S203).

このように、コンテンツ表示装置10によれば、実オブジェクトROにおける一部分に基づいて、仮想空間の原点Oを定めることができる。なお、パラメータ算出部101による初期位置及び初期姿勢の算出は、タッチパネル14を介したユーザによる指示に応じてなされても良く、予め定められた周期毎になされても良く、また、カメラ16によるマーカーMの撮像毎になされても良い。このように構成されたコンテンツ表示装置10によれば、実オブジェクトROに対するコンテンツのズレが低減される。 Thus, according to the content display device 10, the origin O of the virtual space can be determined based on a portion of the real object RO. Note that the calculation of the initial position and the initial orientation by the parameter calculation unit 101 may be performed in response to an instruction from the user via the touch panel 14, or may be performed at each predetermined cycle. It may be done every M imaging. According to the content display device 10 configured in this way, the deviation of the content from the real object RO is reduced.

(コンテンツ表示処理)
コンテンツ表示処理について説明する。図12は、コンテンツ表示処理を示すフローチャートである。図13は、実オブジェクトに重畳されたコンテンツを示す概略図である。図14は、判定対象である仮想オブジェクトを示す概略図である。なお、図12に示すコンテンツ表示処理においては、実オブジェクトに関連するコンテンツがユーザにより予め選択されているものとする。
(Content display processing)
Content display processing will be described. FIG. 12 is a flowchart showing content display processing. FIG. 13 is a schematic diagram showing content superimposed on a real object. FIG. 14 is a schematic diagram showing a virtual object to be determined. It should be noted that in the content display process shown in FIG. 12, it is assumed that the content related to the real object has been selected in advance by the user.

図12に示すように、表示処理部104は、表示対象とするグループを選択指示する表示対象指示がユーザによりなされたか否かを判定する(S301)。 As shown in FIG. 12, the display processing unit 104 determines whether or not the user has given a display target instruction to select a group to be displayed (S301).

表示対象指示がなされた場合(S301,YES)、表示処理部104は、ユーザにより選択されたグループをタッチパネル14に表示するように表示対象を変更する(S302)。 When a display target instruction is given (S301, YES), the display processing unit 104 changes the display target so that the group selected by the user is displayed on the touch panel 14 (S302).

表示対象の変更後、または、表示対象指示がなされない場合(S301,NO)、表示処理部104は、選択されたグループの表示色の変更を指示する表示色指示がユーザによりなされたか否かを判定する(S303)。 After the display target is changed, or when the display target is not instructed (S301, NO), the display processing unit 104 determines whether the user has issued a display color instruction to change the display color of the selected group. Determine (S303).

表示色指示がなされた場合(S303,YES)、表示処理部104は、選択されたグループに属する仮想オブジェクトの表示色を指定された色に変更する(S304)。 If a display color instruction is given (S303, YES), the display processing unit 104 changes the display color of the virtual object belonging to the selected group to the specified color (S304).

表示色の変更後、または、表示色指示がなされない場合(S303,NO)、表示処理部104は、選択されたグループの透明度の変更を指示する透明度指示がユーザによりなされたか否かを判定する(S305)。 After changing the display color or when no display color instruction is given (S303, NO), the display processing unit 104 determines whether or not the user has given a transparency instruction to change the transparency of the selected group. (S305).

透明度指示がなされた場合(S305,YES)、表示処理部104は、選択されたグループに属する仮想オブジェクトを指定された透明度に変更する(S306)。 If the transparency is specified (S305, YES), the display processing unit 104 changes the virtual objects belonging to the selected group to the specified transparency (S306).

透明度の変更後、または、透明度指示がなされない場合(S305,NO)、表示処理部104は、マーカーMにおける原点Oに対して配されたコンテンツのうち、表示対象に指定されたグループの仮想オブジェクトを、指定された表示色及び透明度でタッチパネル14に表示させ(S307)、表示処理が終了される。 After changing the transparency, or when the transparency is not instructed (S305, NO), the display processing unit 104 selects the virtual object of the group designated to be displayed among the contents arranged with respect to the origin O of the marker M. is displayed on the touch panel 14 in the specified display color and transparency (S307), and the display process is terminated.

本実施形態において、コンテンツは、図13に示すように、タッチパネル14上において、実オブジェクトと略同様の姿勢、大きさで表示されるように、仮想空間における原点Oに対する相対位置が予め設定されるものとする。また、表示対象に指定されたグループが判定対象である仮想オブジェクトを含む場合、図14に示すように、判定対象に設定された仮想オブジェクトである判定オブジェクトJOは、ユーザにより容易に視認可能に、他の仮想オブジェクトとは異なる色で表示される。 In this embodiment, as shown in FIG. 13, the relative position of the content with respect to the origin O in the virtual space is set in advance so that the content is displayed on the touch panel 14 with substantially the same posture and size as the real object. shall be Further, when the group designated as the display target includes the virtual object as the determination target, as shown in FIG. Displayed in a different color than other virtual objects.

また、コンテンツの表示は、ユーザによりなされた設定に応じて、カメラ16による撮像画像にコンテンツが重畳されるMR(Mixed Reality)表示、または、コンテンツのみが表示されるAR(Augumented Reality)表示のいずれかに切り替えられるものとする。 The display of the content is either MR (Mixed Reality) display in which the content is superimposed on the image captured by the camera 16 or AR (Augmented Reality) display in which only the content is displayed, depending on the setting made by the user. It shall be possible to switch between

(判定処理)
判定処理について説明する。図15は、判定処理を示すフローチャートである。図16は、判定された仮想オブジェクトを示す概略図である。
(Determination process)
Determination processing will be described. FIG. 15 is a flowchart showing determination processing. FIG. 16 is a schematic diagram showing a determined virtual object.

図15に示すように、まず、判定処理部105は、タッチパネル14に表示されているグループ、より具体的には、上述したコンテンツ表示処理において表示対象に指定されているグループに判定オブジェクトが含まれているか否かを判定する(S401)。 As shown in FIG. 15, the determination processing unit 105 first determines whether the group displayed on the touch panel 14, more specifically, the group specified as the display target in the content display process described above includes the determination object. (S401).

表示されるグループに判定オブジェクトが含まれる場合(S401,YES)、判定処理部105は、ユーザにより判定オブジェクトが選択されたか否かを判定する(S402)。ここで、判定処理部105は、タッチパネル14において、判定オブジェクトがタップ操作された場合に、判定オブジェクトが選択されたと判定する。 If the displayed group includes a determination object (S401, YES), the determination processing unit 105 determines whether or not the user has selected the determination object (S402). Here, the determination processing unit 105 determines that the determination object is selected when a tap operation is performed on the determination object on the touch panel 14 .

判定オブジェクトが選択された場合(S402,YES)、判定処理部105は、選択された判定オブジェクトの判定状態を変更し(S403)、判定処理が終了される。 If a determination object is selected (S402, YES), the determination processing unit 105 changes the determination state of the selected determination object (S403), and the determination process ends.

ここで、判定状態について説明する。図16に示すように、判定オブジェクトJOは、ユーザによる選択操作に応じて、複数の異なる選択状態(JO1/JO2)に変更される。本実施形態においては、判定オブジェクトは“正常”または“異常”のいずれかに判定される。図16には、未判定の判定オブジェクトJO0、“正常”判定がなされた判定オブジェクトJO1、“異常”判定がなされた判定オブジェクトJO2が示される。判定オブジェクトJO0,JO1,JO2は、表示処理部104により互いに異なる表示色でタッチパネル14に表示される。これによって、ユーザは判定オブジェクトの判定状態を容易に認識することができる。なお、“正常”、“異常”以外の判定状態としては、例えば、“不明”、“一時保留”などが挙げられる。また、判定状態が“異常”である場合は、後述するように、別途異常状態を文字列情報や静止画情報として記録することもできる。こうすることで、使用例として後に詳述するように、ユーザは、判定結果を実績登録し上長へのレポート業務を完結することが可能となる。 Here, the determination state will be explained. As shown in FIG. 16, the determination object JO is changed to a plurality of different selection states (JO1/JO2) according to the user's selection operation. In this embodiment, the judgment object is judged to be either "normal" or "abnormal". FIG. 16 shows an undetermined determination object JO0, a determination object JO1 determined to be "normal", and a determination object JO2 determined to be "abnormal". The determination objects JO0, JO1, and JO2 are displayed on the touch panel 14 by the display processing unit 104 in different display colors. This allows the user to easily recognize the determination state of the determination object. Note that determination states other than "normal" and "abnormal" include, for example, "unknown" and "temporary suspension". Further, when the determined state is "abnormal", the abnormal state can be separately recorded as character string information or still image information, as will be described later. By doing so, as will be described in detail later as an example of use, the user can register the judgment result as a record and complete the report work to the superior.

判定オブジェクトJOの判定状態は、判定オブジェクトJOに対する選択操作回数、本実施形態においては、判定オブジェクトJOに対するタップ操作回数により変更される。具体的には、タップ操作回数が0である場合には未判定状態であり、タップ操作回数が1である場合には“正常”判定状態となり、タップ操作回数が2である場合には“異常”判定状態となる。“異常”判定状態である判定オブジェクトに対して、更にタップ操作がなされると、未判定状態とすることができる。なお、判定状態が、“正常”、“異常”、“不明”、“一時保留”を含む場合は、タップ操作回数が0である場合には未判定状態であり、タップ操作回数が1の場合は“正常”判定状態となり、タップ操作回数が2の場合は“異常”判定状態となり、タップ操作回数が3の場合は“不明”判定状態となり、タップ操作回数が4の場合は“一時保留”判定状態となり、更にタップ操作がなされると、未判定状態とすることができる。また、判定状態が“異常”である場合は、後述するように、別途異常状態を文字列情報や静止画情報として記録することもできる。こうすることで、使用例として後に詳述するように、ユーザは、判定結果を実績登録し上長へのレポート業務を完結することが可能となる。また、判定オブジェクトJOの判定状態の変更は、“正常”、“異常”、“不明”、“一時保留”などの選択肢を含む判定状態変更画面に対する操作によりなされても良い。この判定状態変更画面は、判定状態を変更する対象としての判定オブジェクトJOを1回タップすることによってメイン画面上に重畳されて表示されるものとする。判定状態が“異常”に変更された場合は、後述するように、ユーザは別途異常状態を文字列情報や静止画情報として判定状態変更画面で記録することもできる。“正常”が選択された後、または“異常”が選択されて文字列情報などが追記された後、保存ボタンまたは、キャンセルボタンが押下された場合、変更された判定状態が保存された後に判定状態変更画面が閉じるものとする。 The determination state of the determination object JO is changed by the number of selection operations on the determination object JO, which is the number of tap operations on the determination object JO in this embodiment. Specifically, when the number of tap operations is 0, it is in an undetermined state, when the number of tap operations is 1, it is in a "normal" determination state, and when the number of tap operations is 2, it is in an "abnormal" state. "It will be in a judgment state. If a further tap operation is performed on the determination object in the “abnormal” determination state, the determination object can be put in the undetermined state. If the determination state includes "normal", "abnormal", "unknown", and "temporarily suspended", it is undetermined when the number of tap operations is 0, and when the number of tap operations is 1 If the number of tap operations is 2, it becomes an "abnormal" judgment state, if the number of tap operations is 3, it becomes an "unknown" judgment state, and if the number of tap operations is 4, it becomes "temporary suspension" When the judgment state is entered and a tap operation is further performed, an undetermined state can be entered. Further, when the determined state is "abnormal", the abnormal state can be separately recorded as character string information or still image information, as will be described later. By doing so, as will be described in detail later as an example of use, the user can register the judgment result as a record and complete the report work to the superior. Further, the determination state of the determination object JO may be changed by operating a determination state change screen including options such as "normal", "abnormal", "unknown", and "temporary hold". This determination state change screen is superimposed and displayed on the main screen by tapping once on the determination object JO whose determination state is to be changed. When the determination state is changed to "abnormal", the user can separately record the abnormal state as character string information or still image information on the determination state change screen, as will be described later. If the save button or cancel button is pressed after "normal" is selected, or after "abnormal" is selected and character string information is added, judgment is made after the changed judgment state is saved. The state change screen shall be closed.

なお、判定オブジェクトJOの判定状態は、少なくとも1つ以上存在すれば良く、また、複数の判定状態に対するラベルはユーザにより設定することができる。これによって、コンテンツ表示装置10を様々な用途に用いることができる。 Note that at least one determination state of the determination object JO should exist, and labels for a plurality of determination states can be set by the user. This allows the content display device 10 to be used for various purposes.

ステップS401において表示されるオブジェクトに判定オブジェクトが含まれない場合(S401,NO)、または、判定オブジェクトが選択されない場合(S402,NO)、判定処理が終了される。 If the judgment object is not included in the objects displayed in step S401 (S401, NO), or if the judgment object is not selected (S402, NO), the judgment process ends.

(出力処理)
出力処理について説明する。図17は、出力処理を示すフローチャートである。図18は、判定結果表示画面を示す概略図である。図19は、判定結果情報を示す図である。
(output processing)
Output processing will be described. FIG. 17 is a flowchart showing output processing. FIG. 18 is a schematic diagram showing a judgment result display screen. FIG. 19 is a diagram showing determination result information.

図17に示すように、表示処理部104は、ユーザにより判定結果表示指示がなされたか否かを判定する(S501)。 As shown in FIG. 17, the display processing unit 104 determines whether or not the user has issued a determination result display instruction (S501).

判定結果表示指示がなされた場合(S501,YES)、表示処理部104は、判定オブジェクトに対する判定結果をタッチパネル14に表示させる(S502)。判定結果は、判定結果表示画面により表示される。 When the determination result display instruction is given (S501, YES), the display processing unit 104 causes the touch panel 14 to display the determination result for the determination object (S502). The determination result is displayed on the determination result display screen.

判定結果表示画面は、図18に示すように、判定対象数、正常判定数、異常判定数、未判定数、異常判定リストを含む。判定対象数は、コンテンツに含まれる判定オブジェクトの総数を示す。正常判定数は、“正常”判定がなされた判定オブジェクトの総数を示す。異常判定数は、“異常”判定がなされた判定オブジェクトの総数を示す。未判定数は、全ての判定オブジェクトのうち、判定がなされていない判定オブジェクトの総数を示す。判定結果表示画面によれば、ユーザは、チェック漏れがないかを確認することができ、判定業務の品質や生産性を高めることができる。 The determination result display screen includes, as shown in FIG. 18, the number of determination targets, the number of normal determinations, the number of abnormal determinations, the undetermined number, and an abnormality determination list. The determination target count indicates the total number of determination objects included in the content. The number of normal judgments indicates the total number of judgment objects judged to be “normal”. The number of determined abnormalities indicates the total number of determined objects determined to be "abnormal". The undetermined number indicates the total number of determination objects that have not been determined among all determination objects. According to the judgment result display screen, the user can confirm whether there is any check omission, and the quality and productivity of the judgment work can be improved.

異常判定リストは、“異常”判定がなされた判定オブジェクトそれぞれの詳細を一覧で示すものである。異常判定リストにおけるレコードは、オブジェクトID、コメント、添付ファイルをフィールドとして含む。コメントは、判定結果表示画面において、対応するオブジェクトIDにより示される判定オブジェクトについて、ユーザにより入力されたテキストである。添付ファイルは、判定結果表示画面において、対応するオブジェクトIDにより示される判定オブジェクトについて、ユーザにより添付されたファイル名を示す。添付されるファイルとしては、対応する判定オブジェクトに関する画像ファイル、動画ファイル、音声ファイルなどのメディアファイルが想定されるが、如何なるファイルが添付されても良い。 The abnormality determination list shows, in a list, details of each determination object for which an "abnormal" determination has been made. A record in the abnormality determination list includes fields of an object ID, a comment, and an attached file. The comment is text input by the user on the determination object indicated by the corresponding object ID on the determination result display screen. The attached file indicates the file name attached by the user to the determination object indicated by the corresponding object ID on the determination result display screen. As files to be attached, media files such as image files, moving image files, and audio files related to the corresponding determination object are assumed, but any files may be attached.

判定結果の表示後、出力処理部106は、ユーザにより判定結果出力指示がなされたか否かを判定する(S503)。 After displaying the determination result, the output processing unit 106 determines whether or not the user has instructed to output the determination result (S503).

判定結果出力指示がなされた場合(S503,YES)、出力処理部106は、判定結果情報を出力し(S504)、判定結果送信部107は、出力された判定結果情報をコンテンツ管理装置20へ送信し(S505)、出力処理が終了される。判定結果情報はコンテンツ管理装置20における管理部202により管理される。 When the determination result output instruction is given (S503, YES), the output processing unit 106 outputs determination result information (S504), and the determination result transmission unit 107 transmits the output determination result information to the content management apparatus 20. (S505), and the output process ends. The determination result information is managed by the management unit 202 in the content management device 20 .

判定結果情報は、異常判定リストを含むファイルであり、図19に示すように、”異常”判定がなされた判定オブジェクトを示すオブジェクトIDと、判定オブジェクトが属するコンテンツを示すコンテンツIDと、コンテンツ表示装置10のユーザを示すユーザIDと、判定オブジェクトに対する判定結果と、判定がなされた日時を示す判定日時と、コメントと、添付ファイルとが対応付けられる。判定結果情報は、例えば、XML(eXtensible Markup Language)ファイル、JSON(JavaScript(登録商標) Object Notation)ファイル、CSV(Comma-Separated Values)ファイルなどのデータ構造を示すファイルとして出力される。判定結果情報は、この判定結果情報に示される添付ファイルとともに送信される。 The judgment result information is a file containing an abnormality judgment list, and as shown in FIG. User IDs indicating ten users, determination results for determination objects, determination dates and times indicating dates and times when determinations were made, comments, and attached files are associated with each other. The determination result information is output as a file indicating a data structure such as an XML (eXtensible Markup Language) file, a JSON (Javascript (registered trademark) Object Notation) file, a CSV (Comma-Separated Values) file, or the like. The determination result information is transmitted together with the attached file indicated in this determination result information.

判定結果表示指示がなされない場合(S501,NO)、または、判定結果出力指示がなされない場合(S503,NO)、出力処理が終了される。 If no judgment result display instruction is given (S501, NO) or if no judgment result output instruction is given (S503, NO), the output process is terminated.

判定結果がリスト表示されることによって、実オブジェクトに対する判定結果をユーザが容易に把握することができる。また、判定結果がファイルとして出力されることによって、実オブジェクトに対する判定結果が組織において容易に共有可能となる。 Displaying a list of the determination results allows the user to easily grasp the determination results for the real object. Also, by outputting the determination result as a file, the determination result for the real object can be easily shared in the organization.

上述した実施形態においては、コンテンツ表示装置10が実オブジェクトROにコンテンツCNを重畳して表示するものとしたが、コンテンツ表示装置10は、図20に示すような一部が欠けた実オブジェクトROに対して、図21に示すように実オブジェクトROにおける欠けた部分にコンテンツCNを配して表示しても良い。つまり、コンテンツ表示装置10は、仮想空間における実オブジェクトROと重ならない位置にコンテンツCNを配しても良い。 In the above-described embodiment, the content display device 10 superimposes and displays the content CN on the real object RO. On the other hand, as shown in FIG. 21, the content CN may be arranged and displayed in the missing portion of the real object RO. That is, the content display device 10 may arrange the content CN at a position not overlapping the real object RO in the virtual space.

また、コンテンツ表示装置10は、図22に示すように、所定位置を指し示すピン状に形成されたピンオブジェクトPを実オブジェクトROに対して重畳して表示しても良い。このピンオブジェクトPは、仮想空間における所定の箇所を指し示す仮想オブジェクトである。ユーザは、タッチパネル14を介して仮想空間における所定の箇所を選択することによって、新規なピンオブジェクトPとして登録することができる。また、ユーザは、新規なピンオブジェクトPに対して、テキスト、画像などを含み得る付加情報を対応付けることができるとともに、既存のピンオブジェクトPに対応付けられた付加情報を修正することができる。表示処理部104は、ピンオブジェクトPをタッチパネル14に表示させるとともに、ピンオブジェクトPが選択された場合、選択されたピンオブジェクトPに対応付けられた付加情報をタッチパネル14に表示させる。 Further, as shown in FIG. 22, the content display device 10 may display a pin object P formed in a pin shape pointing to a predetermined position so as to be superimposed on the real object RO. This pin object P is a virtual object pointing to a predetermined location in the virtual space. A user can register a new pin object P by selecting a predetermined location in the virtual space via the touch panel 14 . In addition, the user can associate additional information, which can include text, images, etc., with the new pin object P, and can modify the additional information associated with the existing pin object P. The display processing unit 104 causes the touch panel 14 to display the pin object P, and when the pin object P is selected, causes the touch panel 14 to display additional information associated with the selected pin object P.

(第1の使用例)
第1の使用例について説明する。第1の使用例は、コンテンツ表示システムを溶接打点の位置確認に用いた場合の使用例である。
(First usage example)
A first usage example will be described. A first usage example is a usage example when the content display system is used for confirming the positions of welding points.

旧来、溶接打点の位置確認は、溶接打点位置に穴を開けた実寸サイズの紙やガバリが溶接対象に貼り付けられることによってなされる。位置確認を行う作業者は、打点位置が正しいか、打点の大きさが正しいか、打点の深さ(必要な金属板の枚数が溶接されているか)が正しいか等の品質検査を行うが、全ての溶接打点が確認されたかは作業者に委ねられる。作業者は、確認後、別途PC等で確認結果を入力することによって上長に報告する。 Conventionally, confirmation of the position of a welding point is performed by sticking a sheet of paper of actual size with a hole punched at the position of the welding point or a gabari on the object to be welded. The worker who checks the position performs quality inspections such as whether the welding point position is correct, whether the welding point size is correct, and whether the welding point depth (whether the required number of metal plates are welded) is correct. It is up to the operator to check whether all welding points have been confirmed. After confirmation, the worker reports the confirmation result to the superior by separately inputting the confirmation result on a PC or the like.

コンテンツ表示システム1を溶接打点の位置確認に用いた場合、作業者は、溶接対象に合わせて作成されたコンテンツによって溶接打点位置を確認することができるため、ガバリ等の事前準備が不要となる。また、溶接打点を示す判定オブジェクト毎に判定処理がなされることによって抜け漏れなく確認することができる。また、判定結果がデータとして蓄積されるため、上長への報告作業が容易になるとともに、溶接不良の多い場所やパターン等の分析、溶接作業に関する改善活動に判定結果を活用することが容易となる。 When the content display system 1 is used to confirm the position of the welding point, the worker can confirm the position of the welding point by the content created according to the object to be welded, so advance preparation such as gabari is not required. In addition, since the determination process is performed for each determination object indicating the welding point, it is possible to confirm without omission. In addition, since the judgment results are accumulated as data, it is easy to report to superiors, analyze the locations and patterns of welding defects, and use the judgment results for improvement activities related to welding work. Become.

(第2の使用例)
第2の使用例について説明する。第2の使用例は、コンテンツ表示システムを塗装後の確認作業に用いた場合の使用例である。
(Second usage example)
A second usage example will be described. A second usage example is a usage example when the content display system is used for confirmation work after painting.

旧来、塗装対象に塗料が塗布された後には確認作業が行われる。確認作業においては、塗布材の種類、塗布位置、塗布範囲が正しいか否かが確認される。塗布範囲の確認においては、必要な範囲に塗布されているか、塗布範囲外にはみ出していないかが確認されるが、全ての塗布場所が確認されたかは作業者に委ねられる。作業者は、確認作業後、別途PC等で確認結果を入力することによって上長に報告する。 Conventionally, a confirmation operation is performed after paint has been applied to an object to be painted. In the confirmation work, it is confirmed whether or not the type of coating material, coating position, and coating range are correct. In confirming the coating range, it is confirmed whether the coating is applied to the required range and whether the coating does not protrude outside the coating range. After the confirmation work, the worker reports the confirmation result to the superior by separately inputting the confirmation result on a PC or the like.

コンテンツ表示システム1を塗装後の確認作業に用いた場合、確認用のチェックリスト等の事前準備が不要となり、塗装作業に合わせて作成されたコンテンツによって塗布材の種類、塗布位置、塗布サイズを確認することができる。塗布位置を示す判定オブジェクト毎に判定処理がなされることによって抜け漏れなく確認することができる。また、判定結果がデータとして蓄積されるため、上長への報告作業が容易になるとともに、塗布不良の多い場所やパターン等を分析し、塗布作業に関する改善活動に判定結果を活用することが容易となる。 When the content display system 1 is used for confirmation work after painting, advance preparation such as a checklist for confirmation is not required, and the type, application position, and application size of the coating material are confirmed by the content created in accordance with the coating work. can do. Since the determination process is performed for each determination object indicating the application position, it is possible to confirm without omission. In addition, since the judgment results are accumulated as data, it is easy to report to superiors, analyze the locations and patterns of frequent coating defects, and use the judgment results for improvement activities related to coating work. becomes.

(第3の使用例)
第3の使用例について説明する。第3の使用例は、コンテンツ表示システムを金型とプレス機の組み付け検証作業に用いた場合の使用例である。
(Third usage example)
A third usage example will be described. A third example of use is a case where the content display system is used to verify the assembly of a mold and a press machine.

旧来、金型とプレス機の組み付け検証作業においては、上下反転されたプレス金型の上に実寸サイズのシートやガバリが、金型と金型を設置するプレス機毎に事前に準備され、シートやガバリが金型に貼り付けられる。作業者は、クッションピンやクッションピンを保護する保護部材がプレス金型の土台部分(井桁形状)に干渉しないかを確認する。プレス機毎に形状の差異があるため、クッションピンや保護部材の干渉が生じた場合、作業者は、必要に応じて金型の土台部分を削る等の作業を行って干渉を除去する。一般的に、検証作業と干渉の予防作業は、異なる作業者により行われ、検証作業を行う作業者は、予防作業を行う作業者に対して、検証作業結果を口頭や書類等で伝達している。そのため、誰が、いつ、どの部分の、どんな作業を行ったかについては、紙で記録されるか、記録が残されない。 Conventionally, when verifying the assembly of a die and a press machine, a full-size sheet or guard is prepared in advance for each die and press machine on which the die is installed, and the sheet is placed on the upside-down inverted press die. and gabari are attached to the mold. The operator checks whether the cushion pin or the protective member that protects the cushion pin does not interfere with the base portion of the press die (in the shape of a grid). Since there is a difference in the shape of each press, if interference occurs between cushion pins and protective members, the operator removes the interference by scraping the base portion of the mold as necessary. In general, verification work and interference prevention work are performed by different workers. there is For this reason, who performed what kind of work at what time is recorded on paper or left unrecorded.

コンテンツ表示システム1を金型とプレス機の組み付け検証作業に用いた場合、ガバリ等の事前準備が不要となり、仮想オブジェクトとしてのクッションピン等の位置を確認することができる。判定オブジェクトとしてのクッションピン毎に判定処理がなされることによって、作業者は、抜け漏れなく確認することができる。または、判定結果がデータとして蓄積可能なため、事後のデータ分析を行い、干渉の多い場所やパターン等を分析し改善活動に活用することができる。 When the content display system 1 is used for verifying the assembly of a mold and a press machine, it is possible to confirm the positions of cushion pins and the like as virtual objects without the need for advance preparation such as gabari. By performing determination processing for each cushion pin as a determination object, the operator can check without omission. Alternatively, since the judgment results can be accumulated as data, it is possible to analyze the data after the fact, analyze the locations and patterns of frequent interference, and utilize them for improvement activities.

また、検証作業と干渉の予防作業とで作業者が異なっていても、判定結果がデータとして出力されることによって、どの部分にどんな作業を必要としているかを伝達することができ、作業後に誰が、いつ、どの部分の、どんな作業を行ったかを記録に残すことができる。判定結果や伝達した記録がデータとして蓄積可能なため、事後にデータ分析を行い、不良の多い場所やパターン等を分析し改善活動に活用することができる。 In addition, even if different workers are involved in the verification work and the interference prevention work, outputting the judgment results as data makes it possible to communicate what kind of work is required for which part. You can keep a record of when, what part, and what kind of work was done. Since judgment results and transmitted records can be accumulated as data, data analysis can be performed after the fact, and the locations and patterns of many defects can be analyzed and used for improvement activities.

(第4の使用例)
第4の使用例について説明する。第4の使用例は、コンテンツ表示システムを金型のメンテナンス作業に用いた場合の使用例である。
(Fourth usage example)
A fourth usage example will be described. A fourth example of use is a case where the content display system is used for mold maintenance work.

旧来、定期的に行われる金型のメンテンス作業においては、確認作業者が、金型を機械から取り外し、溶接、切削、ばね交換、クッション交換等による補修を行う場所を目視により確認していた。更に、補修作業者は、口頭、文章、写真等を用いた確認作業者からの伝達に基づいて、金型の補修作業を行っていた。しかし、確認時と補修時とには時間的な差異があるため、補修内容が曖昧になり、補修個所や補修内容の確認に無駄が生じていた。 Conventionally, in regular mold maintenance work, a checker removes the mold from the machine and visually checks the place where the mold is to be repaired by welding, cutting, spring replacement, cushion replacement, or the like. Furthermore, the repair workers have been performing repair work on the mold based on communication from the confirmation workers using verbal, text, photographs, or the like. However, since there is a time difference between the time of confirmation and the time of repair, the content of repair becomes ambiguous, and confirmation of the repaired part and the content of repair is wasteful.

コンテンツ表示システム1を金型のメンテナンス作業に用いた場合、確認作業者は、判定オブジェクトによって、金型のどの場所に対して、何を、どうすればよいのかを、様々なメディアファイルを用いて明確に示すことができる。更に、補修作業者も、どの場所で、何を、どうすればよいのかが明確に理解でき、タイムラグなく補修作業を実施できる。 When the content display system 1 is used for mold maintenance work, the confirmation operator clearly uses various media files to determine what should be done and what should be done for which location of the mold using the determination object. can be shown. Furthermore, repair workers can clearly understand where, what, and how, and can perform repair work without time lag.

また、誰が、いつ、どの部分を補修したかを含めて記録することができるため、確認結果や伝達した情報、補修作業記録がデータとして蓄積可能となり、蓄積されたデータを用いて、不良の多い場所やパターン等を分析し改善活動に活用することができる。更に、このような分析結果を設計部門や開発部門にフィードバックすることで、不良回数の削減や補修しやすい設計に役立てることができる。また、分析結果を用いて、予防保全としての定期メンテナンスのスケジュール調整にも活用することができ、事後保全としての不定期のメンテナンスの発生を減らすこともできる。 In addition, since it is possible to record who repaired which part when and, it is possible to accumulate the confirmation results, transmitted information, and repair work records as data. It is possible to analyze places and patterns, etc. and use them for improvement activities. Furthermore, by feeding back the results of such analysis to the design and development departments, it is possible to reduce the number of defects and make designs that are easy to repair. In addition, the analysis results can be used to adjust the schedule of regular maintenance as preventive maintenance, and the occurrence of irregular maintenance as post-maintenance can be reduced.

(第5の使用例)
第5の使用例について説明する。第5の使用例は、コンテンツ表示システムを塗装における塗布範囲の指定に用いた場合の使用例である。
(Fifth usage example)
A fifth usage example will be described. A fifth usage example is a usage example in which the content display system is used to designate an application range in painting.

旧来、どの位置にどの塗布材を塗布すればよいかを示すため、プラスチックや金属で製作されたカバー等を含む専用器具を配置し、その周辺にマスキングテープを貼り付ける作業がなされていた。試作段階では何度も設計が変更されるため、設計変更に応じて専用器具も作成し直す必要がある。専用器具の製作に時間を要するため、設計変更からマスキング作業を実施するまでにタイムラグが生じていた。 In the past, in order to indicate which application material should be applied to which position, a special tool including a cover made of plastic or metal was arranged, and masking tape was attached around it. Since the design is changed many times in the prototype stage, it is necessary to recreate the special equipment according to the design change. Since it takes time to manufacture the special equipment, there was a time lag between the design change and the masking work.

コンテンツ表示システム1を塗布範囲の指定に用いて、塗布対象の設計データに基づくコンテンツを塗布対象に重畳することによって、塗布位置や塗布範囲が明確となり、専用器具なしにマスキングテープの貼り付けを行うことができる。更に、専用器具を製作するため時間や費用が低減される。 By using the content display system 1 to specify the application range and superimposing the content based on the design data of the application target on the application target, the application position and the application range are clarified, and the masking tape is pasted without a special tool. be able to. Furthermore, time and cost are reduced because special tools are manufactured.

(第6の使用例)
第6の使用例について説明する。第6の使用例は、コンテンツ表示システムを機械設備の配置計画に用いた場合の使用例である。
(Sixth usage example)
A sixth usage example will be described. A sixth usage example is a usage example when the content display system is used for layout planning of machinery and equipment.

旧来、新たに機械設備が設置される場合や機械設備の入れ替えを実施する場合、設計図面に基づいて機械設備が工場建屋内に設置可能かが判断されていた。この場合、機械設備が動作する際に生じうる建屋や他の機械設備等に対する干渉や、建屋内で従事する作業者の動線、部材運搬車の動線等の考慮が不十分となり、機械設備の配置を見直す作業が生じていた。 In the past, when new machinery was installed or when machinery was replaced, it was determined whether the machinery could be installed in the factory building based on design drawings. In this case, consideration of the interference with the building and other machinery that may occur when the machinery operates, the flow line of workers engaged in the building, the flow line of the material transport vehicle, etc. There was a need to review the placement of

コンテンツ表示システム1を機械設備の配置計画に用いた場合、既存の工場建屋内や機械設備に対して、新たに設置する仮想の機械設備を配置することができるため、あらかじめ、建屋や他の機械設備等に対する干渉や、作業者の動線、部材運搬車の動線等の考慮や確認を十分に行うことができる。 When the content display system 1 is used for layout planning of machinery and equipment, it is possible to arrange newly installed virtual machinery and equipment with respect to existing factory buildings and machinery. It is possible to sufficiently consider and confirm interference with equipment, the flow line of workers, the flow line of material transport vehicles, and the like.

以上に説明したように、コンテンツ表示システム1によれば、コンテンツ表示装置10、コンテンツ管理装置20として、汎用的なタブレット型端末やPCを用いることができるため、MR技術を用いた対象物に対する判定作業をより安価に実現することができる。 As described above, according to the content display system 1, since a general-purpose tablet terminal or PC can be used as the content display device 10 and the content management device 20, determination of an object using MR technology is possible. Work can be done more cheaply.

<第2の実施形態>
第2の実施形態に係るコンテンツ表示システムについて説明する。図23、図25、図26は、それぞれ、本実施形態に係るコンテンツ生成処理、コンテンツ表示装置の動作、可変処理を示すフローチャートである。図24は、本実施形態に係るオブジェクト情報を示す図である。図27は、本実施形態に係る実オブジェクトを示す概略図である。図28は、本実施形態に係る実オブジェクトに重畳された仮想オブジェクトを表示するコンテンツ表示装置を示す図である。
<Second embodiment>
A content display system according to the second embodiment will be described. 23, 25, and 26 are flow charts showing content generation processing, operation of the content display device, and variable processing, respectively, according to this embodiment. FIG. 24 is a diagram showing object information according to this embodiment. FIG. 27 is a schematic diagram showing a real object according to this embodiment. FIG. 28 is a diagram showing a content display device that displays a virtual object superimposed on a real object according to this embodiment.

本実施形態に係るコンテンツ表示装置10は、実オブジェクトに重畳して表示される仮想オブジェクトのスケールが仮想空間の3軸(x,y,z、図11参照)毎に変更可能である点において、第1の実施形態とは異なる。本実施形態においては、スケールを拡大縮小可能な仮想オブジェクトである可変オブジェクトがコンテンツに含まれる。 In the content display device 10 according to the present embodiment, the scale of the virtual object displayed superimposed on the real object can be changed for each of the three axes (x, y, z, see FIG. 11) of the virtual space. It differs from the first embodiment. In this embodiment, the content includes a variable object, which is a virtual object whose scale can be expanded or reduced.

このような可変オブジェクトを生成するため、本実施形態に係るコンテンツ生成処理は、図23に示すように、ステップS106,S108,S109の後にステップS111が実行される点において、第1の実施形態とは異なる。コンテンツ管理装置20の変換部201は、ステップS111において、選択中のグループが可変対象に設定されているか否かを判定する。 In order to generate such a variable object, the content generation process according to the present embodiment differs from the first embodiment in that step S111 is executed after steps S106, S108, and S109, as shown in FIG. is different. In step S111, the conversion unit 201 of the content management device 20 determines whether or not the selected group is set as a variable target.

選択中のグループが可変対象である場合(S111,YES)、変換部201は、選択中のグループに含まれる仮想オブジェクトのそれぞれのオブジェクト情報における可変対象フラグを“ON”にし(S112,YES)、ステップS107の処理を実行する。一方、選択中のグループが可変対象ではない場合(S112,NO)、変換部201は、選択中のグループに含まれる仮想オブジェクトのそれぞれのオブジェクト情報における可変対象フラグを“OFF”にし、ステップS107の処理を実行する。 If the group being selected is a variable target (S111, YES), the conversion unit 201 sets the variable target flag in the object information of each virtual object included in the group being selected to "ON" (S112, YES), The process of step S107 is executed. On the other hand, if the group being selected is not a variable target (S112, NO), the conversion unit 201 sets the variable target flag in the object information of each virtual object included in the group being selected to "OFF". Execute the process.

このように生成された本実施形態に係るオブジェクト情報は、図24に示すように、オブジェクトIDに対して、可変対象フラグ、xスケール、yスケール、zスケールを更に対応付ける点において、第1の実施形態とは異なる。可変対象フラグは、対応する仮想オブジェクトが可変対象であるか否かを示す。xスケール、yスケール、zスケールは、いずれも0を初期値とし、最小値としての負値から最大値としての正値までの値が入力され、負値が入力された場合には対応する仮想オブジェクトが縮小され、正値が入力された場合には対応する仮想オブジェクトが拡大される。xスケールは対応する仮想オブジェクトのx軸方向のスケールを示す。yスケールは対応する仮想オブジェクトのy軸方向のスケールを示す。zスケールは対応する仮想オブジェクトのz軸方向のスケールを示す。例えば、zスケールに負値が入力されると、対応する仮想オブジェクトはz軸方向にのみ縮小される。 As shown in FIG. 24, the object information according to the present embodiment generated in this manner is similar to the first embodiment in that the object ID is further associated with the variable target flag, the x scale, the y scale, and the z scale. different from the form. The variable target flag indicates whether or not the corresponding virtual object is variable target. The x-scale, y-scale, and z-scale all have an initial value of 0, and input values ranging from a negative value as the minimum value to a positive value as the maximum value. Objects are shrunk and corresponding virtual objects are magnified if a positive value is entered. The x-scale indicates the scale of the corresponding virtual object in the x-axis direction. The y scale indicates the scale of the corresponding virtual object in the y-axis direction. The z-scale indicates the scale of the corresponding virtual object in the z-axis direction. For example, if a negative value is entered for z-scale, the corresponding virtual object will only shrink in the z-axis direction.

本実施形態に係るコンテンツ表示装置10は、図25に示すように、出力処理がなされる前にステップS208の処理として可変処理を実行する点において、第1の実施形態とは異なる。可変処理においては、図26に示すように、まず、表示処理部104は、可変対象フラグが“ON”に設定された仮想オブジェクトである可変オブジェクトが表示中のコンテンツに含まれるか否かを判定する(S601)。 As shown in FIG. 25, the content display apparatus 10 according to the present embodiment differs from the first embodiment in that variable processing is executed as processing in step S208 before output processing is performed. In the variable processing, as shown in FIG. 26, first, the display processing unit 104 determines whether or not a variable object, which is a virtual object whose variable target flag is set to "ON", is included in the content being displayed. (S601).

可変オブジェクトが含まれる場合(S601,YES)、表示処理部104は、可変オブジェクトがユーザにより選択されたか否かを判定し(S602)、可変オブジェクトが選択された場合(S602,YES)、3軸のうち選択された軸方向のスケールを可変させる可変指示がユーザによりなされたか否かを判定する(S603)。可変指示がなされた場合(S603,YES)、表示処理部104は、可変指示に基づいて可変オブジェクトのスケールを変更する(S604)。 If a variable object is included (S601, YES), the display processing unit 104 determines whether or not a variable object has been selected by the user (S602). It is determined whether or not the user has issued a variable instruction to vary the scale in the selected axial direction (S603). If a variable instruction has been issued (S603, YES), the display processing unit 104 changes the scale of the variable object based on the variable instruction (S604).

可変オブジェクトが含まれない場合(S601,NO)、可変オブジェクトが選択されない場合(S602,NO)、または、可変指示がなされない場合(S603,NO)、可変処理が終了される。 If no variable object is included (S601, NO), if no variable object is selected (S602, NO), or if no variable instruction is given (S603, NO), the variable processing ends.

図27~図29を参照して、具体例として、スケールが縮小される可変オブジェクトについて説明する。この具体例において、実オブジェクトROは、図27に示すように、上面に穴Hが形成された略直方体状の物体とし、穴Hは底面Bが形成される非貫通穴とする。また、図28に示すように、z軸方向に延在する柱状の可変オブジェクトVOが実オブジェクトROに重畳されて表示されるものとする。また、可変オブジェクトVOは、穴Hに挿入されるパーツを模したものとする。 As a specific example, a variable object whose scale is reduced will be described with reference to FIGS. 27 to 29. FIG. In this specific example, as shown in FIG. 27, the real object RO is a substantially rectangular parallelepiped object having a hole H formed in its upper surface, and the hole H is a non-through hole having a bottom surface B formed therein. Also, as shown in FIG. 28, it is assumed that a columnar variable object VO extending in the z-axis direction is displayed superimposed on the real object RO. Also, the variable object VO is supposed to imitate a part to be inserted into the hole H. As shown in FIG.

上述した可変指示は、タッチパネル上に表示されるGUIである可変操作部VCを用いてなされる。可変操作部VCは、可変オブジェクトVOのスケールを可変させる軸を選択するための3つのチェックボックスと、ツマミを左右方向に操作可能なスライダーUIとを含む。ツマミが左側に移動されると可変オブジェクトVOが縮小され、ツマミが右側に移動される可変オブジェクトVOが拡大される。 The variable instruction described above is made using the variable operation unit VC, which is a GUI displayed on the touch panel. The variable operation unit VC includes three check boxes for selecting the axis for varying the scale of the variable object VO, and a slider UI that can operate the knob in the horizontal direction. When the knob is moved to the left, the variable object VO is reduced, and when the knob is moved to the right, the variable object VO is enlarged.

図28においては、可変オブジェクトVOのスケールを可変させる軸としてz軸(図28中上下方向)が選択され、つまみは中央部にあるため、可変オブジェクトVOはスケールが変化されていない状態にある。可変オブジェクトVOは、穴Hに嵌合される位置に配されるが、穴Hの底面Bが可変オブジェクトVOに覆われ、可変オブジェクトVOが穴Hの底面Bと干渉するか否かをユーザは判定することができない。 In FIG. 28, the z-axis (vertical direction in FIG. 28) is selected as the axis for varying the scale of the variable object VO, and the knob is located in the center, so the scale of the variable object VO is not changed. The variable object VO is positioned to fit into the hole H, but the user can determine whether the bottom surface B of the hole H is covered with the variable object VO and the variable object VO interferes with the bottom surface B of the hole H. I can't judge.

図29に示すように、可変操作部VCにおけるスライダーUIのツマミが左側に移動されると、可変オブジェクトVOがz軸方向に縮小される。これによって、可変オブジェクトVOと穴Hの底面Bとの両方がタッチパネル14上に表示され、ユーザは可変オブジェクトVOが穴Hの底面Bと干渉するか否かを判定することができる。 As shown in FIG. 29, when the knob of the slider UI in the variable operation unit VC is moved leftward, the variable object VO is reduced in the z-axis direction. As a result, both the variable object VO and the bottom surface B of the hole H are displayed on the touch panel 14, and the user can determine whether the variable object VO interferes with the bottom surface B of the hole H or not.

本実施形態に係るコンテンツ表示装置10によれば、上述した第3の使用例のように、金型とプレス機の組み付け検証作業に用いた場合、複数の凹部を有する金型に対して、クッションピンを模した仮想オブジェクトのスケールを凹部の凹み方向に縮小させることによって、金型の凹部の底部とクッションピンとの干渉具合を容易に確認することができる。 According to the content display device 10 according to the present embodiment, as in the above-described third usage example, when used for verifying the assembly of a mold and a press machine, a cushion is applied to a mold having a plurality of concave portions. By reducing the scale of the virtual object that imitates the pin in the recessed direction of the recess, it is possible to easily check the degree of interference between the bottom of the recess of the mold and the cushion pin.

<第3の実施形態>
第3の実施形態に係るコンテンツ表示システムについて説明する。図30は、本実施形態に係るコンテンツ生成処理を示すフローチャートである。図31は、本実施形態に係るオブジェクト情報を示す図である。図32は、本実施形態に係る階層化された仮想オブジェクト群を示す図である。
<Third Embodiment>
A content display system according to the third embodiment will be described. FIG. 30 is a flowchart showing content generation processing according to this embodiment. FIG. 31 is a diagram showing object information according to this embodiment. FIG. 32 is a diagram showing a hierarchical virtual object group according to this embodiment.

本実施形態に係るコンテンツ表示装置10は、コンテンツに含まれる複数の仮想オブジェクトを階層化して扱うことができる点において、第1の実施形態とは異なる。本実施形態においては、自身が属するグループが属するグループに対応付けられた仮想オブジェクトである階層化オブジェクトがコンテンツに含まれる。 The content display device 10 according to the present embodiment differs from the first embodiment in that it can hierarchize and handle a plurality of virtual objects included in content. In this embodiment, the content includes a layered object that is a virtual object associated with the group to which the group to which the content belongs belongs.

このような階層化オブジェクトを生成するため、本実施形態に係るコンテンツ生成処理は、図30に示すように、ステップS106,S108,S109の後にステップS121が実行される点において、第1の実施形態とは異なる。コンテンツ管理装置20の変換部201は、ステップS121において、選択中のグループが構造化対象に設定されているか否かを判定する。 In order to generate such a hierarchical object, as shown in FIG. 30, the content generation process according to the present embodiment is different from the first embodiment in that step S121 is executed after steps S106, S108, and S109. different from In step S121, the conversion unit 201 of the content management device 20 determines whether or not the selected group is set as a structuring target.

選択中のグループが構造化対象である場合(S121,YES)、変換部201は、選択中のグループに含まれる仮想オブジェクトのそれぞれのオブジェクト情報における親ID(後述)に対して、これらの仮想オブジェクトが属するグループが属するグループを示すグループIDをセットし(S122,YES)、ステップS107の処理を実行する。一方、選択中のグループが構造化対象ではない場合(S122,NO)、変換部201は、オブジェクト情報における親IDに変更を加えず、空ステップS107の処理を実行する。なお、親IDの初期値は空値またはコンテンツにおける全ての仮想オブジェクトを含むルートグループを示すグループIDとする。また、親IDは、コンテンツ生成処理の実行に先立ってユーザに指定されたグループがセットされるか、入力された3Dデータに含まれる構造化情報に基づいて設定されるものとする。 If the selected group is to be structured (S121, YES), the conversion unit 201 converts the parent ID (described later) in the object information of each virtual object included in the selected group to these virtual objects. A group ID indicating the group to which the group belongs is set (S122, YES), and the process of step S107 is executed. On the other hand, if the selected group is not a structuring target (S122, NO), the conversion unit 201 executes the processing of empty step S107 without changing the parent ID in the object information. The initial value of the parent ID is a null value or a group ID indicating a root group containing all virtual objects in the content. Also, the parent ID is set to a group specified by the user prior to execution of the content generation process, or is set based on structural information included in the input 3D data.

このように生成された本実施形態に係るオブジェクト情報は、図31に示すように、オブジェクトIDに対して、上述した親IDを更に対応付ける点において、第1の実施形態とは異なる。親IDには、対応するグループIDに示されるグループが属するグループを示すグループIDがセットされる。 As shown in FIG. 31, the object information according to the present embodiment generated in this way differs from the first embodiment in that the object ID is further associated with the parent ID described above. A group ID indicating a group to which the group indicated by the corresponding group ID belongs is set in the parent ID.

このような親IDを含むオブジェクト情報によれば、図32に示すように、仮想オブジェクトを階層化して扱うことができる。図32には、仮想オブジェクトとしての6つのナットA~Fが示される。6つのナットA~Fのそれぞれのオブジェクト情報における親IDにはG1がセットされ、ナットA~Cのそれぞれのオブジェクト情報におけるグループIDにはG2がセットされ、ナットD~Fのそれぞれのオブジェクト情報におけるグループIDにはG3がセットされる。これによって、“エリア1”に属する3つのナットと、“エリア1”とは異なる“エリア2”に属する3つのナットとを含む全てのナットを表現することができる。また、他のグループに属するグループが親IDとしてセットされても良く、仮想オブジェクトが3階層以上に階層化されても良い。 According to object information including such parent IDs, as shown in FIG. 32, virtual objects can be hierarchized and handled. FIG. 32 shows six nuts A to F as virtual objects. G1 is set in the parent ID in the object information of each of the six nuts A to F, G2 is set in the group ID in the object information of each of the nuts A to C, and G2 is set in the object information of each of the nuts D to F. G3 is set as the group ID. With this, all nuts including three nuts belonging to "area 1" and three nuts belonging to "area 2" different from "area 1" can be expressed. Also, a group belonging to another group may be set as the parent ID, and the virtual object may be hierarchized in three or more hierarchies.

このように仮想オブジェクトを構造化することによって、複数の仮想オブジェクトに対する変更をより柔軟に行うことができる。例えば、図32に示されるようにナットの表示色を変更する場合、まず、全てのナットの表示色を赤に変更し、“エリア1”に属するナットのうち、ナットBのみの表示色を青に変更し、“エリア2”に属する全てのナットの表示色を黄色に変更すれば良い。このように、仮想オブジェクトの構造化によれば、全ての仮想オブジェクトを個別に変更する場合と比較して、同一グループに属する一部の仮想オブジェクトに対する変更がより容易となる。 Structuring the virtual objects in this way allows for more flexibility in making changes to multiple virtual objects. For example, when changing the display color of nuts as shown in FIG. 32, first, the display color of all nuts is changed to red, and among the nuts belonging to "area 1", the display color of only nut B is changed to blue. , and change the display color of all nuts belonging to "Area 2" to yellow. In this way, structuring virtual objects makes it easier to change some virtual objects belonging to the same group, compared to the case where all virtual objects are individually changed.

本実施形態に係るコンテンツ表示装置10を、上述の第2の使用例のような塗装後の確認作業に用いた場合、多数の塗布位置を、塗布場所や塗布材だけでなく、担当するエリアや担当者毎に区分することができ、塗装作業におけるミスを減らすことができる。また、作業者が、コンテンツ表示装置10において、チェックを完了した塗布位置を非表示にし、未チェックのもののみを表示させることによって、チェックの効率を高めることもできる。 When the content display device 10 according to the present embodiment is used for confirmation work after painting as in the above-described second usage example, a large number of application positions can be determined not only by the application location and the application material, but also by the area in charge and the application material. It is possible to classify each person in charge, and it is possible to reduce mistakes in painting work. In addition, the operator can hide the checked application positions on the content display device 10 and display only the unchecked ones, thereby improving the checking efficiency.

発明の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and its equivalents.

10 コンテンツ表示装置
101 パラメータ算出部
102 パラメータ更新部
104 表示処理部
105 判定処理部
106 出力処理部
10 content display device 101 parameter calculation unit 102 parameter update unit 104 display processing unit 105 determination processing unit 106 output processing unit

Claims (19)

少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示装置であって、
実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした前記コンテンツ表示装置の初期位置及び初期姿勢を初期パラメータとして算出するパラメータ算出部と、
前記コンテンツ表示装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記コンテンツ表示装置の位置及び姿勢を更新するパラメータ更新部と
前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示する表示処理部と、
表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更する判定処理部と
を備えるコンテンツ表示装置。
A content display device for displaying content including at least one or more virtual objects,
a parameter calculation unit that calculates, as initial parameters, an initial position and an initial orientation of the content display device with the position of the real object as the origin, based on the captured image of the real object;
a parameter updating unit that calculates displacement of the position and orientation of the content display device and updates the position and orientation of the content display device with the initial position and the initial orientation as origins; and a virtual object with the position of the real object as the origin. a display processing unit that superimposes and displays the content arranged in space on the real object;
A content display device, comprising: a determination processing unit that changes a determination state for a virtual object included in displayed content when a selection operation is performed on the virtual object.
前記判定処理部は、前記仮想オブジェクトに対する選択操作回数に応じて、該仮想オブジェクトに対する判定状態を変更することを特徴とする請求項1に記載のコンテンツ表示装置。 2. The content display device according to claim 1, wherein the determination processing unit changes the determination state for the virtual object according to the number of selection operations for the virtual object. 前記仮想オブジェクトに対する判定状態は、少なくとも正常状態と異常状態とを含むことを特徴とする請求項1または請求項2に記載のコンテンツ表示装置。 3. The content display device according to claim 1, wherein the determination state for the virtual object includes at least normal state and abnormal state. 異常と判定された仮想オブジェクトに関する判定結果情報を出力する出力処理部を更に備えることを特徴とする請求項3に記載のコンテンツ表示装置。 4. The content display device according to claim 3, further comprising an output processing unit that outputs determination result information regarding the virtual object determined to be abnormal. 前記判定結果情報は、異常と判定された仮想オブジェクトを示す識別子であるオブジェクトIDと、判定状態を変更したユーザを示すユーザIDとを対応付けることを特徴とする請求項4に記載のコンテンツ表示装置。 5. The content display device according to claim 4, wherein the determination result information associates an object ID, which is an identifier indicating a virtual object determined to be abnormal, with a user ID indicating a user who changed the determination state. 前記判定結果情報は、前記オブジェクトIDと、前記判定状態が変更された日時とを更に対応付けることを特徴とする請求項5に記載のコンテンツ表示装置。 6. The content display device according to claim 5, wherein the determination result information further associates the object ID with a date and time when the determination state was changed. 前記判定結果情報は、前記オブジェクトIDと、該オブジェクトIDにより示される仮想オブジェクトに対するテキストとを更に対応付けることを特徴とする請求項5または請求項6に記載のコンテンツ表示装置。 7. The content display device according to claim 5, wherein said determination result information further associates said object ID with a text for a virtual object indicated by said object ID. 前記判定結果情報は、前記オブジェクトIDと、メディアファイルとを更に対応付けることを特徴とする請求項5~請求項7のいずれか一項に記載のコンテンツ表示装置。 8. The content display device according to claim 5, wherein said determination result information further associates said object ID with a media file. 前記パラメータ算出部は、ユーザによる指示操作に基づいて、前記実オブジェクトの撮像画像に基づく前記コンテンツ表示装置の初期位置及び初期姿勢を算出することを特徴とする請求項1~請求項8のいずれか一項に記載のコンテンツ表示装置。 9. The parameter calculator according to any one of claims 1 to 8, wherein the parameter calculator calculates an initial position and an initial orientation of the content display device based on the captured image of the real object, based on an instruction operation by a user. 1. The content display device according to item 1. 前記パラメータ算出部は、所定の周期毎に、前記実オブジェクトの撮像画像に基づく前記コンテンツ表示装置の初期位置及び初期姿勢を算出することを特徴とする請求項1~請求項8のいずれか一項に記載のコンテンツ表示装置。 9. The parameter calculator according to any one of claims 1 to 8, wherein the parameter calculator calculates an initial position and an initial orientation of the content display device based on the captured image of the real object at each predetermined cycle. The content display device according to . 前記パラメータ算出部は、前記実オブジェクトにおける特徴部分が撮像される毎に、該実オブジェクトの撮像画像に基づく前記コンテンツ表示装置の初期位置及び初期姿勢を算出することを特徴とする請求項1~請求項8のいずれか一項に記載のコンテンツ表示装置。 1. The parameter calculation unit calculates an initial position and an initial orientation of the content display device based on a captured image of the real object each time a characteristic portion of the real object is captured. Item 9. The content display device according to any one of Item 8. 前記表示処理部は、前記仮想空間におけるユーザによる指定箇所を指し示すピン形状の仮想オブジェクトであるピンオブジェクトを表示することを特徴とする請求項1~請求項11のいずれか一項に記載のコンテンツ表示装置。 12. The content display according to any one of claims 1 to 11, wherein the display processing unit displays a pin object, which is a pin-shaped virtual object pointing to a location designated by the user in the virtual space. Device. 前記ピンオブジェクトは、テキスト、またはメディアファイルのうち少なくともいずれかを含む付加情報と対応付けられ、
前記表示処理部は、前記ピンオブジェクトが選択された場合、該ピンオブジェクトに対応付けられた付加情報を表示することを特徴とする請求項12に記載のコンテンツ表示装置。
the pin object is associated with additional information including at least one of text and media files;
13. The content display device according to claim 12, wherein when the pin object is selected, the display processing unit displays additional information associated with the pin object.
前記表示処理部は、ユーザの指示に基づいて、選択操作された仮想オブジェクトのスケールを前記仮想空間における3軸のうち選択された軸方向に拡大または縮小させることを特徴とする請求項1~請求項12のいずれか一項に記載のコンテンツ表示装置。 1. The display processing unit enlarges or reduces the scale of the selected virtual object in the direction of an axis selected from among three axes in the virtual space, based on a user's instruction. Item 13. The content display device according to any one of Items 12 to 13. 前記仮想オブジェクトは、自仮想オブジェクトが属するグループを示すグループIDと、該グループIDにより示されるグループが属する他のグループを示す親IDとに対応付けられることを特徴とする請求項1~請求項14のいずれか一項に記載のコンテンツ表示装置。 The virtual object is associated with a group ID indicating a group to which the virtual object belongs, and a parent ID indicating another group to which the group indicated by the group ID belongs. The content display device according to any one of 1. 少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示プログラムであって、
コンピュータを、
実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした自装置の初期位置及び初期姿勢を初期パラメータとして算出するパラメータ算出部と、
前記自装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記自装置の位置及び姿勢を更新するパラメータ更新部と
前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示する表示処理部と、
表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更する判定処理部
として機能させるコンテンツ表示プログラム。
A content display program for displaying content including at least one or more virtual objects,
the computer,
a parameter calculation unit that calculates, as initial parameters, an initial position and an initial orientation of the device with the position of the real object as the origin, based on the captured image of the real object;
a parameter updating unit that calculates the displacement of the position and orientation of the device, and updates the position and orientation of the device with the initial position and the initial orientation as starting points; and a virtual space with the position of the real object as the origin. a display processing unit that superimposes and displays the arranged content on the real object;
A content display program that functions as a determination processing unit that changes a determination state for a virtual object when a virtual object included in displayed content is selected.
少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示方法であって、
コンピュータが、
実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした自装置の初期位置及び初期姿勢を初期パラメータとして算出し、
前記自装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記自装置の位置及び姿勢を更新し、
前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示し、
表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更するコンテンツ表示方法。
A content display method for displaying content including at least one or more virtual objects,
the computer
calculating, as initial parameters, an initial position and an initial orientation of the device with the position of the real object as the origin, based on the captured image of the real object;
calculating the displacement of the position and orientation of the device, updating the position and orientation of the device with the initial position and the initial orientation as starting points;
displaying the content arranged in a virtual space with the position of the real object as the origin, superimposed on the real object;
A content display method for changing a determination state for a virtual object included in displayed content when a selection operation is performed on the virtual object.
少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示装置と、該コンテンツ表示装置と通信可能に接続されるコンテンツ管理装置とを備えるコンテンツ表示システムであって、
前記コンテンツ管理装置は、
入力された3次元データを該3次元データと該3次元データを一意に示す識別子であるコンテンツIDを含むコンテンツ情報に変換する変換部と、
前記変換されたコンテンツ情報を前記コンテンツ表示装置に送信するコンテンツ送信部とを備え、
前記コンテンツ表示装置は、
実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした前記コンテンツ表示装置の初期位置及び初期姿勢を初期パラメータとして算出するパラメータ算出部と、
前記コンテンツ表示装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記コンテンツ表示装置の位置及び姿勢を更新するパラメータ更新部と、
前記コンテンツ管理装置により送信されたコンテンツ情報を受信するコンテンツ受信部と、
前記受信されたコンテンツ情報に基づいて、前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示する表示処理部と、
表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更する判定処理部とを備えるコンテンツ表示システム。
A content display system comprising: a content display device displaying content including at least one or more virtual objects; and a content management device communicably connected to the content display device,
The content management device
a conversion unit that converts input three-dimensional data into content information including the three-dimensional data and a content ID that is an identifier that uniquely identifies the three-dimensional data;
a content transmission unit that transmits the converted content information to the content display device;
The content display device is
a parameter calculation unit that calculates, as initial parameters, an initial position and an initial orientation of the content display device with the position of the real object as the origin, based on the captured image of the real object;
a parameter updating unit that calculates the displacement of the position and orientation of the content display device and updates the position and orientation of the content display device with the initial position and the initial orientation as starting points;
a content receiving unit that receives content information transmitted by the content management device;
a display processing unit that superimposes and displays the content arranged in a virtual space with the position of the real object as an origin based on the received content information on the real object;
A content display system, comprising: a determination processing unit that changes a determination state for a virtual object included in displayed content when a selection operation is performed on the virtual object.
少なくとも1つ以上の仮想オブジェクトを含むコンテンツを表示するコンテンツ表示装置と、該コンテンツ表示装置と通信可能に接続されるコンテンツ管理装置とによって実行されるコンテンツ表示方法であって、
前記コンテンツ管理装置は、
入力された3次元データを該3次元データと該3次元データを一意に示す識別子であるコンテンツIDを含むコンテンツ情報に変換し、
前記変換されたコンテンツ情報を前記コンテンツ表示装置に送信し、
前記コンテンツ表示装置は、
実オブジェクトの撮像画像に基づいて、該実オブジェクトの位置を原点とした前記コンテンツ表示装置の初期位置及び初期姿勢を初期パラメータとして算出し、
前記コンテンツ表示装置の位置及び姿勢の変位を算出し、前記初期位置及び前記初期姿勢を起点とした前記コンテンツ表示装置の位置及び姿勢を更新し、
前記コンテンツ管理装置により送信されたコンテンツ情報を受信し、
前記受信されたコンテンツ情報に基づいて、前記実オブジェクトの位置を原点とした仮想空間に配された前記コンテンツを前記実オブジェクトに重畳させて表示し、
表示されるコンテンツに含まれる仮想オブジェクトが選択操作された場合、該仮想オブジェクトに対する判定状態を変更するコンテンツ表示方法。
A content display method executed by a content display device displaying content including at least one or more virtual objects and a content management device communicably connected to the content display device, comprising:
The content management device
converting the input three-dimensional data into content information including the three-dimensional data and a content ID that is an identifier uniquely indicating the three-dimensional data;
transmitting the converted content information to the content display device;
The content display device is
calculating, as initial parameters, an initial position and an initial orientation of the content display device with the position of the real object as the origin, based on the captured image of the real object;
calculating a displacement of the position and orientation of the content display device, updating the position and orientation of the content display device with the initial position and the initial orientation as starting points;
receiving content information transmitted by the content management device;
displaying the content arranged in a virtual space with the position of the real object as an origin based on the received content information, superimposed on the real object;
A content display method for changing a determination state for a virtual object included in displayed content when a selection operation is performed on the virtual object.
JP2022042877A 2021-10-18 2022-03-17 CONTENT DISPLAY DEVICE, CONTENT DISPLAY PROGRAM, CONTENT DISPLAY METHOD, AND CONTENT DISPLAY SYSTEM Active JP7330323B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280031873.1A CN117222970A (en) 2021-10-18 2022-05-18 Content display device, content display program, content display method, and content display system
PCT/JP2022/020692 WO2023067836A1 (en) 2021-10-18 2022-05-18 Content display device, content display program, content display method, and content display system
JP2023079460A JP2023104964A (en) 2021-10-18 2023-05-12 Product determination support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021170483 2021-10-18
JP2021170483 2021-10-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023079460A Division JP2023104964A (en) 2021-10-18 2023-05-12 Product determination support system

Publications (2)

Publication Number Publication Date
JP2023060799A true JP2023060799A (en) 2023-04-28
JP7330323B2 JP7330323B2 (en) 2023-08-21

Family

ID=86098374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022042877A Active JP7330323B2 (en) 2021-10-18 2022-03-17 CONTENT DISPLAY DEVICE, CONTENT DISPLAY PROGRAM, CONTENT DISPLAY METHOD, AND CONTENT DISPLAY SYSTEM

Country Status (1)

Country Link
JP (1) JP7330323B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014097413A1 (en) * 2012-12-19 2014-06-26 株式会社日立製作所 Operation support terminal and operation support system
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
JP2016006589A (en) * 2014-06-20 2016-01-14 富士通株式会社 Display device, control program and control method
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
JP2019153274A (en) * 2018-02-28 2019-09-12 東芝デジタルソリューションズ株式会社 Position calculation device, position calculation program, position calculation method, and content addition system
JP2020528184A (en) * 2017-07-28 2020-09-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information processing methods, devices, terminal devices and computer-readable storage media

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014097413A1 (en) * 2012-12-19 2014-06-26 株式会社日立製作所 Operation support terminal and operation support system
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
JP2016006589A (en) * 2014-06-20 2016-01-14 富士通株式会社 Display device, control program and control method
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
JP2020528184A (en) * 2017-07-28 2020-09-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information processing methods, devices, terminal devices and computer-readable storage media
JP2019153274A (en) * 2018-02-28 2019-09-12 東芝デジタルソリューションズ株式会社 Position calculation device, position calculation program, position calculation method, and content addition system

Also Published As

Publication number Publication date
JP7330323B2 (en) 2023-08-21

Similar Documents

Publication Publication Date Title
Doil et al. Augmented reality for manufacturing planning
Pentenrieder et al. Augmented Reality-based factory planning-an application tailored to industrial needs
Tezel et al. From conventional to it based visual management: A conceptual discussion for lean construction
US7139685B2 (en) Video-supported planning of equipment installation and/or room design
US20180068035A1 (en) Modeling and designing system and method
KR100844467B1 (en) A simulation system and method for construction progression state with 3d
Bellalouna Industrial case studies for digital transformation of engineering processes using the virtual reality technology
Gong et al. A novel VR tool for collaborative planning of manufacturing process change using point cloud data
Yap et al. Safety enablers using emerging technologies in construction projects: empirical study in Malaysia
CN104951350A (en) Aerospace product general assembly technology simulation analysis method
Fernandes Advantages and disadvantages of BIM platforms on construction site
CN111062150A (en) Three-dimensional visual factory management system
Larek et al. Industry 4.0 in manual assembly processes–a concept for real time production steering and decision making
TWI469068B (en) Quality control system, specification and task management system, device, application program and storage medium thereof
Nåfors et al. Simulation in hybrid digital twins for factory layout planning
KR101476909B1 (en) Real-time Process Monitoring System using Block Image
Wang et al. Multi-person collaborative augmented reality assembly process evaluation system based on hololens
JP7330323B2 (en) CONTENT DISPLAY DEVICE, CONTENT DISPLAY PROGRAM, CONTENT DISPLAY METHOD, AND CONTENT DISPLAY SYSTEM
WO2023067836A1 (en) Content display device, content display program, content display method, and content display system
US10685147B2 (en) Non-conformance mapping and visualization
Chung et al. Information exchange process for AR based smart facility maintenance system using BIM model
KR20140058933A (en) Method for calculating painting area of ship or marine plant
Kim et al. Application of augmented reality object in construction project
KR101081190B1 (en) Method for painting BOM using drawing recognition and system for thereof
CN117222970A (en) Content display device, content display program, content display method, and content display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R150 Certificate of patent or registration of utility model

Ref document number: 7330323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150