JP2017091561A - Display control device, display control method, display control program, information provision system, information setting device, information setting method, and information setting program - Google Patents

Display control device, display control method, display control program, information provision system, information setting device, information setting method, and information setting program Download PDF

Info

Publication number
JP2017091561A
JP2017091561A JP2016243523A JP2016243523A JP2017091561A JP 2017091561 A JP2017091561 A JP 2017091561A JP 2016243523 A JP2016243523 A JP 2016243523A JP 2016243523 A JP2016243523 A JP 2016243523A JP 2017091561 A JP2017091561 A JP 2017091561A
Authority
JP
Japan
Prior art keywords
content
display
display data
marker
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016243523A
Other languages
Japanese (ja)
Other versions
JP6350640B2 (en
Inventor
奨 古賀
Sho Koga
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016243523A priority Critical patent/JP6350640B2/en
Publication of JP2017091561A publication Critical patent/JP2017091561A/en
Application granted granted Critical
Publication of JP6350640B2 publication Critical patent/JP6350640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an AR content individually depending on a business process to be performed.SOLUTION: According to one embodiment of the invention, a display control device includes: an acquisition unit for acquiring, from a display data group correlated to a plurality of work contents that include one or a plurality of display data correlated to a first work content and one or a plurality of display data correlated to a second work content, one or a plurality of display data correlated to the first work content out of the plurality of work contents; and a control unit for exercising control so that the acquired one or plurality of display data are displayed in a display mode based on a reference object recognized by image recognition. Any of the one or plurality of display data correlated at least to the first work content and any of the one or plurality of display data correlated at least to the second work content are associated with a common reference object.SELECTED DRAWING: Figure 9

Description

本発明は、表示による情報提供を行なう技術に関する。   The present invention relates to a technique for providing information by display.

現実空間に対応する3次元の仮想空間上に配置された3次元物体のモデルデータを、撮像画像に重ねて表示することが行なわれる。この技術は、人間の知覚(視覚など)により収集される情報を拡張させるため、拡張現実(Augmented Reality:AR)などと呼ばれる。ARに用いられる3次元物体のモデルデータはARコンテンツなどと呼ばれる。   The model data of the three-dimensional object arranged in the three-dimensional virtual space corresponding to the real space is displayed so as to be superimposed on the captured image. This technology is called Augmented Reality (AR) because it extends information collected by human perception (such as vision). Model data of a three-dimensional object used for AR is called AR content.

ARコンテンツには、現実空間に存在する基準物(例えばARマーカーなど)を基準とする仮想空間上の位置座標が設定される。また、撮像装置と基準物との位置関係は、撮像画像に写り込んだ基準物の像に基づいて判断される。ARコンテンツの基準物を基準として設定された位置座標と、撮像装置−基準物間の位置関係とに応じて、撮像装置を基準としたARコンテンツの位置が求められる。撮像装置に対するARコンテンツの位置に基づいてARコンテンツの投影画像が生成され、生成された投影画像が撮像画像に重ねて表示される。投影画像が撮像画像に写り込む現実空間の像と整合することにより、ARコンテンツに示される3次元物体が現実空間内に存在するように表示される。   In the AR content, position coordinates in a virtual space with reference to a reference object (for example, an AR marker) existing in the real space is set. In addition, the positional relationship between the imaging device and the reference object is determined based on the image of the reference object reflected in the captured image. The position of the AR content with reference to the imaging device is determined according to the position coordinates set with reference to the reference object of the AR content and the positional relationship between the imaging device and the reference object. A projected image of the AR content is generated based on the position of the AR content with respect to the imaging device, and the generated projected image is displayed so as to be superimposed on the captured image. By matching the projected image with the real space image reflected in the captured image, the three-dimensional object shown in the AR content is displayed so as to exist in the real space.

また、ある技術によれば、1つの基準物に対応付けられたARコンテンツの各々に提供可能期間や提供可能区域などの条件が設定されており、基準物を認識した際の時間や位置により満たされる条件が設定されたARコンテンツが表示される(例えば、特許文献1など参照)。   Also, according to a certain technology, conditions such as a provisionable period and a provisionable area are set for each AR content associated with one reference object, which is satisfied by the time and position when the reference object is recognized. AR content for which a condition is set is displayed (see, for example, Patent Document 1).

特開2012−215989号公報JP 2012-215989 A

ARコンテンツを表示させる技術は、業務プロセスの遂行支援などに利用される。業務プロセスとは、企業などの組織において行なわれる一連の作業である。業務プロセスに含まれる作業のガイドや申し送り事項などを示すARコンテンツが表示されることにより、ユーザに作業の補助が提供され、ユーザによる業務プロセスの遂行が支援される。   The technology for displaying AR content is used for supporting the execution of business processes. A business process is a series of operations performed in an organization such as a company. By displaying the AR content indicating the work guide and the items to be sent included in the business process, the work assistance is provided to the user, and the execution of the business process by the user is supported.

組織による活動においては、複数の業務プロセスが遂行される。例えば、組織において、組織の主業務である基幹系の業務プロセス(例えば製造業の企業における製造プロセスなど)が行なわれるとともに、基幹系の業務プロセスを支援する支援系の業務プロセス(例えば製造装置の点検プロセスなど)も行なわれる。また、業務プロセスの遂行支援を行なうITシステムにおいては、同じ業務プロセスであっても、業務プロセスを実行するユーザによって異なる業務プロセスとして定義される。これは、例えば、熟練作業者が遂行する点検プロセスと、作業初心者が遂行する点検プロセスとで、遂行支援の内容が異なるためである。   In an organization's activities, multiple business processes are performed. For example, in an organization, a core business process (for example, a manufacturing process in a manufacturing company) that is the main business of the organization is performed, and a support business process (for example, a manufacturing device) that supports the core business process. An inspection process etc.) is also performed. In an IT system that supports execution of business processes, even the same business process is defined as a different business process depending on the user executing the business process. This is because, for example, the content of performance support differs between an inspection process performed by a skilled worker and an inspection process performed by a work beginner.

ARコンテンツの表示による複数の業務プロセスの遂行支援が行なわれると、複数の業務プロセス全体に関するARコンテンツが提供され、ユーザが遂行中の業務プロセス以外の業務プロセスの作業に関する補助までも表示されてしまう。また、上述の技術により、位置や時間を条件として表示するARコンテンツを定めても、互いに異なる業務プロセスを並行して遂行する複数のユーザに対して同じARコンテンツが提供されてしまい、個別の業務プロセスに応じたARコンテンツが提供されなくなってしまう。   When the execution support of a plurality of business processes is performed by displaying the AR content, the AR content relating to the whole of the plurality of business processes is provided, and even the assistance regarding the work of the business processes other than the business process being executed by the user is displayed. . Moreover, even if the AR content to be displayed on the condition of the position and time is determined by the above-described technology, the same AR content is provided to a plurality of users who execute different business processes in parallel. AR content corresponding to the process is not provided.

本発明の一側面において、遂行される業務プロセスに応じてARコンテンツを個別に提供することを目的とする。   An object of one aspect of the present invention is to provide AR contents individually according to a business process to be performed.

一態様によれば、表示制御装置は、第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを取得する取得部と、取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう制御部と、を含み、少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている。   According to one aspect, the display control device applies a plurality of work contents including one or more display data associated with the first work contents and one or more display data associated with the second work contents. An acquisition unit that acquires one or more display data associated with the first work content of the plurality of work contents from the associated display data group, and the acquired one or more display data, A control unit that performs display control in a display mode based on a reference object recognized by image recognition, and at least one of display data of one or a plurality of display data associated with the first work content And one of the display data associated with the second work content is associated with a common reference object.

一態様によれば、情報提供システムは、第1のコンピュータ及び第2のコンピュータを含み、前記第1のコンピュータは、第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを前記第2のコンピュータに送信する送信部を含み、前記第2のコンピュータは、送信された前記1または複数の表示データを受信する受信部と、受信した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行ない、少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている。   According to one aspect, the information providing system includes a first computer and a second computer, and the first computer includes one or more display data associated with the first work content and a second work. From a display data group associated with a plurality of work contents including one or a plurality of display data associated with contents, from a display data group associated with the plurality of work contents, among the plurality of work contents A transmission unit that transmits one or more display data associated with the first work content to the second computer, wherein the second computer receives the transmitted one or more display data; And a control for displaying the received one or more display data in a display mode based on a reference object recognized by image recognition, at least One of the display data associated with the first work content and one of the display data associated with the second work content and one of the display data associated with the second work content are: Corresponding to a common reference object.

一態様によれば、情報管理装置は、作業内容を示す識別情報を選択させる選択部と、撮像部による撮像によって得られた撮像画像に対する画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定する設定部と、前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける管理部と、を含む。   According to one aspect, the information management device associates the display data with the selection unit that selects the identification information indicating the work content, and the reference object recognized by the image recognition on the captured image obtained by the imaging unit. A setting unit that sets position information indicating a position relative to the reference object, and a management unit that associates the display data in which the position information is set in association with the reference object with the selected identification information. ,including.

一側面によれば、遂行される業務プロセスに応じてARコンテンツを個別に提供することができる。   According to one aspect, AR content can be provided individually according to a business process to be performed.

図1は、カメラ座標系とマーカー座標系との関係を示す。FIG. 1 shows the relationship between the camera coordinate system and the marker coordinate system. 図2は、カメラ座標系とマーカー座標系とにおけるARコンテンツの例を示す。FIG. 2 shows an example of AR content in the camera coordinate system and the marker coordinate system. 図3は、マーカー座標系からカメラ座標系への変換行列Eと、変換行列E内の回転行列Rを示す。FIG. 3 shows a transformation matrix E from the marker coordinate system to the camera coordinate system and a rotation matrix R in the transformation matrix E. 図4は、回転行列R1、R2およびR3を示す。FIG. 4 shows the rotation matrices R1, R2 and R3. 図5は、ARコンテンツの表示例を示す。FIG. 5 shows a display example of AR content. 図6は、ARコンテンツ提供のシーケンス例を示す。FIG. 6 shows a sequence example of AR content provision. 図7は、ARコンテンツ提供のシーケンス例を示す。FIG. 7 shows a sequence example of AR content provision. 図8は、ARコンテンツの表示例を示す。FIG. 8 shows a display example of AR content. 図9は、ARコンテンツのグループを示す。FIG. 9 shows a group of AR content. 図10は、AR定義データのデータ構造例を示す。FIG. 10 shows an example data structure of AR definition data. 図11は、ARコンテンツの表示例を示す。FIG. 11 shows a display example of AR content. 図12は、ARコンテンツのグループを示す。FIG. 12 shows a group of AR content. 図13は、AR定義データのデータ構造例を示す。FIG. 13 shows an example data structure of AR definition data. 図14は、ARコンテンツの表示例を示す。FIG. 14 shows a display example of AR content. 図15は、ARコンテンツ提供のシーケンス例を示す。FIG. 15 shows a sequence example of AR content provision. 図16は、コンピュータ1の機能ブロック構成例を示す。FIG. 16 shows a functional block configuration example of the computer 1. 図17は、AR機能の処理手順例を示す。FIG. 17 shows a processing procedure example of the AR function. 図18は、AR機能の処理手順例を示す。FIG. 18 shows a processing procedure example of the AR function. 図19は、モード選択画面およびシナリオ選択画面の例を示す。FIG. 19 shows an example of a mode selection screen and a scenario selection screen. 図20は、ルート定義のデータ構造例を示す。FIG. 20 shows an example of the data structure of the route definition. 図21は、ダウンロード機能の処理手順例を示す。FIG. 21 shows a processing procedure example of the download function. 図22は、シナリオ定義のデータ構造例を示す。FIG. 22 shows an example of the data structure of the scenario definition. 図23は、ステップ定義のデータ構造例を示す。FIG. 23 shows an example of the data structure of the step definition. 図24は、マーカー定義のデータ構造例を示す。FIG. 24 shows an example of the data structure of the marker definition. 図25は、コンテンツ定義のデータ構造例を示す。FIG. 25 shows an example data structure of content definition. 図26は、受信状態テーブルの例を示す。FIG. 26 shows an example of the reception state table. 図27は、ARテンプレートのデータ構造例を示す。FIG. 27 shows an example of the data structure of the AR template. 図28は、認識マーカー情報およびマーカー移動情報の例を示す。FIG. 28 shows an example of recognition marker information and marker movement information. 図29は、シナリオの状態情報の例を示す。FIG. 29 shows an example of scenario state information. 図30は、イベント検知の処理手順例を示す。FIG. 30 shows an example of an event detection processing procedure. 図31は、画面に表示されるマーカーの例を示す。FIG. 31 shows examples of markers displayed on the screen. 図32は、投影画像の生成処理の処理手順例を示す。FIG. 32 shows an example of the processing procedure of the projection image generation process. 図33は、画面に表示されるマーカーの例を示す。FIG. 33 shows examples of markers displayed on the screen. 図34は、ステップ定義のデータ構造例を示す。FIG. 34 shows an example of the data structure of the step definition. 図35は、イベント検知の処理手順例を示す。FIG. 35 shows an example of an event detection processing procedure. 図36は、画面に表示されるマーカーの例を示す。FIG. 36 shows an example of a marker displayed on the screen. 図37は、イベント検知の処理手順例を示す。FIG. 37 shows an example of an event detection processing procedure. 図38は、シナリオ定義のデータ構造例を示す。FIG. 38 shows an example of the data structure of the scenario definition. 図39は、編集モードの処理手順を示す。FIG. 39 shows the processing procedure in the edit mode. 図40は、編集モードの処理手順を示す。FIG. 40 shows the processing procedure in the edit mode. 図41は、編集モードでの表示画面例を示す。FIG. 41 shows an example of a display screen in the edit mode. 図42は、編集パレットの例を示す。FIG. 42 shows an example of an editing palette. 図43は、ステップ選択の例を示す。FIG. 43 shows an example of step selection. 図44は、ステップ選択の例を示す。FIG. 44 shows an example of step selection. 図45は、ステップ選択の例を示す。FIG. 45 shows an example of step selection. 図46は、ステップ選択の例を示す。FIG. 46 shows an example of step selection. 図47は、AR定義データの例を示す。FIG. 47 shows an example of AR definition data. 図48は、コンピュータ1のハードウェア構成例を示す。FIG. 48 shows a hardware configuration example of the computer 1. 図49は、コンピュータ1で動作するプログラムの構成例を示す。FIG. 49 shows a configuration example of a program operating on the computer 1. 図50は、コンピュータ1を含むシステムの例を示す。FIG. 50 shows an example of a system including the computer 1. 図51は、コンピュータ2の機能構成例を示す。FIG. 51 shows a functional configuration example of the computer 2. 図52は、ARコンテンツ提供の処理手順例を示す。FIG. 52 shows an example of a processing procedure for providing AR content. 図53は、コンピュータ2のハードウェア構成例を示す。FIG. 53 shows a hardware configuration example of the computer 2.

[ARコンテンツの表示]
まず、3次元物体のモデルデータであるARコンテンツを、撮像装置の一例であるカメラにより撮像された撮像画像に重ねて表示させるAR技術について説明する。
[Display AR content]
First, AR technology for displaying AR content, which is model data of a three-dimensional object, overlaid on a captured image captured by a camera which is an example of an imaging apparatus will be described.

ARコンテンツは、例えば、複数の点座標を用いて構成されるモデルデータである。複数の点を直線や曲線で補間して得られる複数の面ごとに模様(テクスチャ)や画像が設定され、複数の面が合成されることで3次元のモデルが形成される。ARコンテンツの配置は、ARコンテンツを構成する各点の座標を現実空間内に存在する基準物を基準として定められる。   The AR content is model data configured using a plurality of point coordinates, for example. A pattern (texture) or image is set for each of a plurality of surfaces obtained by interpolating a plurality of points with straight lines or curves, and a plurality of surfaces are combined to form a three-dimensional model. The arrangement of the AR content is determined based on a reference object existing in the real space with the coordinates of each point constituting the AR content.

一方で、カメラが撮像した撮像画像内に写り込んだ基準物の見え方(像)に基づいて、カメラと基準物との現実空間における位置関係が求められる。基準物は形状や模様などが既知の物体であり、例えば撮像画像内の基準物の像と基準物の既知の形状や模様との照合により、基準物がカメラに対してどのような位置にあるかが判別される。   On the other hand, the positional relationship between the camera and the reference object in the real space is obtained based on the appearance (image) of the reference object reflected in the captured image captured by the camera. The reference object is an object whose shape or pattern is known. For example, the reference object is located with respect to the camera by comparing the image of the reference object in the captured image with the known shape or pattern of the reference object. Is determined.

基準物を基準とする座標と、カメラと基準物との位置関係により、カメラとARコンテンツの各点の座標との位置関係が求められる。(カメラとARコンテンツとの位置関係としているが、ARコンテンツは仮想的に配置されたものであり、ARコンテンツという物体が現実空間に存在するわけではない。単にカメラを基準とする位置の情報が生成される。)これらの位置関係に基づいて、カメラが仮想空間上に存在するARコンテンツを仮に撮像した場合に得られるARコンテンツの像(投影画像)が生成される。ARコンテンツの投影画像を生成するための演算について、図1〜図4に基づいてさらに説明する。   The positional relationship between the camera and the coordinates of each point of the AR content is obtained based on the positional relationship between the coordinates relative to the reference object and the camera and the reference object. (Although the positional relationship between the camera and the AR content is shown, the AR content is virtually arranged, and the object of the AR content does not exist in the real space. Based on these positional relationships, an image (projected image) of the AR content obtained when the camera temporarily captures the AR content existing in the virtual space is generated. The calculation for generating the projected image of the AR content will be further described based on FIGS.

図1は、カメラ座標系とマーカー座標系との関係を示す。図1に示されるARマーカーMは、ARコンテンツ表示に用いられる基準物の一例である。図1に例示されるARマーカーMは、正方形形状をしており、予めサイズが定められている(例えば1辺の長さが10cmなど)。図1に示されるARマーカーMは正方形形状であるが、どの視点から撮像して得られる像に基づいても、カメラからの相対的な位置および向きが判別可能な形状の他の基準物が用いられてもよい。他の例として、撮像画像から生成される特徴点などが基準物に用いられる。   FIG. 1 shows the relationship between the camera coordinate system and the marker coordinate system. The AR marker M shown in FIG. 1 is an example of a reference object used for AR content display. The AR marker M illustrated in FIG. 1 has a square shape and has a predetermined size (for example, the length of one side is 10 cm). Although the AR marker M shown in FIG. 1 has a square shape, another reference object having a shape in which the relative position and orientation from the camera can be determined based on an image obtained by imaging from any viewpoint is used. May be. As another example, feature points generated from captured images are used as reference objects.

カメラ座標系は、(Xc,Yc,Zc)の3次元で構成され、例えばカメラの焦点を原点(原点Oc)とする。例えば、カメラ座標系のXc−Yc平面はカメラの撮像素子面と平行な面であり、Zc軸は撮像素子面に垂直な軸である。   The camera coordinate system is configured in three dimensions (Xc, Yc, Zc). For example, the focal point of the camera is the origin (origin Oc). For example, the Xc-Yc plane of the camera coordinate system is a plane parallel to the image sensor surface of the camera, and the Zc axis is an axis perpendicular to the image sensor surface.

マーカー座標系は、(Xm,Ym,Zm)の3次元で構成され、例えばARマーカーMの中心を原点(原点Om)とする。例えば、マーカー座標系のXm−Ym平面はARマーカーMの模様の印刷面と平行な面であり、Zm軸はARマーカーMの印刷面と垂直である。原点Omは、カメラ座標系において位置座標V1c(X1c,Y1c,Z1c)で示される。また、カメラ座標系に対するマーカー座標系の回転角は、回転座標G1c(P1c,Q1c,R1c)で示される。P1cはXc軸回りの回転角であり、Q1cはYc軸回りの回転角であり、R1cはZc軸回りの回転角である。図1に例示されるARマーカーMはYc軸回りにのみ回転しているため、P1cおよびR1cは0である。   The marker coordinate system is configured in three dimensions (Xm, Ym, Zm). For example, the center of the AR marker M is the origin (origin Om). For example, the Xm-Ym plane of the marker coordinate system is a plane parallel to the printed surface of the AR marker M pattern, and the Zm axis is perpendicular to the printed surface of the AR marker M. The origin Om is indicated by position coordinates V1c (X1c, Y1c, Z1c) in the camera coordinate system. Further, the rotation angle of the marker coordinate system with respect to the camera coordinate system is indicated by a rotation coordinate G1c (P1c, Q1c, R1c). P1c is a rotation angle around the Xc axis, Q1c is a rotation angle around the Yc axis, and R1c is a rotation angle around the Zc axis. Since the AR marker M illustrated in FIG. 1 rotates only around the Yc axis, P1c and R1c are zero.

図2は、カメラ座標系とマーカー座標系とにおけるARコンテンツCの例を示す。図2に例示するARコンテンツCは、吹き出し形状のモデルデータであり、吹き出し内に「ヒビあり!」というテキストデータを含む。ARコンテンツCの吹き出しの先端の黒丸は、ARコンテンツCの基準点とする。ARコンテンツCの基準点のマーカー座標系における座標は、V2m(X2m,Y2m,Z2m)とする。さらにARコンテンツCの向きは回転座標G2m(P2m,Q2m,R2m)で定められ、ARコンテンツCのサイズは倍率D(Jx,Jy,Jz)で定められる。   FIG. 2 shows an example of the AR content C in the camera coordinate system and the marker coordinate system. The AR content C illustrated in FIG. 2 is balloon-shaped model data, and includes text data “There is a crack!” In the balloon. The black circle at the tip of the balloon for AR content C is used as the reference point for AR content C. The coordinates of the reference point of the AR content C in the marker coordinate system are V2m (X2m, Y2m, Z2m). Furthermore, the direction of the AR content C is determined by the rotation coordinates G2m (P2m, Q2m, R2m), and the size of the AR content C is determined by the magnification D (Jx, Jy, Jz).

ARコンテンツCを構成する各点の座標は、ARコンテンツCの雛型(ARテンプレート)に定義された各点の座標が、基準点の座標V2m、回転座標G2mおよび倍率Dに基づいて調整された座標である。ARテンプレートに定義される基準点の座標は、例えば、(0,0,0)である。ARテンプレートに含まれる各座標は、設定された回転座標G2mに基づいて回転され、倍率Dで拡縮され、さらに基準点の座標V2mに基づいて平行移動されて調整される。図2のARコンテンツCは、ARテンプレートに定義された各点が、ARマーカーMのマーカー座標系において、基準点の座標V2m、回転座標G2mおよび倍率Dに基づいて調整された点に基づいて構成された状態である。   The coordinates of each point constituting the AR content C are adjusted based on the coordinates V2m of the reference point, the rotation coordinates G2m, and the magnification D of the coordinates of each point defined in the AR content C template (AR template). Coordinates. The coordinates of the reference point defined in the AR template are (0, 0, 0), for example. Each coordinate included in the AR template is rotated based on the set rotation coordinate G2m, scaled by the magnification D, and further translated and adjusted based on the reference point coordinate V2m. The AR content C in FIG. 2 is configured based on points defined in the AR template that are adjusted in the marker coordinate system of the AR marker M based on the reference point coordinates V2m, the rotation coordinates G2m, and the magnification D. It is the state that was done.

ARコンテンツCの各点のマーカー座標系での座標が、カメラ座標系に変換され、さらにカメラ座標系の座標に基づいて表示画面内の位置(スクリーン座標系の座標)に変換される。変換された座標に基づいて、ARコンテンツCの投影画像が生成される。カメラ座標系における座標は、マーカー座標系における座標に対して、座標V1cおよび回転座標G1cに基づく座標変換(モデル−ビュー変換)を行なうことにより算出される。例えば、モデル−ビュー変換が座標V2mに対して行なわれると、基準点のカメラ座標系における座標V2c(X2c,Y2c,Z2c)が求められる。   The coordinates in the marker coordinate system of each point of the AR content C are converted into the camera coordinate system, and further converted into positions on the display screen (coordinates in the screen coordinate system) based on the coordinates in the camera coordinate system. Based on the converted coordinates, a projected image of the AR content C is generated. The coordinates in the camera coordinate system are calculated by performing coordinate conversion (model-view conversion) based on the coordinates V1c and the rotation coordinates G1c with respect to the coordinates in the marker coordinate system. For example, when model-view conversion is performed on the coordinate V2m, the coordinate V2c (X2c, Y2c, Z2c) in the camera coordinate system of the reference point is obtained.

図3は、マーカー座標系からカメラ座標系への変換行列Eと、変換行列E内の回転行列Rを示す。変換行列Eは、4×4の行列である。変換行列Eと列ベクトル(Xm,Ym,Zm,1)との積により、列ベクトル(Xc,Yc,Zc,1)が得られる。変換行列Eは、カメラ座標系におけるARマーカーの位置座標V1c(X1c,Y1c,Z1c)および回転座標G1c(P1c,Q1c,R1c)に基づいて算出される。   FIG. 3 shows a transformation matrix E from the marker coordinate system to the camera coordinate system and a rotation matrix R in the transformation matrix E. The transformation matrix E is a 4 × 4 matrix. The column vector (Xc, Yc, Zc, 1) is obtained by the product of the transformation matrix E and the column vector (Xm, Ym, Zm, 1). The transformation matrix E is calculated based on the AR marker position coordinates V1c (X1c, Y1c, Z1c) and the rotational coordinates G1c (P1c, Q1c, R1c) in the camera coordinate system.

列ベクトル(Xm,Ym,Zm,1)に座標変換(モデル−ビュー変換)対象のマーカー座標系の点座標を代入して、行列演算を行なうことにより、カメラ座標系の点座標を含む列ベクトル(Xc,Yc,Zc,1)が得られる。変換行列Eの1〜3行目且つ1〜3列の部分行列(回転行列R)がマーカー座標系の座標に作用することにより、マーカー座標系の向きとカメラ座標系との向きを合わせるための回転操作が行なわれる。変換行列Eの1〜3行目且つ4列目の部分行列が作用することにより、マーカー座標系の向きとカメラ座標系との位置を合わせるための並進操作が行なわれる。   A column vector including the point coordinates of the camera coordinate system by substituting the point coordinates of the marker coordinate system subject to coordinate transformation (model-view transformation) into the column vector (Xm, Ym, Zm, 1) and performing matrix calculation. (Xc, Yc, Zc, 1) is obtained. The sub-matrix (rotation matrix R) of the first to third rows and the first to third columns of the transformation matrix E acts on the coordinates of the marker coordinate system, thereby aligning the orientation of the marker coordinate system and the camera coordinate system. A rotation operation is performed. When the partial matrix in the first to third rows and the fourth column of the transformation matrix E acts, a translation operation for adjusting the orientation of the marker coordinate system and the position of the camera coordinate system is performed.

図4は、回転行列R1、R2およびR3を示す。図3に示す回転行列Rは、回転行列R1、R2およびR3の積(R1・R2・R3)により算出される。   FIG. 4 shows the rotation matrices R1, R2 and R3. The rotation matrix R shown in FIG. 3 is calculated by the product of the rotation matrices R1, R2, and R3 (R1, R2, R3).

ARコンテンツCを構成する各点のマーカー座標系の座標(Xm,Ym,Zm)は、変換行列Eに基づくモデル−ビュー変換により、カメラ座標系の座標(Xc,Yc,Zc)に変換される。図2に例示される位置座標V2mはモデル−ビュー変換により位置座標V2cに変換される。   The coordinates (Xm, Ym, Zm) of the marker coordinate system of each point constituting the AR content C are converted into the coordinates (Xc, Yc, Zc) of the camera coordinate system by model-view conversion based on the conversion matrix E. . The position coordinate V2m illustrated in FIG. 2 is converted into the position coordinate V2c by model-view conversion.

スクリーン座標系は、(Xs,Ys)の2次元で構成され、例えばカメラの撮像処理により得られる撮像画像の中心を原点(原点Os)とする。ARコンテンツCの各点のカメラ座標系の座標は、透視変換によりスクリーン座標系に変換される。透視変換により得られる各点のスクリーン座標系の座標に基づいて、ARコンテンツCの投影画像が生成される。   The screen coordinate system is configured in two dimensions (Xs, Ys). For example, the center of the captured image obtained by the imaging process of the camera is set as the origin (origin Os). The coordinates in the camera coordinate system of each point of the AR content C are converted into a screen coordinate system by perspective transformation. A projection image of the AR content C is generated based on the coordinates in the screen coordinate system of each point obtained by the perspective transformation.

カメラ座標系からスクリーン座標系への座標変換(透視変換)は、例えば、カメラの焦点距離fに基づいて行なわれる。カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のXs座標は、Xs=f・Xc/Zcで求められる。また、カメラ座標系における座標(Xc,Yc,Zc)に対応するスクリーン座標系の座標のYs座標は、Ys=f・Yc/Zcで求められる。   Coordinate transformation (perspective transformation) from the camera coordinate system to the screen coordinate system is performed based on the focal length f of the camera, for example. The Xs coordinate of the coordinate in the screen coordinate system corresponding to the coordinate (Xc, Yc, Zc) in the camera coordinate system is obtained by Xs = f · Xc / Zc. Further, the Ys coordinate of the coordinate in the screen coordinate system corresponding to the coordinate (Xc, Yc, Zc) in the camera coordinate system is obtained by Ys = f · Yc / Zc.

ARコンテンツCを構成する各点の位置座標(カメラ座標系)が透視変換されて得られる位置座標(スクリーン座標系)に基づいて、ARコンテンツCの投影画像が生成される。ARコンテンツCの元になるARテンプレートには、どの点を補間して面を形成するか、どの面にどのテクスチャ(または画像)をマッピングするかが定義されている。ARコンテンツCの投影画像は、ARテンプレートの定義に従って各位置座標(スクリーン座標系)を補間して得られる面にテクスチャや画像がマッピングされることにより生成される。   Based on the position coordinates (screen coordinate system) obtained by perspective-transforming the position coordinates (camera coordinate system) of each point constituting the AR content C, a projection image of the AR content C is generated. The AR template that is the source of the AR content C defines which points are interpolated to form a surface and which texture (or image) is mapped to which surface. The projected image of the AR content C is generated by mapping a texture or image on a surface obtained by interpolating each position coordinate (screen coordinate system) according to the definition of the AR template.

上述のモデル−ビュー変換および透視変換により、マーカー座標系の座標に対応する撮像画像上の座標が算出され、その座標を利用することで、カメラの視点に応じたARコンテンツCの投影画像が生成される。ARコンテンツCの投影画像が撮像画像に合成されると、あたかも3次元物体が存在するかのように画面に表示されるため、ユーザに提供される視覚的な情報が拡張される。   By the above-described model-view conversion and perspective conversion, coordinates on the captured image corresponding to the coordinates of the marker coordinate system are calculated, and a projection image of the AR content C corresponding to the viewpoint of the camera is generated by using the coordinates. Is done. When the projected image of the AR content C is combined with the captured image, it is displayed on the screen as if a three-dimensional object exists, so that the visual information provided to the user is expanded.

また、ARコンテンツ表示の他の例として、透過型ディスプレイにARコンテンツCの投影画像が表示されてもよい。この態様においても、ユーザがディスプレイを透過して得られる現実空間の像と、ARコンテンツの投影画像とが整合するので、ユーザに提供される視覚的な情報が拡張される。本実施形態におけるARコンテンツの投影画像と撮像画像とを合成して表示する処理などは、透過ディスプレイを用いる場合には、ARコンテンツを表示する処理としてもよい。   As another example of AR content display, a projected image of AR content C may be displayed on a transmissive display. Also in this aspect, since the image of the real space obtained by the user passing through the display matches the projected image of the AR content, the visual information provided to the user is expanded. The process of combining and displaying the projected image and the captured image of the AR content in the present embodiment may be a process of displaying the AR content when a transmissive display is used.

図5は、ARコンテンツの表示例を示す。図5に例示される表示画面S(1)は、ARマーカーMの像、物体H(工場に設置されたパイプを図示している)の像、およびARコンテンツCの投影画像が表示される。ARコンテンツCはARマーカーMを基準としたマーカー座標系で定義されており、定義された座標の各々がモデル−ビュー変換および透視変換されることによりARコンテンツCの投影画像が生成される。ARマーカーMおよび物体Hは現実空間に存在する。ARコンテンツCの座標が現実空間の特定の位置に合わせて設定されると、ARコンテンツCにより特定の位置に関する情報が提供される。表示画面S(1)では、ARコンテンツCの吹き出しの先が物体Hのヒビの位置を指し示すように設定されているので、このARコンテンツCの提供により、ユーザは物体Hのヒビの位置を容易に特定できる。   FIG. 5 shows a display example of AR content. The display screen S (1) illustrated in FIG. 5 displays an image of an AR marker M, an image of an object H (a pipe installed in a factory is illustrated), and a projected image of the AR content C. The AR content C is defined in a marker coordinate system with the AR marker M as a reference, and a projected image of the AR content C is generated by performing model-view conversion and perspective conversion on each of the defined coordinates. The AR marker M and the object H exist in the real space. When the coordinates of the AR content C are set according to a specific position in the real space, the AR content C provides information regarding the specific position. On the display screen S (1), the AR content C balloon is set so that the tip of the balloon of the AR content C points to the crack position of the object H. By providing the AR content C, the user can easily locate the crack position of the object H. Can be specified.

[ARコンテンツのダウンロード]
複数種類のARコンテンツの提供を行なうシステムにおいて、ARコンテンツの表示を行なうクライアント装置(コンピュータ1)が、全種類のARコンテンツを保持すると、コンピュータ1の記憶容量への負担が大きくなってしまう。例えばコンピュータ1が移動端末である場合には、コンピュータ1の物理的なサイズの制限により、コンピュータ1がARコンテンツを保持するための充分な記憶容量を備えられないことがある。
[Download AR content]
In a system that provides a plurality of types of AR content, if the client device (computer 1) that displays the AR content holds all types of AR content, the burden on the storage capacity of the computer 1 increases. For example, when the computer 1 is a mobile terminal, the computer 1 may not have a sufficient storage capacity for holding AR content due to the physical size limitation of the computer 1.

そのため、提供されるARコンテンツを集約して記憶する管理サーバ(コンピュータ2)が用いられ、コンピュータ1がコンピュータ2からARコンテンツをダウンロードするシステム構成が用いられる。この場合、例えば、コンピュータ1は、全種類のARコンテンツのうち、表示の対象となるARコンテンツをダウンロードする。クライアント装置が複数存在する場合には、コンピュータ2にARコンテンツが集約されて記憶されるので、システム全体としてはARコンテンツを定常的に保持するための記憶容量が抑制される。   Therefore, a management server (computer 2) that aggregates and stores provided AR content is used, and a system configuration in which the computer 1 downloads AR content from the computer 2 is used. In this case, for example, the computer 1 downloads AR content to be displayed among all types of AR content. When there are a plurality of client devices, the AR contents are collected and stored in the computer 2, so that the storage capacity for constantly holding the AR contents as a whole system is suppressed.

また、基準物の撮像により、基準物の位置および向きだけでなく、基準物の識別情報も得られる。例えば、ARマーカーでは、ARマーカーにプリントされた模様に基づいてARマーカーの識別情報(マーカーID)が判別される。画像の特徴点を基準物に用いる方式においては、特徴点の座標と識別情報とを関連付けたデータベースに基づいて、識別情報が判別される。   Further, by imaging the reference object, not only the position and orientation of the reference object but also identification information of the reference object can be obtained. For example, in the AR marker, identification information (marker ID) of the AR marker is determined based on the pattern printed on the AR marker. In the method using the feature point of the image as the reference object, the identification information is determined based on a database in which the coordinates of the feature point are associated with the identification information.

複数のARマーカーの各々に、表示させるARコンテンツが個別に設定されることがある。従って、認識されるARマーカーに応じて、表示されるARコンテンツが切り替えられる。この場合、全種類のARコンテンツのうち、どのARコンテンツが表示対象となるかは、ARマーカーの認識後に決定される。例えば、表示の対象となるARコンテンツをコンピュータ2からダウンロードするシステム構成においては、コンピュータ1は、ARマーカーの認識後に表示対象のARコンテンツをダウンロードする。   The AR content to be displayed may be individually set for each of the plurality of AR markers. Therefore, the AR content to be displayed is switched according to the recognized AR marker. In this case, which AR content is to be displayed among all types of AR content is determined after recognition of the AR marker. For example, in a system configuration in which AR content to be displayed is downloaded from the computer 2, the computer 1 downloads the AR content to be displayed after recognition of the AR marker.

図6は、ARコンテンツ提供のシーケンス例を示す。図6に示すシーケンス例では、コンピュータ1およびコンピュータ2の処理の順序が示される。コンピュータ1で、ARコンテンツ表示のプログラムが起動されたのちに、ARマーカーM1が認識されてから、ARマーカーM1に対応するARコンテンツの取得要求が行なわれる。この取得要求においては、例えばARマーカーM1のマーカーIDが通知される。コンピュータ2は、取得要求を受けるとARマーカーM1に対応するARコンテンツを検索し、マーカーM1に対応するARコンテンツをコンピュータ1に送信する。コンピュータ1は、コンピュータ2からARコンテンツを受信してから、ARマーカーM1に対応するARコンテンツの表示を行なう。   FIG. 6 shows a sequence example of AR content provision. In the sequence example shown in FIG. 6, the processing order of the computer 1 and the computer 2 is shown. After the AR content display program is started on the computer 1, the AR marker M1 is recognized, and then an AR content acquisition request corresponding to the AR marker M1 is made. In this acquisition request, for example, the marker ID of the AR marker M1 is notified. Upon receiving the acquisition request, the computer 2 searches the AR content corresponding to the AR marker M1 and transmits the AR content corresponding to the marker M1 to the computer 1. After receiving the AR content from the computer 2, the computer 1 displays the AR content corresponding to the AR marker M1.

図6に示すシーケンスによれば、ARマーカーが認識されてからARコンテンツの表示処理が開始されるまでに、ARマーカーに対応するARコンテンツの要求・ダウンロードが行なわれる。そのため、ARマーカーが撮像されることにより認識されてからARコンテンツが表示されるまでにタイムラグが大幅に生じてしまう。   According to the sequence shown in FIG. 6, the AR content corresponding to the AR marker is requested and downloaded after the AR marker is recognized and before the AR content display process is started. For this reason, a time lag is greatly generated from when the AR marker is recognized until the AR content is displayed.

撮像画像にARマーカーが写り込んでからARコンテンツが表示されるまでにタイムラグが大幅に生じてしまうと、ARマーカーを視認するユーザ自身の知覚とARコンテンツを視認することにより拡張された知覚とのずれが大きくなる。そのため、ユーザの知覚を拡張するというARの特性が損なわれてしまう。   If a time lag occurs until the AR content is displayed after the AR marker appears in the captured image, the perception of the user who views the AR marker and the perception that is expanded by viewing the AR content. Deviation increases. For this reason, the AR characteristic of extending the user's perception is impaired.

図7は、ARコンテンツ提供のシーケンス例を示す。図7に示すシーケンス例は、図6と同様に、コンピュータ1およびコンピュータ2の処理の順序が示される。コンピュータ1は、ARコンテンツ表示のプログラムが起動されると、ARマーカーM1の認識よりも先にまずARコンテンツの取得要求を行なう。図7のシーケンス例では、コンピュータ1は、コンピュータ2からARコンテンツを受信してから、ARマーカー認識に応じたARコンテンツの表示を行なう。   FIG. 7 shows a sequence example of AR content provision. The sequence example shown in FIG. 7 shows the processing order of the computer 1 and the computer 2 as in FIG. When the AR content display program is started, the computer 1 first makes an AR content acquisition request prior to recognition of the AR marker M1. In the sequence example of FIG. 7, the computer 1 receives the AR content from the computer 2 and then displays the AR content according to the AR marker recognition.

図7のシーケンスにおいては、ARマーカーの認識からARコンテンツの表示までの間に、ARコンテンツの要求・ダウンロードが行なわれないので、ARマーカーの認識からARコンテンツ表示までのタイムラグが小さくなる。そのため、ARマーカーを視認するユーザの知覚とARコンテンツを視認するユーザの知覚とのずれが小さくなる。   In the sequence of FIG. 7, since the AR content is not requested or downloaded between the recognition of the AR marker and the display of the AR content, the time lag from the recognition of the AR marker to the display of the AR content is reduced. Therefore, the difference between the perception of the user viewing the AR marker and the perception of the user viewing the AR content is reduced.

その一方で、図7のシーケンス例では、どのARマーカーが認識されてもARマーカーに対応するARコンテンツの表示を行なうために、全種類のARコンテンツをコンピュータ1にダウンロードすることになってしまう。結果的に、全種類のARコンテンツをコンピュータ1に保持しているため、コンピュータ1の記憶容量の負荷が大きくなってしまう。   On the other hand, in the sequence example of FIG. 7, regardless of which AR marker is recognized, all types of AR content are downloaded to the computer 1 in order to display AR content corresponding to the AR marker. As a result, since all types of AR content are held in the computer 1, the load on the storage capacity of the computer 1 increases.

図6および図7に示すシーケンスでARコンテンツがコンピュータ2からコンピュータ1にダウンロードされても、それぞれタイムラグの増長や記憶容量への負荷増大などの事態が生じてしまう。   Even when the AR content is downloaded from the computer 2 to the computer 1 in the sequence shown in FIGS. 6 and 7, a situation such as an increase in time lag and an increase in load on the storage capacity occurs.

[シナリオに応じた選択的提供]
ARコンテンツを表示させる技術は、業務プロセスの遂行支援などに利用される。上述の通り、企業などの組織においては、複数の業務プロセスが遂行される。各々の業務プロセスは、複数の作業を組み合わせであることが多い。本実施形態においては、この作業の組み合わせを一単位とし、それをシナリオと称する。なお、業務プロセスが1つの作業により構成される場合についても、その作業を同様にシナリオと称する。また、同一の業務プロセスであっても、異なるユーザを対象として異なるシナリオが設定されてもよい。例えば、業務プロセスを遂行するユーザが熟練作業者であるか作業初心者であるかに応じて異なるシナリオが提供される。業務プロセスに対応するARコンテンツの内容はシナリオに含まれる作業内容に応じて異なる。すなわち、シナリオが異なる複数の業務プロセスに対してARコンテンツ群が設定されると、そのARコンテンツ群には、単一のシナリオのみに適用される個別のARコンテンツが含まれる。
[Selective provision according to the scenario]
The technology for displaying AR content is used for supporting the execution of business processes. As described above, a plurality of business processes are performed in an organization such as a company. Each business process is often a combination of multiple operations. In this embodiment, this work combination is regarded as one unit, which is called a scenario. In the case where the business process is configured by one work, the work is similarly referred to as a scenario. Further, even in the same business process, different scenarios may be set for different users. For example, different scenarios are provided depending on whether a user who performs a business process is a skilled worker or a beginner. The content of the AR content corresponding to the business process differs depending on the work content included in the scenario. That is, when an AR content group is set for a plurality of business processes with different scenarios, the AR content group includes individual AR contents that are applied only to a single scenario.

図8は、ARコンテンツの表示例を示す。図8に示される表示例には、複数の業務プロセスに関して、ARマーカーM1に関連付けられたARコンテンツが表示された画面S(2)が示される。画面S(2)には、ARマーカーM1の像が含まれ、さらに、マーカーM1の像に基づいて生成されたARコンテンツCA11〜CA14、ARコンテンツCB11〜CB13、C11およびC12の投影画像が示される。   FIG. 8 shows a display example of AR content. The display example shown in FIG. 8 shows a screen S (2) on which AR content associated with the AR marker M1 is displayed for a plurality of business processes. The screen S (2) includes an image of the AR marker M1, and further shows projected images of the AR contents CA11 to CA14 and the AR contents CB11 to CB13, C11, and C12 generated based on the image of the marker M1. .

ARコンテンツCA11〜CA14は、点検作業のシナリオに独自のARコンテンツである。ARコンテンツCA11、CA12およびCA13は、点検作業の作業内容を示す。ARコンテンツCA11は、「バルブを左に回す」という作業内容の指示を示す。ARコンテンツCA12は、「流量計チェック」という作業内容の指示を示す。ARコンテンツCA13は、「バルブを右に回し、オイル量がXX〜YYの範囲であることを確認」という作業内容の指示を示す。ARコンテンツCA14は、ARコンテンツCA13に示される作業内容の作業内容を図示する。   The AR contents CA11 to CA14 are AR contents unique to the inspection work scenario. The AR contents CA11, CA12, and CA13 indicate the work contents of the inspection work. The AR content CA11 indicates a work content instruction “turn the valve to the left”. The AR content CA12 indicates a work content instruction “flow meter check”. The AR content CA13 indicates a work content instruction “turn the valve to the right and confirm that the oil amount is in the range of XX to YY”. The AR content CA14 illustrates the work content of the work content shown in the AR content CA13.

一方、ARコンテンツCB11〜CB13は、製造作業のシナリオに独自のARコンテンツ群である。ARコンテンツCB11、CB12およびCB13は、製造作業の作業内容を示す。ARコンテンツCB11は、「基板をセット」という作業内容の指示を示す。ARコンテンツCB12は、「溶剤残量を確認」という作業内容の指示を示す。ARコンテンツCA13は、「「実行」ボタンを押下」という作業内容の指示を示す。   On the other hand, the AR contents CB11 to CB13 are a group of AR contents unique to the scenario of the manufacturing work. The AR contents CB11, CB12, and CB13 indicate the work contents of the manufacturing work. The AR content CB11 indicates a work content instruction “set board”. The AR content CB12 indicates a work content instruction “confirm remaining solvent”. The AR content CA13 indicates a work content instruction “pressing the“ execute ”button”.

ARコンテンツC11およびARコンテンツC12は、特定のシナリオに関する情報ではなく、ARマーカーM1付近で作業するユーザに向けた情報である。ARコンテンツC11は、「水漏れ注意」という注意喚起のメッセージであり、さらに水漏れの位置を示す。また、ARコンテンツC12は、「AA月BB日に、パイプAから水漏れ確認」というメッセージを示す。   The AR content C11 and the AR content C12 are not information related to a specific scenario but information directed to a user who works near the AR marker M1. The AR content C11 is a warning message “Warning about water leakage” and further indicates the position of water leakage. Further, the AR content C12 indicates a message of “confirmation of water leak from pipe A on AA month BB”.

認識されたARマーカーに応じたARコンテンツを表示させる制御の結果、画面S(2)では、点検作業の業務プロセスに独自のARコンテンツと製造作業のシナリオに独自のARコンテンツとの双方が表示されている。ユーザが点検作業の業務プロセスを遂行する場合にも、製造作業のシナリオに独自のARコンテンツがユーザに対して表示される。逆に、ユーザが製造作業の業務プロセスを遂行する場合にも、点検作業のシナリオに独自のARコンテンツがユーザに対して表示される。つまり、認識したARマーカーに応じてARコンテンツを表示させるのみでは、ユーザが遂行する業務プロセスと関係のないARコンテンツまでも表示されてしまう。   As a result of the control to display the AR content corresponding to the recognized AR marker, on the screen S (2), both the original AR content in the inspection work process and the original AR content in the manufacturing work scenario are displayed. ing. Even when the user performs the business process of the inspection work, the unique AR content is displayed to the user in the manufacturing work scenario. Conversely, when the user performs the manufacturing work process, the AR content unique to the inspection work scenario is displayed to the user. That is, only by displaying AR content according to the recognized AR marker, AR content not related to the business process performed by the user is also displayed.

画面S(2)では、表示するARコンテンツが多く、例えば、ARコンテンツCA11、ARコンテンツCB13およびARコンテンツCA13が重なって表示される。一般的なWebページなどにおいては、コンテンツの量が多くても、Webページの領域を大きくすればスクロール操作などにより各々のコンテンツが閲覧可能である。しかしながら、ARコンテンツ表示領域は撮像画像内に限られている。そのため、ARコンテンツが多いと互いに重なりあって表示されやすい。   On the screen S (2), there are many AR contents to be displayed. For example, the AR content CA11, the AR content CB13, and the AR content CA13 are displayed in an overlapping manner. In a general Web page or the like, even if the amount of content is large, if the area of the Web page is enlarged, each content can be browsed by a scroll operation or the like. However, the AR content display area is limited within the captured image. For this reason, if there are many AR contents, they are likely to be displayed overlapping each other.

さらに、ユーザが点検作業の業務プロセスを遂行する場合にも、製造作業の業務プロセスに独自のARコンテンツがコンピュータ2からコンピュータ1にダウンロードされる。すなわち、ユーザの作業の補助とならないARコンテンツまでもコンピュータ1にダウンロードされている。ユーザの作業の補助とならないARコンテンツがダウンロードされることにより、ARマーカー認識からARコンテンツの表示までのタイムラグが増長されたりコンピュータ1の記憶容量への負荷が増大したりしてしまう。   Further, when the user performs the inspection work process, the AR content unique to the manufacturing process is downloaded from the computer 2 to the computer 1. That is, even AR content that does not assist the user's work is downloaded to the computer 1. By downloading AR content that does not assist the user's work, the time lag from AR marker recognition to AR content display is increased, and the load on the storage capacity of the computer 1 is increased.

図9は、ARコンテンツのグループを示す。ARマーカーM1が認識された場合に表示させるARコンテンツの集合がARコンテンツ群G1である。ARコンテンツ群G1は、手順表示のARコンテンツCA11〜CA13、操作補助のARコンテンツCA14、メッセージを示すARコンテンツC11およびC12、ならびに手順表示のARコンテンツCB11〜CB13を含む。また、ARマーカーM2が認識された場合に表示させるARコンテンツの集合がARコンテンツ群G2である。ARコンテンツ群G2は、手順表示のARコンテンツCA21〜CA23、および手順表示のARコンテンツCB21を含む。   FIG. 9 shows a group of AR content. A set of AR content to be displayed when the AR marker M1 is recognized is an AR content group G1. The AR content group G1 includes AR contents CA11 to CA13 for procedure display, AR content CA14 for operation assistance, AR contents C11 and C12 indicating a message, and AR contents CB11 to CB13 for procedure display. A set of AR contents to be displayed when the AR marker M2 is recognized is an AR content group G2. The AR content group G2 includes procedure-displayed AR contents CA21 to CA23 and procedure-displayed AR content CB21.

単純に、認識されたARマーカーに応じたARコンテンツを表示させる制御のみでは、ARマーカーM1が認識されるとARコンテンツ群G1が表示され、ARマーカーM2が認識されるとARコンテンツ群G2が表示される。この制御では、図8に示されるように、ARマーカーM1の認識に応じて、複数の業務プロセスに関するARコンテンツ群G1全体が表示され、ユーザが遂行する業務プロセスの支援とならないARコンテンツまでも表示されてしまう。また、図6に示すシーケンスでは、ARコンテンツ群G1とARコンテンツ群G2とのいずれをダウンロードすべきかがARマーカーの認識により決定される。そのため、ARマーカーの認識からARコンテンツの表示までにARコンテンツのダウンロードが行なわれ、その結果、ARマーカーの認識からARコンテンツの表示までにタイムタグが発生する。さらに、図7に示すシーケンスでARコンテンツのダウンロードが行なわれると、図9に示すARコンテンツ全体がコンピュータ1にダウンロードされるため、コンピュータ1の記憶容量への負荷が大きい。   Simply by controlling to display AR content according to the recognized AR marker, the AR content group G1 is displayed when the AR marker M1 is recognized, and the AR content group G2 is displayed when the AR marker M2 is recognized. Is done. In this control, as shown in FIG. 8, the entire AR content group G1 related to a plurality of business processes is displayed according to the recognition of the AR marker M1, and even AR content that does not support the business processes performed by the user is displayed. Will be. In the sequence shown in FIG. 6, it is determined by recognition of the AR marker which of the AR content group G1 and the AR content group G2 should be downloaded. Therefore, the AR content is downloaded from the recognition of the AR marker to the display of the AR content, and as a result, a time tag is generated from the recognition of the AR marker to the display of the AR content. Furthermore, when the AR content is downloaded in the sequence shown in FIG. 7, the entire AR content shown in FIG. 9 is downloaded to the computer 1, so that the load on the storage capacity of the computer 1 is large.

そこで、例えば、シナリオに応じた単位でのARコンテンツの管理および提供が行なわれる。すなわち、点検作業のシナリオに独自のARコンテンツCA11〜CA14およびARコンテンツCA21〜CA23ならびに各シナリオに共通のARコンテンツC11およびC12によりグループ(ARコンテンツ群G3)を形成させる。また、製造作業のシナリオに独自のARコンテンツCB11〜CB13およびARコンテンツCB21ならびに各シナリオに共通のARコンテンツC11およびC12によりグループ(ARコンテンツ群G4)を形成させる。シナリオに応じた単位でARコンテンツが提供されることにより、ユーザが遂行する業務プロセスと関係のないシナリオに独自のARコンテンツが表示されることが抑制される。例えば、点検作業の業務プロセスを遂行するユーザに対し、ARコンテンツ群G3が選択的に提供される一方で、ユーザにはARコンテンツCB11〜CB13などは提供されない。   Thus, for example, AR content is managed and provided in units corresponding to scenarios. That is, a group (AR content group G3) is formed by the AR contents CA11 to CA14 and AR contents CA21 to CA23 unique to the inspection work scenario and the AR contents C11 and C12 common to the scenarios. Further, a group (AR content group G4) is formed by the AR contents CB11 to CB13 and AR content CB21 unique to the scenario of the manufacturing work and the AR contents C11 and C12 common to the scenarios. By providing the AR content in units corresponding to the scenario, it is possible to suppress the display of the unique AR content in a scenario not related to the business process performed by the user. For example, the AR content group G3 is selectively provided to the user who performs the business process of the inspection work, while the AR content CB11 to CB13 is not provided to the user.

ARコンテンツ群G3およびARコンテンツ群G4というグループでARコンテンツを管理することにより、シナリオに応じて個別にARコンテンツがユーザに提供される。位置や時間などの条件に応じて一部のARコンテンツの提供自体を行なわないように一律に制限してしまうわけではないので、表示の基準となるARマーカーが共通するARコンテンツ群G3とARコンテンツ群G4とが、それぞれ対応する業務プロセスを遂行する異なるユーザに対して、並行して提供され得る。すなわち、あるユーザに対してARコンテンツ群G3が提供されつつ、他のユーザに対してARコンテンツ群G4の提供が可能である。   By managing the AR content in groups of the AR content group G3 and the AR content group G4, the AR content is individually provided to the user according to the scenario. The AR content group G3 and the AR content having the same AR marker as a display reference are not limited so that provision of some AR content itself is not performed depending on conditions such as position and time. The group G4 can be provided in parallel to different users who perform corresponding business processes. That is, it is possible to provide the AR content group G4 to other users while providing the AR content group G3 to a certain user.

ユーザは一連の作業(業務プロセス)を開始する前にどのシナリオを行なうか決められる。つまり、シナリオは、ARマーカーが認識されるよりも前に選択される。また、シナリオに応じた単位で提供されるARコンテンツ群(G3やG4)は、全種類のARコンテンツのうちの一部である。図7に示すシーケンス例と比較すると、シナリオに応じたARコンテンツ群が選択的にダウンロードされるため、コンピュータ1に保持されるARコンテンツのデータ量が抑制される。そこで、コンピュータ1がARマーカーの認識前からシナリオに応じたARコンテンツ群を保持することとすれば、コンピュータ1は、ARマーカーの認識に応じたARコンテンツの表示を、コンピュータ1に保持されたARコンテンツを用いて行なうことができる。ARマーカーの認識からARコンテンツの表示までにARコンテンツのダウンロードを行なうことが回避されるので、ARマーカーの認識からARコンテンツの表示までのタイムラグの発生が抑制される。   The user decides which scenario to perform before starting a series of work (business process). That is, the scenario is selected before the AR marker is recognized. Further, the AR content group (G3 and G4) provided in units according to the scenario is a part of all types of AR content. Compared with the sequence example shown in FIG. 7, since the AR content group corresponding to the scenario is selectively downloaded, the data amount of the AR content held in the computer 1 is suppressed. Therefore, if the computer 1 holds the AR content group corresponding to the scenario before the recognition of the AR marker, the computer 1 displays the AR content corresponding to the recognition of the AR marker on the AR held in the computer 1. This can be done using content. Since the downloading of the AR content from the recognition of the AR marker to the display of the AR content is avoided, the occurrence of a time lag from the recognition of the AR marker to the display of the AR content is suppressed.

図10は、AR定義データのデータ構造例を示す。図10に示すデータ構造により、シナリオに応じた単位でARコンテンツの管理および提供が行なわれる。図10に示すデータ構造例は、ツリー構造を有している。   FIG. 10 shows an example data structure of AR definition data. With the data structure shown in FIG. 10, AR content is managed and provided in units corresponding to scenarios. The data structure example shown in FIG. 10 has a tree structure.

ツリー構造のルート定義Nは、ARコンテンツの提供対象である複数のシナリオを示す。図10の例において、点検作業のシナリオの識別情報(シナリオID)が001であり、製造作業のシナリオのシナリオIDが002である。ルート定義Nには、シナリオID:001と、シナリオID:001のシナリオに関する情報の格納先を示すポインタとを関連付けた情報が含まれる。また、ルート定義Nには、シナリオID:002と、シナリオID:002のシナリオに関する情報(シナリオ定義)の格納先を示すポインタとを関連付けた情報が含まれる。これにより、シナリオIDが選択されると、選択されたシナリオIDに応じて、シナリオに関する情報が参照可能である。   The root definition N of the tree structure indicates a plurality of scenarios which are AR content provision targets. In the example of FIG. 10, the identification information (scenario ID) of the inspection work scenario is 001, and the scenario ID of the manufacturing work scenario is 002. The route definition N includes information in which the scenario ID: 001 is associated with a pointer indicating a storage destination of information related to the scenario with the scenario ID: 001. Further, the route definition N includes information in which a scenario ID: 002 is associated with a pointer indicating a storage destination of information (scenario definition) regarding the scenario with the scenario ID: 002. Thus, when a scenario ID is selected, information related to the scenario can be referred to according to the selected scenario ID.

シナリオ定義N11は、シナリオID:001のシナリオに関する情報である。シナリオ定義N11は、シナリオID:001のシナリオにおいてARコンテンツの表示に用いられる複数のARマーカーを示す。例えば、ARマーカーM1の識別情報(マーカーID)が001であり、ARマーカーM2のマーカーIDが002である。シナリオ定義N11には、シナリオID:001のシナリオで用いられる各マーカーのマーカーIDと、各マーカーに関する情報(マーカー定義)の格納先を示すポインタとを関連付けた情報が含まれる。これにより、マーカーIDが選択されると、選択されたマーカーIDに応じて、ARマーカーに関する情報が参照可能である。シナリオ定義N12も、シナリオ定義N11と同様に、シナリオID:002に用いられるARマーカーのマーカー定義を、マーカーIDの選択に応じて参照可能にさせる。   The scenario definition N11 is information related to the scenario with scenario ID 001. The scenario definition N11 indicates a plurality of AR markers used for displaying AR content in the scenario with the scenario ID 001. For example, the identification information (marker ID) of the AR marker M1 is 001, and the marker ID of the AR marker M2 is 002. The scenario definition N11 includes information in which the marker ID of each marker used in the scenario with the scenario ID: 001 is associated with a pointer indicating the storage destination of information related to each marker (marker definition). Thereby, when a marker ID is selected, information related to the AR marker can be referred to according to the selected marker ID. Similarly to the scenario definition N11, the scenario definition N12 also makes it possible to refer to the marker definition of the AR marker used for the scenario ID: 002 according to the selection of the marker ID.

マーカー定義N301は、マーカーID:001のARマーカーM1に関する情報である。マーカー定義N301は、ARマーカーM1の認識に応じて表示させるARコンテンツを示す。例えば、ARコンテンツCA11〜CA14のそれぞれの識別情報(コンテンツID)が001〜004であり、ARコンテンツC11およびC12のそれぞれのコンテンツIDが005および006である。また、例えば、ARコンテンツCB11〜CB13のそれぞれのコンテンツIDが007〜009である。マーカー定義N301には、シナリオID:001のシナリオにおいて、マーカーID:001のARマーカーを認識した場合に表示される各ARコンテンツのコンテンツIDと、各ARコンテンツに関する情報(コンテンツ定義)の格納先を示すポインタとを関連付けた情報が含まれる。これにより、コンテンツIDが選択されると、選択されたコンテンツIDに応じて、ARコンテンツに関する情報が参照可能である。マーカー定義N302も、マーカー定義N301と同様に、シナリオID:001のシナリオにおいてマーカーID:002のARマーカーを認識した場合に表示させるARコンテンツの定義を、コンテンツIDの選択に応じて参照可能にさせる。マーカー定義N303およびN304も、マーカー定義N301やN302と同様に、シナリオID:002のシナリオにおいて各マーカーを認識した場合に表示させるARコンテンツの定義を、コンテンツIDの選択に応じて参照可能にさせる。   The marker definition N301 is information regarding the AR marker M1 with the marker ID: 001. The marker definition N301 indicates AR content to be displayed in response to recognition of the AR marker M1. For example, the identification information (content ID) of the AR contents CA11 to CA14 is 001 to 004, and the content IDs of the AR contents C11 and C12 are 005 and 006. Further, for example, the content IDs of the AR contents CB11 to CB13 are 007 to 009, respectively. The marker definition N301 includes the content ID of each AR content displayed when the AR marker with the marker ID: 001 is recognized in the scenario with the scenario ID: 001, and the storage location of information (content definition) regarding each AR content. The information which linked | related with the pointer to show is contained. Thereby, when a content ID is selected, information related to the AR content can be referred to according to the selected content ID. Similarly to the marker definition N301, the marker definition N302 allows the AR content definition to be displayed when the AR marker with the marker ID: 002 is recognized in the scenario with the scenario ID: 001 to be referred to according to the selection of the content ID. . Similarly to the marker definitions N301 and N302, the marker definitions N303 and N304 also make it possible to refer to the AR content definition displayed when each marker is recognized in the scenario with the scenario ID: 002 according to the selection of the content ID.

コンテンツ定義N401は、コンテンツID:001のARコンテンツに関する情報である。コンテンツ定義N401には、マーカーID:001を基準とするコンテンツID:001のARコンテンツの位置、向きおよびサイズの定義が含まれる。コンテンツ定義N401には、さらに、コンテンツID:001のARコンテンツの形状や模様が定義されたARテンプレートの識別情報(テンプレートID)が含まれる。コンテンツ定義N402〜N406のそれぞれにも、コンテンツ定義N401と同様に、マーカーID:001を基準とするコンテンツID:002〜006のARコンテンツの位置、向きおよびサイズの定義ならびにARテンプレートのテンプレートIDが含まれる。コンテンツ定義N407〜N409のそれぞれには、マーカーID:002を基準とするコンテンツID:007〜009のARコンテンツの位置、向きおよびサイズの定義ならびにARテンプレートのテンプレートIDが含まれる。コンテンツ定義N410〜N412のそれぞれにも、コンテンツ定義N401と同様に、マーカーID:001を基準とするコンテンツID:010〜012のARコンテンツの位置、向きおよびサイズの定義ならびにARテンプレートのテンプレートIDが含まれる。コンテンツ定義N413およびN414のそれぞれにも、コンテンツ定義N401と同様に、マーカーID:001を基準とするコンテンツID:005および006のARコンテンツの位置、向きおよびサイズの定義ならびにARテンプレートのテンプレートIDが含まれる。コンテンツ定義N415にも、マーカーID:002を基準とするコンテンツID:013のARコンテンツの位置、向きおよびサイズの定義ならびにARテンプレートのテンプレートIDが含まれる。   The content definition N401 is information related to the AR content with the content ID: 001. The content definition N401 includes definitions of the position, orientation, and size of the AR content with the content ID: 001 based on the marker ID: 001. The content definition N401 further includes identification information (template ID) of an AR template in which the shape and pattern of the AR content with the content ID: 001 is defined. Similarly to the content definition N401, each of the content definitions N402 to N406 includes the definition of the position, orientation, and size of the AR content with the content ID: 002 to 006 based on the marker ID: 001, and the template ID of the AR template. It is. Each of the content definitions N407 to N409 includes a definition of the position, orientation, and size of the AR content of the content ID: 007 to 009 with reference to the marker ID: 002, and a template ID of the AR template. Similarly to the content definition N401, each of the content definitions N410 to N412 includes the definition of the position, orientation, and size of the AR content of the content ID: 010 to 012 with reference to the marker ID: 001, and the template ID of the AR template. It is. Similarly to the content definition N401, each of the content definitions N413 and N414 includes the definition of the position, orientation, and size of the AR content with the content IDs: 005 and 006 based on the marker ID: 001 and the template ID of the AR template. It is. The content definition N415 also includes the definition of the position, orientation, and size of the AR content with the content ID: 013 based on the marker ID: 002, and the template ID of the AR template.

コンテンツ定義N405とコンテンツ定義N413は、同じARコンテンツに関するコンテンツ定義である。コンテンツ定義N405とコンテンツ定義N413は、別々のデータでもよいし、単一のデータでもよい。重複するコンテンツ定義を単一のデータとする場合には、コンテンツ定義を参照するポインタとして同じ値が格納される。例えば、マーカー定義N301に含まれるコンテンツ定義N405を参照させるポインタと、マーカー定義N303に含まれるコンテンツ定義N413を参照させるポインタとが同じ値となる。   The content definition N405 and the content definition N413 are content definitions related to the same AR content. The content definition N405 and the content definition N413 may be separate data or single data. When the overlapping content definition is a single piece of data, the same value is stored as a pointer that references the content definition. For example, the pointer that refers to the content definition N405 included in the marker definition N301 and the pointer that refers to the content definition N413 included in the marker definition N303 have the same value.

特定のシナリオに関するARコンテンツ群が選択的に提供されるには、ルート定義Nにおいて特定のシナリオが選択されればよい。特定のシナリオに関するARコンテンツ群は、選択されたシナリオIDのシナリオ定義の配下に存在する。図10に示すデータ構造により、ARコンテンツがシナリオに応じた単位で管理・提供される。   In order to selectively provide the AR content group related to a specific scenario, a specific scenario may be selected in the route definition N. The AR content group related to a specific scenario exists under the scenario definition of the selected scenario ID. With the data structure shown in FIG. 10, AR content is managed and provided in units corresponding to scenarios.

図11は、ARコンテンツの表示例を示す。図11に示される表示例には、点検作業のシナリオ(シナリオID:001のシナリオ)に関して、認識されたARマーカーM1に関連付けられたARコンテンツが表示された画面S(3)が示される。画面S(3)には、ARマーカーM1の像が含まれ、マーカーM1の像に基づいて生成されたARコンテンツCA11〜CA14、C11およびC12の投影画像が表示される。ARコンテンツCA11〜CA14、C11およびC12は、シナリオID:001のシナリオ定義の配下に定義されるため、表示対象となる。図8に示される画面S(2)には、ARコンテンツCB11〜CB13が表示されるのに対し、画面S(3)には、ARコンテンツCB11〜CB13が表示されない。これは、ARコンテンツCB11〜13が、シナリオID:002のシナリオ定義の配下に定義されるためである。図10のようにシナリオの配下にARコンテンツが定義されることにより、画面S(3)のように、シナリオに応じたARコンテンツがシナリオごとに個別に提供される。   FIG. 11 shows a display example of AR content. The display example shown in FIG. 11 shows a screen S (3) on which the AR content associated with the recognized AR marker M1 is displayed for the inspection work scenario (scenario ID: 001 scenario). The screen S (3) includes an image of the AR marker M1, and the projected images of the AR contents CA11 to CA14, C11, and C12 generated based on the image of the marker M1 are displayed. Since the AR contents CA11 to CA14, C11, and C12 are defined under the scenario definition of the scenario ID: 001, they are displayed. The AR contents CB11 to CB13 are displayed on the screen S (2) shown in FIG. 8, whereas the AR contents CB11 to CB13 are not displayed on the screen S (3). This is because the AR contents CB11 to 13 are defined under the scenario definition of scenario ID: 002. By defining the AR content under the scenario as shown in FIG. 10, the AR content corresponding to the scenario is individually provided for each scenario as shown in the screen S (3).

[ステップに応じた選択的提供]
上述の通りシナリオは複数の作業により構成されるが、複数の作業が、一連の工程(ステップ)として順序だてて構成されることがある。シナリオにおいて複数のステップが順序だてて行なわれるとすると、ユーザが実行中でないステップに関するARコンテンツがユーザに提供されても、ユーザが実行中のステップに取り組む際の補助にはならない。例えば、図11の画面S(3)において、ユーザがオイル量の確認を行なうステップである場合には、手順表示のARコンテンツCA13が表示されればよく、手順表示のARコンテンツCA11やCA12が表示されても作業の補助とならない。さらに、現在のステップと異なるステップを対象としたARコンテンツ(CA11やCA12)が、現在のステップで表示されるべきARコンテンツに重なって表示されてしまう事態も生じうる。例えば、画面S(3)においては、オイル量の確認のためのバルブを右に回すというARコンテンツCA13による操作指示がARコンテンツCA11により見えにくくなっている。また、ARコンテンツCA11やCA12の表示により、ユーザが撮像画像を見ることによって確保される視界が遮られてしまう。
[Selective provision according to step]
As described above, a scenario is configured by a plurality of operations. However, a plurality of operations may be configured in sequence as a series of steps (steps). If multiple steps are taken in order in a scenario, providing the user with AR content for a step that is not being performed by the user does not help the user to work on the step being performed. For example, in the screen S (3) of FIG. 11, if the user is a step of confirming the oil amount, the AR content CA13 indicating the procedure may be displayed, and the AR content CA11 or CA12 indicating the procedure is displayed. Even if it is done, it does not assist the work. Furthermore, the AR content (CA11 or CA12) targeted for a step different from the current step may be displayed overlapping the AR content to be displayed at the current step. For example, in the screen S (3), the operation instruction by the AR content CA13 to turn the valve for checking the oil amount to the right is not easily seen by the AR content CA11. Further, the display of the AR contents CA11 and CA12 blocks the field of view secured when the user views the captured image.

そこで、例えば、ステップに応じた単位でのARコンテンツの管理が行なわれる。特定のシナリオに関するARコンテンツのグループ内で、さらに、シナリオに含まれる各ステップについてのグループを形成させる。   Thus, for example, AR content is managed in units corresponding to steps. Within the group of AR content related to a specific scenario, a group for each step included in the scenario is further formed.

図12は、ARコンテンツのグループを示す。図12に示されるARコンテンツ群G31〜G35は、シナリオID:001のシナリオに含まれる各ステップに対応するARコンテンツのグループの例である。   FIG. 12 shows a group of AR content. AR content groups G31 to G35 shown in FIG. 12 are examples of AR content groups corresponding to the respective steps included in the scenario with the scenario ID: 001.

図12に示される例においては、シナリオID:001のシナリオは、ステップ1〜5の5つのステップで構成される。ステップ1の作業においては、ユーザは、手順表示のARコンテンツCA11に基づいて作業を行なう。ステップ2の作業においては、ユーザは、手順表示のARコンテンツCA12に基づいて作業を行なう。ARコンテンツCA11およびCA12は、ARマーカーM1を基準として表示される。ステップ3の作業においては、ユーザは、手順表示のARコンテンツCA21に基づいて作業を行なう。ARコンテンツCA21は、ARマーカーM2を基準として表示される。ステップ4の作業においては、ユーザは、手順表示のARコンテンツCA13および操作補助のARコンテンツCA14に基づいて作業を行なう。ARコンテンツCA13およびCA14は、ARマーカーM1を基準として表示される。ステップ5の作業においては、ユーザは、手順表示のARコンテンツCA22および操作補助のARコンテンツCA23に基づいて作業を行なう。ARコンテンツCA22およびCA23は、ARマーカーM2を基準として表示される。   In the example shown in FIG. 12, the scenario with scenario ID 001 is composed of five steps 1-5. In the operation of Step 1, the user performs the operation based on the AR content CA11 displayed as a procedure. In the operation of step 2, the user performs the operation based on the AR content CA12 displayed as a procedure. The AR contents CA11 and CA12 are displayed with the AR marker M1 as a reference. In the operation of Step 3, the user performs the operation based on the AR content CA21 displayed as a procedure. The AR content CA21 is displayed with the AR marker M2 as a reference. In the operation of Step 4, the user performs the operation based on the AR content CA13 of procedure display and the AR content CA14 of operation assistance. The AR contents CA13 and CA14 are displayed with the AR marker M1 as a reference. In the operation of Step 5, the user performs the operation based on the AR content CA22 of procedure display and the AR content CA23 of operation assistance. The AR contents CA22 and CA23 are displayed with the AR marker M2 as a reference.

図12に示すステップごとのグループでの表示制御では、現在のステップのステータスが管理され、例えば、現在のステップのARコンテンツを表示させる制御が行なわれる。その際、他のステップに関するARコンテンツは非表示となる。   In the display control in the group for each step shown in FIG. 12, the status of the current step is managed, and for example, control for displaying the AR content of the current step is performed. At this time, the AR content related to other steps is not displayed.

図13は、AR定義データのデータ構造例を示す。図13に示すデータ構造により、ステップに応じた単位でARコンテンツが管理・提供される。図13に示すデータ構造は、図10に示すデータ構造例と同様に、ツリー構造を有する。ステップは、シナリオに含まれる構成要素であるので、ツリー構造においてシナリオよりも下位且つARコンテンツより上位のデータ要素で定義される。   FIG. 13 shows an example data structure of AR definition data. With the data structure shown in FIG. 13, AR content is managed and provided in units corresponding to steps. The data structure shown in FIG. 13 has a tree structure similar to the data structure example shown in FIG. Since a step is a component included in a scenario, it is defined by data elements that are lower than the scenario and higher than the AR content in the tree structure.

図13のツリー構造のルート定義Nは、図10に示すルート定義Nと同様であり、ルート定義Nの参照により、選択されたシナリオIDに応じて、シナリオに関する情報が参照可能である。   The route definition N of the tree structure in FIG. 13 is the same as the route definition N shown in FIG. 10, and by referring to the route definition N, information related to the scenario can be referred to according to the selected scenario ID.

図13に示す各シナリオ定義は、各シナリオに含まれる各ステップに関する情報(ステップ定義)の参照先を含む。シナリオ定義N13は、シナリオID:001のシナリオに関する情報であり、シナリオに含まれるステップ1〜5のそれぞれについてのステップ定義へのポインタを含む。シナリオ定義N13を参照すると、ステップの番号に応じて、対応するステップ定義が参照可能となる。   Each scenario definition illustrated in FIG. 13 includes a reference destination of information (step definition) regarding each step included in each scenario. The scenario definition N13 is information related to the scenario with the scenario ID: 001 and includes a pointer to the step definition for each of steps 1 to 5 included in the scenario. Referring to the scenario definition N13, the corresponding step definition can be referred to according to the step number.

図13に示すステップ定義は、ステップにおけるARコンテンツ表示の基準となるARマーカーのマーカー定義の参照先を含む。例えば、ステップ定義N21は、マーカーID:001のARマーカーのマーカー定義N311へのポインタを含む。ステップ定義N311を参照すると、マーカーIDに応じて、対応するマーカー定義が参照可能となる。   The step definition shown in FIG. 13 includes the reference destination of the marker definition of the AR marker that is a reference for AR content display in the step. For example, the step definition N21 includes a pointer to the marker definition N311 of the AR marker with the marker ID: 001. When the step definition N311 is referred to, the corresponding marker definition can be referred to according to the marker ID.

図13に示すマーカー定義は、マーカー定義の上位のステップ定義に定義されるステップにおいて、ARマーカーの認識に応じて表示されるARコンテンツのコンテンツ定義へのポインタを含む。例えば、マーカー定義N311は、ステップ1においてマーカーID:001のARマーカーM1を認識した場合に表示するARコンテンツのコンテンツ定義へのポインタを含む。   The marker definition shown in FIG. 13 includes a pointer to the content definition of the AR content displayed in response to the recognition of the AR marker in the step defined in the step definition above the marker definition. For example, the marker definition N311 includes a pointer to the content definition of the AR content to be displayed when the AR marker M1 with the marker ID: 001 is recognized in step 1.

図13に示すデータ構造により、ステップ単位でのARコンテンツ表示が行なわれるには、シナリオ定義N13において、ステップが順次選択されればよい。各ステップにおいて表示の対象となるARコンテンツ群は、順次選択されるステップ定義の配下に定義される。   In order to display AR contents in units of steps with the data structure shown in FIG. 13, the steps may be sequentially selected in the scenario definition N13. The AR content group to be displayed in each step is defined under the step definition that is sequentially selected.

図14は、ARコンテンツの表示例を示す。図14に示される画面S(4)は、図13に示すデータ構造において、選択されたステップ定義の配下のARコンテンツ群の表示が行なわれた場合の画面例である。画面S(4)においては、ステップ定義N24(図12のステップ4に対応)の配下のコンテンツ定義N403およびN404に定義されたARコンテンツが表示される。ARコンテンツCA13およびCA14(コンテンツ定義N403およびN404に対応)と同じくARマーカーM1を表示の基準とするARコンテンツCA11およびCA12(コンテンツ定義N401およびN402に対応)については表示されない。図14ではARコンテンツCA11およびCA12が表示されないことを、ARコンテンツの点線表示で示している。これは、コンテンツ定義N401及びN402が、ステップ定義N24の配下に存在しないためである。すなわち、ARコンテンツがステップに応じた単位で管理するデータ構造が用いられることにより、現在の工程と異なる工程に関するARコンテンツの表示が抑制される。   FIG. 14 shows a display example of AR content. Screen S (4) shown in FIG. 14 is a screen example when the AR content group under the selected step definition is displayed in the data structure shown in FIG. On the screen S (4), the AR contents defined in the content definitions N403 and N404 under the step definition N24 (corresponding to step 4 in FIG. 12) are displayed. As with the AR contents CA13 and CA14 (corresponding to the content definitions N403 and N404), the AR contents CA11 and CA12 (corresponding to the content definitions N401 and N402) using the AR marker M1 as a display reference are not displayed. In FIG. 14, the AR contents CA11 and CA12 are not displayed by the dotted line display of the AR contents. This is because the content definitions N401 and N402 do not exist under the step definition N24. That is, by using the data structure managed by the AR content in units corresponding to the steps, display of the AR content relating to a process different from the current process is suppressed.

また、他の表示制御例として、現在の工程と異なる工程に関するARコンテンツは、例えば完全に非表示にされずに、テクスチャをマッピングせずにワイヤフレームだけを表示させてもよい。例えば、現在のステップのステップ定義N24配下のARコンテンツ群の表示とともに、その他のステップのステップ定義N21〜N23およびN25配下のARコンテンツ群についてテクスチャマッピングしないでワイヤフレームのみの表示が行なわれるようにしてもよい。これにより、現在の工程と異なる工程に関するARコンテンツが表示されることが原因となって現在の工程のARコンテンツが見にくくなることが抑制される。また、現在の工程と異なる工程に関するワイヤフレームのみのARコンテンツを背面に表示し、テクスチャマッピングされた現在の工程のARコンテンツを前面に表示させる制御が行なわれてもよい。   As another display control example, AR content related to a process different from the current process may not be completely hidden, for example, and only a wire frame may be displayed without mapping a texture. For example, in addition to displaying the AR content group under the step definition N24 of the current step, only the wire frame is displayed without texture mapping for the AR content groups under the step definitions N21 to N23 and N25 of the other steps. Also good. Thereby, it is suppressed that it becomes difficult to see the AR content of the current process due to the display of the AR content regarding the process different from the current process. Further, control may be performed in which the AR content of only the wire frame relating to a process different from the current process is displayed on the back surface, and the AR content of the current process subjected to texture mapping is displayed on the front surface.

図15は、ARコンテンツ提供のシーケンス例を示す。ARコンテンツがステップに応じた単位で管理されることにより、ARコンテンツのダウンロードの段階的な実施が可能となる。プログラム起動後に、コンピュータ1でシナリオが選択される(t1)と、選択されたシナリオ定義、シナリオ定義配下のAR定義データ(シナリオ定義、ステップ定義、マーカー定義およびコンテンツ定義)がダウンロードされる。ARコンテンツの表示は、コンテンツ定義に示されるARテンプレートのデータを用いて行なわれるので、AR定義データのダウンロード完了(t2)後、ARテンプレートのダウンロードが順次行なわれる。この際、選択されたシナリオにおいて、最初のステップで用いられるARテンプレートを優先的にダウンロードすることにより、ARコンテンツ表示の開始タイミングをシナリオに含まれる全ARコンテンツのダウンロード完了時点よりも早めることができる。少なくとも、ステップ1に関するARテンプレートまでダウンロードされた時点(t3)でステップ1に関するARコンテンツ表示が開始可能となる。   FIG. 15 shows a sequence example of AR content provision. By managing the AR content in units corresponding to the steps, the AR content can be downloaded in stages. When the scenario is selected by the computer 1 after the program is started (t1), the selected scenario definition and AR definition data (scenario definition, step definition, marker definition and content definition) under the scenario definition are downloaded. Since the AR content is displayed using the AR template data indicated in the content definition, the AR template is sequentially downloaded after the AR definition data download is completed (t2). At this time, by preferentially downloading the AR template used in the first step in the selected scenario, the start timing of the AR content display can be made earlier than the time point when the download of all AR content included in the scenario is completed. . At least when the AR template related to step 1 is downloaded (t3), the AR content display related to step 1 can be started.

[本実施形態の機能構成]
図16は、コンピュータ1の機能ブロック構成例を示す。コンピュータ1は、制御部10、取得部11、認識部12、演算部13、生成部14、記憶部15、撮像部16、表示部17、通信部18および入力部19を含む。制御部10は、選択制御部101、イベント検知部102、表示制御部103および設定管理部104を含む。
[Functional configuration of this embodiment]
FIG. 16 shows a functional block configuration example of the computer 1. The computer 1 includes a control unit 10, an acquisition unit 11, a recognition unit 12, a calculation unit 13, a generation unit 14, a storage unit 15, an imaging unit 16, a display unit 17, a communication unit 18, and an input unit 19. The control unit 10 includes a selection control unit 101, an event detection unit 102, a display control unit 103, and a setting management unit 104.

制御部10は、他の機能ブロックを制御することにより、ARコンテンツの提供およびARコンテンツの編集を実行させる。取得部11は、コンピュータ2からARコンテンツをダウンロードする。認識部12は、撮像部16により撮像された撮像画像に基づいて、ARマーカーの認識を行なう。認識部12は、ARマーカーの認識において、ARマーカーを識別するマーカーIDの読み取りと、カメラ座標系におけるARマーカーの座標を算出する。演算部13は、ARコンテンツの位置情報(マーカー座標系)を位置情報(スクリーン座標系)に変換する。また、演算部13は、画面上の位置に対応するマーカー座標系の位置を、認識部12により算出されたARマーカーの座標に基づいて算出する。生成部14は、演算部13により算出された位置情報に基づいて、ARコンテンツの投影画像を生成する。   The control unit 10 controls provision of AR content and editing of AR content by controlling other functional blocks. The acquisition unit 11 downloads AR content from the computer 2. The recognition unit 12 recognizes an AR marker based on the captured image captured by the imaging unit 16. The recognition unit 12 reads the marker ID for identifying the AR marker and calculates the coordinates of the AR marker in the camera coordinate system in the recognition of the AR marker. The calculation unit 13 converts the AR content position information (marker coordinate system) into position information (screen coordinate system). In addition, the calculation unit 13 calculates the position of the marker coordinate system corresponding to the position on the screen based on the coordinates of the AR marker calculated by the recognition unit 12. The generation unit 14 generates a projected image of the AR content based on the position information calculated by the calculation unit 13.

記憶部15は、他の機能ブロックにおいて用いられる情報を記憶する。例えば、取得部11によりダウンロードされたARコンテンツや、ARコンテンツの表示・編集に用いられる管理情報などを記憶する。撮像部16は、撮像処理を行なう。撮像部16の撮像処理により得られる撮像画像も記憶部15に記憶される。表示部17は、画像の表示を行なう。通信部18は、他の装置(例えばコンピュータ2)とネットワーク3を介したデータ通信を行なう。入力部19は、コンピュータ1の操作者の操作を検知し、検知に応じた信号を制御部10に伝達する。   The storage unit 15 stores information used in other functional blocks. For example, the AR content downloaded by the acquisition unit 11 and management information used for displaying / editing the AR content are stored. The imaging unit 16 performs an imaging process. A captured image obtained by the imaging process of the imaging unit 16 is also stored in the storage unit 15. The display unit 17 displays an image. The communication unit 18 performs data communication with other devices (for example, the computer 2) via the network 3. The input unit 19 detects the operation of the operator of the computer 1 and transmits a signal corresponding to the detection to the control unit 10.

選択制御部101、イベント検知部102、表示制御部103及び設定管理部104は、制御部10により実行されるARコンテンツの表示・編集処理の処理手順の一部を実行する機能ブロックである。選択制御部101は、シナリオリストの表示イベントを生成し、シナリオリスト内の選択に応じてARコンテンツの取得イベントを生成する。シナリオリストについては後述する。イベント検知部102は、認識部12の認識結果に基づいて、切替イベントを生成する。表示制御部103は、状態遷移定義に沿って表示部17に表示させる画面を遷移させる。表示制御部103による画面遷移は、表示イベントの生成に応じて行なわれる。制御部10は、生成部13により投影画像が生成されると、投影画像の表示イベントを生成する。投影画像の表示イベントが生成されると、表示制御部103は、撮像部16が撮像した撮像画像内に投影画像を重ねて表示部17に表示させる制御を行なう。設定管理部104は、演算部13により生成された算出情報の設定を管理する。   The selection control unit 101, the event detection unit 102, the display control unit 103, and the setting management unit 104 are functional blocks that execute a part of the processing procedure of the AR content display / editing process executed by the control unit 10. The selection control unit 101 generates a scenario list display event, and generates an AR content acquisition event according to the selection in the scenario list. The scenario list will be described later. The event detection unit 102 generates a switching event based on the recognition result of the recognition unit 12. The display control unit 103 changes the screen displayed on the display unit 17 in accordance with the state transition definition. The screen transition by the display control unit 103 is performed according to the generation of the display event. When the generation unit 13 generates a projection image, the control unit 10 generates a projection image display event. When the display event of the projection image is generated, the display control unit 103 performs control to cause the display unit 17 to display the projection image so as to overlap the captured image captured by the imaging unit 16. The setting management unit 104 manages the setting of calculation information generated by the calculation unit 13.

[ARコンテンツ表示の処理手順]
図17および図18は、AR機能の処理手順を示す。図17および図18に処理手順を示すAR機能は、AR表示モードおよびAR編集モードの2つのモードを提供する。AR機能は、例えばユーザの入力によりプログラムの起動指示が与えられるなどにより呼び出される。AR機能が呼び出されると、制御部10がモード選択画面S(5)の表示イベントを生成し、表示部17が表示イベントの生成に応じてモード選択画面S(5)を表示する(S101)。
[AR content display processing procedure]
17 and 18 show the processing procedure of the AR function. The AR function whose processing procedure is shown in FIGS. 17 and 18 provides two modes: an AR display mode and an AR editing mode. The AR function is called, for example, when a program start instruction is given by user input. When the AR function is called, the control unit 10 generates a display event of the mode selection screen S (5), and the display unit 17 displays the mode selection screen S (5) according to the generation of the display event (S101).

図19は、モード選択画面およびシナリオ選択画面の例を示す。モード選択画面S(5)は、ボタンB1とボタンB2とを含む。ボタンB1およびボタンB2は、それぞれ画面内の領域が割り当てられている。ボタンB1に割り当てられた領域内にAR表示モードを示す表示が行なわれ、ボタンB1に割り当てられた領域への入力によりAR表示モードが選択される。ボタンB2もボタンB1と同様に、ボタンB2に割り当てられた領域内にAR編集モードを示す表示が行なわれ、ボタンB2に割り当てられた領域への入力によりAR編集モードが選択される。   FIG. 19 shows an example of a mode selection screen and a scenario selection screen. Mode selection screen S (5) includes button B1 and button B2. An area in the screen is assigned to each of the buttons B1 and B2. Display indicating the AR display mode is performed in the area assigned to the button B1, and the AR display mode is selected by input to the area assigned to the button B1. Similarly to the button B1, the button B2 displays the AR editing mode in the area assigned to the button B2, and the AR editing mode is selected by input to the area assigned to the button B2.

シナリオ選択画面S(6)は、ボタンB3、ボタンB4およびボタン群B5を含む画面であり、モード選択画面S(5)でAR表示モードが選択されると表示される。ボタンB3には画面内の領域が割り当てられ、割り当てられた領域内にはモード選択画面S(5)に戻る旨の表示が行なわれる。また、ボタンB3に割り当てられた領域内への入力によりモード選択画面S(5)が表示される。ボタンB4には画面内の領域が割り当てられ、割り当てられた領域内にはAR機能を終了させる旨の表示が行なわれる。また、ボタンB4に割り当てられた領域内への入力によりAR機能の終了処理が実行される。ボタン群B5の各々には画面内の領域が割り当てられ、割り当てられたそれぞれの領域にシナリオにラベル付けされたシナリオ名が表示される。シナリオ名が表示された領域への入力に応じてシナリオが選択される。   The scenario selection screen S (6) is a screen including the button B3, the button B4, and the button group B5, and is displayed when the AR display mode is selected on the mode selection screen S (5). An area in the screen is allocated to the button B3, and a display for returning to the mode selection screen S (5) is performed in the allocated area. Further, the mode selection screen S (5) is displayed by input into the area assigned to the button B3. An area in the screen is assigned to the button B4, and a display for ending the AR function is displayed in the assigned area. Further, the AR function end processing is executed by input into the area assigned to the button B4. An area in the screen is allocated to each button group B5, and a scenario name labeled with the scenario is displayed in each allocated area. A scenario is selected according to the input in the area where the scenario name is displayed.

シナリオ選択画面S(7)もボタンB3およびボタンB4を含み、さらにボタン群B6を含む。ボタン群B6は、ボタン群B5と同様のボタンと、新規シナリオに対応するボタンを含む。新規シナリオのボタンが選択されると、シナリオが新規に作成される。   The scenario selection screen S (7) also includes a button B3 and a button B4, and further includes a button group B6. The button group B6 includes buttons similar to the button group B5 and buttons corresponding to the new scenario. When the new scenario button is selected, a new scenario is created.

図17のS101でモード選択画面が表示された状態で入力部19が入力操作を検知すると、入力部19はモード選択画面におけるユーザの入力を制御部10に伝達し、制御部10はユーザの入力によりAR表示モードが選択されたか否かを判定する(S102)。モード選択画面においてAR表示モードが選択されると、シナリオに応じたARコンテンツの表示処理が実行され、他方、AR編集モードが選択されると、ARコンテンツの編集処理が実行される。   When the input unit 19 detects an input operation in the state where the mode selection screen is displayed in S101 of FIG. 17, the input unit 19 transmits the user input on the mode selection screen to the control unit 10, and the control unit 10 receives the user input. To determine whether or not the AR display mode is selected (S102). When the AR display mode is selected on the mode selection screen, the AR content display process corresponding to the scenario is executed. On the other hand, when the AR edit mode is selected, the AR content edit process is executed.

モード選択画面においてAR表示モードが選択されると、選択制御部101はシナリオリストの取得イベントを生成し、取得部11は取得イベントの生成に応じてコンピュータ2から通信部18を介してシナリオリストを取得する。シナリオリストは、図10や図13に示すAR定義データに含まれるルート定義Nなどに基づいて生成される。   When the AR display mode is selected on the mode selection screen, the selection control unit 101 generates a scenario list acquisition event, and the acquisition unit 11 generates a scenario list from the computer 2 via the communication unit 18 in response to generation of the acquisition event. get. The scenario list is generated based on the route definition N included in the AR definition data shown in FIGS.

また、シナリオリストが複数種類用意され、作業の実行主体であるユーザに関する情報(例えばアカウント)に応じて提供されるシナリオリストが切り替えられてもよい。例えば、S101の前に、ユーザのアカウント情報やパスワードなどの入力に基づくログイン操作が行なわれ、ログイン時に入力されたユーザのアカウント情報に応じたシナリオリストが提供される。これにより、複数の業務プロセスを扱う組織において割り当てられるユーザの権限に応じたシナリオ提供が可能となる。   Further, a plurality of types of scenario lists may be prepared, and the scenario list provided may be switched according to information (for example, an account) related to the user who is the subject of the work. For example, before S101, a login operation based on input of user account information, a password, and the like is performed, and a scenario list corresponding to the user account information input at the time of login is provided. Thereby, it is possible to provide a scenario according to the authority of the user assigned in an organization that handles a plurality of business processes.

図20は、ルート定義のデータ構造例を示す。AR定義データに含まれる各データは、例えば、所定のデータ長(例えば4バイト)を単位とする情報(情報単位)の羅列(情報単位1および情報単位群2)で構成される。ルート定義Nの1番目の情報単位(情報単位1)には、ルートの配下に存在するシナリオの数Nsが示される。ルート定義Nには、シナリオ数Nsを示す情報単位に後続して、Ns個の情報単位が含まれる。2番目以降の情報単位(情報単位群2)には、ルートの配下のシナリオを識別するシナリオIDと、シナリオ定義の格納先を示すポインタとが含まれる。   FIG. 20 shows an example of the data structure of the route definition. Each data included in the AR definition data includes, for example, a list (information unit 1 and information unit group 2) of information (information unit) having a predetermined data length (for example, 4 bytes) as a unit. In the first information unit (information unit 1) of the route definition N, the number Ns of scenarios existing under the route is indicated. The route definition N includes Ns information units subsequent to the information unit indicating the number of scenarios Ns. The second and subsequent information units (information unit group 2) include a scenario ID for identifying a scenario under the route and a pointer indicating a storage location of the scenario definition.

取得部11が取得するシナリオリストは、ルート定義そのものでもよいし、ルート配下のシナリオ定義へのポインタが除かれたものであってもよい。また、ルート配下の各シナリオIDに、対応するシナリオ名を対応づけた情報をシナリオリストとしてもよい。また、例えば、複数種類のシナリオリストをユーザのアカウントに応じて切り替える構成においては、AR定義データ全体が複数通り用意される。   The scenario list acquired by the acquisition unit 11 may be the route definition itself, or may be obtained by removing the pointer to the scenario definition under the route. Further, information in which a corresponding scenario name is associated with each scenario ID under the route may be used as a scenario list. Further, for example, in a configuration in which a plurality of types of scenario lists are switched according to a user account, a plurality of AR definition data are prepared in a plurality of ways.

図17のS103でシナリオリストが取得されると、選択制御部101はシナリオ選択画面S(6)の表示イベントを生成し、表示制御部103は表示イベントの生成に応じて表示部17にシナリオ選択画面S(6)を表示させる(S104)。シナリオ選択画面が表示された状態で入力部19が入力操作を検知すると、入力部19はシナリオ選択画面におけるユーザの入力を制御部10に伝達し、制御部10はユーザの入力による選択内容を判定する(S105)。   When the scenario list is acquired in S103 of FIG. 17, the selection control unit 101 generates a display event of the scenario selection screen S (6), and the display control unit 103 selects a scenario on the display unit 17 in accordance with the generation of the display event. Screen S (6) is displayed (S104). When the input unit 19 detects an input operation in a state where the scenario selection screen is displayed, the input unit 19 transmits the user input on the scenario selection screen to the control unit 10, and the control unit 10 determines the selection content by the user input. (S105).

S105において、モード選択画面S(5)に戻る旨(「戻る」)が表示されるボタンB3が選択される(S105:「戻る」)と、S101の処理が再度行なわれる。また、S105においてAR機能を終了させる旨(「終了」)が表示されるボタンB4が選択される(S105:「終了」)と、AR機能が終了される。また、S105において、ボタン群B5に示されるいずれかのシナリオが選択される(S105:「シナリオ」)と、制御部10は取得部11に、S105で選択されたシナリオで提供されるARコンテンツ群のダウンロード処理を開始させる(S106)。   In S105, when the button B3 for displaying the return to the mode selection screen S (5) ("Return") is selected (S105: "Return"), the process of S101 is performed again. Further, when the button B4 for displaying that the AR function is to be ended (“END”) is selected in S105 (S105: “END”), the AR function is ended. In S105, when any scenario shown in the button group B5 is selected (S105: “scenario”), the control unit 10 provides the acquisition unit 11 with the AR content group provided in the scenario selected in S105. Is started (S106).

図21は、ダウンロード機能の処理手順例を示す。取得部11は、選択されたシナリオのシナリオIDを、通信部18を介してコンピュータ2に送信する(S201)。コンピュータ2は、取得部11により送信されたシナリオIDに対応するAR定義データをコンピュータ1に送信する。コンピュータ2の処理手順は、図52において説明される。取得部11は、コンピュータ2から送信されるAR定義データを、通信部18を介して受信する(S202)。   FIG. 21 shows a processing procedure example of the download function. The acquisition unit 11 transmits the scenario ID of the selected scenario to the computer 2 via the communication unit 18 (S201). The computer 2 transmits AR definition data corresponding to the scenario ID transmitted by the acquisition unit 11 to the computer 1. The processing procedure of the computer 2 is illustrated in FIG. The acquisition unit 11 receives the AR definition data transmitted from the computer 2 via the communication unit 18 (S202).

AR定義データのデータ構造例は、図10または図13に示される。AR定義データの一部であるルート定義Nは図20により示される。図13に示されるデータ構造例におけるシナリオ定義、ステップ定義、マーカー定義およびコンテンツ定義のそれぞれについて、図22〜図25にデータ構造例を示す。   An example of the data structure of the AR definition data is shown in FIG. 10 or FIG. A route definition N which is a part of the AR definition data is shown in FIG. For each of the scenario definition, step definition, marker definition, and content definition in the data structure example shown in FIG. 13, examples of the data structure are shown in FIGS.

図22は、シナリオ定義のデータ構造例を示す。図22に示されるシナリオ定義N13は、ルート定義Nに含まれるポインタにより格納位置が示される。シナリオ定義は、所定データ長の情報単位(情報単位1、情報単位群2、情報単位3、情報単位群4)により構成される。シナリオ定義N13の1番目の情報単位(情報単位1)には、シナリオ定義N13の配下のステップ定義の数(シナリオ定義N13では5)と、ルート定義Nの格納位置を示すポインタとが含まれる。1番目の情報単位に示されるステップ定義の数の情報単位(情報単位群2)が、1番目の情報単位に後続してシナリオ定義N13に含まれる。これらの情報単位には、シナリオ定義N13の配下のステップ定義のステップ番号およびステップ定義の格納位置を示すポインタが含まれる。さらに、シナリオ定義N13配下のステップ定義に関する情報に後続する情報単位(情報単位3)には、シナリオ定義N13配下のマーカー定義の数(シナリオ定義N13では1)が示される。さらに、シナリオ定義N13配下のマーカー定義の数の情報単位(情報単位群4)が後続してシナリオ定義N13に含まれる。これらの情報単位には、シナリオ定義N13配下のマーカー定義のマーカーIDおよびマーカー定義の格納位置を示すポインタが含まれる。   FIG. 22 shows an example of the data structure of the scenario definition. The scenario definition N13 shown in FIG. 22 has a storage position indicated by a pointer included in the route definition N. The scenario definition is composed of information units (information unit 1, information unit group 2, information unit 3, information unit group 4) having a predetermined data length. The first information unit (information unit 1) of the scenario definition N13 includes the number of step definitions under the scenario definition N13 (5 in the scenario definition N13) and a pointer indicating the storage location of the route definition N. The number of step definition information units (information unit group 2) indicated in the first information unit is included in the scenario definition N13 following the first information unit. These information units include the step number of the step definition under the scenario definition N13 and a pointer indicating the storage location of the step definition. Further, the number of marker definitions under the scenario definition N13 (1 in the scenario definition N13) is shown in the information unit (information unit 3) subsequent to the information related to the step definition under the scenario definition N13. Furthermore, the number of marker definitions under the scenario definition N13 (information unit group 4) is subsequently included in the scenario definition N13. These information units include a marker ID of the marker definition under the scenario definition N13 and a pointer indicating the storage location of the marker definition.

図23は、ステップ定義のデータ構造例を示す。図23に示されるステップ定義N21は、シナリオ定義N13に含まれるポインタにより格納位置が示される。ステップ定義は、所定データ長の情報単位(情報単位1および情報単位群2)により構成される。ステップ定義N21の1番目の情報単位(情報単位1)には、ステップ定義N21の配下のマーカー定義の数(ステップ定義N21では1)と、シナリオ定義N13の格納位置を示すポインタとが含まれる。情報単位1に示されるマーカー定義の数の情報単位(情報単位群2)が、1番目の情報単位に後続してステップ定義N21に含まれる。これらの情報単位には、ステップ定義N21の配下のマーカー定義のマーカーIDおよびマーカー定義の格納位置を示すポインタが含まれる。   FIG. 23 shows an example of the data structure of the step definition. In the step definition N21 shown in FIG. 23, the storage position is indicated by a pointer included in the scenario definition N13. The step definition is composed of information units (information unit 1 and information unit group 2) having a predetermined data length. The first information unit (information unit 1) of the step definition N21 includes the number of marker definitions under the step definition N21 (1 in the step definition N21) and a pointer indicating the storage position of the scenario definition N13. The number of marker definition information units (information unit group 2) shown in the information unit 1 is included in the step definition N21 following the first information unit. These information units include a marker ID of the marker definition under the step definition N21 and a pointer indicating the storage location of the marker definition.

図24は、マーカー定義のデータ構造例を示す。図24に示されるマーカー定義N311は、ステップ定義N21に含まれるポインタにより格納位置が示される。マーカー定義は、所定データ長の情報単位(情報単位1および情報単位群2)により構成される。マーカー定義N311の1番目の情報単位(情報単位1)には、マーカー定義N311の配下のコンテンツ定義の数(マーカー定義N311では1)と、ステップ定義N21の格納位置を示すポインタとが含まれる。1番目の情報単位に示されるコンテンツ定義の数の情報単位(情報単位群2)が、1番目の情報単位に後続してマーカー定義N311に含まれる。これらの情報単位には、マーカー定義N311の配下のコンテンツ定義のコンテンツIDおよびコンテンツ定義の格納位置を示すポインタが含まれる。   FIG. 24 shows an example of the data structure of the marker definition. The marker definition N311 shown in FIG. 24 has a storage position indicated by a pointer included in the step definition N21. The marker definition is composed of information units (information unit 1 and information unit group 2) having a predetermined data length. The first information unit (information unit 1) of the marker definition N311 includes the number of content definitions under the marker definition N311 (1 in the marker definition N311) and a pointer indicating the storage location of the step definition N21. The number of content definition information units (information unit group 2) shown in the first information unit is included in the marker definition N311 following the first information unit. These information units include the content ID of the content definition under the marker definition N311 and a pointer indicating the storage location of the content definition.

図25は、コンテンツ定義のデータ構造例を示す。図25に示されるコンテンツ定義N401は、マーカー定義N311に含まれるポインタにより格納位置が示される。コンテンツ定義は、所定データ長の情報単位(情報単位1〜5)により構成される。コンテンツ定義N401の1番目の情報単位(情報単位1)には、コンテンツ定義である旨を示す情報と、マーカー定義N311へのポインタとが含まれる。また、コンテンツ定義N401の2番目の情報単位(情報単位2)には、コンテンツ定義N401のコンテンツIDと、コンテンツ定義N401で定義されるARコンテンツに用いられるARテンプレートのテンプレートIDが示される。コンテンツ定義N401の3番目の情報単位(情報単位3)には、マーカー座標系における位置座標(Xm,Ym,Zm)が示される。この位置座標にARコンテンツの基準点がセットされる。コンテンツ定義N401の4番目の情報単位(情報単位4)には、マーカー座標系における回転座標(Pm,Qm,Rm)が示される。さらに、コンテンツ定義N401の5番目の情報単位(情報単位5)には、ARコンテンツの倍率(Jx,Jy,Jz)が示される。   FIG. 25 shows an example data structure of content definition. In the content definition N401 shown in FIG. 25, the storage position is indicated by a pointer included in the marker definition N311. The content definition is composed of information units (information units 1 to 5) having a predetermined data length. The first information unit (information unit 1) of the content definition N401 includes information indicating content definition and a pointer to the marker definition N311. The second information unit (information unit 2) of the content definition N401 indicates the content ID of the content definition N401 and the template ID of the AR template used for the AR content defined by the content definition N401. In the third information unit (information unit 3) of the content definition N401, position coordinates (Xm, Ym, Zm) in the marker coordinate system are indicated. The reference point of the AR content is set at this position coordinate. In the fourth information unit (information unit 4) of the content definition N401, rotational coordinates (Pm, Qm, Rm) in the marker coordinate system are indicated. Furthermore, the fifth information unit (information unit 5) of the content definition N401 indicates the magnification (Jx, Jy, Jz) of the AR content.

選択されたシナリオの配下のAR定義データが取得されると、取得部11は、受信状態テーブルT1を記憶部15のワークエリアに生成する(S203)。   When the AR definition data under the selected scenario is acquired, the acquisition unit 11 generates the reception state table T1 in the work area of the storage unit 15 (S203).

図26は、受信状態テーブルの例を示す。受信状態テーブルT1は、選択されたシナリオに含まれる各ARコンテンツについて、ARコンテンツが表示されるステップのステップ番号、コンテンツIDおよび受信されたか否かの受信状態を示す情報を対応付けるテーブルである。受信状態は、値「0」がコンテンツデータの受信未了を示し、値「1」がコンテンツデータの受信完了を示す。図26に示す受信状態テーブルの例は、シナリオID:001が選択された場合の例である。ARコンテンツのコンテンツデータ(ARテンプレートおよび画像ファイル)の受信が終了した場合に、受信状態が「0」から「1」に変更される。   FIG. 26 shows an example of the reception state table. The reception state table T1 is a table that associates, for each AR content included in the selected scenario, the step number of the step in which the AR content is displayed, the content ID, and information indicating whether or not the reception state is received. In the reception state, the value “0” indicates that the content data has not been received, and the value “1” indicates that the content data has been received. The example of the reception state table shown in FIG. 26 is an example when scenario ID: 001 is selected. When reception of content data (AR template and image file) of AR content is completed, the reception state is changed from “0” to “1”.

受信状態テーブルT1を生成すると、取得部11は、受信状態テーブルT1を参照し、未受信のコンテンツデータが存在するか否かを判定する(S204)。未受信のコンテンツデータが存在する場合(S204:YES)には、取得部11は、コンテンツデータの受信を行なう(S205)。図52を用いて後述するが、コンピュータ2は、選択されたシナリオに含まれるARコンテンツのコンテンツデータをステップごとに順次送信する。   When the reception state table T1 is generated, the acquisition unit 11 refers to the reception state table T1 and determines whether there is unreceived content data (S204). If there is unreceived content data (S204: YES), the acquisition unit 11 receives the content data (S205). As will be described later with reference to FIG. 52, the computer 2 sequentially transmits content data of AR content included in the selected scenario for each step.

コンテンツデータとは、コンテンツ定義により位置、向き及びサイズが定義されるARコンテンツの形状や模様を示す情報である。コンテンツデータは、ARテンプレートとARテンプレートにおいて示される画像ファイルとを含む。   Content data is information indicating the shape and pattern of AR content whose position, orientation, and size are defined by content definition. The content data includes an AR template and an image file shown in the AR template.

図27は、ARテンプレートのデータ構造例を示す。ARテンプレートT2は、ARテンプレートのテンプレートID、ARテンプレートを構成する各頂点の座標データT21、およびARテンプレートを構成する各面の面構成データT22を含む。面構成データに含まれる各面の情報は、面を構成する頂点の順序である頂点順序と、テクスチャIDの指定とを含む。テクスチャIDは、面にマッピングされるテクスチャの識別情報(画像ファイルの識別情報)を示す。ARテンプレートの基準点は例えば0番目の頂点である。   FIG. 27 shows an example of the data structure of the AR template. The AR template T2 includes the template ID of the AR template, coordinate data T21 of each vertex constituting the AR template, and surface configuration data T22 of each surface constituting the AR template. The information of each surface included in the surface configuration data includes a vertex order that is the order of the vertices constituting the surface and designation of the texture ID. The texture ID indicates the identification information (image file identification information) of the texture mapped to the surface. The reference point of the AR template is, for example, the 0th vertex.

S205が実行されてから所定時間経過すると、取得部11は、受信状態テーブルT1の更新を行なう(S206)。取得部11は、コンテンツデータの受信が終了したARコンテンツについて、受信状態テーブルT1の受信状態を「0」から「1」に変更する。ARコンテンツに対応するARテンプレートT2と、ARテンプレートT2で指定される画像ファイルが全てダウンロードされると、ARコンテンツの受信が終了したと判断される。S206の処理が行なわれると、取得部11は再度S204の判定を行なう。   When a predetermined time elapses after S205 is executed, the acquisition unit 11 updates the reception state table T1 (S206). The acquisition unit 11 changes the reception state of the reception state table T1 from “0” to “1” for the AR content whose content data has been received. When the AR template T2 corresponding to the AR content and the image file specified by the AR template T2 are all downloaded, it is determined that the reception of the AR content has been completed. When the process of S206 is performed, the acquisition unit 11 performs the determination of S204 again.

受信状態テーブルT1の参照により、未受信のコンテンツデータが無いと判定された場合(S204:NO)には、取得部11はダウンロード機能を終了する。   If it is determined by reference to the reception state table T1 that there is no unreceived content data (S204: NO), the acquisition unit 11 ends the download function.

制御部10は、取得部11にダウンロード処理を開始させると、ARマーカーが検知されたか否かを認識部12に判定させる(S107)。認識部12は、撮像部16により撮像された撮像画像内にARマーカーの像が含まれる場合に、ARマーカーが検知されたと判定する。ARマーカーの像が含まれるか否かは、例えば、撮像画像内に平行四辺形形状の像が含まれるか否かにより判断される。認識部12によりARマーカーが検知されない旨の判定結果を受ける場合(S107:NO)には、所定時間経過後に再度S107の処理が実行される。撮像部16は定期的に撮像処理を行なっており、認識部12が再度S107の処理を行なう際には、別の撮像画像に基づいて判断が行なわれる。   When the acquisition unit 11 starts the download process, the control unit 10 causes the recognition unit 12 to determine whether an AR marker is detected (S107). The recognition unit 12 determines that the AR marker has been detected when the image of the AR marker is included in the captured image captured by the imaging unit 16. Whether or not an AR marker image is included is determined, for example, based on whether or not a parallelogram-shaped image is included in the captured image. When the recognition unit 12 receives a determination result indicating that the AR marker is not detected (S107: NO), the process of S107 is executed again after a predetermined time has elapsed. The imaging unit 16 periodically performs an imaging process, and when the recognition unit 12 performs the process of S107 again, a determination is made based on another captured image.

ARマーカーが検知された旨の判定結果を認識部12から受ける場合(S107:YES)には、制御部10は、認識部12にマーカー認識処理を実行させる(S108)。マーカー認識処理においては、S107で検知されたARマーカーについて、カメラ座標系におけるARマーカーの座標(位置座標および回転座標)の算出と、ARマーカーのマーカーIDの読み取りとが行なわれる。算出されたARマーカーの座標と、読み取られたマーカーIDに基づいて、認識マーカー情報D1およびマーカー移動情報D2が更新される。認識マーカー情報D1およびマーカー移動情報D2の更新は、S109のイベント検知処理において行なわれる。   When the determination result that the AR marker is detected is received from the recognition unit 12 (S107: YES), the control unit 10 causes the recognition unit 12 to execute a marker recognition process (S108). In the marker recognition process, for the AR marker detected in S107, calculation of the AR marker coordinates (position coordinates and rotation coordinates) in the camera coordinate system and reading of the marker ID of the AR marker are performed. Based on the calculated AR marker coordinates and the read marker ID, the recognition marker information D1 and the marker movement information D2 are updated. The recognition marker information D1 and the marker movement information D2 are updated in the event detection process of S109.

図28は、認識マーカー情報およびマーカー移動情報の例を示す。図28に示される認識マーカー情報D1は、S108のマーカー認識処理により認識されたARマーカーの数と、認識されたARマーカー各々についてのマーカーIDおよび移動情報へのポインタとを示す。認識マーカー情報D1に含まれるポインタにより示されるマーカー移動情報D2は、直近の所定回数のマーカー認識により算出されたARマーカーの像の位置座標(Xs,Ys)および回転座標(R1c)が示される。マーカー移動情報D2は、例えば、8回前のマーカー認識処理までのARマーカーの像の位置座標(Xs,Ys)および回転座標(R1c)が示される。位置座標の単位は例えばピクセルであり、回転座標の単位は例えば度である。認識マーカー情報D1およびマーカー移動情報D2は、例えばレジスタなどに格納される。   FIG. 28 shows an example of recognition marker information and marker movement information. The recognition marker information D1 shown in FIG. 28 indicates the number of AR markers recognized by the marker recognition processing in S108, the marker ID for each recognized AR marker, and a pointer to movement information. The marker movement information D2 indicated by the pointer included in the recognition marker information D1 indicates the position coordinates (Xs, Ys) and the rotation coordinates (R1c) of the AR marker image calculated by the most recent predetermined number of marker recognitions. The marker movement information D2 indicates, for example, the position coordinates (Xs, Ys) and the rotation coordinates (R1c) of the image of the AR marker up to the previous marker recognition process. The unit of position coordinates is, for example, a pixel, and the unit of rotational coordinates is, for example, degrees. The recognition marker information D1 and the marker movement information D2 are stored in, for example, a register.

マーカー認識処理が行なわれると、制御部10はイベント検知処理を実行する(S109)。イベント検知処理によるイベントの検知に応じて、選択されたシナリオにおけるステップが進行または後退する。   When the marker recognition process is performed, the control unit 10 executes an event detection process (S109). Depending on the detection of an event by the event detection process, the step in the selected scenario proceeds or retreats.

図29は、シナリオの状態情報の例を示す。図29に示される状態情報D0は、シナリオの進行状況を示す。状態情報D0は、例えばレジスタなどに格納される。状態情報D0は、S105で選択されたシナリオのシナリオID、選択されたシナリオに含まれるステップの数および現在のステップを示す。イベントの検知によりステップが進行または後退すると、状態情報D0の現在のステップの情報が更新される。   FIG. 29 shows an example of scenario state information. The state information D0 shown in FIG. 29 indicates the progress of the scenario. The state information D0 is stored in, for example, a register. The state information D0 indicates the scenario ID of the scenario selected in S105, the number of steps included in the selected scenario, and the current step. When a step progresses or reverses due to the detection of an event, information on the current step in the state information D0 is updated.

図30は、イベント検知の処理手順例を示す。図30に示すイベント検知処理においては、ARマーカーの像が横方向に移動してフレームアウトした場合にステップ番号のインクリメントまたはデクリメントが行なわれる。スクリーン座標系で正の方向にフレームアウトした場合に、ステップ番号がインクリメントされ、負の方向にフレームアウトした場合に、ステップ番号がデクリメントされる。   FIG. 30 shows an example of an event detection processing procedure. In the event detection process shown in FIG. 30, the step number is incremented or decremented when the AR marker image moves laterally and out of the frame. When the frame is out in the positive direction in the screen coordinate system, the step number is incremented, and when the frame is out in the negative direction, the step number is decremented.

イベント検知部102は、イベント検知処理が開始されると、認識マーカー情報D1を参照し、前回までに認識されたARマーカーで今回のマーカー認識処理で認識されなかったARマーカーが存在するか否かを判定する(S301)。S301で参照される認識マーカー情報D1には、図30のイベント検知処理の直前に行なわれたマーカー認識処理(今回のマーカー認識処理)の結果は反映されていない。すなわち、S301で参照される認識マーカー情報D1には、直前のマーカー認識処理(今回のマーカー認識処理)のさらに1つ前までのマーカー認識処理の結果が含まれている。S301で未認識のARマーカーが存在した場合(S301:YES)に、イベント検知部102は、S301で検知された未認識のARマーカーのマーカー移動情報を、認識マーカー情報に基づいて取得する(S302)。   When the event detection process is started, the event detection unit 102 refers to the recognition marker information D1 and determines whether or not there is an AR marker that has been recognized up to the previous time and that has not been recognized in the current marker recognition process. Is determined (S301). The recognition marker information D1 referred to in S301 does not reflect the result of the marker recognition process (current marker recognition process) performed immediately before the event detection process of FIG. In other words, the recognition marker information D1 referred to in S301 includes the results of the marker recognition process up to the immediately preceding marker recognition process (current marker recognition process). When there is an unrecognized AR marker in S301 (S301: YES), the event detection unit 102 acquires marker movement information of the unrecognized AR marker detected in S301 based on the recognized marker information (S302). ).

イベント検知部102は、さらに、S302で取得したマーカー移動情報に含まれる位置座標に基づいて、Xs方向の座標の絶対の最大値と、Ys方向の変化量(Ysの最大値とYsの最小値との差)とを算出する(S303)。続いてイベント検知部102は、S303で算出したYs方向の変化量が所定値以下であるか否かを判定する(S304)。S303で算出したYsの変化量が所定値以下であれば、コンピュータ1のカメラが上下方向に大きく動いていないことが判明する。S303で算出したYsの変化量が所定値以下である場合(S303:YES)には、イベント検知部102は、S303で算出したXs方向の絶対値の最大値が所定値以上であるか否かを判定する(S305)。S303で算出したXs方向の絶対値の最大値が所定値以上であれば、ARマーカーの像が画面の右端の領域か左端の領域に存在したことが判明する。スクリーン座標系は、前述の通り(Xs,Ys)の2次元で構成され、例えばカメラの撮像処理により得られる撮像画像の中心を原点(原点Os)とする。所定値として、Xsの最大値(画面の右端に相当する)よりも小さく0よりも大きい値が用いられ、例えばXsの最大値の3/4などの値が用いられる。S303で算出したXs方向の絶対値の最大値が所定値以上の場合(S305:YES)には、イベント検知部102は、Xs方向の絶対値が最大となるXsが正の値であるか否かを判定する(S306)。   The event detection unit 102 further determines the absolute maximum value of the coordinates in the Xs direction and the amount of change in the Ys direction (the maximum value of Ys and the minimum value of Ys) based on the position coordinates included in the marker movement information acquired in S302. Is calculated (S303). Subsequently, the event detection unit 102 determines whether or not the amount of change in the Ys direction calculated in S303 is equal to or less than a predetermined value (S304). If the amount of change in Ys calculated in S303 is less than or equal to a predetermined value, it is determined that the camera of the computer 1 has not moved significantly in the vertical direction. If the amount of change in Ys calculated in S303 is less than or equal to a predetermined value (S303: YES), the event detection unit 102 determines whether or not the maximum absolute value in the Xs direction calculated in S303 is greater than or equal to a predetermined value. Is determined (S305). If the maximum value of the absolute value in the Xs direction calculated in S303 is equal to or greater than a predetermined value, it is determined that the AR marker image is present in the right end region or the left end region of the screen. The screen coordinate system is configured in two dimensions (Xs, Ys) as described above, and for example, the center of the captured image obtained by the imaging process of the camera is set as the origin (origin Os). As the predetermined value, a value smaller than the maximum value of Xs (corresponding to the right end of the screen) and larger than 0 is used, for example, a value such as 3/4 of the maximum value of Xs is used. If the maximum value of the absolute value in the Xs direction calculated in S303 is greater than or equal to a predetermined value (S305: YES), the event detection unit 102 determines whether Xs that maximizes the absolute value in the Xs direction is a positive value. Is determined (S306).

Xs方向の絶対値が最大となるXsが正の値である場合(S306:YES)には、イベント検知部102は、状態情報D0の現在のステップ番号をインクリメントする(S307)。逆に、Xs方向の絶対値が最大となるXsが負の値である場合(S306:NO)には、イベント検知部102は、状態情報D0の現在のステップ番号をデクリメントする(S308)。   When Xs that maximizes the absolute value in the Xs direction is a positive value (S306: YES), the event detection unit 102 increments the current step number of the state information D0 (S307). On the other hand, when Xs that maximizes the absolute value in the Xs direction is a negative value (S306: NO), the event detection unit 102 decrements the current step number of the state information D0 (S308).

前回のマーカー認識処理で認識されたARマーカーで今回未認識のマーカーが無い場合(S301:NO)、Ysの変化量が所定値よりも大きい場合(S304:NO)、S303で算出したXs方向の絶対値の最大値が所定値よりも小さい場合(S305:NO)、S307またはS308の処理が行なわれた場合のいずれかに該当する場合は、イベント検知部102は、今回のマーカー認識処理S108の認識結果を認識マーカー情報D1およびマーカー移動情報D2に反映させる(S309)。S309の処理が行なわれると、イベント検知処理は終了する。   When there is no unrecognized marker among the AR markers recognized in the previous marker recognition process (S301: NO), and when the change amount of Ys is larger than a predetermined value (S304: NO), the Xs direction calculated in S303 When the maximum absolute value is smaller than the predetermined value (S305: NO), when the process of S307 or S308 is performed, the event detection unit 102 performs the current marker recognition process S108. The recognition result is reflected in the recognition marker information D1 and the marker movement information D2 (S309). When the process of S309 is performed, the event detection process ends.

図31は、画面に表示されるマーカーの例を示す。図31に示される画面S(8)は、シナリオID:001のステップ1における表示画面の例である。ステップ1の状態なので、ARコンテンツCA11が表示され、ARコンテンツCA12およびCA13の表示は抑制される(または一部のみが表示される)。画面S(8)に表示されるARマーカーM1の像が矢印の方向に移動してフレームアウトすると、Xsの最大値は正の値であるため、ステップ番号がインクリメントされる。   FIG. 31 shows examples of markers displayed on the screen. Screen S (8) shown in FIG. 31 is an example of the display screen in step 1 of scenario ID: 001. Since it is the state of step 1, AR content CA11 is displayed, and the display of AR content CA12 and CA13 is suppressed (or only a part is displayed). When the image of the AR marker M1 displayed on the screen S (8) moves in the direction of the arrow and goes out of the frame, the step number is incremented because the maximum value of Xs is a positive value.

図31に示される画面S(9)は、画面S(8)に示すようにフレームアウトした後、再度ARマーカーM1がフレームインした際の画面の例である。ARマーカーがフレームインされると、マーカー認識処理によりマーカーが認識され、認識されたマーカーに応じたARコンテンツの表示が行なわれる。その場合には、画面S(8)よりもステップが1つ進行しているので、シナリオID:001のステップ2に対応するARコンテンツCA12が表示される。また、画面(8)において表示されたARコンテンツCA11の表示は抑制される(または一部のみが表示される)。   A screen S (9) shown in FIG. 31 is an example of a screen when the AR marker M1 enters the frame again after being out of the frame as shown in the screen S (8). When the AR marker is framed in, the marker is recognized by the marker recognition process, and AR content corresponding to the recognized marker is displayed. In that case, since one step has progressed from the screen S (8), the AR content CA12 corresponding to step 2 of the scenario ID: 001 is displayed. Further, the display of the AR content CA11 displayed on the screen (8) is suppressed (or only a part is displayed).

図30および図31に示されるイベント検知処理に応じたステップの切り替えによれば、ユーザはコンピュータ1を保持した状態のまま(ARコンテンツの表示を閲覧する姿勢のまま)カメラの向きを変えるのみでステップを切り替えることができる。また、図30の手順によれば、フレームアウトの方向判断は、ARマーカーを認識しなくなったタイミングにのみ実施される。   According to the switching of the steps according to the event detection process shown in FIGS. 30 and 31, the user simply changes the direction of the camera while holding the computer 1 (with the posture of browsing the display of the AR content). Steps can be switched. In addition, according to the procedure of FIG. 30, the frame-out direction is determined only at the timing when the AR marker is no longer recognized.

例えば、ステップの切り替えは、ボタンのタップ、ディスプレイのタップ/フリック等の遷移アクションに応じて行なわれてもよい。しかしながら、コンピュータ1がタブレット端末などである場合、タップやフリックなどの操作を行なうためには、ユーザはタブレット端末を片手持ちすることになる。端末のサイズが大きくなると、片手で安定的に保持することが難しくなる。   For example, the step switching may be performed according to a transition action such as a button tap or a display tap / flick. However, when the computer 1 is a tablet terminal or the like, the user holds the tablet terminal with one hand in order to perform operations such as tapping and flicking. As the size of the terminal increases, it becomes difficult to hold it stably with one hand.

また、例えばステップの切り替えが、コンピュータ1本体のジェスチャに応じて行なわれてもよい。ジェスチャによる判断は、加速度センサによる計測値や撮像画像の解析などに応じて行なわれる。しかし、ジェスチャが開始されたタイミングを判断するために、常時数値的な演算処理が行なわれる。   Further, for example, switching of steps may be performed according to a gesture of the main body of the computer 1. The determination by the gesture is performed according to the measurement value by the acceleration sensor, the analysis of the captured image, or the like. However, in order to determine the timing when the gesture is started, numerical calculation processing is always performed.

図31を用いた上述の説明では、ARマーカーM1の像が画面右側にフレームアウトした場合にステップ番号がインクリメントされるが、逆にデクリメントされるようにしてもよい。その場合、例えば、ARマーカーM1の像が画面左側にフレームアウトした場合にステップ番号がインクリメントされる。   In the above description using FIG. 31, the step number is incremented when the image of the AR marker M1 is out of the frame on the right side of the screen, but it may be decremented. In this case, for example, when the image of the AR marker M1 is out of the frame on the left side of the screen, the step number is incremented.

また、判定の契機がフレームアウトでなく、フレームインであってもよい。例えば、図30のS301において、前回までに認識されなかったARマーカーが認識された際に、フラグを立てておき、フラグが立った状態におけるARマーカーの像の移動方向に応じて、ステップ番号がインクリメントまたはデクリメントされる。   Moreover, the trigger of determination may be frame-in instead of frame-out. For example, when an AR marker that has not been recognized up to the previous time is recognized in S301 of FIG. 30, a flag is set, and the step number is set according to the moving direction of the image of the AR marker in the state where the flag is set. Incremented or decremented.

イベント検知部102によりイベント検知処理(S109)が行なわれると、制御部10は、演算部13および生成部14を制御して、投影画像の生成処理を実行する(S110)。   When the event detection process (S109) is performed by the event detection unit 102, the control unit 10 controls the calculation unit 13 and the generation unit 14 to execute a projection image generation process (S110).

図32は、投影画像の生成処理の処理手順例を示す。制御部10は、シナリオの状態情報に示される現在のステップ番号のステップ定義に定義された認識対象のARマーカーが、認識マーカー情報に存在するか否かを判断する(S401)。現在のステップの認識対象のARマーカーが認識マーカー情報に示されないということは、現在のステップにおいて表示すべきARコンテンツが存在しないということである。そのため、認識対象のARマーカーが認識マーカー情報に示されない場合(S401:NO)、S107のマーカー検知の手順が行なわれる。この際に、表示制御部103は、認識すべきARマーカーが異なる旨のガイド情報を表示部17に表示させてもよい。   FIG. 32 shows an example of the processing procedure of the projection image generation process. The control unit 10 determines whether or not the recognition target AR marker defined in the step definition of the current step number indicated in the scenario state information exists in the recognition marker information (S401). That the AR marker to be recognized in the current step is not indicated in the recognition marker information means that there is no AR content to be displayed in the current step. Therefore, when the recognition target AR marker is not indicated in the recognition marker information (S401: NO), the marker detection procedure of S107 is performed. At this time, the display control unit 103 may cause the display unit 17 to display guide information indicating that the AR marker to be recognized is different.

現在のステップの認識対象のARマーカーが存在する場合(S401:YES)には、制御部10は、現在のステップの認識対象のARマーカーの情報(マーカー定義、マーカー定義の配下のコンテンツ定義)を読み出す(S402)。制御部10は、S402で読みだしたコンテンツ定義に対応するARコンテンツのうち、コンテンツデータの受信が終わっていないARコンテンツが存在するか否かを判定する(S403)。制御部10は、シナリオの状態情報に示される現在のステップ番号についてのコンテンツの受信状況を、受信状態テーブルT1の参照により確認してS403の判定を行なう。ARコンテンツが受信されていない場合(S403:NO)には、制御部10は、受信するまで待機して再度S403の判定を行なう。もしくは、表示制御部103が受信待機中である旨を表示部17に表示させ、その後、S107のマーカー検知の手順が行なわれてもよい。   When there is an AR marker to be recognized at the current step (S401: YES), the control unit 10 stores information on the AR marker to be recognized at the current step (marker definition, content definition under the marker definition). Read (S402). The control unit 10 determines whether or not there is an AR content that has not been received from the content data among the AR content corresponding to the content definition read in S402 (S403). The control unit 10 confirms the content reception status for the current step number indicated in the scenario status information by referring to the reception status table T1, and performs the determination in S403. When the AR content is not received (S403: NO), the control unit 10 waits until the AR content is received and performs the determination of S403 again. Or the display control part 103 may display on the display part 17 that it is waiting for reception, and the procedure of the marker detection of S107 may be performed after that.

表示対象のARコンテンツが受信されている場合(S403:YES)には、制御部10は、表示対象の各ARコンテンツについてS405〜S407の処理を行なう(S404およびS408による繰り返し)。表示対象のARコンテンツとは、現在のステップのステップ定義の配下のコンテンツ定義に定義されるARコンテンツである。   When the AR content to be displayed is received (S403: YES), the control unit 10 performs the processing of S405 to S407 for each AR content to be displayed (repeated by S404 and S408). The AR content to be displayed is AR content defined in the content definition under the step definition of the current step.

S404でARコンテンツが選択されると、制御部10は、演算部13に、選択されたARコンテンツのコンテンツ定義に示されるARテンプレートに定義される各頂点座標をコンテンツ定義に基づいて座標変換させる(S405)。演算部13は、各頂点座標をコンテンツ定義の回転座標(Pm,Qm,Rm)に基づいて回転させ、回転させた頂点座標を倍率(Jx,Jy,Jz)に応じて拡縮し、さらに位置座標(Xm,Ym,Zm)に応じて並進させる。制御部10は、さらに、演算部13に、S405で座標変換された各頂点座標に対してモデル−ビュー変換および透視変換を実行させる(S406)。S405およびS406により、S404で選択されたARコンテンツの各頂点座標がスクリーン座標系で表現される。   When the AR content is selected in S404, the control unit 10 causes the calculation unit 13 to perform coordinate conversion on each vertex coordinate defined in the AR template indicated in the content definition of the selected AR content based on the content definition ( S405). The calculation unit 13 rotates each vertex coordinate based on the content-defined rotation coordinates (Pm, Qm, Rm), expands / contracts the rotated vertex coordinates according to the magnification (Jx, Jy, Jz), and further the position coordinates. Translation is performed according to (Xm, Ym, Zm). The control unit 10 further causes the calculation unit 13 to execute model-view conversion and perspective conversion on each vertex coordinate whose coordinates are converted in S405 (S406). Through S405 and S406, each vertex coordinate of the AR content selected in S404 is expressed in the screen coordinate system.

制御部10は、生成部14に、ARテンプレートに定義される面定義ごとに、S405およびS406で座標変換された各頂点座標に基づいてテクスチャマッピングを実行させる(S407)。生成部14は、面定義に定義される各頂点のスクリーン座標系での座標を線で補間した領域に、面定義に定義された画像ファイル(テクスチャIDで指定される画像)を、マッピングする。   The control unit 10 causes the generation unit 14 to perform texture mapping for each surface definition defined in the AR template based on the vertex coordinates that have undergone coordinate conversion in S405 and S406 (S407). The generation unit 14 maps the image file (image specified by the texture ID) defined in the surface definition to an area obtained by interpolating the coordinates in the screen coordinate system of each vertex defined in the surface definition with a line.

生成部14により各面定義についての形状および位置が指定された面画像が生成されると、表示制御部103は、透明画像レイヤに各面画像を配置する(S408)。透明画像レイヤは表示画面サイズの画像であり初期設定では透明である。そのため、透明画像レイヤの背面に存在するレイヤの画像がそのまま表示される。S408で配置された面画像は、背面のレイヤの画像よりも前面に表示される。   When the generation unit 14 generates a plane image in which the shape and position for each plane definition are specified, the display control unit 103 arranges each plane image on the transparent image layer (S408). The transparent image layer is an image having a display screen size and is transparent by default. For this reason, the image of the layer existing behind the transparent image layer is displayed as it is. The surface image arranged in S408 is displayed in front of the image of the back layer.

S405〜S408の処理が表示対象の各ARコンテンツに行なわれると、制御部10は投影画像の生成処理を終了し、表示制御部103は、投影画像の更新を行なう(S111)。表示制御部103は、S110の処理で各ARコンテンツの各面画像が配置された透明画像レイヤを撮像画像の前面に表示させる制御を表示部17に対して行なう。   When the processing of S405 to S408 is performed on each AR content to be displayed, the control unit 10 ends the projection image generation processing, and the display control unit 103 updates the projection image (S111). The display control unit 103 controls the display unit 17 to display a transparent image layer in which each surface image of each AR content is arranged in front of the captured image in the process of S110.

その後、制御部10はシナリオを終了させるか否かを判断する(S112)。制御部10は、シナリオの状態情報を参照し、現在のステップ番号がステップ数よりも大きい場合に、シナリオ終了する判断を行なう。制御部10は、現在のステップ番号がステップ数以下であれば、シナリオを終了しない。S112でシナリオを終了しない場合(S112:NO)には、制御部10は、S107のマーカー検知処理が行なわれる。   Thereafter, the control unit 10 determines whether or not to end the scenario (S112). The control unit 10 refers to the scenario state information, and determines that the scenario is to end when the current step number is larger than the number of steps. If the current step number is equal to or smaller than the number of steps, the control unit 10 does not end the scenario. When the scenario is not terminated in S112 (S112: NO), the control unit 10 performs the marker detection process in S107.

S112でシナリオを終了する場合には、表示制御部103は、表示部17に選択画面を表示させる(S113)。S113で表示される選択画面には、「終了」、「他のシナリオ」および「他のモード」の選択肢が示される。制御部10は、S113で選択画面が表示された状態で入力部19が受けた選択入力が、「終了」、「他のシナリオ」および「他のモード」のいずれであるかを判定する(S114)。   When ending the scenario in S112, the display control unit 103 displays a selection screen on the display unit 17 (S113). On the selection screen displayed in S113, options of “end”, “other scenario”, and “other mode” are shown. The control unit 10 determines whether the selection input received by the input unit 19 in a state where the selection screen is displayed in S113 is “End”, “Other scenario”, or “Other mode” (S114). ).

S114で選択入力が「終了」である場合(S114:「終了」)には、制御部10は、AR機能を終了させる。S114で選択入力が「他のシナリオ」である場合(S114:「他のシナリオ」)には、表示制御部103は、表示部17にS104のシナリオ選択画面を表示させる。また、S114で選択入力が「他のモード」である場合(S114:「他のモード」)には、表示制御部103は、表示部17にS101のモード選択画面を表示させる。   When the selection input is “end” in S114 (S114: “end”), the control unit 10 ends the AR function. When the selection input is “other scenario” in S114 (S114: “other scenario”), the display control unit 103 causes the display unit 17 to display the scenario selection screen in S104. When the selection input is “other mode” in S114 (S114: “other mode”), the display control unit 103 causes the display unit 17 to display the mode selection screen in S101.

[切り替えイベント検知の他の方式]
図30のイベント検知の手順では、マーカーのフレームアウトの方向によりステップ切り替えのイベントが検知される。認識されたマーカーの態様に応じたステップ切り替え判定の他の手順について説明する。
[Other methods of switching event detection]
In the event detection procedure of FIG. 30, a step switching event is detected depending on the direction of the marker frame out. Another procedure for step switching determination according to the recognized marker mode will be described.

例えば、ステップ切り替え用のインジケータ(指標画像)を画面上に表示しておき、撮像画像中のマーカーの像をインジケータに合わせられたことに応じてステップが切り替えられる。インジケータは、例えば、四角い枠形状の図形である。   For example, a step switching indicator (index image) is displayed on the screen, and the step is switched in accordance with the fact that the marker image in the captured image is aligned with the indicator. The indicator is, for example, a square frame shape.

図33は、画面に表示されるマーカーの例を示す。図33に示される画面S(10)は、あるシナリオのステップ1における画面の例である。画面S(10)には、インジケータI1が表示される。インジケータI1は、四角い枠形状の図形であり、番号「2」を示す。また、画面S(10)には、ARマーカーM1の像が写り込んでいる。表示される撮像画像は順次更新され、更新された撮像画像に対してマーカー認識処理(S108)が行なわれる。   FIG. 33 shows examples of markers displayed on the screen. A screen S (10) shown in FIG. 33 is an example of the screen in step 1 of a scenario. An indicator I1 is displayed on the screen S (10). The indicator I1 is a square frame-shaped figure and indicates the number “2”. Further, the image of the AR marker M1 is reflected on the screen S (10). The displayed captured image is sequentially updated, and marker recognition processing (S108) is performed on the updated captured image.

画面S(11)は、マーカー認識処理により得られるARマーカーM1の画面内の位置がインジケータI1の表示位置と重なった場合の画面を示す。画面S(11)の状態になった場合に、ステップ1からステップ2への切り替えが行なわれる。ステップ2に切り替えられると、ARマーカーM1の認識に応じて、ステップ2に対応する表示が行なわれる。   A screen S (11) shows a screen when the position of the AR marker M1 obtained by the marker recognition process overlaps the display position of the indicator I1. When the state of the screen S (11) is entered, switching from step 1 to step 2 is performed. When switched to step 2, display corresponding to step 2 is performed according to recognition of the AR marker M1.

画面S(12)は、ステップ2に対応する表示が行なわれた画面の例である。画面S(12)には、ARマーカーM1の像と、ステップ2の表示対象のARコンテンツC31およびC32と、インジケータI2およびI3とが表示される。インジケータI2およびI3も、インジケータI1と同様に四角い枠形状の図形であり、それぞれ番号「3」、「1」を示す。ARマーカーM1の像がインジケータI2の画面内位置で認識されると、ステップの進行(ステップ2からステップ3への切り替え)が行なわれ、ARマーカーの像がインジケータI3の画面内位置で認識されると、ステップの後退(ステップ2からステップ1への切り替え)が行なわれる。   Screen S (12) is an example of a screen on which display corresponding to step 2 is performed. On the screen S (12), an image of the AR marker M1, the AR contents C31 and C32 to be displayed in step 2, and indicators I2 and I3 are displayed. Indicators I2 and I3 are also rectangular frame shapes like indicator I1, and indicate numbers “3” and “1”, respectively. When the image of the AR marker M1 is recognized at the position within the screen of the indicator I2, the step proceeds (switching from step 2 to step 3), and the image of the AR marker is recognized at the position within the screen of the indicator I3. Then, step backwards (switching from step 2 to step 1) is performed.

インジケータI2の画面内位置にARマーカーの像が認識されると、画面S(13)が表示される。画面S(13)はステップ3に対応する表示が行なわれた画面の例である。ステップ3の表示対象のARコンテンツC33およびC34と、インジケータI4およびI1が表示される。インジケータI4も、インジケータI1と同様に四角い枠形状の図形であり、番号「4」を示す。ARマーカーM1の像がインジケータI4の画面内位置で認識されると、ステップの進行(ステップ3からステップ4への切り替え)が行なわれ、ARマーカーの像がインジケータI1の画面内位置で認識されると、ステップの後退(ステップ3からステップ2への切り替え)が行なわれる。   When the AR marker image is recognized at the position in the screen of the indicator I2, the screen S (13) is displayed. Screen S (13) is an example of a screen on which display corresponding to step 3 is performed. The AR contents C33 and C34 to be displayed in step 3 and indicators I4 and I1 are displayed. The indicator I4 is also a square frame shape like the indicator I1, and indicates the number “4”. When the image of the AR marker M1 is recognized at the position within the screen of the indicator I4, the step proceeds (switching from step 3 to step 4), and the image of the AR marker is recognized at the position within the screen of the indicator I1. Then, step backwards (switching from step 3 to step 2) are performed.

図34は、ステップ定義のデータ構造例を示す。図33に示すステップ切り替えでは、各ステップにおいてインジケータの表示位置が指定される。インジケータの表示位置は、各ステップ定義において定義される。図33に示されるステップ2に対応するステップ定義N22aは、ステップ定義N21と同様に、所定のデータ長(例えば4バイト)を単位とする情報の羅列(情報単位1〜4)で構成される。   FIG. 34 shows an example of the data structure of the step definition. In the step switching shown in FIG. 33, the display position of the indicator is designated at each step. The display position of the indicator is defined in each step definition. The step definition N22a corresponding to step 2 shown in FIG. 33 is composed of a series of information (information units 1 to 4) with a predetermined data length (for example, 4 bytes) as a unit, like the step definition N21.

情報単位1には、ステップ2においてARコンテンツ表示の基準に用いられるARマーカーの数と、シナリオ定義へのポインタとが示される。情報単位2には、ステップ2においてARコンテンツ表示の基準に用いられるARマーカーのマーカーIDとマーカー定義へのポインタとが示される。情報単位3には、ステップ2からステップを後退させる判断に用いられるインジケータの表示位置(Xs,Ys)が示される。また、情報単位4には、ステップ2からステップを進行させる判断に用いられるインジケータの表示位置(Xs,Ys)が示される。ステップが切り替えられると、情報単位3および4に応じてインジケータが表示される。   In the information unit 1, the number of AR markers used as a reference for AR content display in step 2 and a pointer to the scenario definition are shown. In the information unit 2, the marker ID of the AR marker and the pointer to the marker definition used as the reference for displaying the AR content in step 2 are shown. In the information unit 3, the display position (Xs, Ys) of the indicator used for the determination to reverse the step from step 2 is shown. In addition, the information unit 4 indicates the display position (Xs, Ys) of the indicator used for the determination of proceeding from step 2 to step. When the step is switched, an indicator is displayed according to the information units 3 and 4.

図35は、イベント検知の処理手順例を示す。インジケータとARマーカーとの表示位置に応じてステップ切り替えを判定する方式においては、イベント検知処理が開始されると、制御部10は、マーカー認識処理により認識されたARマーカーの画面内位置(Xs,Ys)を取得する(S501)。   FIG. 35 shows an example of an event detection processing procedure. In the method of determining step switching according to the display position of the indicator and the AR marker, when the event detection process is started, the control unit 10 displays the position (Xs, AR) of the AR marker recognized by the marker recognition process. Ys) is acquired (S501).

制御部10は、現在のステップのステップ定義を参照し、S501で取得したARマーカーの位置がステップ後退用の位置であるか否か判定する(S502)。S502の判定でARマーカーの位置が後退の位置であると判定された場合(S502:YES)には、制御部10は、シナリオの状態情報D0の現在のステップ番号をデクリメントする(S503)。   The control unit 10 refers to the step definition of the current step, and determines whether or not the position of the AR marker acquired in S501 is a position for step backward (S502). If it is determined in S502 that the position of the AR marker is the backward position (S502: YES), the control unit 10 decrements the current step number of the scenario state information D0 (S503).

S502の判定でARマーカーの位置が後退の位置でないと判定された場合(S502:NO)には、制御部10は、現在のステップのステップ定義を参照し、S501で取得したARマーカーの位置がステップ前進用の位置であるか否か判定する(S504)。S504の判定でARマーカーの位置が前進用の位置であると判定された場合(S504:YES)には、制御部10は、シナリオの状態情報D0の現在のステップ番号をインクリメントする(S505)。   If it is determined in S502 that the position of the AR marker is not a backward position (S502: NO), the control unit 10 refers to the step definition of the current step, and the position of the AR marker acquired in S501 is the same. It is determined whether or not the position is a step forward position (S504). If it is determined in S504 that the position of the AR marker is a forward position (S504: YES), the control unit 10 increments the current step number of the scenario state information D0 (S505).

S503またはS505が行なわれると、制御部10は、状態情報D0に示される現在のステップ番号のステップ定義に基づいて、後退用の位置を示すインジケータと、前進用の位置を示すインジケータとを生成する(S506)。さらに、表示制御部103は、表示部17に表示させるインジケータを、S506で生成されたインジケータに更新する(S507)。S507が行なわれるか、ARマーカーの位置が前進用の位置でないと判定された場合(S504:NO)には、制御部10は、イベント検知処理を終了する。   When S503 or S505 is performed, the control unit 10 generates an indicator indicating a backward position and an indicator indicating a forward position based on the step definition of the current step number indicated in the state information D0. (S506). Furthermore, the display control unit 103 updates the indicator displayed on the display unit 17 to the indicator generated in S506 (S507). When S507 is performed or when it is determined that the position of the AR marker is not the forward position (S504: NO), the control unit 10 ends the event detection process.

他のイベント検知の方式の例では、画面に表示されるARマーカーの像の回転角度に応じて、ステップの切り替えが行なわれる。   In another example of the event detection method, the step is switched according to the rotation angle of the AR marker image displayed on the screen.

図36は、画面に表示されるマーカーの例を示す。M1(1)に示す四角形の位置に表示されていたARマーカーM1が、別のタイミングでM1(2)に示す四角形の位置に表示されると、ARマーカーM1は角度Rsだけ回転した状態で認識されたこととなる。回転角度が所定値よりも大きい場合に、回転の方向に応じたステップ切り替えの判断が可能である。ちなみに、ARマーカーの回転は、固定されたARマーカーに対してユーザがカメラを回転させる動作によっても行なわれる。   FIG. 36 shows an example of a marker displayed on the screen. When the AR marker M1 displayed at the square position indicated by M1 (1) is displayed at the square position indicated by M1 (2) at another timing, the AR marker M1 is recognized in a state rotated by an angle Rs. It will be done. When the rotation angle is larger than a predetermined value, it is possible to determine step switching according to the direction of rotation. Incidentally, the AR marker is also rotated by an operation in which the user rotates the camera with respect to the fixed AR marker.

図37は、イベント検知の処理手順例を示す。イベント検知処理が開始されると、制御部10は、認識されたARマーカーのマーカー移動情報D1から回転座標の情報を取得する(S601)。次に、制御部10は、認識されたARマーカーに回転が生じたか否かを判定する(S602)。S602の判定は、回転角度Rsが所定値以上であるか否かに応じて行なわれる。マーカー認識処理により回転角度R1cが算出されるので、回転角度Rsの代わりに、例えば、マーカー移動情報に含まれる回転角度(R1c)の最大値と最小値との差が用いられてもよい。   FIG. 37 shows an example of an event detection processing procedure. When the event detection process is started, the control unit 10 acquires rotational coordinate information from the marker movement information D1 of the recognized AR marker (S601). Next, the control unit 10 determines whether or not the recognized AR marker has been rotated (S602). The determination in S602 is made according to whether or not the rotation angle Rs is greater than or equal to a predetermined value. Since the rotation angle R1c is calculated by the marker recognition processing, for example, the difference between the maximum value and the minimum value of the rotation angle (R1c) included in the marker movement information may be used instead of the rotation angle Rs.

S602で回転が生じたと判定された場合(S602:YES)には、制御部10は、回転の方向が正の方向であるか否かを判定する(S603)。回転の方向は、マーカー移動情報に含まれる回転角度(R1c)の最大値と最小値とのどちらが先のマーカー認識処理の結果であるかに基づいて判断可能である。最小値が先に認識された処理結果であれば、回転角度を増やす方向に回転しているので、正の方向への回転であると判定される。   When it is determined in S602 that rotation has occurred (S602: YES), the control unit 10 determines whether or not the direction of rotation is a positive direction (S603). The direction of rotation can be determined based on which of the maximum value and the minimum value of the rotation angle (R1c) included in the marker movement information is the result of the previous marker recognition process. If the minimum value is the processing result recognized earlier, it is determined that the rotation is in the positive direction because the rotation is in the direction of increasing the rotation angle.

S603で正の方向への回転であると判定された場合(S603:YES)には、制御部10は、状態情報D0の現在のステップ番号をインクリメントする(S604)。一方、S603で正の方向への回転でないと判定された場合(S603:NO)には、制御部10は、状態情報D0の現在のステップ番号をデクリメントする(S605)。   When it is determined in S603 that the rotation is in the positive direction (S603: YES), the control unit 10 increments the current step number of the state information D0 (S604). On the other hand, when it is determined in S603 that the rotation is not in the positive direction (S603: NO), the control unit 10 decrements the current step number of the state information D0 (S605).

S604またはS605の処理が行なわれるか、S602で回転が生じていないと判定された場合(S602:NO)には、制御部10は、S108のマーカー認識処理の結果に基づいて、マーカー移動情報を更新する(S606)。S606が行なわれると、イベント検知処理は終了となる。   When the process of S604 or S605 is performed, or when it is determined in S602 that no rotation has occurred (S602: NO), the control unit 10 displays the marker movement information based on the result of the marker recognition process of S108. Update (S606). When S606 is performed, the event detection process ends.

ステップ切り替えイベントの検知について3種類の方法が説明されたが、他の方法により検知されてもよい。また、上述の3つの検知方法いずれについても適宜変形して実施されてよい。例えば、マーカーのフレームアウトにより切り替えイベントを検知する方法では、マーカーのフレームインに基づいてイベント検知を行なってもよい。さらに、上述の例において、マーカーアウトが画面右端で行なわれる場合にステップ進行イベントが検知され、画面左端で行なわれる場合にステップ後退イベントが検知されたが、方向は逆でもよい。さらには、画面上端でのフレームアウト/インに基づいて判断してもよく、画面下端でのフレームアウト/インに基づいて判断してもよい。   Although three types of methods have been described for detecting a step switching event, other methods may be used. In addition, any of the above three detection methods may be appropriately modified and implemented. For example, in the method of detecting a switching event by marker out, the event may be detected based on the marker frame-in. Further, in the above-described example, a step advance event is detected when marker out is performed at the right end of the screen, and a step backward event is detected when performed at the left end of the screen, but the direction may be reversed. Further, the determination may be made based on the frame out / in at the upper end of the screen, or may be made based on the frame out / in at the lower end of the screen.

また、マーカーの回転に応じたイベント検知の例においては、正方向の回転でステップ進行イベントが検知されたが、逆に正方向の回転でステップ後退イベントが検知されても良い。その場合には、例えば、負方向の回転でステップ進行イベントが検知される。   Further, in the example of event detection according to the rotation of the marker, the step advance event is detected by the forward rotation, but conversely, the step backward event may be detected by the forward rotation. In that case, for example, a step progress event is detected by rotation in the negative direction.

[例外シナリオの発生]
本実施例においては、複数のシナリオから選択的に1つのシナリオが提供されるが、シナリオが進行する途中で他のシナリオへ遷移するように構成されてもよい。一例においては、遷移先シナリオと遷移条件とを対応付けておき、シナリオの進行中に遷移条件が満たされると、遷移先シナリオが開始されるように構成される。
[Exception scenario occurred]
In the present embodiment, one scenario is selectively provided from a plurality of scenarios, but it may be configured to transition to another scenario while the scenario proceeds. In one example, the transition destination scenario is associated with the transition condition, and the transition destination scenario is started when the transition condition is satisfied while the scenario is in progress.

図38は、シナリオ定義のデータ構造例を示す。図38に示すシナリオ定義N13aでは、第1の情報単位、第2の情報単位群、第3の情報単位、第4の情報単位(群)、第5の情報単位および第6の情報単位群が含まれる。   FIG. 38 shows an example of the data structure of the scenario definition. In the scenario definition N13a shown in FIG. 38, a first information unit, a second information unit group, a third information unit, a fourth information unit (group), a fifth information unit, and a sixth information unit group are included. included.

第1の情報単位は、シナリオに含まれるステップの数(第2の情報単位の数)と、ルート定義へのポインタを示す。第2の情報単位群は第1の情報単位に後続するデータであり、第2の情報単位の各々は、各ステップについてのステップ番号と、ステップ定義へのポインタとを示す。第3の情報単位は、第2の情報単位群に後続するデータであり、シナリオ直下のマーカー定義の数(第4の情報単位の数)を示す。第4の情報単位は、第3の情報単位に後続するデータであり、シナリオ直下のマーカー定義のマーカーIDと、マーカー定義へのポインタとを示す。第5の情報単位は、第4の情報単位に後続するデータであり、シナリオ遷移定義の数(第6の情報単位の数)を示す。第6の情報単位は、第5の情報単位に後続するデータであり、遷移先シナリオのシナリオIDと、遷移条件とを示す。   The first information unit indicates the number of steps included in the scenario (the number of second information units) and a pointer to the route definition. The second information unit group is data subsequent to the first information unit, and each of the second information units indicates a step number for each step and a pointer to the step definition. The third information unit is data subsequent to the second information unit group, and indicates the number of marker definitions (number of fourth information units) immediately below the scenario. The fourth information unit is data subsequent to the third information unit, and indicates a marker ID of the marker definition immediately below the scenario and a pointer to the marker definition. The fifth information unit is data subsequent to the fourth information unit, and indicates the number of scenario transition definitions (the number of sixth information units). The sixth information unit is data subsequent to the fifth information unit, and indicates the scenario ID of the transition destination scenario and the transition condition.

遷移条件が満たされることの検知は、図17のS107からS112のいずれかの段階で行なわれる。例えばS112でシナリオが終了されるか否かを判定する際に、ユーザから遷移条件を満たす特定の入力が行なわれていたかにより判断されてもよいし、コンピュータ1内部のパラメータ(電池残量など)が遷移条件を満たすかにより判断されてもよい。   Detection that the transition condition is satisfied is performed at any stage from S107 to S112 in FIG. For example, when determining whether or not the scenario is ended in S112, it may be determined based on whether a specific input satisfying the transition condition has been made by the user, or parameters (remaining battery power etc.) inside the computer 1 May be determined according to whether the transition condition is satisfied.

遷移条件が満たされた場合には、制御部10が状態情報D0のシナリオIDを遷移先シナリオのシナリオIDに変更し、図17のS106の手順を実行する。S106の処理により、遷移先シナリオのARコンテンツが取得される。   When the transition condition is satisfied, the control unit 10 changes the scenario ID of the state information D0 to the scenario ID of the transition destination scenario, and executes the procedure of S106 in FIG. The AR content of the transition destination scenario is acquired by the process of S106.

[ARコンテンツ編集の処理手順]
図17のS102でAR表示モードが選択されなかった場合(S102:NO)には、AR編集モードが呼び出される。本実施形態においては、シナリオごとにARコンテンツの編集が行なわれる。
[AR content editing procedure]
If the AR display mode is not selected in S102 of FIG. 17 (S102: NO), the AR edit mode is called. In the present embodiment, the AR content is edited for each scenario.

図39および図40は、編集モードの処理手順例を示す。AR編集モードが呼び出されると、制御部10は、取得部11に、シナリオリストを取得させる(S701)。取得部11は、コンピュータ2で、ルート定義Nに応じて生成されたシナリオリストを、通信部18を介して取得する。表示制御部103は、取得したシナリオリストに基づいて図19に示すシナリオ選択画面S(7)を生成し、生成したシナリオ選択画面S(7)を表示部17に表示させる(S702)。   39 and 40 show an example of the processing procedure in the edit mode. When the AR editing mode is called, the control unit 10 causes the acquisition unit 11 to acquire a scenario list (S701). The acquisition unit 11 acquires a scenario list generated according to the route definition N in the computer 2 via the communication unit 18. The display control unit 103 generates a scenario selection screen S (7) shown in FIG. 19 based on the acquired scenario list, and displays the generated scenario selection screen S (7) on the display unit 17 (S702).

シナリオ選択画面が表示された状態で入力部19が入力操作を検知すると、入力部19はシナリオ選択画面におけるユーザの入力を制御部10に伝達し、制御部10はユーザの入力による選択内容を判定する(S703)。   When the input unit 19 detects an input operation in a state where the scenario selection screen is displayed, the input unit 19 transmits the user input on the scenario selection screen to the control unit 10, and the control unit 10 determines the selection content by the user input. (S703).

S703で、モード選択画面S(5)に戻る旨(「戻る」)が表示されるボタンB3が選択される(S703:「戻る」)と、図17のS101の処理が再度行なわれる。また、S703で、AR機能を終了させる旨(「終了」)が表示されるボタンB4が選択される(S703:「終了」)と、AR機能が終了される。また、S703で、ボタン群B6に示されるいずれかのシナリオが選択される(S703:「シナリオ」)と、制御部10は取得部11に、S703で選択されたシナリオで提供されるARコンテンツ群のダウンロード処理を開始させる(S704)。S704で、取得部11は、図21の処理を行ない、選択されたシナリオのARコンテンツ群をダウンロードする。S703:「シナリオ」で新規のシナリオを作成する旨が選択された場合には、新規のシナリオIDがダウンロードされる。   In S703, when the button B3 for displaying the return to the mode selection screen S (5) ("Return") is selected (S703: "Return"), the process of S101 in FIG. 17 is performed again. In S703, when the button B4 for displaying that the AR function is to be ended (“END”) is selected (S703: “END”), the AR function is ended. In S703, when any scenario shown in the button group B6 is selected (S703: “scenario”), the control unit 10 provides the acquisition unit 11 with the AR content group provided in the scenario selected in S703. Download processing is started (S704). In S704, the acquisition unit 11 performs the process of FIG. 21 and downloads the AR content group of the selected scenario. S703: When “Scenario” is selected to create a new scenario, a new scenario ID is downloaded.

制御部10は、取得部11にS704でダウンロード処理を開始させると、ARマーカーが検知されたか否かを認識部12に判定させる(S705)。認識部12によりARマーカーが検知されない場合(S705:NO)には、所定時間経過後に再度S705の処理が実行される。ARマーカーが検知された場合(S705:YES)には、制御部10は、入力部19から静止画モードへの切り替えのユーザ入力が伝達されたか否かを判定する(S706)。静止画モードへの切り替え入力が行なわれていない場合(S706:NO)には、所定時間経過後に再度S705の処理が実行される。   When the control unit 10 causes the acquisition unit 11 to start the download process in S704, the control unit 10 causes the recognition unit 12 to determine whether or not an AR marker has been detected (S705). When the AR marker is not detected by the recognition unit 12 (S705: NO), the process of S705 is executed again after a predetermined time has elapsed. When the AR marker is detected (S705: YES), the control unit 10 determines whether or not a user input for switching to the still image mode is transmitted from the input unit 19 (S706). When the switching input to the still image mode is not performed (S706: NO), the processing of S705 is executed again after a predetermined time has elapsed.

静止画モードへの入力が検知される(S706:YES)と、表示制御部103は、表示部17の画面表示を静止画モードに切り替え、制御部10は、認識部12に、表示部17に表示される静止画についてマーカー認識処理を実行させる(S707)。S707のマーカー認識処理は、S108と同様の処理である。認識部12によるマーカー認識処理が行なわれると、制御部10は、認識されたARマーカーを基準としたARコンテンツの編集を行なう(S708)。   When an input to the still image mode is detected (S706: YES), the display control unit 103 switches the screen display of the display unit 17 to the still image mode, and the control unit 10 switches the recognition unit 12 to the display unit 17. Marker recognition processing is executed for the displayed still image (S707). The marker recognition process of S707 is the same process as S108. When the marker recognition process is performed by the recognition unit 12, the control unit 10 edits the AR content based on the recognized AR marker (S708).

ARコンテンツの編集は、ARテンプレートの選択およびARテンプレートの配置により行なわれる。ARテンプレートの選択は、表示部17に表示される編集パレットからARテンプレートが選択されることで行なわれる。ARテンプレートの配置は、選択されたARテンプレートの表示位置・サイズ・向きの指定や、テキストの入力により行なわれる。ARテンプレートの選択およびARテンプレートの編集は、編集モードの表示画面への入力に応じて行なわれる。   The AR content is edited by selecting an AR template and arranging the AR template. The AR template is selected by selecting an AR template from the editing palette displayed on the display unit 17. The AR template is arranged by designating the display position / size / orientation of the selected AR template and inputting text. The selection of the AR template and the editing of the AR template are performed according to the input to the edit mode display screen.

図41は、編集モードでの表示画面例を示す。表示画面S(14)には、撮像部16により撮像された撮像画像と、さらに、メニュー群B11〜B14およびB17〜B19が表示される。メニュー群B11〜B14は、編集終了ボタンB11、編集パレットボタンB12、取消ボタンB13および再実行ボタンB14を含む。画面S(14)の撮像画像には、マーカーMおよび物体Hの像が含まれる。また、画面S(14)には、さらに、ARオブジェクトCの投影画像が表示される。メニュー群B17〜B19は、拡縮移動モードボタンB17、回転モードボタンB18および数値指定モードボタンB19を含む。   FIG. 41 shows an example of a display screen in the edit mode. On the display screen S (14), a captured image captured by the imaging unit 16 and menu groups B11 to B14 and B17 to B19 are displayed. The menu groups B11 to B14 include an edit end button B11, an edit palette button B12, a cancel button B13, and a re-execute button B14. The captured image of the screen S (14) includes an image of the marker M and the object H. Further, a projected image of the AR object C is further displayed on the screen S (14). The menu groups B17 to B19 include an enlargement / reduction movement mode button B17, a rotation mode button B18, and a numerical value designation mode button B19.

編集終了ボタンB11は、ARオブジェクトCの編集を確定させる操作指示の入力位置を示す表示要素である。パレット編集ボタンB12は、ARテンプレートを選択可能な編集パレットを呼び出す操作指示の入力位置を示す表示要素である。取消ボタンB13は、直前の操作の前の状態に戻す操作指示の入力位置を示す表示要素である。再実行ボタンB14は、取消ボタンB13への操作が行なわれた場合に表示され、取り戻された操作を再度実行させる操作指示の入力位置を示す表示要素である。   The edit end button B11 is a display element indicating an input position of an operation instruction for confirming editing of the AR object C. The palette edit button B12 is a display element indicating an input position of an operation instruction for calling an edit palette from which an AR template can be selected. The cancel button B13 is a display element indicating the input position of the operation instruction for returning to the state before the previous operation. The re-execution button B14 is a display element that is displayed when an operation is performed on the cancel button B13 and that indicates an input position of an operation instruction for re-execution of the recovered operation.

拡縮移動モードボタンB17は、操作モードを指定する操作指示の入力位置を示す表示要素であり、拡縮移動モードボタンB17の表示位置への入力が行なわれると、拡縮移動モードに操作モードが切り換えられる。回転モードボタンB18は、操作モードを指定する操作指示の入力位置を示す表示要素であり、回転モードボタンB18の表示位置への入力が行なわれると、回転モードに操作モードが切り換えられる。数値指定モードボタンB19は、操作モードを指定する操作指示の入力位置を示す表示要素であり、数値指定モードボタンB19の表示位置への入力が行なわれると、数値指定モードに操作モードが切り換えられる。   The enlargement / reduction movement mode button B17 is a display element indicating an input position of an operation instruction for designating an operation mode. When an input to the display position of the enlargement / reduction movement mode button B17 is performed, the operation mode is switched to the enlargement / reduction movement mode. The rotation mode button B18 is a display element that indicates an input position of an operation instruction that specifies an operation mode. When an input to the display position of the rotation mode button B18 is performed, the operation mode is switched to the rotation mode. The numerical designation mode button B19 is a display element indicating the input position of the operation instruction for designating the operation mode. When an input to the display position of the numerical designation mode button B19 is performed, the operation mode is switched to the numerical designation mode.

拡縮移動モードでは、入力操作に応じてARコンテンツCの位置座標および倍率が調整される。例えば、ARコンテンツCの配置開始時の操作モードに、拡縮移動モードが自動設定される。例えば、タップやダブルタップの操作が行なわれた画面内に位置に応じて位置座標が指定され、ドラッグ操作によりARコンテンツCの位置が調整される。また、ピンチアウトやピンチインの操作に応じてARコンテンツCの倍率が調整される。回転モードでは、入力操作に応じてARコンテンツCの回転座標が調整される。例えば、フリック操作などに応じて回転座標が調整される。数値指定モードでは、数値入力画面が表示される。例えば、数値入力画面に対して入力された数値で、ARコンテンツCの基準点の位置、回転座標および倍率が設定される。   In the enlargement / reduction movement mode, the position coordinates and the magnification of the AR content C are adjusted according to the input operation. For example, the enlargement / reduction movement mode is automatically set as the operation mode at the start of the arrangement of the AR content C. For example, the position coordinates are designated according to the position in the screen on which the tap or double tap operation has been performed, and the position of the AR content C is adjusted by the drag operation. Further, the magnification of the AR content C is adjusted according to a pinch-out or pinch-in operation. In the rotation mode, the rotation coordinates of the AR content C are adjusted according to the input operation. For example, the rotation coordinates are adjusted according to a flick operation or the like. In the numerical specification mode, a numerical input screen is displayed. For example, the position of the reference point of AR content C, the rotation coordinates, and the magnification are set with numerical values input on the numerical value input screen.

例えば、S708のARコンテンツの編集においては、位置指定が行なわれるたびに、指定された位置に配置されたARコンテンツの投影画像の表示が行なわれる。   For example, in the editing of AR content in S708, each time a position is designated, a projected image of the AR content placed at the designated position is displayed.

画面S(14)に対するユーザの入力により位置指定が行なわれると、指定された画面内の位置座標に対して、上述の透視変換の逆変換が行なわれる。透視変換の逆変換が行なわれたカメラ座標系の位置座標に対して、さらに、認識されたARマーカーに基づくモデル−ビュー変換の逆変換が行なわれることにより、マーカー座標系での位置座標が得られる。   When the position is designated by the user's input to the screen S (14), the above-described perspective transformation is inversely transformed with respect to the designated position coordinates in the screen. The position coordinate in the marker coordinate system is obtained by performing the inverse transformation of the model-view conversion based on the recognized AR marker with respect to the position coordinate in the camera coordinate system subjected to the inverse transformation of the perspective transformation. It is done.

マーカー座標系での位置座標が得られると、図18のS110およびS111の処理により、指定された位置に配置されたARコンテンツが表示される。例えば、編集終了ボタンB11への入力が行なわれる前に、位置の指定が行なわれたら、再度位置座標の逆変換と、投影画像の生成および表示の処理が行なわれる。   When the position coordinates in the marker coordinate system are obtained, the AR content arranged at the designated position is displayed by the processing of S110 and S111 in FIG. For example, if the position is designated before the input to the edit end button B11 is performed, the inverse transformation of the position coordinates and the generation and display of the projection image are performed again.

図42は、編集パレットの例を示す。図39に示すS708のARテンプレートの選択において、編集パレットが表示される。図42に例示される表示画面S(15)は、編集パレットが呼び出された状態の表示画面である。図42に例示される編集パレットには、ARテンプレートのタイプを選択可能なボタン群(ボタン1〜ボタン9)が表示される。ARテンプレートメニューの説明において、ボタン領域内に示される番号に基づいてボタンを識別して説明する。例えば、「1」という番号が示される四角いボタンが「ボタン1」である。また、編集パレットは、例えば、図42に示されるボタン群以外にも選択可能なボタン群を含み、それらのボタン群を表示させるためのスクロール操作をさせるためのスクロールボタンB21を含む。また、編集パレットは、ARテンプレートの選択を終了させるクローズボタンB22を含む。   FIG. 42 shows an example of an editing palette. In the selection of the AR template in S708 shown in FIG. 39, an editing palette is displayed. The display screen S (15) illustrated in FIG. 42 is a display screen in a state where the editing palette is called. In the editing palette exemplified in FIG. 42, a group of buttons (button 1 to button 9) capable of selecting an AR template type is displayed. In the explanation of the AR template menu, the buttons are identified and explained based on the numbers shown in the button area. For example, a square button with a number “1” is “button 1”. The edit palette includes, for example, selectable button groups other than the button group shown in FIG. 42, and includes a scroll button B21 for performing a scroll operation for displaying those button groups. The edit palette also includes a close button B22 that terminates selection of the AR template.

ボタン1〜ボタン9は、それぞれ個別のテンプレートIDに対応する。いずれかのボタンに対して入力が行なわれると、そのボタンに対応するテンプレートIDが選択され、選択されたテンプレートIDのARテンプレートが呼び出される。   Buttons 1 to 9 correspond to individual template IDs. When an input is made to any button, a template ID corresponding to that button is selected, and the AR template of the selected template ID is called.

ボタン1には、吹き出しタイプのARテンプレートが対応付けられている。吹き出しタイプのARテンプレートでは、吹き出し形状の図形内にテキスト情報が追加される。ボタン2は、引き出しボックスタイプのARテンプレートが対応付けられている。引き出しボックスタイプのARテンプレートでは、引き出し線と、引き出し線の先に接合する四角形の図形とを含み、四角形の図形内にテキスト情報が追加される。ボタン3は、テキストボックスタイプのARテンプレートが対応付けられている。テキストボックスタイプのARテンプレートでは、四角形の枠状の図形に対してテキスト情報が追加される。ボタン4は、写真タイプのARテンプレートが対応付けられている。写真タイプのARテンプレートでは、四角形の枠状の図形内に画像データがマッピングされる。この画像データは、記憶部15に記憶された画像ファイルが用いられる。ボタン5は、撮像タイプのARテンプレートが対応付けられている。撮像タイプのARテンプレートも写真タイプのARテンプレートと同様のARテンプレートであるが、画像データの取得先が異なる。撮像タイプのARテンプレートが使用されると、撮像モードが呼び出され、撮像部16による撮像処理が行なわれる。撮像タイプのARテンプレートを使用すると、四角形の枠状の図形内に、撮像処理により撮像された画像データがマッピングされる。写真タイプや撮像タイプでマッピングされる画像データは、静止画でも動画でもよい。ボタン6は、手書きタイプのARテンプレートである。手書きタイプのARテンプレートは、四角形で透明な図形オブジェクトであり、図形の模様が手書き操作により編集される。ボタン7は、リンクタイプのARテンプレートであり、テキストボックスタイプのARテンプレートと同様のテンプレートである。リンクタイプのARテンプレートが選択されると、Webページのリストが表示され、リスト内から選択されたWebページへのアクセス情報がARテンプレートに付加される。Webページのリストは、例えば、Webブラウザのブックマークやアクセス履歴から取得される。ボタン8は、図形タイプのARテンプレートと対応付けられている。図形タイプのARテンプレートは、3次元の立体モデル図形が定義されている。例えば、ボタン8への入力に応じて、立体モデル図形の形状を選択させる画面表示を行なうこととしてもよい。立体モデル図形の形状は、例えば、立方体、直方体、円柱、球、円錐および三角柱などである。また、ボタン8への入力に応じて、CADデータの呼び出しを行なうこととしてもよい。CADデータは、例えば、記憶部15に格納されたCADデータのファイルが選択される。ボタン9は、ファイルタイプのARテンプレートと対応づけられている。ファイルタイプのARテンプレートは、ファイルを示すアイコン画像がマッピングされた四角形の図形である。ファイルタイプのARテンプレートが選択されると、記憶部15内のファイルを選択させ、選択されたファイルへのリンクをARテンプレートに付加させる。   The button 1 is associated with a balloon type AR template. In the balloon type AR template, text information is added in a balloon-shaped figure. Button 2 is associated with a drawer box type AR template. The drawer box type AR template includes a leader line and a square figure joined to the tip of the leader line, and text information is added to the square figure. The button 3 is associated with a text box type AR template. In the text box type AR template, text information is added to a rectangular frame-shaped figure. The button 4 is associated with a photo type AR template. In the photo type AR template, image data is mapped in a rectangular frame-like figure. As this image data, an image file stored in the storage unit 15 is used. The button 5 is associated with an imaging type AR template. The imaging type AR template is also the same AR template as the photo type AR template, but the acquisition source of the image data is different. When the imaging type AR template is used, the imaging mode is called, and imaging processing by the imaging unit 16 is performed. When the imaging type AR template is used, the image data captured by the imaging process is mapped in a rectangular frame shape. The image data mapped by the photo type or the imaging type may be a still image or a moving image. The button 6 is a handwritten type AR template. The handwritten type AR template is a rectangular and transparent graphic object, and a graphic pattern is edited by a handwriting operation. The button 7 is a link type AR template, which is the same template as the text box type AR template. When the link type AR template is selected, a list of Web pages is displayed, and access information to the Web page selected from the list is added to the AR template. The list of Web pages is acquired from, for example, a bookmark or access history of a Web browser. The button 8 is associated with a graphic type AR template. In the graphic type AR template, a three-dimensional solid model graphic is defined. For example, a screen display for selecting the shape of the three-dimensional model figure in accordance with an input to the button 8 may be performed. The shape of the three-dimensional model figure is, for example, a cube, a rectangular parallelepiped, a cylinder, a sphere, a cone, a triangular prism, or the like. Also, CAD data may be called in response to an input to the button 8. As the CAD data, for example, a CAD data file stored in the storage unit 15 is selected. The button 9 is associated with a file type AR template. The file type AR template is a rectangular figure to which an icon image indicating a file is mapped. When the file type AR template is selected, a file in the storage unit 15 is selected, and a link to the selected file is added to the AR template.

S708により編集パレットから順次ARテンプレートが選択され、順次画面内の位置が指定されることにより、複数のARコンテンツの編集が行なわれる。画面内の位置が指定されると、演算部13は、画面内の指定位置(スクリーン座標系)に対して、透視変換の逆変換およびモデル−ビュー変換の逆変換を行ない、マーカー座標系の位置座標を算出する。算出された位置座標が、ARコンテンツの基準点として設定される。S708のARコンテンツ編集の処理により、ARコンテンツが追加される。編集終了ボタンB11への入力が行なわれると、S708の処理が終了する。   In step S708, an AR template is sequentially selected from the editing palette, and a position in the screen is sequentially specified, whereby a plurality of AR contents are edited. When the position in the screen is designated, the calculation unit 13 performs reverse transformation of perspective transformation and inverse transformation of model-view transformation with respect to the designated position (screen coordinate system) in the screen, and the position of the marker coordinate system Calculate the coordinates. The calculated position coordinates are set as the reference point of the AR content. The AR content is added by the AR content editing process in S708. When the input to the edit end button B11 is performed, the process of S708 ends.

S708が終了すると、表示制御部103は静止画モードを解除し、制御部10はARコンテンツの配置を終了するか否か判断する(S709)。S709は、例えば、編集終了ボタンB11への入力が再度行なわれたか否かに応じて判断される。配置終了でない場合(S709:NO)には、再度S705のマーカー検知処理が実行される。これにより、複数のマーカーについてのARコンテンツ編集が可能となる。   When S708 ends, the display control unit 103 cancels the still image mode, and the control unit 10 determines whether or not to end the arrangement of the AR content (S709). S709 is determined depending on, for example, whether or not the input to the edit end button B11 has been performed again. If the arrangement is not finished (S709: NO), the marker detection process of S705 is executed again. Thereby, AR content editing for a plurality of markers becomes possible.

S709で配置終了である場合(S709:YES)には、制御部10は、シナリオに含まれるステップの設定処理を行なう。例えば、図12のように、シナリオに含まれる各ステップの情報を表示し、ユーザの入力に応じてステップの挿入・追加・削除などが行なわれる。新規シナリオ作成の場合には、始めにステップの情報が表示されないので、ユーザによるステップ追加の入力に応じてステップの情報の表示が行なわれる。   When the arrangement is finished in S709 (S709: YES), the control unit 10 performs a setting process of steps included in the scenario. For example, as shown in FIG. 12, information on each step included in the scenario is displayed, and insertion / addition / deletion of a step is performed according to a user input. In the case of creating a new scenario, since step information is not displayed at the beginning, step information is displayed in response to a user input for adding a step.

ステップの設定が行なわれると、表示制御部103は、ステップ選択画面を表示部17に表示させる(S710)。ステップ選択画面には、S709で設定されたステップ群と、モード選択画面S(5)への遷移を示すボタンと、シナリオ選択画面S(7)への遷移を示すボタンとが示される。ステップ選択画面が表示された状態で、制御部10は、入力部19から伝達されるユーザの入力が、ステップの選択、モード選択画面S(5)への遷移を示すボタン、シナリオ選択画面S(7)への遷移を示すボタンのいずれであるかを判定する(S711)。   When the step is set, the display control unit 103 displays a step selection screen on the display unit 17 (S710). In the step selection screen, a group of steps set in S709, a button indicating transition to the mode selection screen S (5), and a button indicating transition to the scenario selection screen S (7) are shown. In a state where the step selection screen is displayed, the control unit 10 determines that the user input transmitted from the input unit 19 is a button indicating the transition to the mode selection screen S (5), the scenario selection screen S ( It is determined which of the buttons indicates the transition to 7) (S711).

モード選択画面S(5)への遷移を示すボタンへの入力が行なわれる(S711:「他のモード」)と、表示制御部103は、モード選択画面S(5)を表示するS101の処理を行なう。シナリオ選択画面S(7)への遷移を示すボタンへの入力が行なわれる(S711:「他のモード」)と、表示制御部103は、シナリオ選択画面S(7)を表示するS702の処理を行なう。   When an input to a button indicating transition to the mode selection screen S (5) is performed (S711: “other mode”), the display control unit 103 performs the process of S101 for displaying the mode selection screen S (5). Do. When an input to a button indicating a transition to the scenario selection screen S (7) is performed (S711: “other mode”), the display control unit 103 performs the process of S702 for displaying the scenario selection screen S (7). Do.

ステップ選択画面でステップが指定される(S711:「ステップ」)と、マーカー検知処理が行なわれる(S712)。S712のマーカー検知処理は、S705の処理と同様の処理である。S712で認識部12によりARマーカーが検知されない場合(S712:NO)には、所定時間経過後に再度S712の処理が実行される。S712で認識部12によりARマーカーが検知された場合(S712:YES)には、制御部10は、認識部12にマーカー認識処理を実行させる(S713)。S713のマーカー認識処理は、S707の処理と同様の処理である。   When a step is designated on the step selection screen (S711: “Step”), marker detection processing is performed (S712). The marker detection process of S712 is the same process as the process of S705. If the AR marker is not detected by the recognition unit 12 in S712 (S712: NO), the process of S712 is executed again after a predetermined time has elapsed. When the AR marker is detected by the recognition unit 12 in S712 (S712: YES), the control unit 10 causes the recognition unit 12 to perform marker recognition processing (S713). The marker recognition process in S713 is the same process as the process in S707.

制御部10は、S713のマーカー認識処理の結果に基づいて、投影画像の生成処理を実行する(S714)。S714の投影画像の生成処理は、S110の処理と同様の処理である。表示制御部103は、S714で生成された投影画像を表示部17に表示させる(S715)。   The control unit 10 executes a projection image generation process based on the result of the marker recognition process in S713 (S714). The projection image generation process of S714 is the same process as the process of S110. The display control unit 103 causes the display unit 17 to display the projection image generated in S714 (S715).

さらに、S714の処理により投影画像が画面に表示された状態で、制御部10は、画面に対する入力により投影画像が選択されたか否かを判定する(S716)。投影画像が選択される(S716:YES)と、設定管理部104は、S716で選択された投影画像に対応するARコンテンツを、S711で選択されたステップと関連付けて登録する(S717)。   Further, in a state where the projection image is displayed on the screen by the process of S714, the control unit 10 determines whether or not the projection image is selected by an input on the screen (S716). When the projection image is selected (S716: YES), the setting management unit 104 registers the AR content corresponding to the projection image selected in S716 in association with the step selected in S711 (S717).

S717が実行されるか、S716で投影画像が選択されない場合(S716:NO)には、S710の処理が再度行なわれる。   When S717 is executed or when a projection image is not selected in S716 (S716: NO), the process of S710 is performed again.

さらに、S711におけるステップの選択およびS715における投影画像の選択の方式について説明する。   Further, the step selection method in S711 and the projection image selection method in S715 will be described.

図43は、ステップ選択の例を示す。例えば、S711において、表示制御部103は、画面S(16)を表示させ、ステップを選択させる。画面S(16)には、各ステップに関する情報が列挙される。ステップ2が選択されると、表示制御部103は、例えば、S715において画面S(17)を表示させる。画面S(17)には、認識されたARマーカーM1の像と、S708で配置されたARコンテンツの投影画像C41およびC42と、画面S(16)で選択されたステップ番号I5と、が表示される。画面S(17)内の投影画像が選択されると、選択された投影画像に対応するARコンテンツがステップ番号2と関連付けられる。   FIG. 43 shows an example of step selection. For example, in S711, the display control unit 103 displays the screen S (16) and selects a step. On the screen S (16), information on each step is listed. When step 2 is selected, the display control unit 103 displays a screen S (17) in S715, for example. On the screen S (17), the recognized image of the AR marker M1, the projected images C41 and C42 of the AR content arranged in S708, and the step number I5 selected on the screen S (16) are displayed. The When the projected image in the screen S (17) is selected, the AR content corresponding to the selected projected image is associated with step number 2.

図44は、ステップ選択の例を示す。例えば、S710およびS711において、ステップ番号が自動選択される。すなわち、選択されるステップ番号は、1からステップ選択のたびに順次インクリメントされる。S716の投影画像の選択における画面S(18)は、自動選択されたステップ番号の表示I7が含まれる。また、画面S(18)には、認識されたARマーカーM1の像と、S708で配置されたARコンテンツの投影画像C41およびC42とが示される。例えば投影画像C42が選択されると、選択された投影画像C42に対応するARコンテンツがステップ番号3と関連付けられる。   FIG. 44 shows an example of step selection. For example, step numbers are automatically selected in S710 and S711. That is, the selected step number is sequentially incremented from 1 every time a step is selected. Screen S (18) in the selection of the projection image in S716 includes a display I7 of the automatically selected step number. In addition, the screen S (18) shows the recognized image of the AR marker M1 and the projected images C41 and C42 of the AR content arranged in S708. For example, when the projection image C42 is selected, the AR content corresponding to the selected projection image C42 is associated with step number 3.

再度ステップ番号が自動選択された後のS716の投影画像の選択における画面S(19)は、自動選択されたステップ番号の表示I9が含まれる。表示I9に示されるステップ番号は、表示I7に示されるステップ番号がインクリメントされた番号である。また、画面S(19)には、認識されたARマーカーM1の像と、S708で配置されたARコンテンツの投影画像C41とが示される。ARコンテンツの投影画像C42は、先にステップ番号3を関連付けられているので、画面S(19)に表示されなくてもよい。   The screen S (19) in the selection of the projection image in S716 after the step number is automatically selected again includes the display I9 of the automatically selected step number. The step number shown on the display I9 is a number obtained by incrementing the step number shown on the display I7. In addition, the screen S (19) shows the recognized image of the AR marker M1 and the projected image C41 of the AR content arranged in S708. Since the projection image C42 of the AR content is previously associated with step number 3, it may not be displayed on the screen S (19).

図45は、ステップ選択の例を示す。例えば、投影画像の表示と、タイムラインの表示との双方が含まれる画面S(20)が用いられてもよい。画面S(20)には、認識されたARマーカーM1の像と、S708で配置されたARコンテンツの投影画像C41、C42およびC43と、各ステップに対応するタイムゾーンI10〜I13と表示される。タイムゾーンI10〜I13は、ステップ番号1に対応するタイムゾーンI10、ステップ番号2に対応するタイムゾーンI11、ステップ番号3に対応するタイムゾーンI12およびステップ番号4に対応するタイムゾーンI13である。   FIG. 45 shows an example of step selection. For example, a screen S (20) including both a projected image display and a timeline display may be used. On the screen S (20), the recognized image of the AR marker M1, the projected images C41, C42 and C43 of the AR content arranged in S708, and the time zones I10 to I13 corresponding to each step are displayed. The time zones I10 to I13 are a time zone I10 corresponding to step number 1, a time zone I11 corresponding to step number 2, a time zone I12 corresponding to step number 3, and a time zone I13 corresponding to step number 4.

例えば、投影画像をタイムゾーンにドラッグ・アンド・ドロップした場合に、投影画像に対応するARコンテンツを、タイムゾーンに対応するステップ番号と関連付けるなどの制御が行なわれる。画面S(20)の例では、投影画像C41がタイムゾーンI11にドラッグ・アンド・ドロップされ、投影画像C42がタイムゾーンI13にドラッグ・アンド・ドロップされ、投影画像C43がタイムゾーンI10にドラッグ・アンド・ドロップされている。   For example, when the projected image is dragged and dropped into the time zone, control such as associating the AR content corresponding to the projected image with the step number corresponding to the time zone is performed. In the example of the screen S (20), the projection image C41 is dragged and dropped into the time zone I11, the projection image C42 is dragged and dropped into the time zone I13, and the projection image C43 is dragged and dropped into the time zone I10. -Dropped.

例えば、ドラッグ・アンド・ドロップされると、タイムゾーンに投影画像が表示されることとしてもよい。タイムゾーンに表示される投影画像は、表示態様が変更されてもよい。例えば、投影画像C41は、タイムゾーンI11において画像C41aと表示態様を変えられて表示されている。投影画像C42は、タイムゾーンI13において画像C42aと表示態様を変えられて表示されている。投影画像C43は、タイムゾーンI10において画像C43aと表示態様を変えられて表示されている。   For example, when dragging and dropping, a projected image may be displayed in the time zone. The display mode of the projected image displayed in the time zone may be changed. For example, the projection image C41 is displayed in the time zone I11 with the display mode changed from the image C41a. The projected image C42 is displayed in the time zone I13 with the display mode changed from that of the image C42a. The projected image C43 is displayed in the time zone I10 with the display mode being changed from that of the image C43a.

図46は、ステップ選択の例を示す。例えば、投影画像の表示と、タイムラインの表示との双方が含まれる画面S(21)が用いられてもよい。画面S(21)には、認識されたARマーカーM1の像と、S708で配置されたARコンテンツの投影画像C41、C42およびC43と、各ステップに対応するタイムゾーンI10〜I13と表示される。タイムゾーンI10〜I13は、ステップ番号1に対応するタイムゾーンI10、ステップ番号2に対応するタイムゾーンI11、ステップ番号3に対応するタイムゾーンI12およびステップ番号4に対応するタイムゾーンI13である。   FIG. 46 shows an example of step selection. For example, a screen S (21) including both a projected image display and a timeline display may be used. On the screen S (21), the recognized image of the AR marker M1, the projected images C41, C42 and C43 of the AR content arranged in S708, and the time zones I10 to I13 corresponding to each step are displayed. The time zones I10 to I13 are a time zone I10 corresponding to step number 1, a time zone I11 corresponding to step number 2, a time zone I12 corresponding to step number 3, and a time zone I13 corresponding to step number 4.

さらに、S708で配置された順序に応じたタイムゾーンにARコンテンツの投影画像が表示される。画面S(21)の例は、S708において、ARコンテンツの投影画像C43、C41、C42の順序で配置された場合を例示している。この場合に、S708の配置順序において1番始めに配置された投影画像C43に対応する投影画像C43bがタイムゾーンI10に表示される。また、次に配置された投影画像C41に対応する投影画像C41aがタイムゾーンI11に配置される。さらに、その次に配置された投影画像C42に対応する投影画像C42aがタイムゾーンI12に配置される。画面S(12)に初期配置された投影画像C41a、42a、43aは、例えば、ユーザの入力によるドラッグ・アンド・ドロップ操作により、他のタイムゾーンに移動される。画面S(21)に示す例は、タイムゾーンI10に初期配置された投影画像C43bが、タイムゾーンI13に移動された様を示している。   Further, the projected image of the AR content is displayed in the time zone corresponding to the order arranged in S708. The example of the screen S (21) illustrates a case where the projected images C43, C41, and C42 of the AR content are arranged in the order in S708. In this case, the projection image C43b corresponding to the projection image C43 arranged first in the arrangement order of S708 is displayed in the time zone I10. In addition, a projection image C41a corresponding to the projection image C41 arranged next is arranged in the time zone I11. Further, a projection image C42a corresponding to the projection image C42 arranged next is arranged in the time zone I12. The projection images C41a, 42a, and 43a initially arranged on the screen S (12) are moved to another time zone, for example, by a drag-and-drop operation by a user input. The example shown in the screen S (21) shows that the projection image C43b initially arranged in the time zone I10 has been moved to the time zone I13.

[AR定義データのデータ構造]
図10および図13にツリー形式のデータ構造が例示される。図10および図13に示す通り、特定のシナリオに関するARコンテンツは、特定のシナリオのシナリオ定義配下のデータを参照することにより抽出可能である。図13に示す通り、特定のステップに関するARコンテンツは、特定のステップのステップ定義配下のデータを参照することにより抽出可能である。
[AR definition data structure]
FIG. 10 and FIG. 13 illustrate a data structure in a tree format. As shown in FIG. 10 and FIG. 13, AR content related to a specific scenario can be extracted by referring to data under the scenario definition of the specific scenario. As shown in FIG. 13, AR content related to a specific step can be extracted by referring to data under the step definition of the specific step.

図10や図13に示すツリー構造でなくても、特定のシナリオや特定のステップに関するARコンテンツを抽出可能な他のデータ構造が用いられてもよい。   Instead of the tree structure shown in FIGS. 10 and 13, other data structures that can extract AR content related to a specific scenario or a specific step may be used.

図47は、AR定義データの例を示す。図47に例示されるAR定義データN0のデータ構造では、各ARコンテンツのコンテンツIDに対して、作業状況を示す属性情報(シナリオID、ステップ番号およびマーカーID)と、コンテンツ定義とが対応付けられている。コンテンツ定義は各ARコンテンツのコンテンツ定義であり、図25に示すデータ構造と同様の構造のデータである。コンテンツID:004や005のARコンテンツには複数の属性情報が対応付けられている。   FIG. 47 shows an example of AR definition data. In the data structure of the AR definition data N0 illustrated in FIG. 47, attribute information (scenario ID, step number, and marker ID) indicating the work status is associated with the content ID of each AR content and the content definition. ing. The content definition is a content definition of each AR content, and is data having a structure similar to the data structure shown in FIG. A plurality of pieces of attribute information are associated with the AR content with content IDs 004 and 005.

図47に例示されるAR定義データN0に含まれる各ARコンテンツは、ユーザの状態情報D0および認識マーカー情報D1と合致する属性情報が付与されている場合に、抽出され、表示される。複数の属性情報が対応付けられているARコンテンツは、複数の属性情報のうち、いずれかが満たされた場合に抽出される。また、シナリオIDおよびマーカーIDが合致して、ステップ番号が合致しないARコンテンツについては、非表示または表示態様が変更された表示が行なわれる。   Each AR content included in the AR definition data N0 illustrated in FIG. 47 is extracted and displayed when attribute information matching the user state information D0 and the recognition marker information D1 is given. The AR content associated with a plurality of attribute information is extracted when any one of the plurality of attribute information is satisfied. In addition, for AR contents in which the scenario ID and the marker ID match but the step numbers do not match, the display is performed such that the display mode is not displayed or the display mode is changed.

[本実施形態の実現手段]
図48は、コンピュータ1のハードウェア構成例を示す。図16に示す各機能ブロックは、例えば、図48に示すハードウェア構成により実現される。コンピュータ1は、例えば、プロセッサ301、RAM(Random Access Memory)302、ROM(Read Only Memory)303、ドライブ装置304、記憶媒体305、入力インターフェース(入力I/F)306、入力デバイス307、出力インターフェース(出力I/F)308、出力デバイス309、通信インターフェース(通信I/F)310、カメラモジュール311、加速度センサ312、角速度センサ313、表示インターフェース314、表示デバイス315およびバス316などを含む。それぞれのハードウェアはバス316を介して接続されている。
[Means for Realizing this Embodiment]
FIG. 48 shows a hardware configuration example of the computer 1. Each functional block shown in FIG. 16 is realized by the hardware configuration shown in FIG. 48, for example. The computer 1 includes, for example, a processor 301, a RAM (Random Access Memory) 302, a ROM (Read Only Memory) 303, a drive device 304, a storage medium 305, an input interface (input I / F) 306, an input device 307, an output interface ( Output I / F) 308, output device 309, communication interface (communication I / F) 310, camera module 311, acceleration sensor 312, angular velocity sensor 313, display interface 314, display device 315, bus 316, and the like. Each piece of hardware is connected via a bus 316.

通信インターフェース310はネットワーク3を介した通信の制御を行なう。通信インターフェース310が制御する通信は、無線通信を利用して、無線基地局4(図50参照)を介してネットワーク3にアクセスする態様でもよいし、有線でネットワーク3にアクセスする態様でもよい。入力インターフェース306は、入力デバイス307と接続されており、入力デバイス307から受信した入力信号をプロセッサ301に伝達する。出力インターフェース308は、出力デバイス309と接続されており、出力デバイス309に、プロセッサ301の指示に応じた出力を実行させる。入力デバイス307は、操作に応じて入力信号を送信する装置である。入力信号は、例えば、キーボードやコンピュータ1の本体に取り付けられたボタンなどのキー装置や、マウスやタッチパネルなどのポインティングデバイスである。出力デバイス309は、プロセッサ301の制御に応じて情報を出力する装置である。出力デバイス309は、例えば、スピーカーなどの音声出力装置などである。表示インターフェース314は、表示デバイス315と接続されている。表示インターフェース314は、表示インターフェース314に設けられた表示用バッファにプロセッサ301により書き込まれた画像情報を、表示デバイス315に表示させる。表示デバイス315は、プロセッサ301の制御に応じて情報を出力する装置である。表示デバイス315は、ディスプレイなどの画像出力装置や、透過型ディスプレイなどが用いられる。透過型ディスプレイが用いられる場合には、ARコンテンツの投影画像は、撮像画像と合成されるのではなく、例えば透過型ディスプレイ内の適切な位置に表示されるように制御されてもよい。これにより、ユーザは、現実空間とARコンテンツが整合した状態の視覚が得られる。また、例えば、タッチスクリーンなどの入出力装置が、入力デバイス307及び表示デバイス315として用いられる。また、入力デバイス307及び表示デバイス315がコンピュータ1内部に組み込まれる代わりに、例えば、入力デバイス307及び表示デバイス315がコンピュータ1に外部から接続されてもよい。   The communication interface 310 controls communication via the network 3. The communication controlled by the communication interface 310 may be a mode of accessing the network 3 via the radio base station 4 (see FIG. 50) using radio communication, or a mode of accessing the network 3 by wire. The input interface 306 is connected to the input device 307 and transmits an input signal received from the input device 307 to the processor 301. The output interface 308 is connected to the output device 309 and causes the output device 309 to execute output in accordance with an instruction from the processor 301. The input device 307 is a device that transmits an input signal according to an operation. The input signal is, for example, a key device such as a keyboard or a button attached to the main body of the computer 1, or a pointing device such as a mouse or a touch panel. The output device 309 is a device that outputs information according to the control of the processor 301. The output device 309 is, for example, an audio output device such as a speaker. The display interface 314 is connected to the display device 315. The display interface 314 causes the display device 315 to display the image information written by the processor 301 in the display buffer provided in the display interface 314. The display device 315 is a device that outputs information according to the control of the processor 301. As the display device 315, an image output device such as a display, a transmissive display, or the like is used. When a transmissive display is used, the projected image of the AR content may be controlled so as to be displayed at an appropriate position in the transmissive display, for example, instead of being combined with the captured image. As a result, the user can obtain a vision in which the real space and the AR content are aligned. For example, an input / output device such as a touch screen is used as the input device 307 and the display device 315. Further, instead of the input device 307 and the display device 315 being incorporated in the computer 1, for example, the input device 307 and the display device 315 may be connected to the computer 1 from the outside.

RAM302は読み書き可能なメモリ装置であって、例えば、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)などの半導体メモリ、またはRAM以外にもフラッシュメモリなどが用いられてもよい。ROM303は、PROM(Programmable Read Only Memory)なども含む。ドライブ装置304は、記憶媒体305に記憶された情報の読み出しか書き込みかの少なくともいずれか一方を行なう装置である。記憶媒体305は、ドライブ装置304によって書き込まれた情報を記憶する。記憶媒体305は、例えば、ハードディスク、SSD(Solid State Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスクなどの種類の記憶媒体のうちの少なくとも1つである。また、例えば、コンピュータ1は、コンピュータ1内の記憶媒体305の種類に対応したドライブ装置304を含む。   The RAM 302 is a readable / writable memory device. For example, a semiconductor memory such as SRAM (Static Random Access Memory) or DRAM (Dynamic Random Access Memory), or a flash memory other than the RAM may be used. The ROM 303 includes a PROM (Programmable Read Only Memory) and the like. The drive device 304 is a device that performs at least one of reading and writing of information stored in the storage medium 305. The storage medium 305 stores information written by the drive device 304. The storage medium 305 is at least one of storage media such as a hard disk, an SSD (Solid State Drive), a CD (Compact Disc), a DVD (Digital Versatile Disc), and a Blu-ray disc. For example, the computer 1 includes a drive device 304 corresponding to the type of the storage medium 305 in the computer 1.

カメラモジュール311は、撮像素子(イメージセンサ)を含み、例えば、撮像素子が測定した値を読み出し、カメラモジュール311に含まれる入力画像用の画像バッファに書き込む。加速度センサ312は、加速度センサ312に対して作用する加速度を計測する。角速度センサ313は、角速度センサ313による動作の角速度を計測する。   The camera module 311 includes an image sensor (image sensor). For example, the camera module 311 reads a value measured by the image sensor and writes it in an image buffer for an input image included in the camera module 311. The acceleration sensor 312 measures acceleration acting on the acceleration sensor 312. The angular velocity sensor 313 measures the angular velocity of the operation by the angular velocity sensor 313.

プロセッサ301は、ROM303や記憶媒体305に記憶されたプログラム(例えば図49などに例示するプログラム)をRAM302に読み出し、読み出されたプログラムの手順に従って処理を行なう。   The processor 301 reads a program (eg, a program illustrated in FIG. 49) stored in the ROM 303 or the storage medium 305 to the RAM 302, and performs processing according to the read program procedure.

例えば、制御部10の機能は、プロセッサ301が、図49に示されるプログラムの一部であるAR制御プログラム(表示制御プログラムおよび情報生成プログラム)に基づいて、他のハードウェアの制御を行なうことにより実現される。取得部11の機能は、プロセッサ301が、通信インターフェース310を制御してデータ通信を実行させ、受信したデータを記憶媒体305に格納させることにより実現される。認識部12の機能は、カメラモジュール311の入力画像用の画像バッファに格納された画像データに基づいて、プロセッサ301が演算処理を行なうことにより実現される。演算部13の機能は、RAM302に格納された座標などのデータと変換行列などのデータに基づいて、プロセッサ301が演算を行なうことにより実現される。生成部14の機能は、プロセッサ301が記憶媒体305に格納されたデータ(画像データを含む)を用いて生成した画像データを表示用バッファに書き込むことにより実現される。   For example, the function of the control unit 10 is that the processor 301 controls other hardware based on an AR control program (display control program and information generation program) which is a part of the program shown in FIG. Realized. The function of the acquisition unit 11 is realized by the processor 301 controlling the communication interface 310 to execute data communication and storing the received data in the storage medium 305. The function of the recognition unit 12 is realized by the processor 301 performing arithmetic processing based on the image data stored in the image buffer for the input image of the camera module 311. The function of the calculation unit 13 is realized by the processor 301 performing a calculation based on data such as coordinates stored in the RAM 302 and data such as a transformation matrix. The function of the generation unit 14 is realized by writing image data generated by the processor 301 using data (including image data) stored in the storage medium 305 into the display buffer.

記憶部15の機能は、ROM303および記憶媒体305がプログラムファイルやデータファイルを記憶すること、また、RAM302がプロセッサ301のワークエリアとして用いられることによって実現される。例えば、AR定義データなどがRAM302に格納される。撮像部16の機能は、カメラモジュール311が入力画像用の画像バッファに画像データを書込み、入力画像用の画像バッファ内の画像データをプロセッサ301が読み出すことにより実現される。画像データは、モニタリングモードにおいては、例えば、入力画像用の画像バッファに書き込まれるとともに、表示デバイス315の表示用バッファに並行して書き込まれる。また、表示部17の機能は、プロセッサ301により生成された画像データが表示インターフェース314に備えられた表示用バッファに書き込まれ、表示デバイス315が表示用バッファ内の画像データの表示を行なうことにより実現される。通信部18の機能は、プロセッサ301が、通信インターフェース310の制御を行なうことにより実現される。入力部19の機能は、入力インターフェース306が入力デバイス307からの入力信号をプロセッサ301に伝達することにより実現される。   The functions of the storage unit 15 are realized by the ROM 303 and the storage medium 305 storing program files and data files, and the RAM 302 being used as a work area of the processor 301. For example, AR definition data and the like are stored in the RAM 302. The function of the imaging unit 16 is realized by the camera module 311 writing image data into the image buffer for input images and the processor 301 reading out the image data in the image buffer for input images. In the monitoring mode, for example, the image data is written in the image buffer for the input image and is written in parallel in the display buffer of the display device 315. The function of the display unit 17 is realized by writing the image data generated by the processor 301 into a display buffer provided in the display interface 314 and causing the display device 315 to display the image data in the display buffer. Is done. The function of the communication unit 18 is realized by the processor 301 controlling the communication interface 310. The function of the input unit 19 is realized by the input interface 306 transmitting an input signal from the input device 307 to the processor 301.

選択制御部101、イベント検知部102、表示制御部103および設定管理部104の機能は、AR制御プログラムに基づき、プロセッサ301がRAM302などのハードウェアを制御することにより実現される。この機能は、プロセッサ301がRAM302などのハードウェアを制御することにより実現される。   The functions of the selection control unit 101, the event detection unit 102, the display control unit 103, and the setting management unit 104 are realized by the processor 301 controlling hardware such as the RAM 302 based on the AR control program. This function is realized by the processor 301 controlling hardware such as the RAM 302.

図49は、コンピュータ1で動作するプログラムの構成例を示す。コンピュータ1において、ハードウェア群501(図48に示されるハードウェア)の制御を行なうOS(オペレーティング・システム)502が動作する。OS502に従った手順でプロセッサ301が動作して、ハードウェア501の制御・管理が行なわれることで、アプリケーションプログラム504やミドルウェア503による処理がハードウェア501上で実行される。コンピュータ1において、OS502、ミドルウェア503及びアプリケーションプログラム504などのプログラムは、例えば、RAM302に読み出されてプロセッサ301により実行される。また、AR制御プログラムは、例えば、ミドルウェア503としてアプリケーションプログラム504から呼び出されるプログラムである。または、例えば、AR制御プログラムは、アプリケーションプログラム504としてAR機能を実現させるプログラムである。AR制御プログラムは、記憶媒体305に記憶される。記憶媒体305は、AR制御プログラムを記憶した状態でコンピュータ1本体と切り離して流通され得る。   FIG. 49 shows a configuration example of a program operating on the computer 1. In the computer 1, an OS (Operating System) 502 that controls a hardware group 501 (hardware shown in FIG. 48) operates. The processor 301 operates in accordance with the procedure in accordance with the OS 502, and the hardware 501 is controlled and managed, whereby processing by the application program 504 and the middleware 503 is executed on the hardware 501. In the computer 1, programs such as the OS 502, middleware 503, and application program 504 are read into the RAM 302 and executed by the processor 301, for example. The AR control program is a program called from the application program 504 as the middleware 503, for example. Alternatively, for example, the AR control program is a program that realizes an AR function as the application program 504. The AR control program is stored in the storage medium 305. The storage medium 305 can be distributed separately from the main body of the computer 1 while storing the AR control program.

図50は、コンピュータ1を含むシステムの例を示す。図50に示すシステムは、コンピュータ1、コンピュータ2、ネットワーク3及び無線基地局4を含む。コンピュータ1とコンピュータ2とは、有線または無線のいずれか少なくとも一方の通信方法により通信可能である。   FIG. 50 shows an example of a system including the computer 1. The system shown in FIG. 50 includes a computer 1, a computer 2, a network 3, and a radio base station 4. The computer 1 and the computer 2 can communicate by at least one of wired or wireless communication methods.

図51は、コンピュータ2の機能構成例を示す。コンピュータ2は、制御部21、記憶部22および通信部23を含む。制御部21は、記憶部22および通信部23の制御を行なう。通信部23は、コンピュータ1の通信部18との通信を行なう。記憶部22は、AR定義データと、コンテンツデータとを記憶する。制御部21は、提供制御部211を含む。提供制御部211は、コンピュータ1から通信部23を介してシナリオリストを要求されると、AR定義データに基づいてシナリオリストを生成し、通信部23にシナリオリストを返送させる。提供制御部211は、コンピュータ1からシナリオIDを受信した場合には、通信部23に、受信したシナリオIDのシナリオ定義配下のAR定義データおよびシナリオで用いられるコンテンツデータをコンピュータ1に送信させる。   FIG. 51 shows a functional configuration example of the computer 2. The computer 2 includes a control unit 21, a storage unit 22, and a communication unit 23. The control unit 21 controls the storage unit 22 and the communication unit 23. The communication unit 23 communicates with the communication unit 18 of the computer 1. The storage unit 22 stores AR definition data and content data. The control unit 21 includes a provision control unit 211. When the scenario list is requested from the computer 1 via the communication unit 23, the provision control unit 211 generates a scenario list based on the AR definition data, and causes the communication unit 23 to return the scenario list. When receiving the scenario ID from the computer 1, the provision control unit 211 causes the communication unit 23 to transmit the AR definition data under the scenario definition of the received scenario ID and the content data used in the scenario to the computer 1.

図52は、ARコンテンツ提供の処理手順例を示す。コンピュータ2でARコンテンツの提供が開始されると、提供制御部211は、コンピュータ1から取得要求を受信したか否かを判定する(S801)。取得要求を受信していない場合(S801:NO)には、提供制御部211は、所定時間経過してから再度S801の処理を行なう。取得要求をコンピュータ1から受信した場合(S801:YES)には、提供制御部211は、コンピュータ1からの取得要求がシナリオリストの要求であるか否か判定する(S802)。コンピュータ1からシナリオリストが要求されている場合(S802:YES)には、提供制御部211は、記憶部22に記憶されたAR定義データのルート定義Nに基づいてシナリオリストを生成し、通信部23にシナリオリストを送信させる(S803)。シナリオリストが送信されると、提供制御部211は、再度S801の処理を行なう。   FIG. 52 shows an example of a processing procedure for providing AR content. When provision of AR content is started by the computer 2, the provision control unit 211 determines whether an acquisition request is received from the computer 1 (S801). If the acquisition request has not been received (S801: NO), the provision control unit 211 performs the process of S801 again after a predetermined time has elapsed. When an acquisition request is received from the computer 1 (S801: YES), the provision control unit 211 determines whether the acquisition request from the computer 1 is a scenario list request (S802). When the scenario list is requested from the computer 1 (S802: YES), the provision control unit 211 generates a scenario list based on the route definition N of the AR definition data stored in the storage unit 22, and the communication unit The scenario list is transmitted to 23 (S803). When the scenario list is transmitted, the provision control unit 211 performs the process of S801 again.

シナリオリストの要求でない場合(S802:NO)には、提供制御部211は、特定のシナリオに関するARコンテンツの要求であると判断し、取得要求において指定されたシナリオIDに応じてAR定義データを記憶部22から読みだす(S804)。S804で読み出されるAR定義データは、指定されたシナリオIDのシナリオ定義の配下のAR定義データ(ステップ定義、マーカー定義およびコンテンツ定義など)である。また、S804において特定のシナリオが選択されない場合には、提供制御部211は、新規のシナリオ生成であると判断し、シナリオリストに示されるいずれのシナリオIDとも競合しないシナリオIDを生成し、要求元に送信する。提供制御部211は、S804で読みだしたAR定義データを、取得要求の要求元に送信する(S805)。   If the request is not a scenario list request (S802: NO), the provision control unit 211 determines that the request is an AR content request for a specific scenario, and stores AR definition data according to the scenario ID specified in the acquisition request. The data is read from the unit 22 (S804). The AR definition data read in S804 is AR definition data (step definition, marker definition, content definition, etc.) under the scenario definition of the designated scenario ID. If a specific scenario is not selected in S804, the provision control unit 211 determines that a new scenario is generated, generates a scenario ID that does not conflict with any scenario ID shown in the scenario list, Send to. The provision control unit 211 transmits the AR definition data read in S804 to the request source of the acquisition request (S805).

次に、提供制御部211は、通信部23に、各ステップにおいて表示されるARコンテンツの送信を実行させる(S807)。例えば、提供制御部211は、S807において、各コンテンツデータを送信するたびに、通信部23に、コンテンツIDとコンテンツデータの送信が終了した旨を示す情報とを併せて送信させる。提供制御部211は、指定されたシナリオに含まれるステップごとに繰り返し処理を行なう(S806およびS808)。   Next, the provision control unit 211 causes the communication unit 23 to transmit the AR content displayed in each step (S807). For example, the provision control unit 211 causes the communication unit 23 to transmit the content ID and information indicating that the transmission of the content data is completed, every time the content data is transmitted in S807. The provision control unit 211 repeats the process for each step included in the designated scenario (S806 and S808).

各ステップにおけるコンテンツデータが送信されると、制御部21は、ARコンテンツ提供の終了指示が行なわれたか否かを判定する(S809)。終了指示が行なわれていなければ(S809:NO)、提供制御部211は再度S801の処理を行なう。また、終了指示が行なわれていれば(S809:YES)、制御部21は、ARコンテンツの提供を終了する。   When the content data in each step is transmitted, the control unit 21 determines whether or not an instruction to end AR content provision has been made (S809). If no termination instruction has been issued (S809: NO), the provision control unit 211 performs the process of S801 again. If an end instruction has been given (S809: YES), the control unit 21 ends the provision of the AR content.

図53は、コンピュータ2のハードウェア構成例を示す。図29に示す各機能ブロックは、例えば、図30に示すハードウェア構成により実現される。管理サーバ2は、例えば、プロセッサ401、RAM402、ROM403、ドライブ装置404、記憶媒体405、入力インターフェース(入力I/F)406、入力デバイス407、出力インターフェース(出力I/F)408、出力デバイス409、通信インターフェース(通信I/F)410、SAN(Storage Area Network)インターフェース(SAN I/F)及びバス412などを含む。それぞれのハードウェアはバス412を介して接続されている。   FIG. 53 shows a hardware configuration example of the computer 2. Each functional block shown in FIG. 29 is realized by the hardware configuration shown in FIG. 30, for example. The management server 2 includes, for example, a processor 401, a RAM 402, a ROM 403, a drive device 404, a storage medium 405, an input interface (input I / F) 406, an input device 407, an output interface (output I / F) 408, an output device 409, A communication interface (communication I / F) 410, a SAN (Storage Area Network) interface (SAN I / F), a bus 412, and the like are included. Each piece of hardware is connected via a bus 412.

例えば、プロセッサ401はプロセッサ301と同様なハードウェアである。RAM402は、例えばRAM302と同様なハードウェアである。ROM403は、例えばROM303と同様なハードウェアである。ドライブ装置404は、例えばドライブ装置304と同様なハードウェアである。記憶媒体405は、例えば記憶媒体305と同様なハードウェアである。入力インターフェース(入力I/F)406は、例えば入力インターフェース306と同様なハードウェアである。入力デバイス407は、例えば入力デバイス307と同様なハードウェアである。出力インターフェース(出力I/F)408は、例えば出力インターフェース308と同様なハードウェアである。出力デバイス409は、例えば出力デバイス309と同様なハードウェアである。通信インターフェース(通信I/F)410は、例えば通信インターフェース310と同様なハードウェアである。SAN(Storage Area Network)インターフェース(SAN I/F)は、管理サーバ2をSANに接続するためのインターフェースであり、HBA(Host Bus Adapter)を含む。   For example, the processor 401 is the same hardware as the processor 301. The RAM 402 is hardware similar to the RAM 302, for example. The ROM 403 is hardware similar to the ROM 303, for example. The drive device 404 is hardware similar to the drive device 304, for example. The storage medium 405 is hardware similar to the storage medium 305, for example. The input interface (input I / F) 406 is hardware similar to the input interface 306, for example. The input device 407 is hardware similar to the input device 307, for example. The output interface (output I / F) 408 is hardware similar to the output interface 308, for example. The output device 409 is hardware similar to the output device 309, for example. The communication interface (communication I / F) 410 is hardware similar to the communication interface 310, for example. A SAN (Storage Area Network) interface (SAN I / F) is an interface for connecting the management server 2 to the SAN, and includes an HBA (Host Bus Adapter).

プロセッサ401は、ROM403や記憶媒体405に記憶された管理プログラムをRAM402に読み出し、読み出された管理プログラムの手順に従って処理部21の処理を行なう。その際にRAM402はプロセッサ401のワークエリアとして用いられる。記憶部22の機能は、ROM403および記憶媒体405がプログラムファイルやデータファイル(管理テーブルT3など)を記憶すること、もしくは、RAM402がプロセッサ401のワークエリアとして用いられることによって実現される。また、プロセッサ401が通信インターフェース410を制御して通信処理を行なうことにより、通信部23の機能が実現される。   The processor 401 reads the management program stored in the ROM 403 or the storage medium 405 to the RAM 402 and performs the processing of the processing unit 21 according to the procedure of the read management program. At that time, the RAM 402 is used as a work area of the processor 401. The function of the storage unit 22 is realized by the ROM 403 and the storage medium 405 storing program files and data files (such as the management table T3), or by using the RAM 402 as a work area of the processor 401. Further, the function of the communication unit 23 is realized by the processor 401 controlling the communication interface 410 to perform communication processing.

[エンターテイメントコンテンツへの利用]
上記の実施形態では、一連のARコンテンツ(シナリオ)を提供するシチュエーションとして、業務プロセスが例示された。一連のARコンテンツが提供される他のシチュエーションにおいても、上述の実施形態に示すシナリオに応じたARコンテンツ提供が行なわれてよい。
[Use for entertainment content]
In the above embodiment, a business process is exemplified as a situation that provides a series of AR contents (scenarios). In other situations where a series of AR content is provided, the AR content may be provided according to the scenario described in the above embodiment.

例えば、ユーザアクションによりゲームイベントが進行するゲームコンテンツも、1種のシナリオを含んでいる。例えば、共通のARマーカーを介して異なるゲームコンテンツを並行で進行させる複数のユーザに対して、それぞれ個別にゲームコンテンツに含まれるARコンテンツを提供することが求められる。この仕組みは、例えば、このアトラクション施設において、複数のユーザが個別にプレイする体験型のゲームコンテンツなどに利用される。そのためには、各ゲームコンテンツにシナリオIDを割り当てて、上述の実施形態の仕組みが用いられれば、各ユーザに個別にARコンテンツが提供される。   For example, game content in which a game event progresses by a user action also includes one type of scenario. For example, it is required to provide AR content included in game content individually to a plurality of users who advance different game content in parallel via a common AR marker. This mechanism is used for, for example, experience-type game content that a plurality of users play individually in this attraction facility. For that purpose, if the scenario ID is assigned to each game content and the mechanism of the above-described embodiment is used, the AR content is individually provided to each user.

上述の実施形態は本発明の一態様であり、本発明の本旨を逸脱しない範囲の設計変更が適宜行われうる。以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの第1の作業内容に関連付けられた1または複数の表示データを取得する取得部と、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう制御部と、
を含むことを特徴とする表示制御装置。
(付記2)
前記複数の作業内容のうちの第2の作業内容に前記1または複数の表示データのいずれとも異なる他の表示データが関連付けられる、
ことを特徴とする付記1に記載の表示制御装置。
(付記3)
前記第1の作業内容は、入力に応じて前記複数の作業内容から選択され、
前記入力は、前記第1の作業内容を指定する情報または前記第1の作業内容に示される作業の実行主体を指定する情報である、
ことを特徴とする付記1または付記2に記載の表示制御装置。
(付記4)
前記制御部は、前記取得部が前記1または複数の表示データの取得を開始した後に前記基準物を認識した場合に、前記制御を行なう、
ことを特徴とする付記1〜3のいずれか1つに記載の表示制御装置。
(付記5)
前記1または複数の表示データは、前記表示データ群のうち、前記第1の作業内容および前記第1の作業内容に示される作業の実行主体の組み合わせに関連付けられた表示データである、
ことを特徴とする付記1〜4のいずれか1つに記載の表示制御装置。
(付記6)
前記1または複数の表示データは、第1の基準物に対応する第1の表示データと、第2の基準物に対応する第2の表示データとを含み、
前記制御部は、前記第1の基準物を認識した場合に、前記第1の表示データを前記第1の基準物に基づく表示態様で表示させ、前記第2の基準物を認識した場合に、前記第2の表示データを前記第2の基準物に基づく表示態様で表示させる制御を行なう、
ことを特徴とする付記1〜5のいずれか1つに記載の表示制御装置。
(付記7)
前記第1の作業内容は、順序性を有する複数の工程を含み、
前記第1の表示データに、前記複数の工程のうちの第1の工程が関連付けられており、
前記制御部は、前記第1の基準物を認識した工程が前記第1の工程である場合に、前記第1の表示データを、前記第1の基準物に基づく表示態様で表示させる、
ことを特徴とする付記6に記載の表示制御装置。
(付記8)
前記1または複数の表示データは、第1の基準物に対応する第3の表示データをさらに含み、
前記第3の表示データに、前記複数の工程のうちの第2の工程が関連付けられており、
前記制御部は、前記第1の基準物を認識した工程が前記第1の工程である場合に、前記第3の表示データの少なくとも一部の表示を抑止する、
ことを特徴とする付記7に記載の表示制御装置。
(付記9)
前記制御部は、前記1または複数の表示データに、前記第1の基準物を認識した工程と関連付けられた表示データが含まれない場合に、表示対象の表示データが存在しない旨を示す表示を行なう、
ことを特徴とする付記7または付記8に記載の表示制御装置。
(付記10)
前記制御部は、前記第1の作業内容における工程の進行または後退を、前記画像認識により認識された前記基準物に基づいて判断する、
ことを特徴とする付記7〜9のいずれか1つに記載の表示制御装置。
(付記11)
前記制御部は、前記基準物の認識または非認識の状態が切り替わる際の前記基準物の移動方向に応じて、前記工程の進行または後退を行なう、
ことを特徴とする付記10に記載の表示制御装置。
(付記12)
前記認識または非認識の状態は、前記基準物が前記画像認識の対象画像に対してフレームインまたはフレームアウトすることにより切り替えられる、
ことを特徴とする付記11に記載の表示制御装置。
(付記13)
前記制御部は、指標画像を表示させ、
前記制御部は、前記基準物が前記指標画像の表示位置に表示されると、前記工程の進行または後退を行なう、
ことを特徴とする付記10に記載の表示制御装置。
(付記14)
前記制御部は、前記基準物が所定の角度以上回転した状態で認識されると、前記工程の進行または後進を行なう、
ことを特徴とする付記10に記載の表示制御装置。
(付記15)
コンピュータに、
複数の作業内容のうちの第1の作業内容に関連付けられた1または複数の表示データを取得し、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
ことを実行させることを特徴とする表示制御方法。
(付記16)
コンピュータに、
複数の作業内容のうちの第1の作業内容に関連付けられた1または複数の表示データを取得し、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
処理を実行させることを特徴とする表示制御プログラム。
(付記17)
第1のコンピュータ及び第2のコンピュータを含む情報提供システムであって、
前記第1のコンピュータは、
複数の作業内容のうちの第1の作業内容に関連付けられた1または複数の表示データを前記第2のコンピュータに送信する送信部を含み、
前記第2のコンピュータは、
前記1または複数の表示データを受信する受信部と、
受信した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
ことを特徴とする情報提供システム。
(付記18)
前記第2のコンピュータは、
前記第1の作業内容を示す識別情報を選択させる選択部と、
画像認識により認識された基準物に対応付けて、第1の表示データの前記基準物を基準とする位置を示す位置情報を設定する設定部と、
前記基準物に対応付けて前記位置情報が設定された前記第1の表示データを、選択された前記識別情報に示される前記第1の作業内容と関連付けて送信する送信部と、をさらに含み、
前記1または複数の表示データは、前記第1の表示データを含む、
ことを特徴とする請求項17に記載の情報提供システム。
(付記19)
作業内容を示す識別情報を選択させる選択部と、
画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定する設定部と、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける管理部と、
を含むことを特徴とする情報設定装置。
(付記20)
コンピュータに、
作業内容を示す識別情報を選択させ、
画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定し、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける、
ことを実行させることを特徴とする情報設定方法。
(付記21)
コンピュータに、
作業内容を示す識別情報を選択させ、
画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定し、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける、
処理を実行させることを特徴とする情報設定プログラム。
(付記22)
プロセッサを含む表示制御装置であって、
前記プロセッサは、
複数の作業内容のうちの第1の作業内容に関連付けられた1または複数の表示データを取得し、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
ことを特徴とする表示制御装置。
The above-described embodiment is an aspect of the present invention, and design changes can be made as appropriate without departing from the spirit of the present invention. Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
An acquisition unit that acquires one or more display data associated with a first work content among the plurality of work contents, from a display data group associated with the plurality of work contents;
A control unit that performs control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
A display control apparatus comprising:
(Appendix 2)
Other display data different from any of the one or more display data is associated with the second work content of the plurality of work contents.
The display control apparatus according to Supplementary Note 1, wherein
(Appendix 3)
The first work content is selected from the plurality of work content according to an input,
The input is information specifying the first work content or information specifying an execution subject of the work indicated in the first work content.
The display control apparatus according to Supplementary Note 1 or Supplementary Note 2, wherein
(Appendix 4)
The control unit performs the control when the reference unit is recognized after the acquisition unit starts acquiring the one or more display data.
The display control apparatus according to any one of Supplementary notes 1 to 3, wherein:
(Appendix 5)
The one or more display data is display data associated with a combination of execution subjects of the work indicated by the first work content and the first work content in the display data group.
The display control apparatus according to any one of supplementary notes 1 to 4, characterized in that:
(Appendix 6)
The one or more display data includes first display data corresponding to a first reference object, and second display data corresponding to a second reference object,
The controller, when recognizing the first reference object, displays the first display data in a display mode based on the first reference object, and when recognizing the second reference object, Control to display the second display data in a display mode based on the second reference object,
The display control apparatus according to any one of Supplementary notes 1 to 5, wherein:
(Appendix 7)
The first work content includes a plurality of steps having order,
A first step of the plurality of steps is associated with the first display data;
The control unit displays the first display data in a display mode based on the first reference object when the process of recognizing the first reference object is the first process.
The display control apparatus according to appendix 6, wherein:
(Appendix 8)
The one or more display data further includes third display data corresponding to a first reference object,
A second step of the plurality of steps is associated with the third display data;
The control unit suppresses display of at least a part of the third display data when the step of recognizing the first reference object is the first step;
The display control apparatus according to appendix 7, characterized by:
(Appendix 9)
The control unit displays a display indicating that there is no display data to be displayed when the display data associated with the step of recognizing the first reference object is not included in the one or more display data. Do,
9. The display control device according to appendix 7 or appendix 8, wherein
(Appendix 10)
The control unit determines the progress or retreat of the process in the first work content based on the reference object recognized by the image recognition;
The display control apparatus according to any one of appendices 7 to 9, characterized in that:
(Appendix 11)
The control unit advances or retreats the process according to the moving direction of the reference object when the recognition or non-recognition state of the reference object is switched.
The display control apparatus according to appendix 10, wherein
(Appendix 12)
The recognition or non-recognition state is switched by the reference object being framed in or out of the image recognition target image.
The display control apparatus according to Supplementary Note 11, wherein:
(Appendix 13)
The control unit displays an index image,
When the reference object is displayed at the display position of the index image, the control unit advances or retracts the process.
The display control apparatus according to appendix 10, wherein
(Appendix 14)
When the control unit is recognized in a state where the reference object is rotated by a predetermined angle or more, the control unit proceeds or reverses the process.
The display control apparatus according to appendix 10, wherein
(Appendix 15)
On the computer,
Obtaining one or more display data associated with the first work content of the plurality of work contents;
Performing control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
A display control method characterized by causing
(Appendix 16)
On the computer,
Obtaining one or more display data associated with the first work content of the plurality of work contents;
Performing control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
A display control program for executing processing.
(Appendix 17)
An information providing system including a first computer and a second computer,
The first computer is
A transmission unit that transmits one or more display data associated with the first work content of the plurality of work contents to the second computer;
The second computer is
A receiving unit for receiving the one or more display data;
Performing control to display the received one or more display data in a display mode based on a reference object recognized by image recognition;
An information providing system characterized by that.
(Appendix 18)
The second computer is
A selection unit for selecting identification information indicating the first work content;
A setting unit that sets position information indicating a position of the first display data with reference to the reference object in association with the reference object recognized by the image recognition;
A transmitter that transmits the first display data in which the position information is set in association with the reference object in association with the first work content indicated in the selected identification information;
The one or more display data includes the first display data.
The information providing system according to claim 17.
(Appendix 19)
A selection unit for selecting identification information indicating the work content;
A setting unit that sets position information indicating a position with reference to the reference object of display data in association with the reference object recognized by image recognition;
A management unit that associates the display data in which the position information is set in association with the reference object, with the selected identification information;
An information setting device comprising:
(Appendix 20)
On the computer,
Select identification information indicating the work content,
In association with the reference object recognized by the image recognition, set position information indicating the position of the display data based on the reference object,
Associating the display data in which the position information is set in association with the reference object with the selected identification information;
An information setting method characterized by causing
(Appendix 21)
On the computer,
Select identification information indicating the work content,
In association with the reference object recognized by the image recognition, set position information indicating the position of the display data based on the reference object,
Associating the display data in which the position information is set in association with the reference object with the selected identification information;
An information setting program for executing a process.
(Appendix 22)
A display control device including a processor,
The processor is
Obtaining one or more display data associated with the first work content of the plurality of work contents;
Performing control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
A display control device characterized by that.

1 コンピュータ
2 コンピュータ
3 ネットワーク
4 無線基地局
10 制御部
11 取得部
12 認識部
13 演算部
14 生成部
15 記憶部
16 撮像部
17 表示部
18 通信部
19 入力部
21 制御部
22 記憶部
23 通信部
DESCRIPTION OF SYMBOLS 1 Computer 2 Computer 3 Network 4 Wireless base station 10 Control part 11 Acquisition part 12 Recognition part 13 Calculation part 14 Generation part 15 Storage part 16 Imaging part 17 Display part 18 Communication part 19 Input part 21 Control part 22 Storage part 23 Communication part

Claims (14)

第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを取得する取得部と、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう制御部と、
を含み、
少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている、
ことを特徴とする表示制御装置。
From the display data group associated with a plurality of work contents including one or more display data associated with the first work contents and one or more display data associated with the second work contents, the plurality of display data An acquisition unit that acquires one or a plurality of display data associated with the first work content of the work content;
A control unit that performs control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
Including
Display data of at least one of display data associated with the first work content and display data of one or more display data associated with the second work content Are associated with a common reference,
A display control device characterized by that.
前記第1の作業内容は、入力に応じて前記複数の作業内容から選択され、
前記入力は、前記第1の作業内容を指定する情報または前記第1の作業内容に示される作業の実行主体を指定する情報である、
ことを特徴とする請求項1に記載の表示制御装置。
The first work content is selected from the plurality of work content according to an input,
The input is information specifying the first work content or information specifying an execution subject of the work indicated in the first work content.
The display control apparatus according to claim 1.
前記制御部は、前記取得部が前記1または複数の表示データの取得を開始した後に前記基準物を認識した場合に、前記制御を行なう、
ことを特徴とする請求項1または請求項2に記載の表示制御装置。
The control unit performs the control when the reference unit is recognized after the acquisition unit starts acquiring the one or more display data.
The display control device according to claim 1, wherein the display control device is a display control device.
取得される前記1または複数の表示データは、前記表示データ群のうち、前記第1の作業内容および前記第1の作業内容に示される作業の実行主体の組み合わせに関連付けられた表示データである、
ことを特徴とする請求項1〜3のいずれか1項に記載の表示制御装置。
The acquired one or more display data is display data associated with a combination of execution subjects of the first work content and the work content indicated in the first work content in the display data group.
The display control apparatus according to any one of claims 1 to 3.
取得される前記1または複数の表示データは、第1の基準物に対応する第1の表示データと、第2の基準物に対応する第2の表示データとを含み、
前記制御部は、前記第1の基準物を認識した場合に、前記第1の表示データを前記第1の基準物に基づく表示態様で表示させ、前記第2の基準物を認識した場合に、前記第2の表示データを前記第2の基準物に基づく表示態様で表示させる制御を行なう、
ことを特徴とする請求項1〜4のいずれか1項に記載の表示制御装置。
The acquired one or more display data includes first display data corresponding to a first reference object, and second display data corresponding to a second reference object,
The controller, when recognizing the first reference object, displays the first display data in a display mode based on the first reference object, and when recognizing the second reference object, Control to display the second display data in a display mode based on the second reference object,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
前記第1の作業内容に関連付けられた1または複数の表示データは、1または複数の基準物に対応付けられている、
ことを特徴とする請求項1〜4のいずれか1項に記載の表示制御装置。
The one or more display data associated with the first work content is associated with one or more reference objects,
The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
前記取得部は、前記表示データ群を格納している装置に対して前記第1の作業内容を識別する情報を含む要求を送信し、前記要求に基づき前記装置から送信される前記第1の作業内容に関連付けられた1または複数のデータをネットワークを介して取得する、
ことを特徴とする請求項1〜6のいずれか1項に記載の表示制御装置。
The acquisition unit transmits a request including information for identifying the first work content to a device storing the display data group, and the first work transmitted from the device based on the request. Retrieve one or more data associated with the content over the network;
The display control apparatus according to any one of claims 1 to 6.
コンピュータに、
第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを取得し、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
ことを実行させ、
少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている、
ことを特徴とする表示制御方法。
On the computer,
From the display data group associated with a plurality of work contents including one or more display data associated with the first work contents and one or more display data associated with the second work contents, the plurality of display data Obtaining one or more display data associated with the first work content of the work content;
Performing control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
To do that,
Display data of at least one of display data associated with the first work content and display data of one or more display data associated with the second work content Are associated with a common reference,
A display control method characterized by the above.
コンピュータに、
第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを取得し、
取得した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行なう、
処理を実行させ、
少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている、
ことを特徴とする表示制御プログラム。
On the computer,
From the display data group associated with a plurality of work contents including one or more display data associated with the first work contents and one or more display data associated with the second work contents, the plurality of display data Obtaining one or more display data associated with the first work content of the work content;
Performing control to display the acquired one or more display data in a display mode based on a reference object recognized by image recognition;
Let the process run,
Display data of at least one of display data associated with the first work content and display data of one or more display data associated with the second work content Are associated with a common reference,
A display control program characterized by that.
第1のコンピュータ及び第2のコンピュータを含む情報提供システムであって、
前記第1のコンピュータは、
第1の作業内容に関連付けられた1または複数の表示データと第2の作業内容に関連付けられた1または複数の表示データとを含む複数の作業内容に関連付けられた表示データ群から、前記複数の作業内容のうちの前記第1の作業内容に関連付けられた1または複数の表示データを前記第2のコンピュータに送信する送信部を含み、
前記第2のコンピュータは、
送信された前記1または複数の表示データを受信する受信部と、
受信した前記1または複数の表示データを、画像認識により認識された基準物に基づく表示態様で表示させる制御を行ない、
少なくとも前記第1の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データと前記第2の作業内容に関連付けられた1または複数の表示データのうちのいずれかの表示データは共通の基準物に対応付けられている、
ことを特徴とする情報提供システム。
An information providing system including a first computer and a second computer,
The first computer is
From the display data group associated with a plurality of work contents including one or more display data associated with the first work contents and one or more display data associated with the second work contents, the plurality of display data A transmission unit that transmits one or more display data associated with the first work content of the work content to the second computer;
The second computer is
A receiving unit for receiving the transmitted one or more display data;
Performing control to display the received one or more display data in a display mode based on a reference object recognized by image recognition;
Display data of at least one of display data associated with the first work content and display data of one or more display data associated with the second work content Are associated with a common reference,
An information providing system characterized by that.
前記第2のコンピュータは、
前記第1の作業内容を示す識別情報を選択させる選択部と、
撮像部による撮像によって得られた撮像画像に対する画像認識により認識された基準物に対応付けて、前記第1の表示データの前記基準物を基準とする位置を示す位置情報を設定する設定部と、
前記基準物に対応付けて前記位置情報が設定された前記第1の表示データを、選択された前記識別情報に示される前記第1の作業内容と関連付けて送信する送信部と、をさらに含む、
ことを特徴とする請求項10に記載の情報提供システム。
The second computer is
A selection unit for selecting identification information indicating the first work content;
A setting unit that sets position information indicating a position of the first display data with reference to the reference object in association with a reference object recognized by image recognition on a captured image obtained by imaging by the imaging unit;
A transmission unit that transmits the first display data in which the position information is set in association with the reference object in association with the first work content indicated in the selected identification information;
The information providing system according to claim 10.
作業内容を示す識別情報を選択させる選択部と、
撮像部による撮像によって得られた撮像画像に対する画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定する設定部と、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける管理部と、
を含むことを特徴とする情報設定装置。
A selection unit for selecting identification information indicating the work content;
A setting unit that sets position information indicating a position of the display data with reference to the reference object in association with a reference object recognized by image recognition on a captured image obtained by imaging by the imaging unit;
A management unit that associates the display data in which the position information is set in association with the reference object, with the selected identification information;
An information setting device comprising:
コンピュータに、
作業内容を示す識別情報を選択させ、
撮像部による撮像によって得られた撮像画像に対する画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定し、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける、
ことを実行させることを特徴とする情報設定方法。
On the computer,
Select identification information indicating the work content,
In association with a reference object recognized by image recognition for a captured image obtained by imaging by the imaging unit, position information indicating a position based on the reference object of display data is set,
Associating the display data in which the position information is set in association with the reference object with the selected identification information;
An information setting method characterized by causing
コンピュータに、
作業内容を示す識別情報を選択させ、
撮像部による撮像によって得られた撮像画像に対する画像認識により認識された基準物に対応付けて、表示データの前記基準物を基準とする位置を示す位置情報を設定し、
前記基準物に対応付けて前記位置情報が設定された前記表示データを、選択された前記識別情報と関連付ける、
処理を実行させることを特徴とする情報設定プログラム。
On the computer,
Select identification information indicating the work content,
In association with a reference object recognized by image recognition for a captured image obtained by imaging by the imaging unit, position information indicating a position based on the reference object of display data is set,
Associating the display data in which the position information is set in association with the reference object with the selected identification information;
An information setting program for executing a process.
JP2016243523A 2016-12-15 2016-12-15 Display control apparatus, display control method, and display control program Active JP6350640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243523A JP6350640B2 (en) 2016-12-15 2016-12-15 Display control apparatus, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243523A JP6350640B2 (en) 2016-12-15 2016-12-15 Display control apparatus, display control method, and display control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013089856A Division JP6255706B2 (en) 2013-04-22 2013-04-22 Display control apparatus, display control method, display control program, and information providing system

Publications (2)

Publication Number Publication Date
JP2017091561A true JP2017091561A (en) 2017-05-25
JP6350640B2 JP6350640B2 (en) 2018-07-04

Family

ID=58771663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243523A Active JP6350640B2 (en) 2016-12-15 2016-12-15 Display control apparatus, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP6350640B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046381A (en) * 2018-10-24 2020-05-07 디에스글로벌 (주) Method and system for providing augmented reality contents based on location information and time information

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2009259127A (en) * 2008-04-18 2009-11-05 Konica Minolta Business Technologies Inc Apparatus with display operation unit
JP2010219879A (en) * 2009-03-17 2010-09-30 Ricoh Co Ltd Help information providing system, server apparatus, target device, mobile communication terminal, help information providing method, program, and recording medium
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2009259127A (en) * 2008-04-18 2009-11-05 Konica Minolta Business Technologies Inc Apparatus with display operation unit
JP2010219879A (en) * 2009-03-17 2010-09-30 Ricoh Co Ltd Help information providing system, server apparatus, target device, mobile communication terminal, help information providing method, program, and recording medium
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046381A (en) * 2018-10-24 2020-05-07 디에스글로벌 (주) Method and system for providing augmented reality contents based on location information and time information
KR102199686B1 (en) 2018-10-24 2021-01-07 디에스글로벌(주) Method and system for providing augmented reality contents based on location information and time information

Also Published As

Publication number Publication date
JP6350640B2 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6255706B2 (en) Display control apparatus, display control method, display control program, and information providing system
JP5991423B2 (en) Display device, display method, display program, and position setting system
JP5776201B2 (en) Information processing apparatus, information sharing method, program, and terminal apparatus
US9710971B2 (en) Information processing device, position designation method and storage medium
AU2014210571B2 (en) Setting method and information processing device
JP2015207219A (en) Display device, position specification program, and position specification method
CN108604256B (en) Component information search device, component information search method, and program
JP2020098568A (en) Information management device, information management system, information management method, and information management program
JP6316176B2 (en) Inspection history management system, inspection history management method
JP5214933B2 (en) Map display system
JP6350640B2 (en) Display control apparatus, display control method, and display control program
US20140142900A1 (en) Information processing apparatus, information processing method, and program
JP2016035414A (en) Display information generation system, and display information generation method
JP7192953B2 (en) Information processing device, information processing method and program
TW201440012A (en) Building information model display system and method thereof
JP2013134673A (en) System, method, and program for simulating shelf allocation
JP7045863B2 (en) Information management system, information management method, and program
KR102504720B1 (en) Method and system for providing a 3d model automatic creation interface
US20230419628A1 (en) Reset modeling based on reset and object properties
US20230419627A1 (en) Object modeling based on properties and images of an object
JP2018196016A (en) Information processing apparatus, information processing method, and program
US20230418430A1 (en) Simulated environment for presenting virtual objects and virtual resets
JP5964611B2 (en) 3D map display system
US10380806B2 (en) Systems and methods for receiving and detecting dimensional aspects of a malleable target object
JP6002346B1 (en) Program, method, electronic apparatus and system for displaying object image in game

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6350640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150