JP2020058658A - Application program - Google Patents

Application program Download PDF

Info

Publication number
JP2020058658A
JP2020058658A JP2018192742A JP2018192742A JP2020058658A JP 2020058658 A JP2020058658 A JP 2020058658A JP 2018192742 A JP2018192742 A JP 2018192742A JP 2018192742 A JP2018192742 A JP 2018192742A JP 2020058658 A JP2020058658 A JP 2020058658A
Authority
JP
Japan
Prior art keywords
image
marker
content
images
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018192742A
Other languages
Japanese (ja)
Inventor
典夫 三輪
Norio Miwa
典夫 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018192742A priority Critical patent/JP2020058658A/en
Publication of JP2020058658A publication Critical patent/JP2020058658A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide an application program which displays the content related to a temple or a shrine on a display device as the augmented reality.SOLUTION: A control circuit of an information processing device is made to operate as: an object image acquisition unit which acquires an object image OI obtained by imaging an object O including a marker M related to a temple or a shrine by an imaging device over time; a marker image extraction unit which extracts a marker image MI being the image of the marker M from the object image OI; a content acquisition unit which acquires a content image CI associated with the extracted marker image MI from a database storing the marker image MI of the marker M included in the one or more objects O related to a temple or a shrine and the content image CI being the image of the content related to a temple or a shrine related to the objects O in association with each other; a superimposition image generation unit which generates a superimposition image AR by superimposing the read content image CI on the object image OI including the image of the marker M; and an output control unit which displays the superimposition image AR on the display device 17 over time.SELECTED DRAWING: Figure 4

Description

本発明は、寺社に関係するコンテンツを拡張現実として表示装置に表示するアプリケーションプログラムに関する。   The present invention relates to an application program for displaying contents related to temples and shrines on a display device as augmented reality.

寺社に固有のコンテンツを拡張現実として表示装置に表示する技術が知られている(特許文献1)。   There is known a technique of displaying contents unique to a temple and shrine on a display device as augmented reality (Patent Document 1).

特開2015−019892号公報JP, 2005-0198892, A

寺社に関係するコンテンツを拡張現実として表示装置に表示する技術は、益々ユーザーフレンドリーであることが望ましい。   It is desirable that the technology for displaying contents related to temples and shrines on a display device as augmented reality is increasingly user-friendly.

本発明の一形態に係るアプリケーションプログラムは、情報処理装置の制御回路を、寺社に関係するおみくじ、御守若しくは絵馬又は建築物若しくは建造物を含む物体であってマーカを含む前記物体を、撮像装置で経時的に撮像することにより生成した物体画像を取得する物体画像取得部と、前記物体画像から前記マーカの画像であるマーカ画像を抽出するマーカ画像抽出部と、1以上の寺社に関係する物体に含まれるマーカのマーカ画像と、前記物体に関係する寺社に関係するコンテンツの画像であるコンテンツ画像とを、互いに関連付けて記憶するデータベースから、抽出した前記マーカ画像に関連付けられたコンテンツ画像を取得するコンテンツ取得部と、前記マーカの画像を含む前記物体画像に、読み出した前記コンテンツ画像を重畳して重畳画像を生成する重畳画像生成部と、前記重畳画像を前記表示装置に経時的に表示する出力制御部として動作させる。   An application program according to an aspect of the present invention uses a control circuit of an information processing device, an image pickup device for an object including a fortune teller, amulet or votive tablet, a building, or a building, which is associated with a shrine, and includes a marker. An object image acquisition unit that acquires an object image generated by capturing images over time, a marker image extraction unit that extracts a marker image that is an image of the marker from the object image, and an object related to one or more temples and shrines The content image associated with the extracted marker image is acquired from the database that stores the marker image of the marker included in the item and the content image that is the image of the content related to the shrine related to the object in association with each other. The content acquisition unit and the object image including the image of the marker are overlapped with the read content image. A superimposed image generating unit that generates a superimposed image and, operating the superimposed image as an output control unit with time displayed on the display device.

本発明によれば、寺社に関係するコンテンツを拡張現実として表示装置に表示する技術を、益々ユーザーフレンドリーとすることができる。   According to the present invention, the technology for displaying contents related to temples and shrines on the display device as augmented reality can be made even more user-friendly.

なお、ここに記載された効果は必ずしも限定されるものではなく、本発明中に記載されたいずれかの効果であってもよい。   Note that the effects described here are not necessarily limited and may be any effects described in the present invention.

本発明の一実施形態に係る情報処理システムのハードウェア構成を示す。1 shows a hardware configuration of an information processing system according to an embodiment of the present invention. 情報処理装置の機能的構成を示す。The functional structure of an information processing apparatus is shown. 情報処理装置の動作フローを示す。3 shows an operation flow of the information processing device. 実施例1の動作例(物体が絵馬及び建造物の場合の動作例)を模式的に示す。1 schematically shows an operation example of the first embodiment (an operation example when an object is a votive panel and a building). 実施例2の動作例(物体がおみくじの場合の動作例1)を模式的に示す。An operation example of the second embodiment (operation example 1 when the object is an omikuji) is schematically shown. 実施例3の動作例(物体がおみくじの場合の動作例2)を模式的に示す。An operation example of the third embodiment (operation example 2 in the case where the object is an omikuji) is schematically shown.

以下、図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

1.情報処理システムのハードウェア構成   1. Hardware configuration of information processing system

図1は、本発明の一実施形態に係る情報処理システムのハードウェア構成を示す。   FIG. 1 shows a hardware configuration of an information processing system according to an embodiment of the present invention.

情報処理システム1は、インターネットを含むネットワークNを介して接続された、モバイルデバイス10(情報処理装置)と、サーバー装置20とを具備する。   The information processing system 1 includes a mobile device 10 (information processing device) and a server device 20, which are connected via a network N including the Internet.

モバイルデバイス10は、例えば、スマートフォン、タブレットコンピューター、パーソナルコンピューター、ウェアラブルコンピューター(スマートウォッチ、ヘッドマウントディスプレイ等)等の情報処理装置である。本実施形態では、モバイルデバイス10は、撮像装置(カメラ)、音声出力装置(スピーカ)及び表示装置(ディスプレイ)を内蔵する。別の実施形態(図示せず)では、モバイルデバイス10は、有線又は無線(Bluetooth(登録商標)等)で接続された撮像装置(カメラ)、音声出力装置(イヤホン、ヘッドホン)及び表示装置(ディスプレイ)と情報を送受信可能でもよい。   The mobile device 10 is, for example, an information processing device such as a smartphone, a tablet computer, a personal computer, a wearable computer (smart watch, head mounted display, etc.). In the present embodiment, the mobile device 10 has a built-in imaging device (camera), audio output device (speaker), and display device (display). In another embodiment (not shown), the mobile device 10 includes an imaging device (camera), an audio output device (earphones, headphones), and a display device (display) that are connected by wire or wirelessly (Bluetooth (registered trademark) or the like). ) And information can be transmitted and received.

サーバー装置20は、所謂クラウドコンピューティングのサーバーとして機能する。   The server device 20 functions as a so-called cloud computing server.

モバイルデバイス10は、CPU11、ROM12、RAM13、SSD等の大容量の不揮発性記憶装置14、ネットワーク通信インターフェース15、操作装置16、表示装置17、音声出力装置18及び撮像装置19と、これらを相互に接続するバスB1とを有する。CPU11、ROM12及びRAM13は、制御回路100を構成する。CPU11は、ROM12が記憶するアプリケーションプログラムをRAM13にロードして実行する。   The mobile device 10 includes a CPU 11, a ROM 12, a RAM 13, a large-capacity nonvolatile storage device 14 such as an SSD, a network communication interface 15, an operating device 16, a display device 17, a voice output device 18, and an imaging device 19, and these are mutually connected. It has a bus B1 to be connected. The CPU 11, ROM 12, and RAM 13 form a control circuit 100. The CPU 11 loads the application program stored in the ROM 12 into the RAM 13 and executes it.

サーバー装置20は、CPU21、ROM22、RAM23、SSDやHDD等の大容量の不揮発性記憶装置24、ネットワーク通信インターフェース25、操作装置26及び表示装置27と、これらを相互に接続するバスB2とを有する。CPU21、ROM22及びRAM23は、制御回路200を構成する。CPU21は、ROM22が記憶するアプリケーションプログラムをRAM23にロードして実行する。   The server device 20 includes a CPU 21, a ROM 22, a RAM 23, a large-capacity nonvolatile storage device 24 such as an SSD or an HDD, a network communication interface 25, an operating device 26, and a display device 27, and a bus B2 interconnecting these. . The CPU 21, the ROM 22 and the RAM 23 form a control circuit 200. The CPU 21 loads the application program stored in the ROM 22 into the RAM 23 and executes it.

2.情報処理装置の機能的構成   2. Functional configuration of information processing device

図2は、情報処理装置の機能的構成を示す。   FIG. 2 shows a functional configuration of the information processing device.

モバイルデバイス10の制御回路100において、CPU11は、ROM12が記憶するアプリケーションプログラムをRAM13にロードして実行することにより、アプリ起動部101、物体画像取得部102、マーカ画像抽出部103、コンテンツ取得部104、重畳画像生成部105及び出力制御部106として動作する。モバイルデバイス10は、典型的には、ネットワークNを介してクラウドのアプリケーションストア(図示せず)から、このアプリケーションプログラムをダウンロードする。   In the control circuit 100 of the mobile device 10, the CPU 11 loads the application program stored in the ROM 12 into the RAM 13 and executes the application program, so that the application launching unit 101, the object image acquiring unit 102, the marker image extracting unit 103, and the content acquiring unit 104. , And operates as the superimposed image generation unit 105 and the output control unit 106. The mobile device 10 typically downloads this application program from a cloud application store (not shown) via the network N.

3.情報処理装置の動作フロー   3. Operation flow of information processing device

図3は、情報処理装置の動作フローを示す。   FIG. 3 shows an operation flow of the information processing device.

(1)実施例1(物体がおみくじ以外の場合)   (1) Example 1 (when the object is other than an omikuji)

前提として、CPU11がアプリケーションプログラムを起動する(立ち上げる)と、アプリ起動部101は、データベース110をオンラインで更新する。具体的には、アプリ起動部101は、ネットワークNを介してサーバー装置20から最新のデータベース110をダウンロードし、記憶装置14に記憶されているデータベース110を更新する。そして、アプリ起動部101は、撮像装置19を起動する(立ち上げる)。撮像装置19が経時的に撮像する画像(動画)は、リアルタイムで表示装置17に経時的に表示される。   As a premise, when the CPU 11 activates (starts up) an application program, the application activation unit 101 updates the database 110 online. Specifically, the application launching unit 101 downloads the latest database 110 from the server device 20 via the network N and updates the database 110 stored in the storage device 14. Then, the application activation unit 101 activates (starts up) the imaging device 19. The image (moving image) captured by the imaging device 19 over time is displayed on the display device 17 over time in real time.

図4のA1、A2及びA3は、実施例1の動作例(物体を絵馬とする)を模式的に示す。図4のB1、B2及びB3は、実施例1の動作例(物体を建造物とする)を模式的に示す。   A1, A2, and A3 in FIG. 4 schematically show an operation example (the object is a votive panel) of the first embodiment. B1, B2, and B3 in FIG. 4 schematically show an operation example (the object is a building) of the first embodiment.

物体画像取得部102は、寺社に関係する物体OであってマーカMを含む物体O(図4のA1、B1)を、撮像装置19で経時的に撮像することにより生成した物体画像OIを取得する(ステップS1)。物体画像OIは、マーカMの画像であるマーカ画像MIを含む(図4のA2、B2)。「物体画像」は、撮像装置19が経時的に撮像し、表示装置17にリアルタイムで経時的に表示される画像(動画)である。   The object image acquisition unit 102 acquires an object image OI that is generated by imaging the object O (A1, B1 in FIG. 4) that is related to the temple and shrine and includes the marker M with the imaging device 19 over time. Yes (step S1). The object image OI includes a marker image MI which is an image of the marker M (A2 and B2 in FIG. 4). The “object image” is an image (moving image) captured by the imaging device 19 over time and displayed on the display device 17 in real time over time.

「寺社に関係する物体」は、例えば、寺社が提供(販売等)するおみくじ、御守若しくは絵馬又は寺社の境内に存在する建築物若しくは建造物を含む(「物体」がおみくじの場合のみ、後で実施例2及び実施例3で説明する)。「マーカ」は、寺社に固有のオブジェクトである。例えば、「物体」が御守又は絵馬である場合、「マーカ」は、これらに描かれた(典型的には、手書きでなく印刷。以下同じ)寺社名の文字、寺社の印影又は寺社固有のマーク等とすればよい。例えば、「物体」が建築物又は建造物である場合、「マーカ」は、これらに表記された寺社名の文字又は寺社固有のマークとすればよく、あるいは、形状が特徴的な建築物又は建造物自体(全体)又はその一部としてもよい。また、1つの物体が複数のマーカを含んでもよい。例えば、「物体」が御守又は絵馬である場合、これらに描かれた寺社名の文字、寺社の印影及び寺社固有のマーク等を「複数のマーカ」としてもよい。例えば、「物体」が建築物又は建造物である場合、これらに表記された寺社名の文字や寺社固有のマーク並びに形状が特徴的な建築物又は建造物自体(全体)又はその一部を「複数のマーカ」としてもよい。   "Objects related to temples and shrines" include, for example, omikuji, amulets or votive tablets provided by temples and shrines, or buildings or structures existing within the precincts of temples and shrines (only if "object" is omikuji Example 2 and Example 3). A "marker" is an object unique to a shrine. For example, when the "object" is a charm or votive tablet, the "marker" is drawn on these (typically not printed by handwriting; the same applies below), the name of the shrine, the imprint of the shrine, or the peculiarity of the shrine. It may be a mark or the like. For example, when the "object" is a building or a building, the "marker" may be a letter of the temple name written on them or a mark unique to the temple or a building or a building having a characteristic shape. It may be the object itself (whole) or a part thereof. Moreover, one object may include a plurality of markers. For example, when the “object” is a charm or votive tablet, the characters of the temple name, the imprint of the temple and the mark unique to the temple may be used as the “plurality of markers”. For example, when the "object" is a building or a building, the characters of the name of the temple and the marks unique to the temple and the building or the building itself (whole) or a part of which has a characteristic shape are " It may be a plurality of markers ”.

マーカ画像抽出部103は、物体画像OIからマーカMの画像であるマーカ画像MI(1又は複数)を抽出する(ステップS2)。   The marker image extraction unit 103 extracts the marker image MI (one or more) that is the image of the marker M from the object image OI (step S2).

記憶装置14は、データベース110を記憶する。データベース110は、1以上の寺社に関係する物体に含まれるマーカのマーカ画像111と、コンテンツ画像112とを、互いに関連付けて記憶する。「コンテンツ画像」とは、物体に関係する寺社に関係するコンテンツの画像である。実施例1で「寺社に関係するコンテンツ」とは、典型的には、寺社に固有のコンテンツである。「寺社に固有のコンテンツ」とは、例えば、寺社に固有のキャラクターの画像(2次元又は3次元の静止画又は動画)、寺社に固有の収蔵品の画像、寺社に関する解説等を示すテキストコンテンツ等か、あるいは、これらのうち少なくとも2つの組み合わせである。   The storage device 14 stores the database 110. The database 110 stores a marker image 111 of a marker included in an object related to one or more temples and shrines, and a content image 112 in association with each other. A "content image" is an image of content related to a shrine related to an object. In the first embodiment, “content related to temples and shrines” is typically content unique to temples and shrines. The "content peculiar to the shrine" is, for example, an image of a character peculiar to the shrine (two-dimensional or three-dimensional still image or moving image), an image of the collection peculiar to the shrine, text content showing explanations about the shrine, etc. Or, a combination of at least two of these.

データベース110は、マーカ画像111及びコンテンツ画像112と関連付けて、さらに、音声コンテンツを記憶してもよい。「音声コンテンツ」とは、例えば、寺社に関する解説等を示す音声情報又は効果音か、あるいは、これらのうち少なくとも2つの組み合わせである。データベース110において、同一の寺社に関係する物体に含まれる異なる複数のマーカのマーカ画像に関連付けられるコンテンツ画像及び/又は音声コンテンツは、同じでも異なってもよい。実施例1では、データベース110において、1つのマーカ画像に異なる複数のコンテンツ画像及び/又は音声コンテンツが関連付けられてもよい(この場合、フローを実行する度に、順に又はランダムに1つのコンテンツ画像及び/又は音声コンテンツを取得(後述のステップS3)すればよい)。   The database 110 may further store the audio content in association with the marker image 111 and the content image 112. The “voice content” is, for example, voice information or a sound effect indicating a commentary on a temple or shrine, or a combination of at least two of these. In the database 110, the content image and / or the audio content associated with the marker images of the plurality of different markers included in the object related to the same shrine may be the same or different. In the first embodiment, in the database 110, one marker image may be associated with a plurality of different content images and / or audio contents (in this case, one content image and one content image are sequentially or randomly generated each time the flow is executed. / Or obtain the audio content (step S3 described below).

コンテンツ取得部104は、データベース110から、マーカ画像抽出部103が抽出したマーカ画像MIに関連付けられたコンテンツ画像CIを取得する(読み出す)(ステップS3)。コンテンツ取得部104は、データベース110から、マーカ画像抽出部103が抽出したマーカ画像MIに関連付けられた音声コンテンツ(データベース110が音声コンテンツを記憶する場合)をさらに取得する(読み出す)。   The content acquisition unit 104 acquires (reads out) the content image CI associated with the marker image MI extracted by the marker image extraction unit 103 from the database 110 (step S3). The content acquisition unit 104 further acquires (reads out) the audio content (when the database 110 stores the audio content) associated with the marker image MI extracted by the marker image extraction unit 103 from the database 110.

重畳画像生成部105は、コンテンツ取得部104がデータベース110から読み出したコンテンツ画像CIを物体画像OIに重畳して重畳画像ARを生成する(ステップS4)。   The superimposed image generation unit 105 superimposes the content image CI read from the database 110 by the content acquisition unit 104 on the object image OI to generate a superimposed image AR (step S4).

コンテンツ画像CIの位置は、マーカ画像MIの位置に依存でもよい(例えば、マーカ画像MIが隠れるようにマーカ画像MIにコンテンツ画像CIを重畳する)。あるいは、コンテンツ画像CIの位置は、マーカ画像MIの位置に非依存でもよい(例えば、マーカ画像MIの位置に拘わらず、コンテンツ画像CIを常に重畳画像ARの中央に配置する)。   The position of the content image CI may depend on the position of the marker image MI (for example, the content image CI is superimposed on the marker image MI so that the marker image MI is hidden). Alternatively, the position of the content image CI may be independent of the position of the marker image MI (for example, the content image CI is always arranged in the center of the superimposed image AR regardless of the position of the marker image MI).

出力制御部106は、重畳画像生成部105が生成した重畳画像ARを表示装置17に表示する(所謂、拡張現実)(ステップS5)(図4のA3、B3)。出力制御部106は、コンテンツ取得部104がデータベース110から読み出した音声コンテンツがある場合には、音声コンテンツを音声出力装置18から出力する。   The output control unit 106 displays the superimposed image AR generated by the superimposed image generation unit 105 on the display device 17 (so-called augmented reality) (step S5) (A3 and B3 in FIG. 4). When there is audio content read from the database 110 by the content acquisition unit 104, the output control unit 106 outputs the audio content from the audio output device 18.

(2)実施例2(物体がおみくじの場合の動作例1)   (2) Example 2 (Operation example 1 when the object is an omikuji)

図5は、実施例2の動作例(物体がおみくじの場合の動作例1)を模式的に示す。   FIG. 5 schematically shows an operation example of the second embodiment (operation example 1 when the object is a fortuneteller).

実施例1と同様の内容は説明を省略し、異なる点を中心に説明する。   The description of the same contents as those of the first embodiment will be omitted, and different points will be mainly described.

物体画像取得部102は、寺社に関係する物体O(寺社で販売されるおみくじ)であって複数のマーカM1、M2、M3、M4を含む物体O(図5のC1)を、撮像装置19で経時的に撮像することにより生成した物体画像OIを取得する(ステップS1)。物体画像OIは、マーカM1、M2、M3、M4の画像であるマーカ画像MI1、MI2、MI3、MI4を含む(図5のC2)。「物体」がおみくじの場合、紙片に複数のマーカが描かれており(典型的には印刷)、おみくじのテキストコンテンツ(運勢等)は描かれていない。   The object image acquisition unit 102 uses the imaging device 19 to capture an object O (C1 in FIG. 5) that is an object O related to a shrine (fortune sold at the shrine) and that includes a plurality of markers M1, M2, M3, and M4. An object image OI generated by capturing images over time is acquired (step S1). The object image OI includes marker images MI1, MI2, MI3, MI4 that are images of the markers M1, M2, M3, M4 (C2 in FIG. 5). When the “object” is an omikuji, a plurality of markers are drawn on the paper piece (typically printing), and the text content (fortune, etc.) of the omikuji is not drawn.

「物体」が寺社で販売されるおみくじの場合、典型的には、複数のおみくじが複数の参拝者に販売される。おみくじ(物体O)が複数のマーカM1、M2、M3、M4を含む場合、複数のおみくじに描かれる複数のマーカの組み合わせは、それぞれ異なる。例えば、マーカM1、M2、M3、M4の位置に、それぞれ、5種類から選択したマーカを描く(印刷する)ことにより、625通り(=5×5×5×5)の組み合わせを含む複数の物体Oを製造することができる。   If the "object" is an omikuji sold at a shrine, multiple omikuji are typically sold to multiple worshipers. When the omikuji (object O) includes a plurality of markers M1, M2, M3, and M4, the combinations of the plurality of markers drawn on the plurality of omikuji are different. For example, by drawing (printing) markers selected from five types at the positions of the markers M1, M2, M3, and M4, a plurality of objects including 625 combinations (= 5 × 5 × 5 × 5) O can be produced.

マーカ画像抽出部103は、物体画像OIからマーカM1、M2、M3、M4の画像であるマーカ画像MI1、MI2、MI3、MI4を抽出する(ステップS2)。   The marker image extraction unit 103 extracts marker images MI1, MI2, MI3, MI4 which are images of the markers M1, M2, M3, M4 from the object image OI (step S2).

記憶装置14は、データベース110を記憶する。データベース110は、1つの物体に含まれる複数のマーカの複数のマーカ画像111と、物体に関係する寺社に関係するコンテンツの画像であって、それぞれ属性の異なる複数のコンテンツ画像112とを、互いに関連付けて記憶する。「物体」がおみくじの場合、「コンテンツ画像」とは、おみくじのテキストコンテンツ(運勢等を示すテキストコンテンツ)の画像を少なくとも含む。「物体」がおみくじの場合、データベース110は、1つの物体(おみくじ)に含まれる複数のマーカの複数のマーカ画像111と、それぞれ属性の異なる複数のコンテンツ画像112とを、互いに関連付けて記憶する。「属性」とは、「物体」がおみくじの場合、例えば、総合運、金運、恋愛運、学業運等である。本実施形態では、データベース110は、1つの物体O(おみくじ)に含まれる複数のマーカM1、M2、M3、M4の画像である複数のマーカ画像MI1、MI2、MI3、MI4と、それぞれ属性(総合運、金運、恋愛運、学業運)の異なる複数のコンテンツ画像とを、互いに関連付けて記憶する。言い換えれば、データベース110は、1つの物体O(おみくじ)に含まれるマーカM1のマーカ画像MI1と属性が総合運であるコンテンツ画像とを互いに関連付け、マーカM2のマーカ画像MI2と属性が金運であるコンテンツ画像とを互いに関連付け、マーカM3のマーカ画像MI3と属性が恋愛運であるコンテンツ画像とを互いに関連付け、マーカM4のマーカ画像MI4と属性が学業運であるコンテンツ画像とを互いに関連付けて記憶する。   The storage device 14 stores the database 110. The database 110 associates a plurality of marker images 111 of a plurality of markers included in one object with a plurality of content images 112 having different attributes, which are images of content related to a shrine related to the object. To remember. When the “object” is an omikuji, the “content image” includes at least an image of the text content of the omikuji (text content indicating fortune etc.). When the “object” is an omikuji, the database 110 stores a plurality of marker images 111 of a plurality of markers included in one object (omikuji) and a plurality of content images 112 each having a different attribute in association with each other. When the "object" is an omikuji, the "attribute" is, for example, total luck, money luck, love luck, academic luck, or the like. In the present embodiment, the database 110 has a plurality of marker images MI1, MI2, MI3, MI4, which are images of the plurality of markers M1, M2, M3, M4 included in one object O (fortune), and attributes (total). A plurality of content images of different luck, money luck, love luck, and academic luck are stored in association with each other. In other words, the database 110 associates the marker image MI1 of the marker M1 included in one object O (Omikuji) with the content image having the attribute of total luck, and the marker image MI2 of the marker M2 and the attribute of luck. The content image is associated with each other, the marker image MI3 of the marker M3 is associated with the content image whose attribute is love luck, and the marker image MI4 of the marker M4 and the content image whose attribute is academic luck are associated with each other and stored.

データベース110は、さらに、マーカ画像111及びコンテンツ画像112と関連付けて、さらに、音声コンテンツを記憶してもよい。「音声コンテンツ」とは、例えば、運勢等を示す音声情報又は効果音か、あるいは、これらの組み合わせである。   The database 110 may further store the audio content in association with the marker image 111 and the content image 112. The "voice content" is, for example, voice information or sound effects indicating fortune or the like, or a combination thereof.

マーカ画像抽出部103が全てのマーカ画像MI1、MI2、MI3、MI4を抽出したことをトリガとして、コンテンツ取得部104は、データベース110から、全てのマーカ画像MI1、MI2、MI3、MI4に関連付けられたコンテンツ画像CI1、CI2、CI3、CI4を取得する(読み出す)(ステップS3)。コンテンツ取得部104は、データベース110から、マーカ画像抽出部103が抽出したマーカ画像MI1、MI2、MI3、MI4に関連付けられた音声コンテンツ(データベース110が音声コンテンツを記憶する場合)をさらに取得する(読み出す)。   The content acquisition unit 104 is associated with all the marker images MI1, MI2, MI3, MI4 from the database 110, triggered by the marker image extraction unit 103 extracting all the marker images MI1, MI2, MI3, MI4. The content images CI1, CI2, CI3, CI4 are acquired (read out) (step S3). The content acquisition unit 104 further acquires (reads out) the audio content (when the database 110 stores the audio content) associated with the marker images MI1, MI2, MI3, and MI4 extracted by the marker image extraction unit 103 from the database 110. ).

重畳画像生成部105は、複数のマーカ画像MI1、MI2、MI3、MI4を含む物体画像OIに、読み出した複数のコンテンツ画像CI1、CI2、CI3、CI4を順に(所定の順序で)重畳して複数の重畳画像AR1、AR2、AR3、AR4を生成する(ステップS4)。出力制御部106は、複数の重畳画像AR1、AR2、AR3、AR4を順に(所定の順序で)表示装置17に経時的に表示する(ステップS5)。具体的には、以下の通りである。   The superposed image generation unit 105 superimposes the read plurality of content images CI1, CI2, CI3, CI4 on the object image OI including the plurality of marker images MI1, MI2, MI3, MI4 in order (in a predetermined order) to superimpose the plurality of content images CI1, CI2, CI3, CI4. The superimposed images AR1, AR2, AR3, and AR4 are generated (step S4). The output control unit 106 sequentially displays the plurality of superimposed images AR1, AR2, AR3, and AR4 on the display device 17 (in a predetermined order) (step S5). Specifically, it is as follows.

重畳画像生成部105は、コンテンツ取得部104がデータベース110から読み出したコンテンツ画像CI1を物体画像OIに重畳して重畳画像AR1を生成する(ステップS4)。出力制御部106は、重畳画像生成部105が生成した重畳画像AR1を表示装置17に表示する(所謂、拡張現実)(ステップS5)(図5のC3)。   The superimposed image generation unit 105 superimposes the content image CI1 read from the database 110 by the content acquisition unit 104 on the object image OI to generate a superimposed image AR1 (step S4). The output control unit 106 displays the superimposed image AR1 generated by the superimposed image generation unit 105 on the display device 17 (so-called augmented reality) (step S5) (C3 in FIG. 5).

所定時間(例えば、数秒〜数十秒)経過後又はユーザ操作をトリガとして、重畳画像生成部105は、コンテンツ取得部104がデータベース110から読み出したコンテンツ画像CI2を物体画像OIに重畳して重畳画像AR2を生成する(ステップS4)。出力制御部106は、重畳画像生成部105が生成した重畳画像AR2を表示装置17に表示する(所謂、拡張現実)(ステップS5)(図5のC4)。   After a lapse of a predetermined time (for example, several seconds to several tens of seconds) or triggered by a user operation, the superimposed image generation unit 105 superimposes the content image CI2 read from the database 110 by the content acquisition unit 104 on the object image OI and the superimposed image. AR2 is generated (step S4). The output control unit 106 displays the superimposed image AR2 generated by the superimposed image generation unit 105 on the display device 17 (so-called augmented reality) (step S5) (C4 in FIG. 5).

所定時間(例えば、数秒〜数十秒)経過後又はユーザ操作をトリガとして、重畳画像生成部105は、コンテンツ取得部104がデータベース110から読み出したコンテンツ画像CI3を物体画像OIに重畳して重畳画像AR3を生成する(ステップS4)。出力制御部106は、重畳画像生成部105が生成した重畳画像AR3を表示装置17に表示する(所謂、拡張現実)(ステップS5)(図5のC5)。   After a lapse of a predetermined time (for example, several seconds to several tens of seconds) or triggered by a user operation, the superimposed image generation unit 105 superimposes the content image CI3 read from the database 110 by the content acquisition unit 104 on the object image OI and the superimposed image. AR3 is generated (step S4). The output control unit 106 displays the superimposed image AR3 generated by the superimposed image generation unit 105 on the display device 17 (so-called augmented reality) (step S5) (C5 in FIG. 5).

所定時間(例えば、数秒〜数十秒)経過後又はユーザ操作をトリガとして、重畳画像生成部105は、コンテンツ取得部104がデータベース110から読み出したコンテンツ画像CI4を物体画像OIに重畳して重畳画像AR4を生成する(ステップS4)。出力制御部106は、重畳画像生成部105が生成した重畳画像AR4を表示装置17に表示する(所謂、拡張現実)(ステップS5)(図5のC6)。   After a lapse of a predetermined time (for example, several seconds to several tens of seconds) or triggered by a user operation, the superimposed image generation unit 105 superimposes the content image CI4 read from the database 110 by the content acquisition unit 104 on the object image OI and the superimposed image. AR4 is generated (step S4). The output control unit 106 displays the superimposed image AR4 generated by the superimposed image generation unit 105 on the display device 17 (so-called augmented reality) (step S5) (C6 in FIG. 5).

図5のように、コンテンツ画像CI1、CI2、CI3、CI4の位置は、マーカ画像MIの位置に非依存でもよい(例えば、コンテンツ画像CI1、CI2、CI3、CI4を、重畳画像ARの中央に配置する)。あるいは、コンテンツ画像CI1、CI2、CI3、CI4の位置は、マーカ画像MI1、MI2、MI3、MI4の位置に依存でもよい(例えば、マーカ画像MI1、MI2、MI3、MI4が隠れるようにマーカ画像MI1、MI2、MI3、MI4にコンテンツ画像CI1、CI2、CI3、CI4を重畳する)。   As shown in FIG. 5, the positions of the content images CI1, CI2, CI3, CI4 may be independent of the position of the marker image MI (for example, the content images CI1, CI2, CI3, CI4 are arranged in the center of the superimposed image AR). To). Alternatively, the positions of the content images CI1, CI2, CI3, CI4 may depend on the positions of the marker images MI1, MI2, MI3, MI4 (for example, the marker images MI1, MI2, MI3, MI4 are hidden such that the marker images MI1, MI2, MI3, MI4 are hidden). Content images CI1, CI2, CI3, CI4 are superimposed on MI2, MI3, MI4).

図5出力制御部106は、コンテンツ取得部104がデータベース110から読み出した音声コンテンツがある場合には、音声コンテンツを音声出力装置18から出力する。   The output control unit 106 in FIG. 5 outputs the audio content from the audio output device 18 when the content acquisition unit 104 has the audio content read from the database 110.

(3)実施例3(物体がおみくじの場合の動作例2)   (3) Example 3 (Operation example 2 when the object is an omikuji)

図6は、実施例3の動作例(物体がおみくじの場合の動作例2)を模式的に示す。   FIG. 6 schematically illustrates an operation example of the third embodiment (operation example 2 when the object is a fortuneteller).

実施例2と同様の内容は説明を省略し、異なる点を中心に説明する。実施例2では物体が複数のマーカを含むのに対し、実施例3では物体が1つのマーカを含む点が相違する。   The description of the same contents as in the second embodiment will be omitted, and the different points will be mainly described. In the second embodiment, the object includes a plurality of markers, whereas in the third embodiment, the object includes one marker.

物体画像取得部102は、寺社に関係する物体O(寺社で販売されるおみくじ)であって1つのマーカMを含む物体O(図6のD1)を、撮像装置19で経時的に撮像することにより生成した物体画像OIを取得する(ステップS1)。物体画像OIは、マーカMの画像であるマーカ画像MIを含む(図6のD2)。   The object image acquisition unit 102 causes the imaging device 19 to sequentially capture an image of an object O (Omikuji sold at the temple) that includes a marker M (D1 in FIG. 6) that is related to the temple. The object image OI generated by is acquired (step S1). The object image OI includes a marker image MI which is an image of the marker M (D2 in FIG. 6).

おみくじ(物体O)が1つのマーカMを含む場合、複数のおみくじに描かれるマーカは、それぞれ異なる。物体として、例えば数十から数百種類のマーカをそれぞれ描いた(印刷した)おみくじを製造すればよい。   When the omikuji (object O) includes one marker M, the markers drawn on the plurality of omikuji are different from each other. As an object, for example, a oracle for which tens to hundreds of kinds of markers are drawn (printed) may be manufactured.

マーカ画像抽出部103は、物体画像OIからマーカMの画像であるマーカ画像MIを抽出する(ステップS2)。   The marker image extraction unit 103 extracts the marker image MI which is the image of the marker M from the object image OI (step S2).

記憶装置14は、データベース110を記憶する。データベース110は、1つの物体に含まれる1つのマーカの1つのマーカ画像111と、物体に関係する寺社に関係するコンテンツの画像であって、それぞれ属性の異なる複数のコンテンツ画像112とを、互いに関連付けて記憶する。「物体」がおみくじの場合、データベース110は、1つの物体(おみくじ)に含まれる1つのマーカの1つのマーカ画像111と、それぞれ属性の異なる複数のコンテンツ画像112とを、互いに関連付けて記憶する。本実施形態では、データベース110は、1つの物体O(おみくじ)に含まれる1つのマーカMの画像である1つのマーカ画像MIと、それぞれ属性(総合運、金運、恋愛運、学業運)の異なる複数のコンテンツ画像とを、互いに関連付けて記憶する。言い換えれば、データベース110は、1つの物体O(おみくじ)に含まれる1つマーカMのマーカ画像MIと、それぞれ属性の異なる複数のコンテンツ画像(属性が総合運であるコンテンツ画像、属性が金運であるコンテンツ画像、属性が恋愛運であるコンテンツ画像及び属性が学業運であるコンテンツ画像)とを関連付けて記憶する。   The storage device 14 stores the database 110. The database 110 associates one marker image 111 of one marker included in one object with a plurality of content images 112, which are images of contents related to a shrine related to the object and have different attributes. To remember. When the “object” is an omikuji, the database 110 stores one marker image 111 of one marker included in one object (omikuji) and a plurality of content images 112 having different attributes, in association with each other. In the present embodiment, the database 110 has one marker image MI, which is an image of one marker M included in one object O (fortune), and attributes (general luck, money luck, love luck, academic luck), respectively. A plurality of different content images are stored in association with each other. In other words, the database 110 includes a marker image MI of one marker M included in one object O (Omikuji) and a plurality of content images having different attributes (a content image having an attribute of total luck and an attribute of good luck). A certain content image, a content image whose attribute is love luck, and a content image whose attribute is academic luck are stored in association with each other.

コンテンツ取得部104は、マーカ画像抽出部103がマーカ画像MIを抽出したことをトリガとして、データベース110から、マーカ画像MIに関連付けられたコンテンツ画像CI1、CI2、CI3、CI4を取得する(読み出す)(ステップS3)。   The content acquisition unit 104 acquires (reads out) the content images CI1, CI2, CI3, CI4 associated with the marker image MI from the database 110, triggered by the marker image extraction unit 103 extracting the marker image MI. Step S3).

重畳画像生成部105は、1つのマーカ画像MIを含む物体画像OIに、読み出した複数のコンテンツ画像CI1、CI2、CI3、CI4を順に(所定の順序で)重畳して複数の重畳画像AR1、AR2、AR3、AR4を生成する(ステップS4)。出力制御部106は、複数の重畳画像AR1、AR2、AR3、AR4を順に(所定の順序で)表示装置17に経時的に表示する(所謂、拡張現実)(ステップS5)(図6のD3、D4、D5及びD6)。   The superimposed image generation unit 105 sequentially superimposes the read plurality of content images CI1, CI2, CI3, CI4 on the object image OI including one marker image MI (in a predetermined order) to generate a plurality of superimposed images AR1, AR2. , AR3, AR4 are generated (step S4). The output control unit 106 sequentially displays the plurality of superimposed images AR1, AR2, AR3, and AR4 on the display device 17 sequentially (in a predetermined order) (so-called augmented reality) (step S5) (D3 in FIG. 6, D4, D5 and D6).

4.変形例   4. Modification

(1)変形例1   (1) Modification 1

上記実施形態では、モバイルデバイス10の記憶装置14は、サーバー装置20からダウンロードしたデータベース110を記憶し、コンテンツ取得部104は、データベース110からコンテンツ画像及び音声コンテンツを取得した(読み出した)。これに替えて、モバイルデバイス10はデータベース110を記憶せず、代わりにサーバー装置20がデータベース110を記憶してもよい。その場合、コンテンツ取得部104は、ネットワークNを介して、抽出したマーカ画像をサーバー装置20に通知し、通知したマーカ画像に関連付けられたコンテンツ画像及び音声コンテンツのみを、サーバー装置20から取得(ダウンロード)してもよい。   In the above embodiment, the storage device 14 of the mobile device 10 stores the database 110 downloaded from the server device 20, and the content acquisition unit 104 acquires (read out) the content image and the audio content from the database 110. Alternatively, the mobile device 10 may not store the database 110, and the server device 20 may store the database 110 instead. In that case, the content acquisition unit 104 notifies the server device 20 of the extracted marker image via the network N, and acquires (downloads) only the content image and audio content associated with the notified marker image from the server device 20. ) May be.

しかしながら、アプリケーションプログラムのユーザーが境内に居る参拝客である場合、参拝客が携帯するモバイルデバイス10はオフラインである可能性がある。変形例1の方法では、モバイルデバイス10は、オンラインでなければ、ネットワークNを介して、抽出したマーカ画像をサーバー装置20に通知し、通知したマーカ画像に関連付けられたコンテンツ画像及び音声コンテンツのみを、サーバー装置20から取得(ダウンロード)することができない。これに対して、上記実施形態では、モバイルデバイス10の記憶装置14は、サーバー装置20からダウンロードしたデータベース110を記憶するので、モバイルデバイス10がオフラインであっても、処理を実行することができる点において有利である。   However, when the user of the application program is a worshiper who is in the precincts, the mobile device 10 carried by the worshiper may be offline. In the method of the first modification, the mobile device 10 notifies the server device 20 of the extracted marker image via the network N if not online, and only the content image and the audio content associated with the notified marker image are displayed. , Cannot be acquired (downloaded) from the server device 20. On the other hand, in the above embodiment, the storage device 14 of the mobile device 10 stores the database 110 downloaded from the server device 20, so that the process can be executed even when the mobile device 10 is offline. Is advantageous in.

(2)変形例2   (2) Modification 2

上記実施例1では、「寺社に関係する物体」は、例えば、寺社が提供(販売等)する御守若しくは絵馬又は寺社の境内に存在する建築物若しくは建造物を含む、とした。これに替えて、「寺社に関係する物体」は、朱印でもよい。本変形例で「朱印」とは、参拝者が所有する朱印帳に含まれる1頁の紙であって、寺社固有の印影が押印され且つ寺社固有の文字列が手書きされた1頁の紙を意味する。「物体」が朱印である場合、「マーカ」は、朱印帳に押印された印影及び/又は手書きされた文字列(寺社名の文字等)とすればよい。   In the first embodiment, the “object related to the shrine” includes, for example, an amulet or votive tablet provided by the shrine (sale, etc.) or a building or structure existing in the precincts of the shrine. Alternatively, the "object related to the shrine" may be a red stamp. In this modified example, "red stamp" is a page of paper included in a red stamp book owned by a worshiper, and a page of paper with a stamp imprint unique to the temple and handwritten with a character string unique to the temple. means. When the “object” is a red stamp, the “marker” may be a stamp imprinted on the red stamp book and / or a handwritten character string (such as the name of a temple or shrine).

5.結語   5. Conclusion

第1に、本実施形態によれば、図4のA1、A2及びA3に示すように、マーカを含む「物体」は、寺社が提供(販売等)する御守又は絵馬を含む。これにより、参拝者は、寺社固有の御守又は絵馬の画像に寺社固有のコンテンツ画像を重畳した重畳画像を、拡張現実として鑑賞することができる。   First, according to the present embodiment, as shown in A1, A2, and A3 of FIG. 4, the “object” including the marker includes an amulet or a votive tablet provided (sales etc.) by the shrine. As a result, the worshiper can view the superimposed image in which the image of the guardian or votive tablet unique to the temple and the content image unique to the temple are superimposed as augmented reality.

ところで、変形例2のように、「マーカ」が朱印帳に押印された印影である場合、しばしば、手書きの文字列等に重畳して印影が押印されることがある。印影が文字列等に重畳されると、マーカ画像抽出部103は、物体画像からマーカ画像(印影の画像)を抽出する(ステップS2)のに失敗するおそれがある。また、「マーカ」が朱印帳に手書きされた文字列(寺社名の文字等)である場合、手書きする寺社スタッフによって(あるいはスタッフが1人だとしても)、書体等が異なることがある。文字列の書体等が異なると、マーカ画像抽出部103は、物体画像からマーカ画像(印影の画像)を抽出する(ステップS2)のに失敗するおそれがある。   By the way, when the “marker” is the imprint imprinted on the red stamp book as in the second modification, the imprint is often imprinted on the handwritten character string or the like. When the seal imprint is superimposed on the character string or the like, the marker image extraction unit 103 may fail to extract the marker image (image of the seal imprint) from the object image (step S2). In addition, when the “marker” is a character string handwritten on a red stamp book (text of the temple name, etc.), the typeface etc. may differ depending on the temple staff who is handwriting (or even if there is only one staff member). If the typeface of the character string is different, the marker image extraction unit 103 may fail to extract the marker image (image of the imprint) from the object image (step S2).

これに対して、本実施形態によれば、図4のA1、A2及びA3に示すように、マーカを含む「物体」は、寺社が提供(販売等)する御守又は絵馬を含む。マーカ画像抽出部103が物体画像からマーカ画像を確実に抽出する(ステップS2)には、「物体」が含むマーカは、他のオブジェクトに重畳され得ず、且つ、マーカに固体差が発生し得ない(少なくとも発生しにくい)ように、明瞭なオブジェクトであることが望ましい。御守又は絵馬は、機械的に量産される。このため、他のオブジェクトに重畳され得ず、且つ、マーカに固体差が発生し得ない(少なくとも発生しにくい)ような明瞭なオブジェクトであるマーカを含む御守又は絵馬を容易に量産することができる。   On the other hand, according to the present embodiment, as shown in A1, A2, and A3 of FIG. 4, the “object” including the marker includes an amulet or a votive tablet provided (sales etc.) by the shrine. In order for the marker image extraction unit 103 to reliably extract the marker image from the object image (step S2), the marker included in the "object" cannot be superimposed on another object, and the individual difference can occur in the marker. A clear object is desirable so that it is not (or at least hard to occur). Amulets or votive tablets are mechanically mass-produced. Therefore, it is possible to easily mass-produce an amulet or votive panel that includes a marker that is a clear object that cannot be superimposed on other objects and that does not allow individual differences in markers (at least unlikely to occur). it can.

第2に、本実施形態によれば、図4のB1、B2及びB3に示すように、マーカを含む「物体」は、寺社の境内に存在する建築物又は建造物を含む。この場合、「マーカ」は、建築物又は建造物に表記された寺社名の文字又は寺社固有のマークとすればよく、あるいは、形状が特徴的な建築物又は建造物自体(全体)又はその一部としてもよい。これにより、境内に居る参拝者は、リアルタイムで経時的に表示される境内の画像(動画)に寺社固有のコンテンツ画像を重畳した重畳画像を、拡張現実として鑑賞することができる。   Secondly, according to the present embodiment, as shown by B1, B2, and B3 in FIG. 4, the “object” including the marker includes a building or a building existing in the temple grounds. In this case, the “marker” may be the name of the temple or shrine written on the building or the building, or a mark unique to the temple or the building, or the building itself (whole) or its one that has a characteristic shape. It may be part. As a result, the worshipers in the precinct can view the superimposed image in which the content image peculiar to the shrine is superimposed on the image (moving image) of the precinct displayed in real time over time as augmented reality.

本実施形態によれば、図4のB1、B2及びB3に示すように、適切なコンテンツ画像を取得するのに、マーカと、マーカ画像及びコンテンツ画像とを関連付けて記憶するデータベースとを使用した。これに替えて、コンテンツ画像を取得するのに、GPSを使用することが考えられる。例えば、サーバー装置20は、寺社が存在するロケーションのGPS位置情報と、その寺社固有のコンテンツ画像とを関連付けて記憶するデータベースを有する。境内に居る参拝者が携帯するモバイルデバイス10は、GPS信号を受信可能である。モバイルデバイス10が、モバイルデバイス10(境内に存在する)のロケーションのGPS位置情報をサーバー装置20に送信する。サーバー装置20は、受信したGPS位置情報に関連付けられたコンテンツ画像をデータベースから読み出す。サーバー装置20は、読み出したコンテンツ画像をモバイルデバイス10に送信する。モバイルデバイス10は、コンテンツ画像を受信し、コンテンツ画像をもとに生成した重畳画像を表示する(拡張現実)。   According to the present embodiment, as shown in B1, B2, and B3 of FIG. 4, the marker and the database that stores the marker image and the content image in association with each other are used to acquire the appropriate content image. Instead, it is conceivable to use GPS to acquire the content image. For example, the server device 20 has a database that stores the GPS position information of the location where the shrine exists and the content image unique to the shrine in association with each other. The mobile device 10 carried by a worshiper in the precinct can receive GPS signals. The mobile device 10 transmits the GPS position information of the location of the mobile device 10 (existing in the precinct) to the server device 20. The server device 20 reads the content image associated with the received GPS position information from the database. The server device 20 transmits the read content image to the mobile device 10. The mobile device 10 receives the content image and displays the superimposed image generated based on the content image (augmented reality).

しかしながら、GPS位置情報を使用した方法では、以下の様な問題が発生するおそれがある。例えば、モバイルデバイス10のGPS位置情報が不正確(わずかにずれる等)になるおそれがある。その場合、寺社が密集した地域(京都等)では、モバイルデバイス10のロケーションのGPS位置情報が、実際にモバイルデバイス10が存在する寺社のロケーションを示すものでなく、例えば、その寺社の至近に存在する別の寺社のロケーションを示すおそれがある。そうすると、サーバー装置20は、モバイルデバイス10から受信したGPS位置情報(別の寺社のロケーションを示す)に関連付けられたコンテンツ画像(別の寺社固有のコンテンツ画像)をデータベースから読み出す。その結果、モバイルデバイス10は、サーバー装置20から、別の寺社固有のコンテンツ画像を受信し、別の寺社固有のコンテンツ画像をもとに生成した重畳画像を表示してしまう。   However, the method using the GPS position information may cause the following problems. For example, the GPS position information of the mobile device 10 may be incorrect (slightly shifted, etc.). In that case, in an area where the temples and shrines are densely located (Kyoto, etc.), the GPS location information of the location of the mobile device 10 does not indicate the location of the temple or shrine where the mobile device 10 actually exists, but exists near the temple or shrine, for example. May indicate the location of another shrine. Then, the server device 20 reads from the database the content image (content image unique to another shrine) associated with the GPS position information (indicating the location of another shrine) received from the mobile device 10. As a result, the mobile device 10 receives the content image unique to another temple and shrine from the server device 20, and displays the superimposed image generated based on the content image unique to another temple and shrine.

これに対して、本実施形態によれば、図4のB1、B2及びB3に示すように、寺社固有のマーカと、マーカ画像111及びコンテンツ画像112を関連付けて記憶するデータベース110とを使用するので、適切なロケーションのコンテンツ画像(寺社に固有のコンテンツ画像)を確実に取得することができる。   On the other hand, according to the present embodiment, as shown by B1, B2, and B3 in FIG. 4, the temple-specific marker and the database 110 that stores the marker image 111 and the content image 112 in association with each other are used. , A content image at a proper location (content image unique to a temple or shrine) can be reliably acquired.

また、寺社は、境内の建築物又は建造物等が文化財に指定されていることがあるため、また、荘厳な雰囲気を壊さぬため、例えば、寺社に固有のキャラクターの人形等を物理的に境内に配置したり、あるいは、マーカの用途のためだけの物体を物理的に境内に配置すべきでないことがある。これに対して、本実施形態によれば、図4のB1、B2及びB3に示すように、「マーカ」は、建築物又は建造物に表記された寺社名の文字又は寺社固有のマークとすればよく、あるいは、形状が特徴的な建築物又は建造物自体(全体)又はその一部としてもよい。このため、寺社に固有のキャラクターの人形等を物理的に境内に配置したり、あるいは、マーカの用途のためだけの物体を物理的に境内に配置することなく、参拝者は、拡張現実として、モバイルデバイス10に表示されたコンテンツを境内に居ながら鑑賞することができる。   In addition, since temples and shrines may be designated as cultural assets, and to keep the majestic atmosphere from being destroyed, for example, the dolls of characters unique to the temple are physically It may not be placed in the precincts, or an object just for marker use should not be physically placed in the precincts. On the other hand, according to the present embodiment, as shown in B1, B2, and B3 of FIG. 4, the “marker” is a character of the temple or shrine name written on the building or the building or a mark unique to the temple or shrine. Alternatively, it may be a building or a building itself (whole) or a part thereof having a characteristic shape. For this reason, worshipers do not have to physically place dolls or the like of the characters peculiar to the temples or shrines in the precincts, or physically place objects only for the purpose of the marker in the precincts, as an augmented reality. The content displayed on the mobile device 10 can be viewed while in the precinct.

第3に、本実施形態によれば、図5及び図6に示すように、マーカを含む「物体」は、おみくじである。おみくじ(物体)が複数のマーカを含む場合、複数のおみくじに描かれる複数のマーカの組み合わせは、それぞれ異なる。おみくじ(物体)が1つのマーカを含む場合も、同様に、複数のおみくじに描かれるマーカは異なる。データベース110は、複数の異なるマーカのマーカ画像と、複数のコンテンツ画像とを、それぞれ互いに関連付けて記憶する。これにより、重畳画像として表示されるコンテンツ画像(運勢等を示すテキストコンテンツの画像)が、複数のおみくじ毎に異なることとなる。これにより、参拝者は、典型的なおみくじと同様のコンテンツのコンテンツ画像を重畳した重畳画像を、拡張現実として鑑賞することができる。   Thirdly, according to the present embodiment, as shown in FIGS. 5 and 6, the “object” including the marker is a fortune. When the fortune (object) includes a plurality of markers, the combinations of the plurality of markers drawn on the plurality of fortunes are different from each other. Similarly, when an omikuji (object) includes one marker, the markers drawn on a plurality of omikuji are different. The database 110 stores a plurality of marker images of different markers and a plurality of content images in association with each other. As a result, the content image displayed as the superimposed image (the image of the text content indicating the fortune, etc.) is different for each of the plurality of lottery tickets. Thereby, the worshiper can appreciate the superimposed image in which the content image of the content similar to that of a typical fortune is superimposed as augmented reality.

ところで、複数のおみくじ毎に異なるコンテンツ画像を表示するための方法として、以下の方法が考えられる。例えば、複数の紙片に全て同一のマーカを描く(印刷する)ことにより、物体として、全て同一の複数のおみくじを製造する。モバイルデバイス10は、ネットワークNを介して、物体画像から抽出した1つのマーカ画像又は複数のマーカ画像の組み合わせ(複数のおみくじに対して全て同一)をサーバー装置20に通知する。サーバー装置20は、複数(例えば、数十から数百)種類のコンテンツ画像(運勢等を示すテキストコンテンツの画像)を保持する。サーバー装置20は、マーカ画像の通知を受けると、所定の順に又はランダムにコンテンツ画像を選択する。モバイルデバイス10は、サーバー装置20が選択したコンテンツ画像を、サーバー装置20から取得(ダウンロード)する。   By the way, the following method can be considered as a method for displaying a different content image for each of a plurality of lottery tickets. For example, by drawing (printing) the same markers on a plurality of pieces of paper, a plurality of all the same lotteries are manufactured as objects. The mobile device 10 notifies the server device 20 via the network N of one marker image extracted from the object image or a combination of a plurality of marker images (all the same for a plurality of fortune-telling). The server device 20 holds a plurality of (for example, tens to hundreds) types of content images (text content images indicating fortune). Upon receiving the notification of the marker image, the server device 20 selects the content image in a predetermined order or randomly. The mobile device 10 acquires (downloads) the content image selected by the server device 20 from the server device 20.

しかしながら、この方法では、1つのおみくじに対して異なる複数のコンテンツ画像が表示されるため、ユーザーがあるコンテンツ(運勢等)に満足できない場合等に、もう1度アプリを実行すれば、今度は別のコンテンツ(運勢等)が表示されることとなる。これでは、ユーザーがあるコンテンツ(運勢等)に満足できない場合等に、もう1度おみくじを購入しないで済んでしまう。   However, with this method, different content images are displayed for one omikuji, so if the user is not satisfied with a certain content (fortune, etc.) Content (fortune, etc.) will be displayed. In this way, if the user is not satisfied with a certain content (fortune, etc.), he / she will not have to purchase the omikuji again.

これに対して、本実施形態によれば、図5及び図6に示すように、おみくじ(物体)が複数のマーカを含む場合、複数のおみくじに描かれる複数のマーカの組み合わせは、それぞれ異なる。おみくじ(物体)が1つのマーカを含む場合も、同様に、複数のおみくじに描かれるマーカは異なる。実施例2及び実施例3によれば、1つのおみくじに対して特定のコンテンツ画像が表示される。このため、ユーザーがあるコンテンツ(運勢等)に満足できない場合等に、もう1度アプリを実行しても、同じコンテンツ(運勢等)が表示されることとなる。このため、ユーザーがあるコンテンツ(運勢等)に満足できない場合等に、もう1度おみくじを購入することを促すことができる。おみくじは、機械的に量産される。このため、それぞれ異なる複数のマーカの組み合わせを含む(おみくじが複数のマーカを含む場合)、あるいは、それぞれ異なるマーカを含む(おみくじが1つのマーカを含む場合)、数十から数百種類のおみくじを容易に量産することができる。   On the other hand, according to the present embodiment, as shown in FIGS. 5 and 6, when the omikuji (object) includes a plurality of markers, the combinations of the plurality of markers drawn on the plurality of omikuji are different. Similarly, when an omikuji (object) includes one marker, the markers drawn on a plurality of omikuji are different. According to the second and third embodiments, a specific content image is displayed for one omikuji. Therefore, when the user is not satisfied with a certain content (fortune, etc.), the same content (fortune, etc.) will be displayed even if the application is executed again. Therefore, when the user is not satisfied with a certain content (fortune, etc.), it is possible to encourage the user to purchase the omikuji again. Omikuji are mechanically mass-produced. For this reason, dozens to hundreds of types of fortune are included that include a combination of different markers (when the fortune includes multiple markers) or each include different markers (when the fortune includes one marker). It can be easily mass-produced.

本技術の各実施形態及び各変形例について上に説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   Although each embodiment and each modified example of the present technology have been described above, the present technology is not limited to the above-described embodiments, and various modifications may be made without departing from the scope of the present technology. Of course.

モバイルデバイス10、アプリ起動部101、物体画像取得部102、マーカ画像抽出部103、コンテンツ取得部104、重畳画像生成部105、出力制御部106。   Mobile device 10, application activation unit 101, object image acquisition unit 102, marker image extraction unit 103, content acquisition unit 104, superimposed image generation unit 105, output control unit 106.

Claims (2)

情報処理装置の制御回路を、
寺社に関係するおみくじ、御守若しくは絵馬又は建築物若しくは建造物を含む物体であってマーカを含む前記物体を、撮像装置で経時的に撮像することにより生成した物体画像を取得する物体画像取得部と、
前記物体画像から前記マーカの画像であるマーカ画像を抽出するマーカ画像抽出部と、
1以上の寺社に関係する物体に含まれるマーカのマーカ画像と、前記物体に関係する寺社に関係するコンテンツの画像であるコンテンツ画像とを、互いに関連付けて記憶するデータベースから、抽出した前記マーカ画像に関連付けられたコンテンツ画像を取得するコンテンツ取得部と、
前記マーカの画像を含む前記物体画像に、読み出した前記コンテンツ画像を重畳して重畳画像を生成する重畳画像生成部と、
前記重畳画像を前記表示装置に経時的に表示する出力制御部
として動作させるアプリケーションプログラム。
The control circuit of the information processing device,
An object image acquisition unit that acquires an object image generated by temporally capturing the object including a marker, which is an object including a sacred lot, amulet or votive tablet related to a temple or shrine, or a building or a building, with a marker. When,
A marker image extraction unit that extracts a marker image that is an image of the marker from the object image,
A marker image extracted from a database that stores marker images of markers included in one or more objects related to shrines and content images that are images of content related to temples related to the objects in association with each other. A content acquisition unit for acquiring the associated content image,
A superimposed image generation unit that generates a superimposed image by superimposing the read content image on the object image including the image of the marker,
An application program that operates as an output control unit that displays the superimposed image on the display device over time.
請求項1に記載のアプリケーションプログラムであって、
前記物体は1又は複数のマーカを含み、
前記マーカ画像抽出部は、前記1又は複数のマーカの画像である1又は複数のマーカ画像を抽出し、
前記データベースは、1つの物体に含まれる1又は複数のマーカの1又は複数のマーカ画像と、それぞれ属性の異なる複数のコンテンツ画像とを、互いに関連付けて記憶し、
前記コンテンツ取得部は、前記データベースから、
抽出した前記1又は複数のマーカ画像に関連付けられた、それぞれ属性の異なる1又は複数のコンテンツ画像を取得し、
前記重畳画像生成部は、前記1又は複数のマーカの画像を含む前記物体画像に、読み出した前記複数のコンテンツ画像を順に重畳して複数の重畳画像を生成し、
前記出力制御部は、前記複数の重畳画像を順に前記表示装置に経時的に表示する
アプリケーションプログラム。
The application program according to claim 1, wherein
The object includes one or more markers,
The marker image extraction unit extracts one or more marker images, which are images of the one or more markers,
The database stores one or more marker images of one or more markers included in one object and a plurality of content images each having a different attribute in association with each other,
The content acquisition unit, from the database,
Acquiring one or a plurality of content images each having a different attribute, which is associated with the extracted one or a plurality of marker images,
The superimposed image generation unit generates a plurality of superimposed images by sequentially superimposing the read plurality of content images on the object image including the image of the one or more markers,
The output control unit is an application program that sequentially displays the plurality of superimposed images on the display device over time.
JP2018192742A 2018-10-11 2018-10-11 Application program Pending JP2020058658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192742A JP2020058658A (en) 2018-10-11 2018-10-11 Application program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192742A JP2020058658A (en) 2018-10-11 2018-10-11 Application program

Publications (1)

Publication Number Publication Date
JP2020058658A true JP2020058658A (en) 2020-04-16

Family

ID=70220548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192742A Pending JP2020058658A (en) 2018-10-11 2018-10-11 Application program

Country Status (1)

Country Link
JP (1) JP2020058658A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416500B1 (en) 2022-11-18 2024-01-17 合同会社Straid Information systems and communication terminals

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416500B1 (en) 2022-11-18 2024-01-17 合同会社Straid Information systems and communication terminals

Similar Documents

Publication Publication Date Title
US11182609B2 (en) Method and apparatus for recognition and matching of objects depicted in images
CN109690632B (en) System and method for enabling computer simulated reality interactions between a user and a publication
CN103620600B (en) Method and apparatus for enabling virtual tags
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
US10026229B1 (en) Auxiliary device as augmented reality platform
US9082053B2 (en) Code pattern comprising information deciphered by digital device and operating system for same
CN104461318B (en) Reading method based on augmented reality and system
Brown Gandhi's spinning wheel and the making of India
US20170186235A1 (en) Augmented reality system
JP5983540B2 (en) Medium or function identification method and program, article including marker, and marker arrangement method
US9607094B2 (en) Information communication method and information communication apparatus
JP2020058658A (en) Application program
Vandertop The colonies in concrete: Walter Benjamin, urban form and the dreamworlds of empire
TW201126451A (en) Augmented-reality system having initial orientation in space and time and method
WO2022262389A1 (en) Interaction method and apparatus, computer device and program product, storage medium
Ezell Multimodal literacies, late seventeenth-century English illustrated broadsheets, and graphic narratives
Williams Collecting the revolution: British engagements with Chinese Cultural Revolution material culture
CN114328998A (en) Display method and device, computer equipment and storage medium
US10475245B2 (en) Providing folding patterns for creating augmented reality target objects
CN113345110A (en) Special effect display method and device, electronic equipment and storage medium
CN111625103A (en) Sculpture display method and device, electronic equipment and storage medium
JP6641454B1 (en) Terminal device and program
JP7349190B2 (en) Advertising media, advertising media sets and computer programs
US11568608B2 (en) Augmented reality display device and program recording medium
JP6989994B1 (en) Information processing equipment, information processing methods and information processing programs