JP6293020B2 - Character cooperation application device - Google Patents

Character cooperation application device Download PDF

Info

Publication number
JP6293020B2
JP6293020B2 JP2014172623A JP2014172623A JP6293020B2 JP 6293020 B2 JP6293020 B2 JP 6293020B2 JP 2014172623 A JP2014172623 A JP 2014172623A JP 2014172623 A JP2014172623 A JP 2014172623A JP 6293020 B2 JP6293020 B2 JP 6293020B2
Authority
JP
Japan
Prior art keywords
target
user
character
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014172623A
Other languages
Japanese (ja)
Other versions
JP2016047085A (en
Inventor
栂坂 昌業
昌業 栂坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techno Craft Co Ltd
Original Assignee
Techno Craft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techno Craft Co Ltd filed Critical Techno Craft Co Ltd
Priority to JP2014172623A priority Critical patent/JP6293020B2/en
Publication of JP2016047085A publication Critical patent/JP2016047085A/en
Application granted granted Critical
Publication of JP6293020B2 publication Critical patent/JP6293020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザーが保有する携帯機器に組み込まれ、画像読取手段により読取られたキャラクター画像に応じて、携帯機器の各部を制御するキャラクター連携アプリケーション装置に関する。   The present invention relates to a character cooperation application apparatus that is incorporated in a mobile device owned by a user and controls each part of the mobile device in accordance with a character image read by an image reading unit.

従来、この携帯機器に組み込まれるキャラクター連携アプリケーション装置として、例えば特許文献1には、ゲームプレイヤーにより入力された「名前」や、「生年月日」や、「性別」や、「血液型」や、「出身地」などの入力データと、GPS衛星から取得した位置データとに基づき、各地に潜んでいる妖怪(妖怪データ)の捕獲結果を、携帯機器の表示ディスプレイに文字や画像で表示させるゲーム装置が開示されている。またここでは、妖怪データに代わるものとして、所定の範囲に宝物(宝物データ)を隠し、この隠された宝物データをゲームプレイヤーが表示ディスプレイの地図情報を見ながら、GPS衛星から取得した位置データを用いつつ探し出す考えも提示されている。   Conventionally, as a character cooperation application device incorporated in this portable device, for example, in Patent Document 1, “name”, “birth date”, “sex”, “blood type” input by a game player, Based on input data such as “Birthplace” and position data acquired from GPS satellites, a game device that displays capture results of monsters (monster data) lurking in various places on a display display of a mobile device as characters or images Is disclosed. Here, as an alternative to the monster data, the treasure (treasure data) is hidden in a predetermined range, and the position data acquired from the GPS satellite is displayed while the game player looks at the map information on the display display. The idea of finding out while using it is also presented.

特開2000−126464号公報JP 2000-126464 A

上記特許文献1の技術では、ゲーム装置を構成する制御処理手段が、入力データや位置データを参考にしてゲームプログラムとなる処理手順を進行させ、その途中で妖怪キャラクターや宝物データを表示ディスプレイに表示させる制御を行なっている。しかし、ゲームプログラムの進行は、あくまでもゲームプレイヤーであるユーザー自身の個人的な入力データや、携帯機器の現在位置を示す位置データに依存しており、例えばユーザーが興味を持った妖怪キャラクターについて、ユーザー自身の意志でその妖怪キャラクターに関するゲームプログラムを進行させることができない、という使用上の物足りなさがあった。   In the technique of the above-mentioned Patent Document 1, the control processing means constituting the game device advances the processing procedure that becomes a game program with reference to input data and position data, and displays a monster character and treasure data on the display in the middle of the processing procedure. Control is performed. However, the progress of the game program depends solely on the personal input data of the user who is the game player and the position data indicating the current position of the mobile device. For example, for the monster character that the user is interested in, the user There was an unsatisfactory use that the game program related to the monster character could not be progressed by his own will.

そこで、本発明は上記問題点に鑑み、ユーザー自身の意志で興味のあるキャラクターに基づく処理手順の進行を可能にするキャラクター連携アプリケーション装置を提供することを主な目的とする。   Therefore, in view of the above problems, the main object of the present invention is to provide a character cooperation application device that enables a processing procedure based on a character that is of interest to the user to proceed.

本発明は、ユーザーが保有する携帯機器を用いたキャラクター連携アプリケーション装置であって、前記携帯機器に備えた撮影手段からの画像信号を取り込み、その画像信号が特定のキャラクター撮影物に対応したものであるか否かを判定する画像認識手段と、前記特定のキャラクター撮影物に対応したターゲット位置情報を保存する記憶手段と、前記画像信号が特定のキャラクター撮影物に対応したものであると前記画像認識手段が判定した時に、その特定のキャラクター撮影物に関連付けた個別の処理手順を進行させる制御処理手段と、を備え、前記制御処理手段は、前記携帯機器に備えた位置検出手段からの位置データが、前記記憶手段から読み出した前記ターゲット位置情報に向かうように、前記位置データを含む地図情報に、前記特定のキャラクター撮影物に関連するキャラクター表示体と、前記ターゲット位置情報の存在する方向を示すターゲット方向表示体とを重ね合わせて、前記携帯機器に備えた表示手段に表示させる構成としたことを特徴とする。 The present invention is a character cooperation application device using a portable device owned by a user, which captures an image signal from a photographing means provided in the portable device, and the image signal corresponds to a specific character photographed object. Image recognition means for determining whether or not there is storage means for storing target position information corresponding to the specific character photographed object, and image recognition that the image signal corresponds to a specific character photographed object Control processing means for proceeding with individual processing procedures associated with the specific character photographed object when the means determines, and the control processing means receives position data from the position detection means provided in the portable device. , The map information including the position data so as to go to the target position information read from the storage means, Features and character display body associated with a constant character shooting object and superposing the presence target direction display member showing the direction of the target position information, that it has a structure to be displayed on the display means provided in the portable device And

請求項1の発明によれば、ユーザーが携帯機器の撮影手段を利用して、ユーザーが興味を示した特定のキャラクター撮影物を直接撮影するだけで、その特定のキャラクター撮影物に関連付けたゲームプログラムなどの処理手順を、キャラクター毎に個別で進行させることが可能になる。そのため、単純なバーコードや二次元コードでの認識では、ユーザーの興味が削がれてしまうが、複数のキャラクター撮影物の中から特定のキャラクター撮影物を選択して認識させるようにすれば、ユーザーの興味が削がれることはなく、ユーザー自身の意志で興味のあるキャラクターに基づく処理手順の進行を可能にするキャラクター連携アプリケーション装置を提供できる。   According to the first aspect of the present invention, a game program associated with a specific character photographed object by directly photographing a specific character photographed object in which the user has shown interest using the photographing means of the portable device. It is possible to proceed with the processing procedure such as for each character individually. Therefore, recognition with a simple barcode or two-dimensional code will reduce the user's interest, but if you select and recognize a specific character shoot from multiple character shoots, It is possible to provide a character cooperation application device that allows a user to proceed with a processing procedure based on a character that is interested in the user's own will without losing interest.

また、特定のキャラクター撮影物を撮影手段から読み込ませるだけで、ユーザー自身の位置を含む地図表示体に、キャラクター表示体やターゲット方向表示体を重ね合わせて、携帯機器に備えた表示手段から効果的に表示することができる。そのためユーザーは、特定のキャラクター撮影物が示す場所を、恰も宝探しに参加するように手軽に目指すことが可能となり、キャラクターに連動した地域振興の効果を高めることができる。 In addition , by simply loading a specific character photographed object from the photographing means, the character display object and the target direction display object are superimposed on the map display object including the user's own position, and effective from the display means provided in the portable device. Can be displayed. Therefore, the user can easily aim at the place indicated by the specific character photographed object so that the frog can also participate in the treasure hunting, and the effect of regional promotion linked to the character can be enhanced.

本発明の好ましい一実施形態のキャラクター連携アプリケーション装置について、その装置を用いて行われる妖怪ゲームの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the ghost game performed using the apparatus about the character cooperation application apparatus of preferable one Embodiment of this invention. 図1に示す妖怪ゲームの進行を説明する図である。It is a figure explaining progress of the ghost game shown in FIG. 同上、図1の妖怪ゲームを実現するシステム構成のブロック図である。2 is a block diagram of a system configuration for realizing the ghost game of FIG. 同上、サーバ側の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure on the server side same as the above.

以下、本発明におけるキャラクター連携アプリケーション装置(以下、単に装置という)の実施形態について、添付図面を参照しながら説明する。   Hereinafter, an embodiment of a character collaboration application apparatus (hereinafter simply referred to as an apparatus) according to the present invention will be described with reference to the accompanying drawings.

図1は、この装置を用いた妖怪ゲームの概要を説明するものである。また図2は、妖怪ゲームの進行を図で示したものである。これらの各図において、1は妖怪ゲームの参加者としてユーザーが保有する携帯機器、2は携帯機器1による撮像が可能であって、ユーザーが予め入手した妖怪の絵本である。   FIG. 1 explains the outline of a ghost game using this apparatus. FIG. 2 shows the progress of the youkai game. In each of these drawings, reference numeral 1 denotes a portable device held by the user as a ghost game participant, and 2 denotes a ghost picture book that can be imaged by the portable device 1 and obtained in advance by the user.

絵本2の内部には、特定の妖怪キャラクターを想起させるような輪郭だけが描かれた複数のシルエットSHが適所に印刷配置される。本実施形態では、ユーザーが入手できるシルエットSHの印刷物として、親子が身近に妖怪ゲームを参加できる絵本2の形態で提供されるが、より幅広いユーザーを対象として、例えば路上で配布されるチラシや、壁面に貼り付けられるポスターの形態で提供してもよい。   Inside the picture book 2, a plurality of silhouettes SH in which only outlines reminiscent of a specific monster character are drawn and arranged at appropriate positions. In this embodiment, as a printed material of silhouette SH that can be obtained by the user, it is provided in the form of a picture book 2 that allows parents and children to participate in youkai games close to them, but for a wider range of users, for example, flyers distributed on the street, You may provide in the form of the poster affixed on a wall surface.

そして、本装置を利用した妖怪ゲームの進行に伴い、ユーザーが現地に足を運んでシールSLを取得し、そのシールSLをシルエットSHに合わせて貼り付けることで、絵本2の完成を目指せるようになっている。   Then, as the ghost game using this device progresses, the user can go to the site to acquire the sticker SL and paste the sticker SL according to the silhouette SH so that the picture book 2 can be completed. It has become.

こうしたアナログ対応の絵本2の作成とは別に、本装置では携帯機器1に組み込まれたアプリケーションと連携して、宝探しを行なう機能をも備えている。本装置のアプリケーションは、絵本2に印刷された二次元バーコードBを携帯機器1が読み込むことで、ここでは図示しない外部機器から携帯機器1にそのプログラムが自動的にダウンロードされ、記憶保存される。   Apart from the creation of the analog picture book 2, this apparatus also has a function of searching for treasure in cooperation with an application incorporated in the mobile device 1. The application of this apparatus is such that the portable device 1 reads the two-dimensional barcode B printed on the picture book 2 so that the program is automatically downloaded from an external device (not shown) to the portable device 1 and stored. .

二次元バーコードBから入手した妖怪ゲームのアプリケーションを起動した状態で、絵本2に描かれた複数のシルエットSHの中で、特定のシルエットSHを携帯機器1から読み込むと、携帯機器1の表示部3には、そのシルエットSHに対応した妖怪キャラクターのAR(Augmented Reality)表示体4の他に、AR表示体4が示す行き先や交通手段が、文字表示体5やマーク表示体6などで表示される。これに基いてユーザーが妖怪キャラクターの示す場所に行くと、表示部3に表示されるAR表示体4がアニメーション動作により動き出す。   When a specific silhouette SH is read from the portable device 1 among the plurality of silhouettes SH drawn in the picture book 2 with the monster game application obtained from the two-dimensional barcode B activated, the display unit of the portable device 1 3, in addition to the AR (Augmented Reality) display 4 of the monster character corresponding to the silhouette SH, the destination and the transportation means indicated by the AR display 4 are displayed on the character display 5 and the mark display 6. The Based on this, when the user goes to the place indicated by the monster character, the AR display 4 displayed on the display unit 3 starts to move by the animation operation.

なお、表示部3に表示される行き先は、読み込んだシルエットSH毎に異なっており、ユーザーが携帯機器1を利用して一つのシルエットSHを読み込む毎に、異なる場所に宝探しを行なうことができる。図1に示す例では、携帯機器1の表示部3に、「A市へ」という文字が行き先を示す文字表示体5として表示され、その行き先への利用可能な交通手段として、駅と、バス停と、駐車場を各々連想するマークが、マーク表示体6として表示される。また、図2に示す例では、「船着き場」,「駅」,「バス停」,「駐車場」という文字と、それらに対応したマークが、交通手段を示す文字表示体5とマーク表示体6として各々表示され、さらに行き先であるA市内の「名所」と、それらに対応したマークが、別な文字表示体5とマーク表示体6として各々表示される。   The destination displayed on the display unit 3 is different for each read silhouette SH, and each time a user reads one silhouette SH using the mobile device 1, a treasure hunt can be performed at a different place. In the example shown in FIG. 1, the characters “To A City” are displayed on the display unit 3 of the mobile device 1 as a character display 5 indicating the destination. As a means of transportation available to the destination, a station, a bus stop A mark associated with each parking lot is displayed as the mark display body 6. Further, in the example shown in FIG. 2, the characters “ship landing place”, “station”, “bus stop”, “parking lot”, and marks corresponding thereto are used as a character display body 5 and a mark display body 6 that indicate transportation means. Further, the “sights” in the city A, which is the destination, and marks corresponding to them are displayed as separate character display bodies 5 and mark display bodies 6, respectively.

表示部3に表示される行き先には、最終的なターゲットとなる宝物Xが存在する。この宝物Xは、例えば前述のシールSLであったり、さらに別なものであったりするとすることができる。   At the destination displayed on the display unit 3, there is a treasure X as a final target. The treasure X can be, for example, the above-described seal SL or another one.

ユーザーが妖怪キャラクターに対応した宝物Xを探し出すまでの過程で、表示部3にはAR表示体4の他に、携帯機器1の現在位置を含む景観を再現する地図表示体7や、最短距離に位置するターゲットの存在する方向を示すターゲット方向表示体8や、前記地図表示体7の方向を示す第1ライン9Aと、携帯機器1の方向を示す第2ライン9Bとのなす角度を、後述する地図情報M8の方向と携帯機器1の方向との角度差として示すアジャストライン表示体9なども表示される。ユーザーは、表示部3に表示されるこれらの表示内容に基づき、宝探しに参加して、最終的に全てのシルエットSHに対応した宝物Xを探し当てるコンプリートを目指す。 In the process until the user searches for the treasure X corresponding to the monster character, in addition to the AR display 4 in the display unit 3, the map display 7 that reproduces the landscape including the current position of the mobile device 1 and the shortest distance An angle formed by the target direction display body 8 indicating the direction in which the target exists and the first line 9A indicating the direction of the map display body 7 and the second line 9B indicating the direction of the mobile device 1 will be described later. An adjustment line display 9 or the like shown as an angle difference between the direction of the map information M8 and the direction of the mobile device 1 is also displayed. Based on these display contents displayed on the display unit 3, the user participates in the treasure search and finally aims to complete the treasure X corresponding to all the silhouettes SH.

次に、上記妖怪ゲームを実行可能にする装置の全体構成を、図に基づき説明する。同図において、本装置は、前述した携帯機器1や絵本2の他に、外部機器に相当するサーバ11を含んで構成され、携帯機器1とサーバ11はインターネットなどの通信手段12により相互に接続される。図では、一台の携帯機器1だけを示しているが、ゲームに参加するユーザーが同時に複数存在する場合、同様の構成を有する複数台の携帯機器1が通信手段12に接続される。 Next, an overall configuration of an apparatus that can execute the monster game will be described with reference to FIG. 3. In the figure, this apparatus includes a server 11 corresponding to an external device in addition to the above-described portable device 1 and picture book 2, and the portable device 1 and the server 11 are connected to each other by communication means 12 such as the Internet. Is done. In FIG. 3 , only one mobile device 1 is shown. However, when there are a plurality of users participating in the game at the same time, a plurality of mobile devices 1 having the same configuration are connected to the communication means 12.

携帯機器1は、通信手段12を介したサーバ11との無線通信機能と、位置データ検出機能と、方向データ検出機能と、撮像機能と、表示機能とを備えたものであればよく、好ましくは携帯可能なスマートフォンの他に、パーソナルコンピュータ,携帯電話機,タブレット端末,腕時計,携帯型情報処理端末,ゲーム端末などの携帯端末装置で構成される。より具体的には、携帯機器1は、無線通信機能を兼用する制御部21の入力ポートに、位置データ検出機能を備えた位置検出部22と、操作部23と、方向データ検出機能を備えた方向検出部24と、カメラ25をそれぞれ接続する一方で、制御部21の出力ポートに表示部3を接続したハードウェア構成を有する。   The portable device 1 only needs to have a wireless communication function with the server 11 via the communication means 12, a position data detection function, a direction data detection function, an imaging function, and a display function, and preferably In addition to a portable smart phone, the mobile phone includes a mobile terminal device such as a personal computer, a mobile phone, a tablet terminal, a wristwatch, a portable information processing terminal, and a game terminal. More specifically, the mobile device 1 includes a position detection unit 22 having a position data detection function, an operation unit 23, and a direction data detection function at an input port of the control unit 21 also serving as a wireless communication function. While the direction detection unit 24 and the camera 25 are connected to each other, the display unit 3 is connected to the output port of the control unit 21.

携帯機器1の表側には、表示部3となるLCDユニットと、操作部23となる透明なタッチパネルとを重ね合わせた操作表示ユニットが配設される。勿論、操作部23と表示部3とを別な個所に配設した構成でもよく、その場合の操作部23は、キーボード,ポインティングデバイス,ボタンなどで構成するが、これらのものに限定されない。   On the front side of the portable device 1, an operation display unit in which an LCD unit serving as the display unit 3 and a transparent touch panel serving as the operation unit 23 are superimposed is disposed. Of course, the operation unit 23 and the display unit 3 may be arranged at different locations. In this case, the operation unit 23 includes a keyboard, a pointing device, a button, and the like, but is not limited thereto.

位置検出部22は、例えばGPS(Global Positioning System:汎地球測位システム)衛星からの電波を無線で受信して、携帯機器1の現在位置に相当する測位データを制御部21に出力するGPS受信機で構成される。このGPS受信機は、スマートフォンのような携帯機器1に予め搭載されるが、携帯機器1の位置が検出できるものであれば、それ以外の別な機器を用いても構わない。   The position detection unit 22 receives, for example, radio waves from a GPS (Global Positioning System) satellite wirelessly and outputs positioning data corresponding to the current position of the mobile device 1 to the control unit 21. Consists of. The GPS receiver is mounted in advance on the mobile device 1 such as a smartphone, but other devices may be used as long as the position of the mobile device 1 can be detected.

方向検出部24は、携帯機器1の向いている方位角を検出して、その検出結果を方位データとして出力するもので、これもスマートフォンのような携帯機器1では、加速度センサーとして予め搭載される。この方向検出部24についても、携帯機器1の向いている方位を取得できるものであれば、加速度センサー以外の各種検知素子を利用して構わない。   The direction detection unit 24 detects the azimuth angle of the mobile device 1 and outputs the detection result as azimuth data, which is also preinstalled as an acceleration sensor in the mobile device 1 such as a smartphone. . As for the direction detection unit 24, various detection elements other than the acceleration sensor may be used as long as the direction of the portable device 1 can be acquired.

カメラ25は、光学系を通して二次元像を平面状に配置されたセンサー面に結像させ、これを電気信号に変換して出力するもので、カメラ25を予め搭載した携帯機器1であれば、そのカメラ25を撮影手段としてそのまま利用できる。ここでのカメラ25は、絵本2に印刷された妖怪キャラクターの輪郭だけを描いたシルエットSHの二次元像を、電気的な画像信号に変換して制御部21に送出できる機能を有する。   The camera 25 forms a two-dimensional image on a planar sensor surface through an optical system, converts it into an electrical signal, and outputs it. If the mobile device 1 is equipped with the camera 25 in advance, The camera 25 can be used as it is as a photographing means. The camera 25 here has a function of converting a two-dimensional image of the silhouette SH depicting only the outline of the monster character printed on the picture book 2 into an electrical image signal and sending it to the control unit 21.

制御部21は、例えばCPU(Central Processing Unit)などの制御装置で構成される。本実施形態では、カメラ25を利用して二次元バーコードBを読み込んで特定のサーバ11にアクセスし、そのサーバ11から妖怪ゲーム用のアプリケーションを実行するプログラムをダウンロードして、図示しない記憶部に予め記憶しておくことで、当該アプリケーションの起動時に制御部21が記憶部からのプログラムを読み出して、各部の動作を制御する構成となっている。ここでの制御部21は特に、記憶部からの当該プログラムを読み取ることで機能するソフトウェア構成として、ユーザー位置情報作成手段31と、表示制御手段32と、ユーザー方向情報作成手段33と、画像認識手段34を、それぞれ備えている。 The control unit 21 includes a control device such as a CPU (Central Processing Unit). In this embodiment, accesses the server 11 of the specific read two-dimensional bar code B by using the camera 25, to download a program for executing an application for monster game from the server 11, not shown storage unit By storing in advance, the control unit 21 reads the program from the storage unit and controls the operation of each unit when the application is activated. The control unit 21 here is a software configuration that functions by reading the program from the storage unit, in particular, a user position information creation unit 31, a display control unit 32, a user direction information creation unit 33, and an image recognition unit. 34 respectively.

一方、サーバ11は、制御部41と記憶部42とを備えたハードウェア構成を有する。制御部41はCPUなどの制御装置であり、記憶部42に記憶されたプログラムを読み取ることで機能するソフトウェア構成として、ターゲット位置設定手段51と、ターゲット/キャラクター情報作成手段52と、ターゲット到達判定手段53を、それぞれ備えている。また、記憶部42には、制御部41の動作を制御する前述のプログラムの他に、ターゲット位置設定手段51で設定されたターゲット位置情報を記憶するターゲット位置情報記憶手段55を備えている。制御部41を構成する各手段51,52,53は、携帯機器1にインストールされたアプリケーション、すなわち制御部21を構成する各手段31,32,33,34と連携して動作することで、携帯機器1とサーバ11との間で、通信手段12を介して様々な情報のやり取りを行なう構成となっている。   On the other hand, the server 11 has a hardware configuration including a control unit 41 and a storage unit 42. The control unit 41 is a control device such as a CPU. As a software configuration that functions by reading a program stored in the storage unit 42, a target position setting unit 51, a target / character information creation unit 52, and a target arrival determination unit 53 respectively. In addition to the above-described program for controlling the operation of the control unit 41, the storage unit 42 includes target position information storage means 55 for storing target position information set by the target position setting means 51. Each means 51, 52, 53 configuring the control unit 41 operates in cooperation with the application installed in the mobile device 1, that is, each means 31, 32, 33, 34 configuring the control unit 21. Various information is exchanged between the device 1 and the server 11 via the communication means 12.

携帯機器1側のユーザー位置情報作成手段31は、位置検出部22から所定時間(例えば1秒)毎に送出される測位データに基づき、携帯機器1ひいてはその携帯機器1を携帯するユーザーの現在位置(緯度および経度)を、ユーザー位置情報M1として算出するものである。ユーザー位置情報作成手段31がユーザー位置情報M1を算出する毎に、このユーザー位置情報M1が、制御部21の表示制御手段32のみならず、通信手段12を介してサーバ11のターゲット位置設定手段51や、ターゲット/キャラクター情報作成手段52や、ターゲット到達判定手段53に送出される。   The user position information creation means 31 on the portable device 1 side is based on the positioning data sent from the position detection unit 22 every predetermined time (for example, 1 second), and the current position of the user who carries the portable device 1 and thus the portable device 1. (Latitude and longitude) is calculated as the user position information M1. Each time the user position information creating unit 31 calculates the user position information M1, the user position information M1 is not only displayed on the display control unit 32 of the control unit 21, but also the target position setting unit 51 of the server 11 via the communication unit 12. Or, it is sent to the target / character information creating means 52 and the target arrival judging means 53.

ユーザー方向情報作成手段33は、方向検出部24から所定時間(例えば1秒)毎に送出される方位データに基づき、携帯機器1ひいてはその携帯機器1を携帯するユーザーの向かう方向(方位角)を、ユーザー方向情報M2として算出するものである。ユーザー方向情報作成手段33がユーザー方向情報M2を算出する毎に、この方向情報M2が制御部21の表示制御手段32に送出される。   The user direction information creating unit 33 determines the direction (azimuth angle) toward the mobile device 1 and, consequently, the user carrying the mobile device 1 based on the azimuth data sent from the direction detection unit 24 every predetermined time (for example, 1 second). The user direction information M2 is calculated. Each time the user direction information creating unit 33 calculates the user direction information M2, the direction information M2 is sent to the display control unit 32 of the control unit 21.

さらに画像認識手段34は、カメラ25から取り込んだ画像信号が、絵本2に描かれた特定のシルエットSHを撮影したものであるか否かを判定し、特定のシルエットSHを撮影したものであると判定した場合には、どのシルエットSHを撮影したものなのかを示すキャラクター撮影情報M3を、サーバ11のターゲット/キャラクター情報作成手段52に送出するものである。本実施形態では、ユーザーが実際に宝物X(図を参照)を探し当てて、その宝物Xをカメラ25で撮影した場合、画像認識手段34によりユーザーが宝物Xを見つけたと判断して、どの宝物Xを見つけ出したのかを示すサービス付加情報M7が、ターゲット/キャラクター情報作成手段52で作成されるようになっている。 Further, the image recognizing means 34 determines whether or not the image signal taken from the camera 25 is a photograph of a specific silhouette SH drawn in the picture book 2, and is a photograph of the specific silhouette SH. If it is determined, the character shooting information M3 indicating which silhouette SH was shot is sent to the target / character information creating means 52 of the server 11. In this embodiment, when a user actually finds a treasure X (see FIG. 2 ) and photographs the treasure X with the camera 25, the image recognition means 34 determines that the user has found the treasure X, and which treasure The service additional information M7 indicating whether X has been found is created by the target / character information creating means 52.

ターゲット位置設定手段51は、ユーザーが探すべき宝物Xや、地域の名所などの目標となるターゲットの位置(緯度および経度)を、ターゲット位置情報M4として設定するものである。ここでは、サーバ11に備えた図示しない操作部からの操作入力や、ユーザー位置情報作成手段31からのユーザー位置情報M1や、制御部41に内蔵する図示しないタイマー手段の計時時刻などに基づき、一つの妖怪キャラクターとそれに連携する一つのシルエットSHに対して、一乃至複数のターゲット位置情報M4がターゲット位置設定手段51で設定され、記憶部42のターゲット位置情報記憶手段55に記憶保持される。シルエットSHは絵本2に複数配設されるため、それに対応してターゲット位置情報M4も、ターゲット位置情報記憶手段55にそれぞれ記憶保持される。   The target position setting means 51 sets the target position (latitude and longitude) that is a target such as a treasure X to be searched for by the user and local sights as target position information M4. Here, based on the operation input from the operation unit (not shown) provided in the server 11, the user position information M1 from the user position information creation unit 31, the time measured by the timer unit (not shown) built in the control unit 41, etc. One or a plurality of target position information M4 is set by the target position setting means 51 for one ghost character and one silhouette SH linked thereto, and is stored and held in the target position information storage means 55 of the storage unit. Since a plurality of silhouettes SH are arranged in the picture book 2, the target position information M4 is also stored and held in the target position information storage means 55 correspondingly.

特に本実施形態では、ターゲット位置設定手段51が新たなターゲット位置情報M4を設定する毎に、それまでターゲット位置情報記憶手段55に記憶されていた古いターゲット位置情報M4を上書き更新する構成となっている。そのため、制御部41に内蔵するタイマー手段の計時時刻を利用して、決められた時刻になるとターゲット位置情報M4を上書き更新することで、リアルタイムにターゲットの位置を可変させたり(リアルタイムターゲティング)、日毎にターゲットの位置を可変させたり(日替りターゲティング)することができる。   In particular, in this embodiment, every time the target position setting unit 51 sets new target position information M4, the old target position information M4 that has been stored in the target position information storage unit 55 is overwritten and updated. Yes. Therefore, the target position information M4 is overwritten and updated at a predetermined time using the time measured by the timer means built in the control unit 41, thereby changing the target position in real time (real time targeting), The target position can be changed to (daily targeting).

ターゲット到達判定手段53は、ユーザー位置情報作成手段31からのユーザー位置情報M1に基づいて、ユーザーがターゲット位置に到達したか否かを判定するもので、ユーザーがターゲット位置に到達したと判断した場合には、ユーザー位置情報M1に含まれるユーザー固有のデータと、制御部41に含まれるタイマー手段の計時時刻を利用して、どのユーザーがどの位置でどの時刻にターゲットを探し出したのかというターゲット到達情報M5を記憶部42に記憶させると共に、ターゲット/キャラクター情報作成手段52に送出する機能を有している。   The target arrival determination means 53 determines whether or not the user has reached the target position based on the user position information M1 from the user position information creation means 31. When the user has determined that the target position has been reached, Includes target arrival information indicating which user searched for a target at which position and at which time using user-specific data included in the user position information M1 and the time measured by the timer means included in the control unit 41. M5 is stored in the storage unit 42 and has a function of sending it to the target / character information creating means 52.

ターゲット/キャラクター情報作成手段52は、画像認識手段34からのキャラクター撮影情報M3に基づき、カメラ25で撮影した特定のシルエットSHに関連付けられたターゲット位置情報M4を、記憶部42のターゲット位置情報記憶手段55から読み出す。そして、ターゲット到達判定手段53からターゲット到達情報M5を受取るまでは、このターゲット位置情報M4とユーザー位置情報作成手段31からのユーザー位置情報M1とに基づいて、最も間近なターゲットの位置とユーザーの現在位置との関係から、ターゲットへの方向(方位角)をターゲット情報M6として算出し、通信手段12を介して携帯機器1の表示制御手段32に送出する一方で、ターゲット到達判定手段53からターゲット到達情報M5を受取るか、或いは画像認識手段34によりユーザーが宝物Xを見つけたと判断したとの情報を受取ると、ターゲット情報M6の代わりに、到達したターゲットや、見つけ出した宝物Xに関係付けられた様々な情報を、サービス付加情報M7として表示制御手段32に送出するものである。ここでいうサービス付加情報M7とは、地図情報M8に対応した地図表示体11に重ね合わせて、例えば宝物Xを探し当てたことを示すAR表示体や、別なターゲットの位置を予測させるカギやヒントとなるAR表示体や、別なユーザーが先に宝物Xを探し当てた状態を示すAR表示体などを、表示部3に表示させるものである。   The target / character information creating unit 52 stores target position information M4 associated with a specific silhouette SH photographed by the camera 25 on the basis of the character photographing information M3 from the image recognizing unit 34. Read from 55. Until the target arrival information M5 is received from the target arrival determination means 53, based on the target position information M4 and the user position information M1 from the user position information creation means 31, the closest target position and the user's current From the relationship with the position, the direction (azimuth angle) to the target is calculated as target information M6 and sent to the display control means 32 of the portable device 1 via the communication means 12, while the target arrival determination means 53 sends the target. When the information M5 is received or when the image recognition means 34 receives information that the user has found the treasure X, various targets related to the reached target and the found treasure X are used instead of the target information M6. Is sent to the display control means 32 as service additional information M7. That. The service additional information M7 here is superimposed on the map display body 11 corresponding to the map information M8, for example, an AR display body indicating that the treasure X has been found, a key or hint for predicting the position of another target. The display unit 3 is displayed with an AR display body that becomes or an AR display body that indicates a state in which another user has found the treasure X first.

ターゲット/キャラクター情報作成手段52がターゲット情報M6を送出する間、表示制御手段32はユーザー位置情報作成手段31からのユーザー位置情報M1を取得して、携帯機器1の現在位置を特定すると共に、その現在位置を含んだ地図情報M8を通信手段12から取得して、景観を再現する地図表示体7に現在位置を重ね合わせたものを表示部3に表示させる。さらに表示制御手段32は、ターゲット情報M6とユーザー方向情報M2を取得して、地図表示体7の表示範囲内に存在するターゲットの位置と、現在位置から最短距離に位置するターゲットへの方向を、それぞれ表示部3に表示させる一方で、ターゲット/キャラクター情報作成手段52がサービス付加情報M7を送出すると、そのサービス付加情報M7に基づくAR表示体4を、例えば地図表示体7に重ね合わせて表示部3に表示させる機能を有する。   While the target / character information creating means 52 sends out the target information M6, the display control means 32 acquires the user position information M1 from the user position information creating means 31, specifies the current position of the portable device 1, and The map information M8 including the current position is acquired from the communication means 12, and the display unit 3 is displayed by superimposing the current position on the map display body 7 that reproduces the landscape. Further, the display control means 32 acquires the target information M6 and the user direction information M2, and indicates the position of the target existing in the display range of the map display body 7 and the direction to the target located at the shortest distance from the current position. When the target / character information creating means 52 sends out the service additional information M7 while displaying each on the display unit 3, the AR display body 4 based on the service additional information M7 is superimposed on the map display body 7, for example, and displayed on the display unit. 3 is displayed.

これ以外に表示制御手段32は、様々な形態のAR表示体4を表示部3に表示させることができる。例えば、制御部21に内蔵するタイマー手段の計時時刻を利用して、決められた時刻になると、それまでとは別な形態のAR表示体4を出現表示させることができる。また、サーバ11からのユーザー位置情報M1に基づき、ユーザーの現在位置が特定のエリア内に入ると、宝物Xを探し出す上でのヒントとなる前述のマーク表示体6を出現表示させることもできる(エリアターゲッティング)。   In addition to this, the display control means 32 can display various forms of the AR display 4 on the display unit 3. For example, at a predetermined time using the time measured by the timer means built in the control unit 21, the AR display 4 having a different form from that before can be displayed. Further, when the current position of the user enters a specific area based on the user position information M1 from the server 11, the above-described mark display body 6 serving as a hint for searching for the treasure X can be displayed. Area targeting).

ターゲット/キャラクター情報作成手段52からターゲット情報M6が送出される間は、携帯機器1の表示制御手段32が、ユーザー位置情報作成手段31で所定時間毎に作成されるユーザー位置情報M1を取り込んで、携帯機器1の現在位置を特定し、その現在位置を含む一般に公開された地図情報M8を通信手段12から取込むことにより、その地図情報M8に対応して、景観を再現するための地図表示体7を表示部3に表示させると共に、ユーザー位置情報M1に基づいた携帯機器1の現在位置に対応する座標点を、地図表示体7と重ね合わせて表示させる。このとき、図1や図2で示したように、座標点の位置に妖怪キャラクターのAR表示体4を表示させてもよい。   While the target information M6 is sent from the target / character information creation means 52, the display control means 32 of the portable device 1 takes in the user position information M1 created by the user position information creation means 31 every predetermined time, A map display body for specifying the current position of the portable device 1 and reproducing the landscape corresponding to the map information M8 by taking in the publicly disclosed map information M8 including the current position from the communication means 12. 7 is displayed on the display unit 3, and the coordinate point corresponding to the current position of the mobile device 1 based on the user position information M1 is displayed so as to be superimposed on the map display body 7. At this time, as shown in FIGS. 1 and 2, the AR display 4 of the monster character may be displayed at the position of the coordinate point.

また、スマートフォンのような携帯機器1は、位置検出部22だけでなく、携帯機器1の向いている方位角を、方向検出部24により方位データとして取得できる。そこで、表示制御手段32は、ユーザー方向情報作成手段33からのユーザー方向情報M2を取得して、携帯機器1ひいてはユーザーの向いている方向をあらわした第2ライン9Bを、座標点を起点にして表示部3に表示させる。このとき、座標点を起点にして地図表示体7の方向を示す第1ライン9Aを、第2ライン9Bと共にアジャストライン表示体9として表示させることで、地図情報M8の方向と携帯機器1の方向との角度差を認識しながら宝探しを行なうことが可能になる。   In addition, the mobile device 1 such as a smartphone can acquire not only the position detection unit 22 but also the azimuth angle that the mobile device 1 is facing as direction data by the direction detection unit 24. Therefore, the display control unit 32 acquires the user direction information M2 from the user direction information creation unit 33, and the second line 9B indicating the direction in which the mobile device 1 and thus the user are facing is used as a starting point from the coordinate point. It is displayed on the display unit 3. At this time, the first line 9A indicating the direction of the map display body 7 starting from the coordinate point is displayed as the adjustment line display body 9 together with the second line 9B, whereby the direction of the map information M8 and the direction of the portable device 1 are displayed. It becomes possible to search for treasure while recognizing the angle difference.

このように、本実施形態の携帯機器1は、ユーザー位置情報作成手段31からのユーザー位置情報M1と、ユーザー方向情報作成手段33からのユーザー方向情報M2と、ターゲット/キャラクター情報作成手段52からのターゲット情報M6をそれぞれ取得し、ユーザー自身の現在位置である座標点を中心としたターゲット方向表示体8の他に、地図情報M8の方向と携帯機器1の方向との角度差をあらわすアジャストライン表示体9を、地図表示体7と重ね合わせてそれぞれ表示部3に表示させるような表示制御手段32を、アプリケーションとして備えているといえる。つまり、最終的に宝物Xを探し当てる過程で、ユーザー自身が向かう方向に対して、宝物Xがどちらの方向にあり、また地図表示体7の表示方向に対して、ユーザー自身がどの方向に向いているのかを、携帯機器1の表示部3で表示するので、ユーザーは自身が選択した妖怪キャラクターに関係する場所で、宝物Xがどの位置に存在するのかを推理して、野外参加型ゲームとしての醍醐味や興味を十分に味わうことが可能になる。   As described above, the mobile device 1 according to the present embodiment includes the user position information M1 from the user position information creation unit 31, the user direction information M2 from the user direction information creation unit 33, and the target / character information creation unit 52. Each of the target information M6 is acquired, and in addition to the target direction display body 8 centering on the coordinate point that is the user's own current position, an adjustment line display that represents the angle difference between the direction of the map information M8 and the direction of the mobile device 1 It can be said that the display control means 32 is provided as an application to display the body 9 on the display unit 3 so as to overlap the map display body 7. That is, in the process of finally finding the treasure X, the direction of the treasure X is in which direction the user himself / herself is directed, and in which direction the user himself / herself is directed in relation to the display direction of the map display body 7. Is displayed on the display unit 3 of the mobile device 1, so that the user infers where the treasure X exists in the place related to the monster character that he / she has selected, It is possible to fully enjoy the taste and interest.

なお、上記構成において、図3で提示した表示部3の表示形態は、あくまでも一例にすぎず、ユーザーの興味をさらに増大させるために、視覚的な工夫をさらに加えても構わない。また、ターゲットが複数個設定される場合は、操作部23からの入力により、或いは予め決められた間隔毎に、ターゲットの対象を切換えるようにしてもよい。   In the above configuration, the display form of the display unit 3 presented in FIG. 3 is merely an example, and visual devices may be further added to further increase the user's interest. When a plurality of targets are set, the target may be switched by an input from the operation unit 23 or at predetermined intervals.

次に、上記構成における作用について、図4に示すサーバ11側の動作手順を示したフローチャートを参照して説明する。なお、以下の動作手順は、携帯機器1側で予め妖怪ゲームのアプリケーションが起動されていることを前提とする。   Next, the operation of the above configuration will be described with reference to the flowchart showing the operation procedure on the server 11 side shown in FIG. Note that the following operation procedure is based on the premise that an application of a ghost game is activated in advance on the mobile device 1 side.

同図において、先ずステップS1では、携帯機器1を携帯したユーザーがゲームをスタートさせたか否かを制御部41で判断する。これは画像認識手段34において、カメラ25から取り込んだ画像信号が、絵本2に描かれた特定のシルエットSHを撮影したものであると判断した時に、画像認識手段34から制御部41に、絵本2の中でどのシルエットSHを撮影したものなのかを示すキャラクター撮影情報M3が送出されることで、ユーザーがゲームをスタートさせたと判断できる。つまりここでは、妖怪キャラクターに対するユーザーの関心を高めるために、事務的なバーコードや二次元コードに代わるシルエットSHを用いた認証が行われる。   In the figure, first, in step S1, the control unit 41 determines whether or not the user carrying the mobile device 1 has started the game. When the image recognition unit 34 determines that the image signal captured from the camera 25 is a photograph of a specific silhouette SH drawn in the picture book 2, the image recognition unit 34 sends the picture book 2 to the control unit 41. It is possible to determine that the user has started the game by sending out character shooting information M3 indicating which silhouette SH was shot. That is, here, in order to raise the user's interest in the monster character, authentication is performed using the silhouette SH instead of the office barcode or the two-dimensional code.

ユーザーがゲームをスタートさせたと判断すると、次のステップS2の手順に移行し、ターゲット位置設定手段51は、ユーザーが選択した妖怪キャラクターのシルエットSHに対応するターゲットの最初の位置を設定し、これをターゲット位置情報M4として、ターゲット位置情報記憶手段55に記憶保持させる(ステップS3)。   When it is determined that the user has started the game, the process proceeds to the next step S2, and the target position setting means 51 sets the initial position of the target corresponding to the silhouette SH of the monster character selected by the user. The target position information M4 is stored and held in the target position information storage means 55 (step S3).

次のステップS4において、ターゲット位置設定手段51は、制御部41に内蔵するタイマー手段の計時時刻が、予め設定した更新時刻に達したか否かを判断する。タイマー手段の計時時刻が更新時刻に達しなければ、ステップS5の手順に移行し、ターゲット/キャラクター情報作成手段52は、ターゲット位置情報記憶手段55からのターゲット位置情報M4を読み出し、そのターゲット位置情報M4とユーザー位置情報作成手段31からのユーザー位置情報M1とに基づいて、各ターゲットの設定位置と、ユーザーの現在位置から一つのターゲットへの方向とを、ターゲット情報M6として算出する。このターゲット情報M6を、サーバ11から携帯機器1の表示制御手段32に送出することで、携帯機器1の表示部3には、図1や図2に示すような表示が行われる。   In the next step S4, the target position setting means 51 determines whether or not the time measured by the timer means built in the control unit 41 has reached a preset update time. If the time measured by the timer means does not reach the update time, the process proceeds to step S5, and the target / character information creating means 52 reads the target position information M4 from the target position information storage means 55, and the target position information M4. On the basis of the user position information M1 from the user position information creation means 31, the setting position of each target and the direction from the current position of the user to one target are calculated as target information M6. By sending this target information M6 from the server 11 to the display control means 32 of the portable device 1, the display unit 3 of the portable device 1 displays as shown in FIGS.

次のステップS6において、ターゲット到達判定手段53は、ユーザー位置情報作成手段31からのユーザー位置情報M1に基づいて、ユーザーがターゲットの位置に到達したか否かを判定し、ユーザーがターゲットの位置に到達したと判定した場合にのみ、ターゲット/キャラクター情報作成手段52にターゲット到達情報M5を送出する。このときターゲット/キャラクター情報作成手段52は、ターゲット到達判定手段53からのターゲット到達情報M5を受取らない限り、前述のステップS4に戻り、制御部41に内蔵するタイマー手段の計時時刻が、予め設定した更新時刻に達するまで、サーバ11から携帯機器1の表示制御手段32に対して、ターゲット情報M6が繰り返し送出される。   In the next step S6, the target arrival determination means 53 determines whether or not the user has reached the target position based on the user position information M1 from the user position information creation means 31, and the user reaches the target position. Only when it is determined that the target has arrived, the target arrival information M5 is sent to the target / character information creating means 52. At this time, unless the target / character information creation means 52 receives the target arrival information M5 from the target arrival determination means 53, the target / character information creation means 52 returns to the above-described step S4, and the time measured by the timer means built in the control unit 41 is set in advance. Until the update time is reached, the target information M6 is repeatedly sent from the server 11 to the display control means 32 of the mobile device 1.

やがてステップS4の手順で、制御部41に内蔵するタイマー手段の計時時刻が、予め設定した更新時刻に達すると、ステップS2の手順に戻り、ターゲット位置設定手段51が各ターゲットの位置を再設定し、次のステップS3の手順で、この再設定したターゲットの位置を、ターゲット位置情報記憶手段55に新たなターゲット位置情報M4として上書き更新させる。そして、ステップS4の手順を経て、次のステップS5では、ユーザー位置情報作成手段31からのユーザー位置情報M1と、新たなターゲット位置情報M4とに基づいて、各ターゲットの設定位置と、ユーザーの現在位置から一つのターゲットへの方向とを算出したターゲット情報M6が、サーバ11から携帯機器1の表示制御手段32に送出される。   Eventually, when the time measured by the timer means built in the control unit 41 reaches the preset update time in the procedure of step S4, the procedure returns to the procedure of step S2, and the target position setting means 51 resets the position of each target. In the next step S3, the reset target position is overwritten and updated as new target position information M4 in the target position information storage means 55. Then, after the procedure of step S4, in the next step S5, based on the user position information M1 from the user position information creation means 31 and the new target position information M4, the set position of each target and the current position of the user The target information M6 calculated from the position to the one target is sent from the server 11 to the display control means 32 of the portable device 1.

このように、上記ステップS2〜ステップS6の手順では、時間の経過と共にターゲットの位置を移動させることが可能になる。   As described above, in the procedure from step S2 to step S6, the position of the target can be moved with time.

ステップS6の手順で、ターゲット到達判定手段53は、ユーザー位置情報作成手段31からのユーザー位置情報M1に基づいて、ユーザーがターゲットの位置に到達したと判定すると、ステップS7に手順に移行して、ターゲット/キャラクター情報作成手段52にターゲット到達情報M5を送出する。これを受けてターゲット/キャラクター情報作成手段52は、ターゲット情報M6の代わりにサービス付加情報M7を携帯機器1の表示制御手段32に送出する。これにより表示部3には、宝物Xを探し当てたことを示す妖怪キャラクターのAR表示体4や、別なターゲットの位置を予測させるカギやヒントとなるAR表示体や、別なユーザーが宝物Xを探し当てた状態を示すAR表示体などが表示される。それと共に、ゲームのヒント(鍵)を表示部3に表示させたり、携帯機器1のカメラを利用して、ARによる仮想写真の撮影をできるようにしたり、その地点での情報をサービス付加情報M7から取得して表示部3に表示させたり、現場に設置されたキャラクターとの記念撮影をカメラ25で行なえるようにすることもできる。   In step S6, when the target arrival determination unit 53 determines that the user has reached the target position based on the user position information M1 from the user position information creation unit 31, the process proceeds to step S7. Target arrival information M5 is sent to the target / character information creating means 52. In response to this, the target / character information creating means 52 sends the service additional information M7 to the display control means 32 of the portable device 1 instead of the target information M6. As a result, the display unit 3 displays the AR display 4 of the monster character indicating that the treasure X has been found, the AR display serving as a key or hint for predicting the position of another target, and another user holding the treasure X. An AR display indicating the found state is displayed. At the same time, a hint (key) of the game is displayed on the display unit 3, a virtual photograph can be taken with the AR using the camera of the mobile device 1, and information at the point is added to the service additional information M7. And can be displayed on the display unit 3, or the camera 25 can be used to take a commemorative photo with a character installed at the site.

こうして、ユーザーが宝物Xに対応したターゲットの位置に到達すれば、ゲームは終了となるが、次に別なシルエットSHをカメラ25で撮影すれば、再度図4に示す一連の手順で、妖怪ゲームを楽しむことができる。また、ユーザーが実際に宝物Xを探し当てて、その宝物XがシールSLであった場合には、ステップS1で選択した絵本2のシルエットSHの上に、取得したシールSLを貼り付けることができる。これにより、妖怪ゲームを進行しながら、絵本2の完成を目指すことも可能となる。   In this way, when the user reaches the target position corresponding to the treasure X, the game ends. However, if another silhouette SH is photographed with the camera 25, the ghost game is again performed in the series of steps shown in FIG. Can enjoy. When the user actually finds the treasure X and the treasure X is a seal SL, the acquired seal SL can be pasted on the silhouette SH of the picture book 2 selected in step S1. As a result, it is possible to aim at completion of the picture book 2 while proceeding with the ghost game.

以上のように本実施形態は、ユーザーが保有する携帯機器1や、その携帯機器1と通信手段12を介して電気的に接続するサーバ11を用いたキャラクター連携アプリケーション装置であって、携帯機器1に備えた撮影手段としてのカメラ25からの画像信号を取り込み、その画像信号が特定のキャラクター撮影物に相当する妖怪キャラクターのシルエットSHに対応したものであるか否かを判定する画像認識手段34と、前記カメラ25からの画像信号が特定のシルエットSHに対応したものであると画像認識手段34が判定した時に、その特定のシルエットSH毎に関連付けた個別の処理手順を進行させる制御処理手段しての制御部21,41と、を備えたキャラクター連携アプリケーション装置を提供している。   As described above, the present embodiment is a character cooperation application device using the mobile device 1 owned by the user or the server 11 that is electrically connected to the mobile device 1 via the communication unit 12. An image recognizing unit 34 that takes in an image signal from a camera 25 as a photographing unit provided for the image and determines whether or not the image signal corresponds to a silhouette SH of a monster character corresponding to a specific character photographed object. When the image recognition means 34 determines that the image signal from the camera 25 corresponds to a specific silhouette SH, the control processing means advances the individual processing procedure associated with each specific silhouette SH. The character cooperation application apparatus provided with the control units 21 and 41 is provided.

この場合、ユーザーの保有する携帯機器1のカメラ25を利用して、ユーザーが興味を示した特定のシルエットSHを直接撮影するだけで、その特定のシルエットSHに関連付けたゲームプログラムなどの処理手順を、制御部21,41によりキャラクター毎に個別で進行させることが可能になる。そのため、単純なバーコードや二次元コードでの認識では、ユーザーの興味が削がれてしまうが、複数のシルエットSHの中から特定のシルエットSHを選択して認識させるようにすれば、ユーザーの興味が削がれることはなく、ユーザー自身の意志で興味のあるキャラクターに基づく処理手順の進行を可能にするキャラクター連携アプリケーション装置を提供できる。   In this case, the camera 25 of the mobile device 1 owned by the user is used to directly shoot a specific silhouette SH in which the user is interested, and a processing procedure such as a game program associated with the specific silhouette SH is performed. The control units 21 and 41 can advance each character individually. For this reason, the user's interest is lost by recognition with a simple barcode or two-dimensional code, but if a specific silhouette SH is selected from a plurality of silhouettes SH and recognized, the user's interest will be reduced. It is possible to provide a character cooperation application device that does not lose interest and allows a user to proceed with a processing procedure based on the character of interest.

また本実施形態では、特定のシルエットSHに対応したターゲット位置情報M4を保存する記憶手段として、サーバ11にターゲット位置情報記憶手段55をさらに備え、制御部21,41は、携帯機器1に備えた位置検出手段としての位置検出部22からの位置データ(測位データ)が、ターゲット位置情報記憶手段55から読み出したターゲット位置情報M4に基づく最も間近なターゲットに向かうように、前記測位データに対応した携帯機器1の現在位置を含む地図表示体7に、特定のシルエットSHに関連するキャラクター表示体としてのAR表示体4や、ターゲット位置情報M4に基づく最も間近なターゲットの存在する方向を示すターゲット方向表示体8を重ね合わせて、これらを携帯機器1に備えた表示手段としての表示部3に表示させる構成を有している。   In this embodiment, the server 11 further includes target position information storage means 55 as storage means for storing the target position information M4 corresponding to the specific silhouette SH, and the control units 21 and 41 are provided in the portable device 1. The position data (positioning data) from the position detection unit 22 serving as the position detection means is directed to the mobile phone corresponding to the positioning data so as to be directed to the closest target based on the target position information M4 read from the target position information storage means 55. Target direction display indicating the direction in which the AR display body 4 as a character display body related to the specific silhouette SH and the closest target based on the target position information M4 exist on the map display body 7 including the current position of the device 1 A display unit 3 as a display means provided on the portable device 1 by superposing the bodies 8. It has a structure to be displayed.

この場合、特定のシルエットSHをカメラ25から読み込ませるだけで、ユーザー自身の位置を含む地図表示体7に、様々な形態のAR表示体4やターゲット方向表示体8を重ね合わせて、携帯機器1に備えた表示部3から効果的に表示することができる。そのためユーザーは、特定のシルエットSHが示す場所を、恰も宝探しに参加するように手軽に目指すことが可能となり、キャラクターに連動した地域振興の効果を高めることができる。   In this case, only by reading a specific silhouette SH from the camera 25, various forms of the AR display body 4 and the target direction display body 8 are superimposed on the map display body 7 including the user's own position, and the mobile device 1. It can display effectively from the display part 3 with which it prepared. Therefore, the user can easily aim at the place indicated by the specific silhouette SH so that the eagle also participates in the treasure hunting, and the effect of regional promotion linked to the character can be enhanced.

以上、本発明の実施形態について説明したが、当該実施形態はあくまでも例として提示したに過ぎず、発明の範囲を限定することを意図していない。ここに提示したれ実施形態は、その他の様々な形態で実施可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置換、変更が可能である。例えば、携帯機器1に組み込んだ画像認識手段34を、サーバ11側の制御部41に設けてもよい。逆に、サーバ11側の制御部41の構成を、携帯機器1の制御部21に含ませても構わない。   As mentioned above, although embodiment of this invention was described, the said embodiment was only shown as an example to the last and is not intending limiting the range of invention. The embodiments presented herein can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the spirit of the invention. For example, the image recognition means 34 incorporated in the mobile device 1 may be provided in the control unit 41 on the server 11 side. Conversely, the configuration of the control unit 41 on the server 11 side may be included in the control unit 21 of the mobile device 1.

1 携帯機器
3 表示部(表示手段)
4 AR表示体(キャラクター表示体)
7 地図表示体
8 ターゲット方向表示体
21,41 制御部(制御処理手段)
22 位置検出部(位置検出手段)
25 カメラ(撮影手段)
34 画像認識手段
55 ターゲット位置情報記憶手段(記憶手段)
1 Mobile device 3 Display unit (display means)
4 AR display (character display)
7 Map display body 8 Target direction display body 21, 41 Control unit (control processing means)
22 Position detection unit (position detection means)
25 Camera (photographing means)
34 Image recognition means 55 Target position information storage means (storage means)

Claims (1)

ユーザーが保有する携帯機器を用いたキャラクター連携アプリケーション装置であって、
前記携帯機器に備えた撮影手段からの画像信号を取り込み、その画像信号が特定のキャラクター撮影物に対応したものであるか否かを判定する画像認識手段と、
前記特定のキャラクター撮影物に対応したターゲット位置情報を保存する記憶手段と、
前記画像信号が特定のキャラクター撮影物に対応したものであると前記画像認識手段が判定した時に、その特定のキャラクター撮影物に連動した個別の処理手順を進行させる制御処理手段と、を備え
前記制御処理手段は、前記携帯機器に備えた位置検出手段からの位置データが、前記記憶手段から読み出した前記ターゲット位置情報に向かうように、前記位置データを含む地図情報に、前記特定のキャラクター撮影物に関連するキャラクター表示体と、前記ターゲット位置情報の存在する方向を示すターゲット方向表示体とを重ね合わせて、前記携帯機器に備えた表示手段に表示させる構成としたことを特徴とするキャラクター連携アプリケーション装置。
A character collaboration application device using a mobile device owned by the user,
Image recognition means for capturing an image signal from the photographing means provided in the portable device and determining whether the image signal corresponds to a specific character photographed object;
Storage means for storing target position information corresponding to the specific character photographed object;
When the image recognition means determines that the image signal corresponds to a specific character photographed object, a control processing means that advances an individual processing procedure linked to the specific character photographed object, and
The control processing means captures the specific character in the map information including the position data so that the position data from the position detection means provided in the portable device is directed to the target position information read from the storage means. Character linkage characterized by superimposing a character display body related to an object and a target direction display body indicating the direction in which the target position information exists to display on a display means provided in the portable device Application device.
JP2014172623A 2014-08-27 2014-08-27 Character cooperation application device Active JP6293020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014172623A JP6293020B2 (en) 2014-08-27 2014-08-27 Character cooperation application device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014172623A JP6293020B2 (en) 2014-08-27 2014-08-27 Character cooperation application device

Publications (2)

Publication Number Publication Date
JP2016047085A JP2016047085A (en) 2016-04-07
JP6293020B2 true JP6293020B2 (en) 2018-03-14

Family

ID=55648387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014172623A Active JP6293020B2 (en) 2014-08-27 2014-08-27 Character cooperation application device

Country Status (1)

Country Link
JP (1) JP6293020B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6275310B1 (en) * 2017-05-26 2018-02-07 株式会社テクテック Augmented reality display system, program and method
JP7215752B2 (en) * 2020-07-19 2023-01-31 プレティア・テクノロジーズ株式会社 CONTENT PROVIDING SYSTEM AND CONTENT PROVIDING METHOD

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4062158B2 (en) * 2003-04-18 2008-03-19 株式会社デンソー apparatus
JP2006061317A (en) * 2004-08-25 2006-03-09 Nec Commun Syst Ltd Treasure hunting game system, method, game management server and program
JP4455294B2 (en) * 2004-11-25 2010-04-21 オリンパス株式会社 Image information processing apparatus, determination method, and computer program
JP2012212225A (en) * 2011-03-30 2012-11-01 Nifty Corp Information processing device, method, and program
JP5791433B2 (en) * 2011-08-31 2015-10-07 任天堂株式会社 Information processing program, information processing system, information processing apparatus, and information processing method
JP2013111188A (en) * 2011-11-28 2013-06-10 Dainippon Printing Co Ltd Trading card game method, program, and recording medium
JP2015041126A (en) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method

Also Published As

Publication number Publication date
JP2016047085A (en) 2016-04-07

Similar Documents

Publication Publication Date Title
US11321870B2 (en) Camera attitude tracking method and apparatus, device, and system
JP7058842B2 (en) Markpoint location display method, electronic devices and computer readable storage media
CN108144294B (en) Interactive operation implementation method and device and client equipment
US9155967B2 (en) Method for implementing game, storage medium, game device, and computer
CN109621413A (en) Rendering indication method, device, terminal and the storage medium of game picture
JP5869145B2 (en) Augment local sensor for stored content and AR communication
CN110716646A (en) Augmented reality data presentation method, device, equipment and storage medium
JP7374313B2 (en) Methods, devices, terminals and programs for driving vehicles in virtual environments
JP2014217566A (en) Hunting game distribution system
JP6228392B2 (en) Panorama image display program, panorama image display device, panorama image display system, and panorama image display method
US20150265922A1 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method
JP2015001760A (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP5915334B2 (en) Information processing apparatus, information processing method, and program
CN111672126B (en) Information display method, device, equipment and storage medium
JP5350427B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2022080441A (en) Information processing program, information processing device, information processing system, and information processing method
JP6293020B2 (en) Character cooperation application device
JP2012216073A (en) Image processor, image processor control method, and program
EP3015954B1 (en) Information processing device, control method for information processing device, program, and information storage medium
JP2015149032A (en) Extended reality providing system, program, and extended reality providing method
JP2015088860A (en) Terminal alarm device
CN111815783A (en) Virtual scene presenting method and device, electronic equipment and storage medium
JP2016133701A (en) Information providing system and information providing method
JP6974253B2 (en) A method for providing virtual space, a program for causing a computer to execute the method, and an information processing device for executing the program.
JP2011113127A (en) Object positioning device and object positioning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R150 Certificate of patent or registration of utility model

Ref document number: 6293020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250