JP2015122707A - Information processing device, method and program - Google Patents

Information processing device, method and program Download PDF

Info

Publication number
JP2015122707A
JP2015122707A JP2013266833A JP2013266833A JP2015122707A JP 2015122707 A JP2015122707 A JP 2015122707A JP 2013266833 A JP2013266833 A JP 2013266833A JP 2013266833 A JP2013266833 A JP 2013266833A JP 2015122707 A JP2015122707 A JP 2015122707A
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
image
display
content data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013266833A
Other languages
Japanese (ja)
Other versions
JP6305757B2 (en
Inventor
源治郎 片山
Genjiro Katayama
源治郎 片山
崇 ▲松▼村
崇 ▲松▼村
Takashi Matsumura
幸彦 青柳
Yukihiko Aoyagi
幸彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL STANDARD KK
Original Assignee
DIGITAL STANDARD KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL STANDARD KK filed Critical DIGITAL STANDARD KK
Priority to JP2013266833A priority Critical patent/JP6305757B2/en
Publication of JP2015122707A publication Critical patent/JP2015122707A/en
Application granted granted Critical
Publication of JP6305757B2 publication Critical patent/JP6305757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique that reduces trouble of a user when combining a photographic image with another image and improves accuracy in detecting a position where images should be combined.SOLUTION: An information processing device 100S and an information processing device 100M establish communication connection and exchange data with each other. If the photo-taking side information processing device 100S is not successful in trace of an AR marker 65 by image recognition processing, it instructs the information processing device 100M on a color as a display color of the AR marker 65 by preferentially selecting the color used less among colors included in a photographic image, and the information processing device 100M displays the AR marker 65 according to the instruction. The information processing device 100S detects a region indicating the AR marker 65 included in the photographic image, and combines content data according to a detection result. In addition, the information processing device 100M is able to designate content data to be displayed to the information processing device 100S by communication connection.

Description

本開示は、カメラの撮影により得られる撮影画像データに、別の画像を合成して表示するための技術に関する。   The present disclosure relates to a technique for combining and displaying another image on captured image data obtained by capturing with a camera.

スマートフォン、タブレット端末など、カメラを備えた情報処理装置が広く普及している。ユーザは、これらカメラ機能を利用して、例えばユーザ同士を撮影し、SNS(Social Networking Service)サイトやグループチャットアプリ等に投稿して撮影画像をユーザ間で共有している。   Information processing apparatuses equipped with cameras such as smartphones and tablet terminals are widely used. Users use these camera functions, for example, to photograph users and post them to an SNS (Social Networking Service) site, a group chat application, etc., and share the photographed image between users.

これらスマートフォンなどの情報処理装置に対して、数々のアプリケーションが提供されている。情報処理装置は、例えばアプリケーションストアを通じて、配信サーバからアプリケーションをダウンロードする。これらアプリケーションは、例えば、カメラが生成する画像信号に基づき、情報処理装置のディスプレイに撮影画像のプレビューを表示しつつ、撮影画像に対し、アイコンなど別の画像を合成する操作をユーザから受け付けて、合成画像を生成するためのものなどがある。撮影画像に対して別の画像を合成するための技術は、例えば特開2008−103873号公報(特許文献1)に開示されている。   Numerous applications are provided for information processing apparatuses such as smartphones. The information processing apparatus downloads the application from the distribution server through, for example, an application store. These applications, for example, based on the image signal generated by the camera, while displaying a preview of the captured image on the display of the information processing apparatus, accepting an operation for synthesizing another image such as an icon with the captured image from the user, For generating a composite image. A technique for synthesizing another image with a captured image is disclosed in, for example, Japanese Patent Application Laid-Open No. 2008-103873 (Patent Document 1).

情報処理装置は、アプリケーションを起動して、例えば、撮影画像に合成するための画像を指定する入力操作をユーザから受け付けて、撮影画像に対し、ユーザが指定する位置に画像を合成する。例えば、情報処理装置のユーザが、被写体となる別の人物を撮影し、撮影画像に合成するための画像として、炎や刀などのアニメーション画像を指定したとする。また、ユーザが、撮影画像の被写体の手の部分を、アニメーション画像を合成する位置として指定したとする。情報処理装置は、撮影画像を表示するとともに、ユーザが指定した位置(被写体の手の部分)にアニメーション画像を合成する。これにより、ユーザは、被写体とアニメーション画像とを合成し、他のユーザ(例えば、被写体となったユーザ)と画像を共有して楽しむことができる。   For example, the information processing apparatus starts an application, receives an input operation for designating an image to be combined with the captured image, for example, and combines the image with the captured image at a position specified by the user. For example, it is assumed that the user of the information processing apparatus has photographed another person as a subject and designated an animation image such as a flame or a sword as an image to be combined with the photographed image. Also, assume that the user designates the hand portion of the subject of the captured image as the position where the animation image is to be synthesized. The information processing apparatus displays a captured image and synthesizes an animation image at a position designated by the user (a portion of the subject's hand). Thereby, the user can synthesize the subject and the animation image, and enjoy sharing the image with other users (for example, the user who becomes the subject).

特開2008−103873号公報JP 2008-103873 A

しかし、撮影画像に対してユーザがアニメーション画像を合成する場合に、アニメーション画像を合成する位置を指定する操作をする必要があるため、ユーザにとって入力操作が煩雑になることがある。例えば、アニメーション画像を、被写体のどの部位に合成すべきか定まっている場合(例えば、アニメーション画像が、刀など手に把持するものである場合)に、ユーザが、都度、被写体の手の位置を指定してアニメーション画像を合成することが、ユーザにとって手間に感じられることがある。   However, when a user synthesizes an animation image with a captured image, it is necessary to perform an operation for designating a position where the animation image is to be synthesized, which may make the input operation complicated for the user. For example, when it is determined which part of the subject should synthesize the animation image (for example, when the animation image is held by a hand such as a sword), the user designates the position of the subject's hand each time. Thus, it may be troublesome for the user to synthesize the animation image.

ただし、アニメーション画像を被写体のどの部分に合成すべきかがある程度定まっている場合は、その合成すべき位置を画像認識処理等によって検出することもできる。例えば、眼鏡など顔に装着する物品を示す画像を、被写体の顔の一部分に合成する場合を想定する。この場合、情報処理装置は、顔検出処理によって目の位置等を検出し、検出された位置に基づいて、アニメーション画像を合成すべき位置をある程度特定することができる。これにより、ユーザの入力操作の手間を軽減することも期待できる。しかし、撮影環境の光量など、被写体を撮影する状況によっては、撮影画像から、画像認識処理等によってアニメーション画像を合成すべき位置を特定することが困難になることもある。   However, when it is determined to some extent in which part of the subject the animation image should be synthesized, the position to be synthesized can also be detected by image recognition processing or the like. For example, it is assumed that an image indicating an article to be worn on the face such as glasses is synthesized with a part of the face of the subject. In this case, the information processing apparatus can detect the position of the eyes and the like by face detection processing, and can specify to some extent the position where the animation image is to be synthesized based on the detected position. This can also be expected to reduce the user's input operation. However, depending on the situation where the subject is photographed, such as the amount of light in the photographing environment, it may be difficult to specify the position where the animation image should be synthesized from the photographed image by image recognition processing or the like.

したがって、撮影画像に対し、別の画像を合成する場合に、その別の画像を合成する位置の調整をするユーザの手間を軽減し、また、被写体の撮影環境にかかわらず、画像を合成すべき位置を検出する精度を向上させる技術が必要とされている。   Therefore, when combining another image with the captured image, the user's effort to adjust the position for combining the other image is reduced, and the image should be combined regardless of the shooting environment of the subject. There is a need for a technique that improves the accuracy of position detection.

一実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成される。このプログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、生成された合成画像データを第1のディスプレイに表示するステップとを実行させる。   According to one embodiment, a program for controlling the operation of the information processing apparatus is provided. An information processing apparatus stores a content module combined with a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and a captured image. A memory and a processor for controlling the operation of the information processing apparatus are provided. The other information processing apparatus is configured to display a specific image detected by the image recognition process on a second display included in the other information processing apparatus. This program establishes a communication connection with another information processing apparatus in the processor, and a display setting for displaying a specific image on the second display for the other information processing apparatus that has established the communication connection. And a step of detecting a specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting. Determining a position where the content data is to be combined based on the detection result of the specific image with respect to the photographed image, generating composite image data by combining the content data at the determined position, and the generated composite image data Are displayed on the first display.

別の実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備える。プログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、ディスプレイに、画像認識処理によって検出される特定の画像を表示するステップと、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信するステップとを実行させ、特定の画像を表示するステップは、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させるステップを含む。   According to another embodiment, a program for controlling the operation of the information processing apparatus is provided. The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus. The program includes a step of establishing a communication connection with another information processing apparatus on the processor, a step of displaying a specific image detected by the image recognition process on the display, and another information processing apparatus establishing the communication connection. Receiving a display setting for displaying the specific image on the display, and displaying the specific image in accordance with the display setting received from another information processing apparatus. Including the step of displaying.

別の実施形態に従うと、第1の情報処理装置と第2の情報処理装置とからなるシステムにおいて合成画像を生成する方法が提供される。第1の情報処理装置は、カメラと、第2の情報処理装置と通信するための第1の通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、第1の情報処理装置の動作を制御するためのプロセッサとを備える。第2の情報処理装置は、第1の情報処理装置と通信するための第2の通信モジュールと、画像認識処理によって検出される特定の画像を表示するよう構成される第2のディスプレイとを備える。この方法は、第1の情報処理装置と第2の情報処理装置とが、互いに通信接続を確立するステップと、第1の情報処理装置が、通信接続を確立した第2の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、第1の情報処理装置が、第2の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、第1の情報処理装置が、撮影画像において、検出された特定の画像に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、第1の情報処理装置が、生成された合成画像データを第1のディスプレイに表示するステップとを含む。   According to another embodiment, a method for generating a composite image in a system including a first information processing apparatus and a second information processing apparatus is provided. The first information processing device is combined with the camera, the first communication module for communicating with the second information processing device, the first display for displaying a photographed image by the camera, and the photographed image. A memory for storing content data and a processor for controlling the operation of the first information processing apparatus are provided. The second information processing apparatus includes a second communication module for communicating with the first information processing apparatus, and a second display configured to display a specific image detected by the image recognition process. . In this method, the first information processing apparatus and the second information processing apparatus establish a communication connection with each other, and the first information processing apparatus establishes a communication connection with the second information processing apparatus. A step of transmitting a display setting for displaying a specific image on the second display; and a captured image obtained by photographing the second information processing apparatus with the camera by the first information processing apparatus, The step of detecting a specific image included in the photographed image by performing image recognition processing based on the display setting, and the first information processing apparatus in the photographed image based on the detected specific image Determining a position where the data is to be combined, generating composite image data by combining the content data at the determined position, and the first information processing apparatus using the generated composite image data as the first And displaying on the display.

別の実施形態に従うと、撮影機能を有する情報処理装置が提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備え、他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信する通信処理部と、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出する検出部と、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成し、生成された合成画像データを第1のディスプレイに表示する映像処理部と、の各機能を発揮するよう構成される。   According to another embodiment, an information processing apparatus having a photographing function is provided. An information processing apparatus stores a content module combined with a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and a captured image. A memory and a processor for controlling the operation of the information processing apparatus are provided, and the other information processing apparatus displays a specific image detected by the image recognition process on a second display included in the other information processing apparatus. The processor establishes a communication connection with another information processing apparatus, and sets display settings for displaying a specific image on the second display with respect to the other information processing apparatus that has established the communication connection. By performing image recognition processing based on the display settings for captured images obtained by photographing the communication processing unit to be transmitted and other information processing devices with the camera A detection unit that detects a specific image included in the captured image, and a position where the content data is combined based on a detection result of the specific image with respect to the captured image, and a combined image in which the content data is combined at the determined position The image processing unit is configured to generate data and display the generated composite image data on the first display.

別の実施形態に従う情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備え、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信する通信処理部と、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させる映像処理部と、の各機能を発揮するよう構成される。   An information processing apparatus according to another embodiment includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus. A communication processing unit that establishes a communication connection with another information processing apparatus and receives a display setting for displaying a specific image on the display from the other information processing apparatus that has established the communication connection; According to the display setting received from the apparatus, each function of the video processing unit that displays a specific image on the display is configured.

上記一実施形態によると、撮影画像において、別の画像を合成する位置を調整するためのユーザの手間を軽減することができ、撮影画像に対し、別の画像を容易に合成することができる。また、被写体の撮影環境に対応して、情報処理装置間で通信が行なわれることで、撮影画像に対し、別の画像を合成する位置を検出する精度を向上させることができる。   According to the above-described embodiment, it is possible to reduce the user's trouble of adjusting the position where another image is combined in the captured image, and it is possible to easily combine another image with the captured image. Further, by performing communication between the information processing apparatuses corresponding to the shooting environment of the subject, it is possible to improve the accuracy of detecting a position where another image is combined with the shot image.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。It is a figure which shows an example of the condition where the information processing apparatus 100 concerning embodiment is used. 情報処理装置100を含むネットワークの構成を示す図である。1 is a diagram illustrating a configuration of a network including an information processing apparatus 100. FIG. 情報処理装置100の構成を示すブロック図である。2 is a block diagram illustrating a configuration of an information processing apparatus 100. FIG. コンテンツ管理テーブル33を示す図である。It is a figure which shows the content management table. 被写体を撮影する撮影側の情報処理装置100において、撮影画像とコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。It is a figure which shows an example of the user interface for synthesize | combining a picked-up image and content data in the information processing apparatus 100 by the imaging | photography side which image | photographs a to-be-photographed object. 情報処理装置100Mにおいて、AR(Augmented Reality)マーカを表示し、情報処理装置100Sの撮影画像に合成するコンテンツデータを指定するためのユーザインタフェースの一例を示す図である。It is a figure which shows an example of the user interface for displaying AR (Augmented Reality) marker in information processing apparatus 100M, and designating the content data combined with the picked-up image of information processing apparatus 100S. 実施の形態1の情報処理装置100による、コンテンツデータと撮影画像とを合成して表示するための処理の概要を示す図である。6 is a diagram illustrating an outline of processing for combining and displaying content data and a captured image by the information processing apparatus 100 according to Embodiment 1. FIG. 被写体となる情報処理装置100Mがマーカをディスプレイ16に表示する処理を示すフローチャートである。10 is a flowchart showing processing for displaying a marker on a display 16 by an information processing apparatus 100M as a subject. 被写体となる情報処理装置100Mが、撮影側の情報処理装置100Sからの通信を受信して、マーカの表示を変更する処理を示すフローチャートである。It is a flowchart which shows the process which information processing apparatus 100M used as a subject receives the communication from information processing apparatus 100S of the imaging | photography side, and changes the display of a marker. 被写体となる情報処理装置100Mが、情報処理装置100Mによる計測データを情報処理装置100Sへ送信するための送信タイマーイベント発生時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of the transmission timer event for the information processing apparatus 100M used as a subject to transmit the measurement data by the information processing apparatus 100M to the information processing apparatus 100S. 撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信接続を確立し、情報処理装置100Mのディスプレイ16に表示されるARマーカ65を認識するための処理を示すフローチャートである。10 is a flowchart showing processing for the information processing apparatus 100S on the photographing side to establish a communication connection with the information processing apparatus 100M serving as a subject and recognize the AR marker 65 displayed on the display 16 of the information processing apparatus 100M. . 撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信によってデータを受信し、ARデータをディスプレイ16に表示する設定を更新するための処理を示すフローチャートである。12 is a flowchart illustrating processing for the information processing apparatus 100S on the photographing side to receive data through communication with the information processing apparatus 100M serving as a subject and update the setting for displaying AR data on the display 16. 撮影側となる情報処理装置100Sが、ディスプレイ16において撮影画像に合成するコンテンツデータを設定するための処理を示すフローチャートである。7 is a flowchart illustrating processing for setting content data to be combined with a captured image on the display 16 by the information processing apparatus 100S on the imaging side. 撮影側となる情報処理装置100Sが、撮影画像に対して画像認識処理を行い、マーカの検出結果に応じてコンテンツデータを合成する処理を示すフローチャートである。It is a flowchart which shows the process which information processing apparatus 100S used as the imaging | photography side performs an image recognition process with respect to a picked-up image, and synthesize | combines content data according to the detection result of a marker. 情報処理装置100Sが、コンテンツデータの合成のONまたはOFFを、情報処理装置100Mの指示によって受け付ける例を示す図である。It is a figure which shows the example which information processing apparatus 100S receives ON or OFF of the synthesis | combination of content data by the instruction | indication of information processing apparatus 100M. 情報処理装置100において、撮影画像に合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。4 is a diagram illustrating an example of an interface for receiving an input operation for purchasing content data to be combined with a captured image in the information processing apparatus 100. FIG.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<実施の形態1>
図1は、実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。図1では、情報処理装置100として、情報処理装置100Mと情報処理装置100Sとを示している(以下、情報処理装置100Mと情報処理装置100Sとを総称して情報処理装置100ということもある)。情報処理装置100は、例えば、タッチパネルを備えるスマートフォンであるが、スマートフォンに限られない。情報処理装置100は、カメラを備え、カメラが撮影した撮影画像をディスプレイ16に表示している。図1の例では、情報処理装置100Mを保持する被写体を、情報処理装置100Sが撮影している。情報処理装置100Mは、ディスプレイ16Mに、AR(Augmented Reality)マーカ65を表示している。情報処理装置100Sは、カメラによって被写体を撮影しており、撮影画像をディスプレイ16Sに表示している。情報処理装置100Sは、撮影画像から、被写体が保持している情報処理装置100Mのディスプレイ16に表示されるARマーカ65を、画像認識処理によって検出する。情報処理装置100Sは、検出したARマーカ65の位置に、撮影画像に合成するためのARモデルデータ(コンテンツデータ)を合成する。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a situation in which the information processing apparatus 100 according to the embodiment is used. In FIG. 1, an information processing device 100M and an information processing device 100S are shown as the information processing device 100 (hereinafter, the information processing device 100M and the information processing device 100S may be collectively referred to as the information processing device 100). . The information processing apparatus 100 is, for example, a smartphone including a touch panel, but is not limited to a smartphone. The information processing apparatus 100 includes a camera and displays a captured image captured by the camera on the display 16. In the example of FIG. 1, the information processing apparatus 100 </ b> S images the subject that holds the information processing apparatus 100 </ b> M. The information processing apparatus 100M displays an AR (Augmented Reality) marker 65 on the display 16M. The information processing apparatus 100S captures a subject with a camera and displays a captured image on the display 16S. The information processing apparatus 100S detects the AR marker 65 displayed on the display 16 of the information processing apparatus 100M held by the subject from the captured image by image recognition processing. The information processing apparatus 100S synthesizes AR model data (content data) to be synthesized with the captured image at the detected position of the AR marker 65.

情報処理装置100Sと情報処理装置100Mとは、無線LAN(Local Area Network)規格、Bluetooth(登録商標)など近距離無線通信用のプロトコルに従って通信接続し、互いにデータを送受信することができる。情報処理装置100Sは、撮影画像において情報処理装置100Mのディスプレイ16Mに表示されるARマーカ65を画像認識処理によって検出することを容易にするため、情報処理装置100Mと通信し、ARマーカ65の発光色を指定する。例えば、ARマーカ65が、情報処理装置100Mの周囲の環境と同種類の色で発光している場合に、情報処理装置100SによるARマーカ65の検出が困難になることがある。そこで、情報処理装置100Mの周囲の環境に少ない色でARマーカ65を発光させるよう、情報処理装置100Sが情報処理装置100Mに対して指示をする。これにより、被写体の周囲の環境にかかわらず、情報処理装置100SによるARマーカ65の検出の精度が高まる。   The information processing device 100S and the information processing device 100M can communicate and communicate with each other according to a short-range wireless communication protocol such as a wireless local area network (LAN) standard or Bluetooth (registered trademark). The information processing apparatus 100S communicates with the information processing apparatus 100M and emits light from the AR marker 65 in order to facilitate detection of the AR marker 65 displayed on the display 16M of the information processing apparatus 100M in the captured image by image recognition processing. Specify the color. For example, when the AR marker 65 emits light with the same color as the environment around the information processing apparatus 100M, it may be difficult to detect the AR marker 65 by the information processing apparatus 100S. Therefore, the information processing apparatus 100S instructs the information processing apparatus 100M to cause the AR marker 65 to emit light with less colors in the environment around the information processing apparatus 100M. Thereby, the accuracy of detection of the AR marker 65 by the information processing apparatus 100S is increased regardless of the environment around the subject.

また、被写体となる情報処理装置100Mのユーザは、情報処理装置100Mが通信接続している情報処理装置100Sに対し、撮影画像からARマーカ65を検出したときにARマーカ65の位置に合成すべきコンテンツデータを指定することができる。これにより、情報処理装置100Mのユーザは、自らが被写体となった撮影画像において、どのコンテンツデータを合成するかを情報処理装置100Sに対して指定することができる。   In addition, the user of the information processing apparatus 100M serving as a subject should synthesize the AR marker 65 at the position of the AR marker 65 when the AR marker 65 is detected from the captured image with respect to the information processing apparatus 100S to which the information processing apparatus 100M is connected. Content data can be specified. As a result, the user of the information processing apparatus 100M can specify to the information processing apparatus 100S which content data is to be combined in the captured image that is the subject.

なお、図1に示すように、情報処理装置100Sは、スピーカ23Sとフロントカメラ18Sとを備える。情報処理装置100Sのユーザは、フロントカメラ18Sを起動させてユーザ自身を容易に撮影することができる。例えばコンテンツデータを合成するためのマーカの模様をユーザが保持することで、情報処理装置100Sのユーザは、ディスプレイ16Sに表示されるユーザ自身と、コンテンツデータとの合成画像を容易に得ることができる。   As shown in FIG. 1, the information processing apparatus 100S includes a speaker 23S and a front camera 18S. The user of the information processing apparatus 100S can easily photograph the user himself / herself by activating the front camera 18S. For example, when the user holds a marker pattern for synthesizing content data, the user of the information processing apparatus 100S can easily obtain a synthesized image of the user displayed on the display 16S and the content data. .

図1の例では、被写体のユーザ(情報処理装置100Sのユーザ)は、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきっているとする。被写体は、キャラクターの衣装を装着し、ある姿勢を維持している。情報処理装置100Sは、撮影画像に対し画像認識処理を行うことで、被写体が保持する情報処理装置100Mのディスプレイ16Mに表示されたARマーカ65を検出し、検出結果に基づいて、コンテンツデータを合成する位置を設定する。これにより、例えば、被写体が、ある作品のキャラクターになりきっている場合に、情報処理装置100は、作品中の演出や作品中のアイテムなどを撮影画像に合成することができる。このように、情報処理装置100は、キャラクターになりきった感覚を被写体に対して提供することができる。   In the example of FIG. 1, it is assumed that the subject user (the user of the information processing apparatus 100S) has become a character of a certain work such as a cartoon, a game, an animation, and a movie. The subject wears character costumes and maintains a certain posture. The information processing apparatus 100S detects the AR marker 65 displayed on the display 16M of the information processing apparatus 100M held by the subject by performing image recognition processing on the captured image, and synthesizes the content data based on the detection result. Set the position. Thus, for example, when the subject is a character of a certain work, the information processing apparatus 100 can synthesize effects in the work, items in the work, and the like with the photographed image. In this way, the information processing apparatus 100 can provide a sense of being a character to the subject.

<構成>
図2は、情報処理装置100を含むネットワークの構成を示す図である。図2では、情報処理装置100として、情報処理装置100A、100B、100Cが示されている。情報処理装置100A、100Cは、スマートフォンであり、情報処理装置100Bは、タブレット端末である。図2を参照して、情報処理装置100Aは、無線基地局700と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。配信サーバ900は、情報処理装置100が撮影画像と合成してディスプレイ16に表示するための複数のコンテンツデータを記憶している。情報処理装置100Aは、配信サーバ900と通信することで、配信サーバ900からコンテンツデータを取得する。例えば、情報処理装置100は、使用可能な期間が定められたコンテンツデータや、課金処理によって購入することができるコンテンツデータなどを配信サーバ900から取得する。情報処理装置100Bは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。情報処理装置100Cは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。
<Configuration>
FIG. 2 is a diagram illustrating a network configuration including the information processing apparatus 100. In FIG. 2, information processing apparatuses 100 </ b> A, 100 </ b> B, and 100 </ b> C are illustrated as the information processing apparatus 100. The information processing apparatuses 100A and 100C are smartphones, and the information processing apparatus 100B is a tablet terminal. Referring to FIG. 2, information processing apparatus 100 </ b> A is connected to radio base station 700 by radio communication, and communicates with distribution server 900 via network 800. The distribution server 900 stores a plurality of pieces of content data for the information processing apparatus 100 to synthesize with the captured image and display on the display 16. The information processing apparatus 100 </ b> A acquires content data from the distribution server 900 by communicating with the distribution server 900. For example, the information processing apparatus 100 acquires content data for which a usable period is determined, content data that can be purchased through billing processing, and the like from the distribution server 900. The information processing apparatus 100B is connected to the router 600 by wireless communication, and communicates with the distribution server 900 via the network 800. The information processing apparatus 100C is connected to the router 600 by wireless communication, and communicates with the distribution server 900 via the network 800.

情報処理装置100Bと情報処理装置100Cとは、無線通信規格に従って通信接続し、互いにデータを送受信することができる。情報処理装置100Bと情報処理装置100Cとは、撮影画像から、画像認識処理によって特定の画像(例えば、マーカ)を検出したときに、コンテンツデータを撮影画像に合成してディスプレイ16に表示する。情報処理装置100Bと情報処理装置100Cとは、互いに通信することにより、ディスプレイ16に表示するマーカの発光色を変更して撮影画像からマーカの検出を容易にする処理、撮影画像に合成するコンテンツデータを送受信する処理等を行う。   The information processing apparatus 100B and the information processing apparatus 100C can communicate and communicate with each other according to a wireless communication standard and can transmit and receive data to and from each other. When the information processing apparatus 100B and the information processing apparatus 100C detect a specific image (for example, a marker) from the captured image by image recognition processing, the content data is combined with the captured image and displayed on the display 16. The information processing apparatus 100B and the information processing apparatus 100C communicate with each other to change the emission color of the marker displayed on the display 16 to facilitate the detection of the marker from the captured image, and the content data to be combined with the captured image The process etc. which transmit / receive are performed.

図3は、情報処理装置100の構成を示すブロック図である。図3に示すように、情報処理装置100は、アンテナ11,13と、遠距離通信用モジュール12と、近距離通信用モジュール14と、タッチパネル15と、ディスプレイ16と、測位センサ17と、フロントカメラ18と、リアカメラ19と、電源制御部20と、バッテリ21と、マイク22と、スピーカ23と、音声処理部24と、記憶部25と、加速度センサ26と、制御部27とを含む。   FIG. 3 is a block diagram illustrating a configuration of the information processing apparatus 100. As shown in FIG. 3, the information processing apparatus 100 includes antennas 11 and 13, a long-distance communication module 12, a short-distance communication module 14, a touch panel 15, a display 16, a positioning sensor 17, and a front camera. 18, rear camera 19, power supply control unit 20, battery 21, microphone 22, speaker 23, sound processing unit 24, storage unit 25, acceleration sensor 26, and control unit 27.

アンテナ11とアンテナ13とは、情報処理装置100が発する信号を電波として放射する。また、アンテナ11は、空間から電波を受信して受信信号を遠距離通信用モジュール12へ与える。アンテナ13は、空間から電波を受信して受信信号を近距離通信用モジュール14へ与える。   The antenna 11 and the antenna 13 radiate a signal emitted from the information processing apparatus 100 as a radio wave. The antenna 11 receives radio waves from the space and gives a received signal to the long-distance communication module 12. The antenna 13 receives radio waves from the space and gives a received signal to the short-range communication module 14.

遠距離通信用モジュール12と近距離通信用モジュール14とは、情報処理装置100が他の無線機器と通信するため、アンテナ11等を介して信号を送受信するための変復調処理などを行う。遠距離通信用モジュール12と近距離通信用モジュール14とは、チューナー、高周波回路などを含む通信モジュールであり、情報処理装置100が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部27へ与える。   The long-distance communication module 12 and the short-distance communication module 14 perform modulation / demodulation processing for transmitting and receiving signals via the antenna 11 and the like so that the information processing apparatus 100 communicates with other wireless devices. The long-distance communication module 12 and the short-distance communication module 14 are communication modules including a tuner, a high-frequency circuit, and the like, perform modulation / demodulation and frequency conversion of radio signals transmitted and received by the information processing apparatus 100, and control received signals. 27.

遠距離通信用モジュール12は、例えば、LTE(Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)などの移動体通信システムに対応した通信モジュールであり、比較的長距離の通信に対応している。   The long-distance communication module 12 is a communication module compatible with mobile communication systems such as LTE (Long Term Evolution) and UMTS (Universal Mobile Telecommunications System), and is compatible with relatively long-distance communication.

近距離通信用モジュール14は、例えば、Bluetooth(登録商標)などの近距離無線通信規格や、IEEE(Institute of Electrical and Electronic Engineers)802.11などの無線LAN(Local Area Network)規格などに対応した通信モジュールであり、比較的近距離の通信に対応している。情報処理装置100が複数の通信方式に対応する場合、これら通信方式に対応してアンテナと通信用モジュールとを備えてもよい。   The short-range communication module 14 corresponds to, for example, a short-range wireless communication standard such as Bluetooth (registered trademark) or a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronic Engineers) 802.11. It is a communication module and supports relatively short distance communication. When the information processing apparatus 100 supports a plurality of communication methods, an antenna and a communication module may be provided corresponding to these communication methods.

タッチパネル15は、ユーザの入力操作を受け付ける。タッチパネル15は、例えば静電容量方式のものを用いることによってユーザの接触操作を受け付ける。タッチパネル15は、ユーザによる入力操作を制御部27へ出力する。   The touch panel 15 receives a user input operation. The touch panel 15 accepts a user's contact operation by using, for example, a capacitive type. The touch panel 15 outputs an input operation by the user to the control unit 27.

ディスプレイ16は、メニュー画面においてアイコンや背景画像を表示し、アプリケーションの動作によって静止画や動画などを表示する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)や有機EL(electroluminescence)ディスプレイによって実現される。   The display 16 displays icons and background images on the menu screen, and displays still images, moving images, and the like according to application operations. The display 16 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (electroluminescence) display.

測位センサ17は、情報処理装置100の位置を計測するためのセンサであり、例えばGPS(Global Positioning System)モジュールである。   The positioning sensor 17 is a sensor for measuring the position of the information processing apparatus 100, and is a GPS (Global Positioning System) module, for example.

フロントカメラ18とリアカメラ19は、入射光を受光して電気信号に変換するカメラモジュールであり、CMOS(Complementary Metal Oxide Semiconductor)センサ、ADC(Analog to Digital Converter)等を含み、画像信号を制御部27へ出力する。情報処理装置100の筺体において、ディスプレイ16が配置される面を前面としたときに、フロントカメラ18は、情報処理装置100の前面に配置される。また、リアカメラ19は、情報処理装置100の背面に配置される。   The front camera 18 and the rear camera 19 are camera modules that receive incident light and convert them into electrical signals, and include a CMOS (Complementary Metal Oxide Semiconductor) sensor, an ADC (Analog to Digital Converter), and the like, and control image signals. To 27. In the case of the information processing apparatus 100, when the surface on which the display 16 is disposed is the front surface, the front camera 18 is disposed on the front surface of the information processing apparatus 100. The rear camera 19 is disposed on the back surface of the information processing apparatus 100.

電源制御部20は、情報処理装置100の各回路に対する電力の供給を制御する。電源制御部20は、例えば電源制御用IC(Integrated Circuit)である。   The power supply control unit 20 controls power supply to each circuit of the information processing apparatus 100. The power control unit 20 is, for example, a power control IC (Integrated Circuit).

バッテリ21は、情報処理装置100の各回路を動作させるための電力を供給する供給源である。バッテリ21からの電力は、電源制御部20の制御に従って各回路へ供給される。   The battery 21 is a supply source that supplies power for operating each circuit of the information processing apparatus 100. The electric power from the battery 21 is supplied to each circuit according to the control of the power supply control unit 20.

マイク22は、ユーザによる音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部24へ与える。   The microphone 22 receives a voice input by the user and gives a voice signal corresponding to the voice input to the voice processing unit 24.

スピーカ23は、音声処理部24から与えられる音声信号を音声に変換して当該音声を情報処理装置100の外部へ出力する。   The speaker 23 converts the sound signal given from the sound processing unit 24 into sound and outputs the sound to the outside of the information processing apparatus 100.

音声処理部24は、音声信号の変復調を行う。音声処理部24は、マイク22から与えられる信号を変調して、変調後の信号を制御部27へ与える。また、音声処理部24は、音声信号をスピーカ23へ与える。音声処理部24は、例えば音声処理用のプロセッサによって実現される。   The audio processing unit 24 performs modulation / demodulation of the audio signal. The audio processing unit 24 modulates the signal given from the microphone 22 and gives the modulated signal to the control unit 27. In addition, the audio processing unit 24 gives an audio signal to the speaker 23. The sound processing unit 24 is realized by, for example, a sound processing processor.

記憶部25は、例えばフラッシュメモリ等により構成され、情報処理装置100が使用するデータおよびプログラムを記憶する。ある局面において、記憶部25は、ARコンテンツデータ31と、画像データ32と、コンテンツ管理テーブル33とを記憶する。   The storage unit 25 is configured by a flash memory, for example, and stores data and programs used by the information processing apparatus 100. In one aspect, the storage unit 25 stores AR content data 31, image data 32, and a content management table 33.

ARコンテンツデータ31は、撮影画像に合成するための各コンテンツデータの識別情報に対応する静止画または動画のデータである。   The AR content data 31 is still image data or moving image data corresponding to identification information of each content data to be combined with a captured image.

画像データ32は、撮影画像とコンテンツデータとを合成した画像をデータとして保存する処理によって生成される静止画または動画のデータである。   The image data 32 is still image data or moving image data generated by a process of storing an image obtained by combining a captured image and content data as data.

コンテンツ管理テーブル33は、詳しくは後述するが、撮影画像に合成する対象となるコンテンツデータそれぞれを識別する識別情報と、コンテンツデータのファイル名と、コンテンツデータの名称と、コンテンツデータを利用できる期間とを対応付けたテーブルである。   As will be described in detail later, the content management table 33 includes identification information for identifying each content data to be combined with a captured image, a file name of the content data, a name of the content data, and a period during which the content data can be used. Is a table in which

制御部27は、記憶部25に記憶される制御プログラムを読み込んで実行することにより、情報処理装置100の動作を制御する。制御部27は、例えばアプリケーションプロセッサである。制御部27は、プログラムに従って動作することにより、検出処理部41と、映像処理部42と、通信処理部43と、音声認識部44との各機能を発揮する。   The control unit 27 controls the operation of the information processing apparatus 100 by reading and executing a control program stored in the storage unit 25. The control unit 27 is, for example, an application processor. The control unit 27 operates according to the program, thereby exhibiting the functions of the detection processing unit 41, the video processing unit 42, the communication processing unit 43, and the voice recognition unit 44.

検出処理部41は、画像認識処理の機能を情報処理装置100に発揮させ、リアカメラ19またはフロントカメラ18から出力される撮影画像に対し、画像認識処理を施すことにより、撮影画像に含まれるマーカなどの特定の被写体を検出する。例えば、検出処理部41は、撮影画像に対して画像認識処理を行い、撮影画像に含まれるマーカの位置、マーカの傾きなどを出力する。   The detection processing unit 41 causes the information processing apparatus 100 to perform the function of image recognition processing, and performs image recognition processing on the captured image output from the rear camera 19 or the front camera 18 to thereby include a marker included in the captured image. Detect specific subjects such as. For example, the detection processing unit 41 performs image recognition processing on the captured image, and outputs the position of the marker included in the captured image, the inclination of the marker, and the like.

映像処理部42は、撮影画像に対し、検出処理部41の検出結果に基づいてコンテンツデータを合成する位置を決定する等の処理を行なって、合成後の画像を生成する。映像処理部42は、撮影画像や、生成した画像等に基づいて映像信号を生成してディスプレイ16の表示内容を制御する。   The video processing unit 42 performs processing such as determining the position where the content data is to be combined based on the detection result of the detection processing unit 41 on the captured image, and generates a combined image. The video processing unit 42 generates a video signal based on the captured image, the generated image, and the like, and controls the display content on the display 16.

通信処理部43は、通信プロトコルに従って、情報処理装置100と他の情報処理装置との通信処理を制御する。   The communication processing unit 43 controls communication processing between the information processing apparatus 100 and another information processing apparatus according to a communication protocol.

音声認識部44は、マイク22から出力される音声信号、情報処理装置100が他の情報処理装置から受信する音声信号その他の音声信号に対し、音声認識処理を行って、音声信号に示される人間の音声に基づき文字データを生成する。情報処理装置100は、自装置において音声認識処理用のプログラムを動作させ、音声信号から文字データを生成することとしてもよい。また、情報処理装置100は、音声信号を示す音声データを外部のサーバ(配信サーバ900など)へ送信し、外部のサーバによって音声認識処理を行わせ、その処理の結果を外部のサーバから受信することとしてもよい。   The voice recognition unit 44 performs voice recognition processing on the voice signal output from the microphone 22, the voice signal received by the information processing apparatus 100 from another information processing apparatus, and other voice signals, and the person indicated in the voice signal Character data is generated based on the voice. The information processing apparatus 100 may operate a speech recognition processing program in its own apparatus to generate character data from the speech signal. Further, the information processing apparatus 100 transmits audio data indicating an audio signal to an external server (such as the distribution server 900), causes the external server to perform voice recognition processing, and receives the processing result from the external server. It is good as well.

<データ構造>
図4を参照し、情報処理装置100の処理において用いられるデータを説明する。図4は、コンテンツ管理テーブル33を示す図である。
<Data structure>
With reference to FIG. 4, data used in the processing of the information processing apparatus 100 will be described. FIG. 4 is a diagram showing the content management table 33.

図4に示すように、コンテンツ管理テーブル33の各レコードは、識別番号331と、ファイル名332と、ARデータ名称333と、利用可能期間334とを含む。   As shown in FIG. 4, each record of the content management table 33 includes an identification number 331, a file name 332, an AR data name 333, and an available period 334.

識別番号331は、コンテンツデータそれぞれを識別するための識別情報である。ファイル名332は、コンテンツデータの識別情報に対応するファイルの名称を示す。ARデータ名称333は、識別情報に示されるコンテンツデータのタイトルを示す。利用可能期間334は、コンテンツデータを利用できる期間を示す。図4に示すように、例えば、利用可能期間334のデータ「2013/10/31」は、ユーザがコンテンツデータを利用できる期間が2013年10月31日までであることを示し、データ「期限設定なし」は、コンテンツデータの利用可能な期間が設定されていないことを示す。   The identification number 331 is identification information for identifying each content data. The file name 332 indicates the name of the file corresponding to the identification information of the content data. The AR data name 333 indicates the title of the content data indicated in the identification information. The available period 334 indicates a period during which the content data can be used. As shown in FIG. 4, for example, the data “2013/10/31” in the available period 334 indicates that the period during which the user can use the content data is October 31, 2013. “None” indicates that an available period of content data is not set.

<ユーザインタフェースの例(撮影側の装置)>
図5を参照して、情報処理装置100がディスプレイ16に表示する画面の一例を説明する。図5は、被写体を撮影する撮影側の情報処理装置100において、撮影画像とコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。
<Example of user interface (photographing device)>
An example of a screen displayed on the display 16 by the information processing apparatus 100 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a user interface for combining a captured image and content data in the information processing apparatus 100 on the photographing side that photographs a subject.

図5に示すように、撮影側の情報処理装置100Sの制御部27は、ディスプレイ16Sにおいて、表示切替部51と、画像表示領域52と、撮影切替部54と、撮影開始部55と、撮影画像投稿部56と、選択ファイル表示部57と、指示送信部58とを表示する。また、制御部27は、撮影画像に合成するコンテンツデータをアニメーション合成部53に表示する。図5の例では、選択ファイル表示部57に示されるコンテンツデータがユーザによって選択されている。制御部27は、選択ファイル表示部57に示されるコンテンツデータと、撮影画像とを合成して画像表示領域52に表示する。   As shown in FIG. 5, the control unit 27 of the information processing apparatus 100S on the photographing side includes a display switching unit 51, an image display area 52, a photographing switching unit 54, a photographing start unit 55, and a photographed image on the display 16S. A posting unit 56, a selected file display unit 57, and an instruction transmission unit 58 are displayed. Further, the control unit 27 displays content data to be combined with the captured image on the animation combining unit 53. In the example of FIG. 5, the content data shown in the selected file display unit 57 is selected by the user. The control unit 27 combines the content data shown in the selected file display unit 57 and the photographed image and displays them in the image display area 52.

表示切替部51は、ユーザによって指定されたコンテンツデータと撮影画像とが合成された画像をディスプレイ16に表示するか否かの設定を示す領域である。図8の例では、表示切替部51は設定「ON」を示している。この場合、制御部27は、コンテンツデータと撮影画像とを合成して生成された画像をディスプレイ16に表示する。なお、表示切替部51の表示内容が設定「OFF」の場合は、制御部27は、カメラによって取得された撮影画像をディスプレイ16に表示する。制御部27は、ユーザの入力操作をタッチパネル15によって受け付けており、表示切替部51に対する入力操作を受け付けて、撮影画像とコンテンツデータとが合成された画像を表示するか否かの設定のONとOFFとを切り替える。   The display switching unit 51 is an area that indicates a setting as to whether or not to display on the display 16 an image in which content data designated by the user and a captured image are combined. In the example of FIG. 8, the display switching unit 51 indicates the setting “ON”. In this case, the control unit 27 displays an image generated by combining the content data and the captured image on the display 16. When the display content of the display switching unit 51 is set to “OFF”, the control unit 27 displays the captured image acquired by the camera on the display 16. The control unit 27 receives a user input operation through the touch panel 15, receives an input operation on the display switching unit 51, and sets ON whether to display an image obtained by combining a captured image and content data. Switch off.

画像表示領域52は、情報処理装置100のカメラから出力される撮影画像と、ユーザによって指定されたコンテンツデータとを合成した画像を表示するための領域である。画像表示領域52において、コンテンツデータを合成している領域をアニメーション合成部53に示す。制御部27は、撮影画像に対する画像認識処理により、マーカなど特定の被写体を検出し、検出された位置に基づいてアニメーション合成部53を決定し、アニメーション合成部53にコンテンツデータを合成する。   The image display area 52 is an area for displaying an image obtained by combining the captured image output from the camera of the information processing apparatus 100 and the content data specified by the user. In the image display area 52, an area where the content data is synthesized is shown to the animation composition unit 53. The control unit 27 detects a specific subject such as a marker through image recognition processing on the captured image, determines the animation synthesis unit 53 based on the detected position, and synthesizes content data to the animation synthesis unit 53.

撮影切替部54は、画像表示領域52において表示されている画像を、静止画として保存するか、動画として保存するかの設定を受け付けるための領域である。   The shooting switching unit 54 is an area for receiving a setting for saving an image displayed in the image display area 52 as a still image or a moving image.

撮影開始部55は、画像表示領域52において表示されている画像を保存するための入力操作をユーザから受け付けるための領域である。表示切替部51において、設定が「ON」、すなわちコンテンツデータと撮影画像とが合成された画像を表示する設定である場合、情報処理装置100は、撮影開始部55に対する入力操作に応じて、コンテンツデータが合成された画像を静止画または動画として保存する。   The imaging start unit 55 is an area for accepting an input operation for saving the image displayed in the image display area 52 from the user. In the display switching unit 51, when the setting is “ON”, that is, the setting is to display an image in which the content data and the captured image are combined, the information processing apparatus 100 displays the content according to the input operation to the shooting start unit 55. Save the combined image as a still image or video.

撮影画像投稿部56は、画像表示領域52に表示されている画像、または撮影開始部55への入力操作に応じて保存した画像を、他の情報処理装置と共有するための入力操作をユーザから受け付けるための領域である。情報処理装置100は、撮影画像投稿部56に対する入力操作を受け付けることで、他の情報処理装置へ画像ファイルを送信するための処理、画像投稿用のSNSサイトにアクセスして画像を投稿するための処理などを行う。   The photographed image posting unit 56 receives an input operation for sharing an image displayed in the image display area 52 or an image stored in response to an input operation to the photographing start unit 55 with another information processing apparatus. It is an area for receiving. The information processing apparatus 100 receives an input operation on the photographed image posting unit 56, thereby processing to transmit an image file to another information processing apparatus, accessing an SNS site for image posting, and posting an image Perform processing.

選択ファイル表示部57は、ユーザによって選択されたコンテンツデータを示す領域である。また、選択ファイル表示部57は、コンテンツデータを選択する操作をユーザから受け付けるための領域である。例えば、情報処理装置100は、選択ファイル表示部57に対する入力操作を受け付けることで、コンテンツデータの選択をユーザから受け付けるための画面を表示する。   The selected file display unit 57 is an area indicating content data selected by the user. The selected file display unit 57 is an area for receiving an operation for selecting content data from the user. For example, the information processing apparatus 100 displays a screen for receiving selection of content data from the user by receiving an input operation on the selected file display unit 57.

指示送信部58は、被写体となっているユーザの情報処理装置100Mと通信し、マーカの色の変更などの指示を情報処理装置100Mに行うための入力操作を受け付ける領域である。   The instruction transmission unit 58 is an area that communicates with the information processing apparatus 100M of the user who is the subject and receives an input operation for giving an instruction to the information processing apparatus 100M such as changing the marker color.

<ユーザインタフェースの例(マーカ側の装置)>
図6を参照して、被写体となるユーザが把持する情報処理装置100Mがディスプレイ16Mに表示する画面の一例を説明する。図6は、情報処理装置100Mにおいて、ARマーカを表示し、情報処理装置100Sの撮影画像に合成するコンテンツデータを指定するためのユーザインタフェースの一例を示す図である。
<User interface example (marker side device)>
With reference to FIG. 6, an example of a screen displayed on the display 16M by the information processing apparatus 100M held by the user as the subject will be described. FIG. 6 is a diagram illustrating an example of a user interface for displaying an AR marker and designating content data to be combined with a captured image of the information processing apparatus 100S in the information processing apparatus 100M.

図6に示すように、情報処理装置100Mの制御部27は、ディスプレイ16Mにおいて、マーカ表示領域61と、コンテンツ指定部62と、データ送信部63と、データ購入部64とを表示する。   As illustrated in FIG. 6, the control unit 27 of the information processing apparatus 100M displays a marker display area 61, a content specifying unit 62, a data transmission unit 63, and a data purchase unit 64 on the display 16M.

マーカ表示領域61は、撮影側の情報処理装置100Mが、撮影画像に対する画像認識処理によって検出するARマーカ65を表示するための領域である。   The marker display area 61 is an area for displaying the AR marker 65 detected by the image processing side information processing apparatus 100M through image recognition processing on the captured image.

コンテンツ指定部62は、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを情報処理装置100Mにおいて指定するための入力操作を受け付ける領域である。制御部27は、コンテンツ指定部62において、情報処理装置100Mのユーザが指定したコンテンツデータを示す画像を表示する。また、制御部27は、例えばコンテンツ指定部62に対する入力操作を受け付けて、コンテンツデータを選択するための画面をディスプレイ16Mに表示する。   The content designation unit 62 is an area that receives an input operation for designating content data to be combined with a captured image in the information processing device 100S on the photographing side in the information processing device 100M. The control unit 27 displays an image indicating the content data specified by the user of the information processing apparatus 100M in the content specifying unit 62. For example, the control unit 27 receives an input operation on the content specifying unit 62 and displays a screen for selecting content data on the display 16M.

データ送信部63は、情報処理装置100Mのユーザが指定したコンテンツデータを特定する情報を、撮影側の情報処理装置100Sに送信するための入力操作をユーザから受け付ける領域である。情報処理装置100Mの制御部27は、データ送信部63に対する入力操作を受け付けて、情報処理装置100Sに対し、コンテンツデータそのもの、または、コンテンツデータの識別子などコンテンツデータを特定する情報を送信する。   The data transmission unit 63 is an area that accepts an input operation for transmitting information specifying content data specified by the user of the information processing apparatus 100M to the information processing apparatus 100S on the photographing side. The control unit 27 of the information processing device 100M receives an input operation on the data transmission unit 63, and transmits content data itself or information specifying content data such as an identifier of content data to the information processing device 100S.

データ購入部64は、コンテンツデータの購入をするための入力操作をユーザから受け付ける領域である。制御部27は、データ購入部64に対する入力操作を受け付けて、購入可能なコンテンツデータのリストを表示し、コンテンツデータを配信する外部のサーバとの通信接続を行う。   The data purchasing unit 64 is an area for accepting an input operation for purchasing content data from the user. The control unit 27 receives an input operation to the data purchase unit 64, displays a list of content data that can be purchased, and performs communication connection with an external server that distributes the content data.

<制御構造>
図7を参照して、情報処理装置100の制御構造を説明する。図7は、実施の形態1の情報処理装置100による、コンテンツデータと撮影画像とを合成して表示するための処理の概要を示す図である。なお、図7では、情報処理装置100Mを保持しているユーザを図示していない。
<Control structure>
A control structure of the information processing apparatus 100 will be described with reference to FIG. FIG. 7 is a diagram illustrating an outline of processing for combining and displaying content data and a captured image by the information processing apparatus 100 according to the first embodiment. Note that FIG. 7 does not show a user holding the information processing apparatus 100M.

図7(A)に示すように、情報処理装置100Sは、カメラを起動して情報処理装置100Mを撮影している。情報処理装置100Mは、ディスプレイ16MにARマーカ65を表示している。ただし、撮影環境(周囲の色、光量など)の影響を受けて、情報処理装置100Sは、撮影画像から、ARマーカ65の検出に失敗している。情報処理装置100Sは、情報処理装置100Mと通信し、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mのマーカ表示領域61に表示されるARマーカ65の発光色など、ARマーカ65の表示の設定を指定する。   As illustrated in FIG. 7A, the information processing apparatus 100S activates the camera and photographs the information processing apparatus 100M. The information processing apparatus 100M displays the AR marker 65 on the display 16M. However, the information processing apparatus 100S fails to detect the AR marker 65 from the photographed image due to the influence of the photographing environment (such as surrounding color and light amount). The information processing apparatus 100S communicates with the information processing apparatus 100M, and in order to make it easier to detect the AR marker 65 from the captured image, the AR marker such as the emission color of the AR marker 65 displayed in the marker display area 61 of the information processing apparatus 100M. Specify 65 display settings.

図7(B)に示すように、情報処理装置100Mは、情報処理装置100Sの指示に応じて、ディスプレイ16Mに表示するARマーカ65の設定(発光色などの設定)を変更する。例えば、情報処理装置100Sは、撮影画像に含まれる各色の分布を参照し、各色のうち最も少ない色を検出し、この色でARマーカ65を表示するよう情報処理装置100Mに指示を送る。情報処理装置100Sは、情報処理装置100Mに指示した色を用いたフィルタを適用し、撮影画像からARマーカ65を検出する。情報処理装置100Sは、撮影画像においてARマーカ65を検出した位置に基づいて、コンテンツデータを表示する位置を決定する。   As illustrated in FIG. 7B, the information processing apparatus 100M changes the setting of the AR marker 65 displayed on the display 16M (setting of the emission color or the like) in response to an instruction from the information processing apparatus 100S. For example, the information processing apparatus 100S refers to the distribution of each color included in the captured image, detects the smallest color among the colors, and sends an instruction to the information processing apparatus 100M to display the AR marker 65 with this color. The information processing apparatus 100S applies a filter using the color instructed to the information processing apparatus 100M, and detects the AR marker 65 from the captured image. The information processing apparatus 100S determines the position where the content data is displayed based on the position where the AR marker 65 is detected in the captured image.

図7(C)に示すように、被写体側の情報処理装置100Mは、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを指定することもできる。情報処理装置100Mは、情報処理装置100Sと通信接続し、コンテンツデータそのもの、コンテンツデータの識別子、またはコンテンツデータを取得する方法を示す情報などコンテンツデータを特定する情報を情報処理装置100Sへ送信する。例えば、情報処理装置100Mは、情報処理装置100Sと通信し、情報処理装置100Sのコンテンツ管理テーブル33に示されるコンテンツデータの一覧を取得することとしてもよい。情報処理装置100Mは、情報処理装置100Sが管理しているコンテンツデータの一覧の中から、コンテンツデータを識別する情報を選択し、選択した識別情報を情報処理装置100Sへ送信することとしてもよい。   As shown in FIG. 7C, the subject-side information processing apparatus 100M can also specify content data to be combined with the photographed image in the photographing-side information processing apparatus 100S. The information processing apparatus 100M communicates with the information processing apparatus 100S, and transmits information specifying content data such as content data itself, an identifier of content data, or information indicating a method for acquiring content data to the information processing apparatus 100S. For example, the information processing apparatus 100M may communicate with the information processing apparatus 100S and acquire a list of content data shown in the content management table 33 of the information processing apparatus 100S. The information processing apparatus 100M may select information for identifying content data from the list of content data managed by the information processing apparatus 100S, and may transmit the selected identification information to the information processing apparatus 100S.

図7(D)に示すように、情報処理装置100Sは、撮影画像からARマーカ65を検出した位置に基づいてコンテンツデータを合成する位置を決定し、決定した位置に、情報処理装置100Mから指定されたコンテンツデータを表示する。   As illustrated in FIG. 7D, the information processing apparatus 100S determines a position where the content data is to be combined based on the position where the AR marker 65 is detected from the captured image, and designates the determined position from the information processing apparatus 100M. Displayed content data.

なお、実施の形態1では、コンテンツデータは、例えば3次元の形状を有するアニメーションのデータである。以下、情報処理装置100がユーザからの入力操作をタッチパネル15によって受け付けて、コンテンツデータを撮影画像に合成する処理を説明する。   In the first embodiment, the content data is, for example, animation data having a three-dimensional shape. Hereinafter, a process in which the information processing apparatus 100 receives an input operation from the user via the touch panel 15 and combines the content data with the photographed image will be described.

<被写体側の情報処理装置100Mの制御構造>
図8は、被写体となる情報処理装置100Mがマーカをディスプレイ16に表示する処理を示すフローチャートである。
<Control structure of information processing apparatus 100M on subject side>
FIG. 8 is a flowchart illustrating a process in which the information processing apparatus 100M as a subject displays a marker on the display 16.

ステップS801において、情報処理装置100Mの制御部27は、撮影側となる情報処理装置100Sと、例えば無線LANやBluetooth(登録商標)などの近距離無線通信の規格に従って通信接続を確立する。   In step S801, the control unit 27 of the information processing apparatus 100M establishes a communication connection with the information processing apparatus 100S on the photographing side according to a short-range wireless communication standard such as a wireless LAN or Bluetooth (registered trademark).

ステップS803において、制御部27は、撮影側の情報処理装置100Sに対し、コンテンツデータを指定するか否かを判断する。例えば、制御部27は、コンテンツデータを指定するか否かの入力操作をユーザから受け付ける。情報処理装置100Mが情報処理装置100Sに対しコンテンツデータを指定する場合(ステップS803においてYES)、制御部27は、ステップS805の処理を行い、そうでない場合(ステップS803においてNO)、制御部27は、ステップS807の処理を行う。   In step S803, the control unit 27 determines whether to specify content data for the information processing apparatus 100S on the photographing side. For example, the control unit 27 receives an input operation from the user as to whether to specify content data. When information processing apparatus 100M designates content data for information processing apparatus 100S (YES in step S803), control unit 27 performs the process of step S805, otherwise (NO in step S803), control unit 27 Then, the process of step S807 is performed.

ステップS805において、制御部27は、情報処理装置100Mが情報処理装置100Sへ送信するコンテンツデータのデータサイズと閾値とを比較し、データサイズが閾値を上回る場合は、コンテンツデータを特定する情報として、コンテンツデータを取得する方法を示す情報(例えば、URL(Uniform Resource Locator))を情報処理装置100Sへ送信する。また、情報処理装置100Mの制御部27は、コンテンツデータのデータサイズが閾値を越えない場合は、コンテンツデータそのもの(コンテンツデータ本体)を情報処理装置100Sへ送信する。   In step S805, the control unit 27 compares the data size of the content data transmitted from the information processing apparatus 100M to the information processing apparatus 100S with a threshold value, and if the data size exceeds the threshold value, Information (for example, URL (Uniform Resource Locator)) indicating a method for acquiring content data is transmitted to the information processing apparatus 100S. In addition, when the data size of the content data does not exceed the threshold value, the control unit 27 of the information processing device 100M transmits the content data itself (content data main body) to the information processing device 100S.

ステップS807において、制御部27は、ARマーカ65を表示するための設定(表示するマーカの形状、表示する色、表示する大きさなど)に基づいて、ARマーカ65をマーカ表示領域61に表示する。制御部27は、ARマーカ65を表示するための設定を情報処理装置100Sから指定されている場合は、情報処理装置100Sの指定に従ってARマーカ65をマーカ表示領域61に表示する。   In step S807, the control unit 27 displays the AR marker 65 in the marker display area 61 based on the settings for displaying the AR marker 65 (the shape of the marker to be displayed, the color to be displayed, the size to be displayed, etc.). . When the setting for displaying the AR marker 65 is designated by the information processing apparatus 100S, the control unit 27 displays the AR marker 65 in the marker display area 61 according to the designation of the information processing apparatus 100S.

ステップS809において、制御部27は、タイマーを設定して、イベントの発生を待機する状態へと移る。ステップS809において制御部27が設定するタイマーは、情報処理装置100Mが測位センサ17や加速度センサ26によって情報処理装置100Mの使用状態を示す情報を取得し、取得した情報を、情報処理装置100Sへ送信するタイミングを示す。   In step S809, the control unit 27 sets a timer and shifts to a state of waiting for an event to occur. In the timer set by the control unit 27 in step S809, the information processing apparatus 100M acquires information indicating the usage state of the information processing apparatus 100M by the positioning sensor 17 and the acceleration sensor 26, and transmits the acquired information to the information processing apparatus 100S. Indicates the timing to perform.

図9は、被写体となる情報処理装置100Mが、撮影側の情報処理装置100Sからの通信を受信して、マーカの表示を変更する処理を示すフローチャートである。   FIG. 9 is a flowchart illustrating a process in which the information processing apparatus 100M serving as a subject receives communication from the information processing apparatus 100S on the photographing side and changes the marker display.

ステップS901において、情報処理装置100Mの制御部27は、情報処理装置100Sから、ARマーカ65をディスプレイ16に表示する設定を示すデータを受信する。   In step S901, the control unit 27 of the information processing device 100M receives data indicating the setting for displaying the AR marker 65 on the display 16 from the information processing device 100S.

ステップS903において、制御部27は、ステップS901で受信したデータに基づいて、ARマーカ65の表示方法(マーカの色、模様、形状、表示サイズなど)の設定を更新し、表示方法の設定に従ってディスプレイ16にARマーカ65を表示する。   In step S903, the control unit 27 updates the setting of the display method (marker color, pattern, shape, display size, etc.) of the AR marker 65 based on the data received in step S901, and displays the display according to the display method setting. 16 displays an AR marker 65.

図10は、被写体となる情報処理装置100Mが、情報処理装置100Mによる計測データを情報処理装置100Sへ送信するための送信タイマーイベント発生時の処理を示すフローチャートである。図10に示すように、情報処理装置100Mは、加速度センサ26、測位センサ17、ジャイロセンサなどを備えており、これらセンサによる測定データを保持している。情報処理装置100Mは、タイマーに示される周期に従って、情報処理装置100Sへ測定データを送信する。   FIG. 10 is a flowchart showing processing when a transmission timer event occurs for the information processing apparatus 100M to be a subject to transmit measurement data from the information processing apparatus 100M to the information processing apparatus 100S. As shown in FIG. 10, the information processing apparatus 100M includes an acceleration sensor 26, a positioning sensor 17, a gyro sensor, and the like, and holds measurement data obtained by these sensors. The information processing apparatus 100M transmits measurement data to the information processing apparatus 100S according to the cycle indicated by the timer.

ステップS1001において、情報処理装置100Mの制御部27は、情報処理装置100Mの各種センサの測定データをメモリから読み出す。   In step S1001, the control unit 27 of the information processing device 100M reads measurement data of various sensors of the information processing device 100M from the memory.

ステップS1003において、制御部27は、メモリから読み出した測定データを、撮影側の情報処理装置100Sへ送信する。   In step S1003, the control unit 27 transmits the measurement data read from the memory to the information processing apparatus 100S on the photographing side.

ステップS1005において、制御部27は、情報処理装置100Mの各種センサの測定データを送信するための送信タイマーを設定する。   In step S1005, the control unit 27 sets a transmission timer for transmitting measurement data of various sensors of the information processing apparatus 100M.

制御部27は、ステップS1005で設定した送信タイマーによるイベントが発生する都度、図10に示す処理を行う。   The control unit 27 performs the process shown in FIG. 10 every time an event is generated by the transmission timer set in step S1005.

図11は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信接続を確立し、情報処理装置100Mのディスプレイ16に表示されるARマーカ65を認識するための処理を示すフローチャートである。   FIG. 11 illustrates a process for the information processing apparatus 100S on the photographing side to establish a communication connection with the information processing apparatus 100M serving as a subject and recognize the AR marker 65 displayed on the display 16 of the information processing apparatus 100M. It is a flowchart to show.

ステップS1101において、情報処理装置100Sの制御部27は、近距離無線通信の規格に従って、被写体となる情報処理装置100Mとの通信接続を確立する。   In step S1101, the control unit 27 of the information processing apparatus 100S establishes a communication connection with the information processing apparatus 100M serving as a subject according to the short-range wireless communication standard.

ステップS1103において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1103に示す処理の詳細は、後述する。   In step S1103, the control unit 27 performs processing for setting content data (AR model data) to be combined with the captured image when the AR marker 65 is detected from the captured image. Details of the processing shown in step S1103 will be described later.

ステップS1105において、制御部27は、フロントカメラ18の撮影機能を発揮させるための初期化の処理を行い、例えば撮影画像を取得するためのキャプチャ周期の設定などを行って、フロントカメラ18による撮影を開始する。   In step S <b> 1105, the control unit 27 performs initialization processing for exhibiting the photographing function of the front camera 18, for example, sets a capture cycle for acquiring a photographed image, and performs photographing by the front camera 18. Start.

図12は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信によってデータを受信し、ARデータをディスプレイ16に表示する設定を更新するための処理を示すフローチャートである。   FIG. 12 is a flowchart illustrating processing for the information processing apparatus 100S on the photographing side to receive data through communication with the information processing apparatus 100M serving as the subject and update the setting for displaying the AR data on the display 16. .

ステップS1201において、情報処理装置100Sの制御部27は、撮影側の情報処理装置100Mから、情報処理装置100Mの各種センサの測定データ、情報処理装置100Mによって指定されるコンテンツデータなど、各種のデータを受信する。   In step S1201, the control unit 27 of the information processing device 100S receives various types of data such as measurement data of various sensors of the information processing device 100M and content data specified by the information processing device 100M from the information processing device 100M on the photographing side. Receive.

ステップS1203において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1203に示す処理の詳細は、後述する。   In step S1203, the control unit 27 performs processing for setting content data (AR model data) to be combined with the captured image when the AR marker 65 is detected from the captured image. Details of the processing shown in step S1203 will be described later.

ステップS1205において、制御部27は、ステップS1201で受信したデータに基づき、3次元のARデータであるコンテンツデータをディスプレイ16に表示するための向き等のパラメータを更新する。   In step S1205, the control unit 27 updates parameters such as a direction for displaying content data, which is three-dimensional AR data, on the display 16 based on the data received in step S1201.

図13は、撮影側となる情報処理装置100Sが、ディスプレイ16において撮影画像に合成するコンテンツデータを設定するための処理を示すフローチャートである。図13に示す処理は、ステップS1103、ステップS1203の各処理に対応する。   FIG. 13 is a flowchart showing a process for setting content data to be combined with a photographed image on the display 16 by the information processing apparatus 100S on the photographing side. The process shown in FIG. 13 corresponds to each process of step S1103 and step S1203.

ステップS1301において、情報処理装置100Sの制御部27は、情報処理装置100Mから、コンテンツデータの指定を受けた場合は、メモリを参照し、撮影画像に合成するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とを比較する。比較の結果、メモリに保持するコンテンツデータの設定と、情報処理装置100Mから指定されたコンテンツデータとが一致する場合は、制御部27は、コンテンツデータの設定を変更する必要がないと判断する(ステップS1301において、「変更なし」)。また、メモリに保持するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とが一致しない場合は、制御部27は、コンテンツデータの設定を変更する必要があると判断し(ステップS1301において、「変更あり」)、ステップS1303の処理を行う。   In step S1301, when the control unit 27 of the information processing apparatus 100S receives the designation of content data from the information processing apparatus 100M, the control unit 27 refers to the memory, sets the content data to be combined with the captured image, and the information processing apparatus 100M. Compare the content data specified by. As a result of the comparison, if the setting of the content data stored in the memory matches the content data specified from the information processing apparatus 100M, the control unit 27 determines that it is not necessary to change the setting of the content data ( In step S1301, “no change”). If the setting of the content data stored in the memory and the specification of the content data by the information processing apparatus 100M do not match, the control unit 27 determines that the setting of the content data needs to be changed (in step S1301). , “Changed”), the process of step S1303 is performed.

ステップS1303において、制御部27は、コンテンツデータそのものを情報処理装置100Mから受信しているか、またはコンテンツデータを取得可能なURLの情報を受信しているかを判断する。コンテンツデータそのものを情報処理装置100Mから受信している場合(ステップS1303においてYES)、制御部27は、ステップS1307の処理を行う。制御部27は、コンテンツデータを取得可能なURLの情報を受信している場合は(ステップS1303においてNO)、ステップS1305の処理を行う。   In step S1303, the control unit 27 determines whether the content data itself is received from the information processing apparatus 100M, or whether information on a URL from which content data can be acquired is received. When the content data itself is received from information processing apparatus 100M (YES in step S1303), control unit 27 performs the process of step S1307. If the control unit 27 has received URL information from which content data can be acquired (NO in step S1303), the control unit 27 performs the process of step S1305.

ステップS1305において、制御部27は、情報処理装置100Mから受信したURLに基づき、コンテンツデータを受信し、受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。   In step S1305, the control unit 27 receives content data based on the URL received from the information processing apparatus 100M, and sets the received content data as content data to be combined with the captured image.

ステップS1307において、制御部27は、情報処理装置100Mから受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。   In step S1307, the control unit 27 sets the content data received from the information processing apparatus 100M as content data to be combined with the captured image.

図14は、撮影側となる情報処理装置100Sが、撮影画像に対して画像認識処理を行い、マーカの検出結果に応じてコンテンツデータを合成する処理を示すフローチャートである。情報処理装置100Sは、キャプチャ周期に従って撮影画像を取得し、取得した撮影画像のプレビューをディスプレイ16に表示する都度、図14に示す処理を行う。   FIG. 14 is a flowchart illustrating processing in which the information processing apparatus 100S on the photographing side performs image recognition processing on a photographed image and synthesizes content data according to the marker detection result. Each time the information processing apparatus 100S acquires a captured image according to the capture cycle and displays a preview of the acquired captured image on the display 16, the information processing apparatus 100S performs the process illustrated in FIG.

ステップS1401において、情報処理装置100Sの制御部27は、撮影画像からARマーカ(情報処理装置100Mのディスプレイ16に表示されたARマーカ65)をトレースする処理が終了しているか(ARマーカの検出に成功または失敗)、またはARマーカをトレースする処理を実行中であるかを判断する。ARマーカをトレースする処理が終了している場合(ステップS1401においてYES)、制御部27は、ステップS1407の処理を行う。ARマーカをトレースする処理を実行中である場合(ステップS1401においてNO)、制御部27は、ステップS1403の処理を行う。   In step S1401, the control unit 27 of the information processing device 100S has finished the process of tracing the AR marker (AR marker 65 displayed on the display 16 of the information processing device 100M) from the captured image (for detecting the AR marker). Success or failure), or whether the process of tracing the AR marker is being executed. If the process of tracing the AR marker has ended (YES in step S1401), control unit 27 performs the process of step S1407. When the process of tracing the AR marker is being executed (NO in step S1401), the control unit 27 performs the process of step S1403.

ステップS1403において、制御部27は、撮影画像に対する画像認識処理によって、ARマーカのトレースに成功したか否かを判断する。制御部27は、ARマーカのトレースに成功している場合(ステップS1403においてYES)、ステップS1405の処理を行い、そうでない場合(ステップS1403においてNO)、ステップS1425の処理を行う。   In step S1403, the control unit 27 determines whether or not the AR marker has been successfully traced by the image recognition processing on the captured image. The control unit 27 performs the process of step S1405 if the AR marker has been successfully traced (YES in step S1403), and performs the process of step S1425 otherwise (NO in step S1403).

ステップS1405において、制御部27は、撮影画像に対する画像認識処理によって検出されたARマーカの座標値に基づいてコンテンツデータを表示する位置を決定し、情報処理装置100Mから受信した情報処理装置100Mの各種センサの測定データに基づいて、3次元のコンテンツデータの向きなどを決定する。制御部27は、これらコンテンツデータを表示する位置および向きに従って、撮影画像にコンテンツデータを合成してディスプレイ16に表示する。   In step S1405, the control unit 27 determines a position where the content data is displayed based on the coordinate value of the AR marker detected by the image recognition process on the captured image, and performs various processes of the information processing apparatus 100M received from the information processing apparatus 100M. Based on the sensor measurement data, the direction of the three-dimensional content data is determined. The control unit 27 synthesizes the content data with the photographed image and displays it on the display 16 according to the position and orientation in which the content data is displayed.

ステップS1407において、情報処理装置100Sの制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するための設定の変更を指示しているモード(変色待ちモード)であるか否かを判断する。制御部27は、変色待ちモードであると判断した場合(ステップS1407においてYES)、ステップS1409の処理を行う。制御部27は、変色待ちモードではないと判断した場合(ステップS1407においてNO)、ステップS1417の処理を行う。   In step S1407, the control unit 27 of the information processing device 100S determines whether or not it is a mode instructing the information processing device 100M to change the setting for displaying the AR marker 65 (color change waiting mode). To do. If the control unit 27 determines that the color change waiting mode is set (YES in step S1407), the control unit 27 performs the process of step S1409. If control unit 27 determines that it is not the color change waiting mode (NO in step S1407), it performs the process of step S1417.

そこで、情報処理装置100Sが変色待ちモードである場合を説明する。
ステップS1409において、制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するために指定した色を用いて、撮影画像にフィルター処理を適用する。
Therefore, a case where the information processing apparatus 100S is in the color change waiting mode will be described.
In step S1409, the control unit 27 applies filter processing to the captured image using the color designated for displaying the AR marker 65 to the information processing apparatus 100M.

ステップS1411において、制御部27は、撮影画像にフィルター処理を適用した画像に基づき、ARマーカ65を検出し、撮影画像におけるARマーカ65の座標値を取得する。   In step S1411, the control unit 27 detects the AR marker 65 based on the image obtained by applying the filter process to the captured image, and acquires the coordinate value of the AR marker 65 in the captured image.

ステップS1413において、制御部27は、ステップS1411の処理によって取得された座標値を参照し、ARマーカ65の座標値が一意に確定したか否かを判断する。ARマーカ65の座標値が一意に確定した場合(ステップS1413においてYES)、その座標値を、撮影画像におけるARマーカ65の座標とし、変色待ちモードからARマーカをトレースするモードへ移行し、ステップS1415の処理を行う。制御部27は、マーカの表示色を変更した回数を示す変数「n」の値をリセットする。ARマーカ65の座標値が一意に確定しない(座標値が検出されない、または複数の座標値が検出される)場合(ステップS1413においてNO)、制御部27は、ステップS1419以降の処理を行って、情報処理装置100Mに表示させるマーカの表示色を変更させる。   In step S1413, the control unit 27 refers to the coordinate value acquired by the process in step S1411 and determines whether or not the coordinate value of the AR marker 65 is uniquely determined. If the coordinate value of the AR marker 65 is uniquely determined (YES in step S1413), the coordinate value is set as the coordinate of the AR marker 65 in the photographed image, and the process shifts from the color change waiting mode to the mode in which the AR marker is traced, and in step S1415. Perform the process. The control unit 27 resets the value of the variable “n” indicating the number of times the marker display color has been changed. When the coordinate value of the AR marker 65 is not uniquely determined (the coordinate value is not detected or a plurality of coordinate values are detected) (NO in step S1413), the control unit 27 performs the processing after step S1419, The display color of the marker displayed on the information processing apparatus 100M is changed.

ステップS1415において、制御部27は、撮影画像から検出されたARマーカ65の座標値に基づいて、ARマーカをトレースする処理を開始する。   In step S1415, the control unit 27 starts a process of tracing the AR marker based on the coordinate value of the AR marker 65 detected from the captured image.

次に、ステップS1407において、情報処理装置100Sが変色待ちモードではない場合を説明する。   Next, a case where the information processing apparatus 100S is not in the color change waiting mode in step S1407 will be described.

ステップS1417において、制御部27は、メモリを参照し、情報処理装置100Mに対してARマーカ65を表示する設定を変更させるための処理が1回目であるか否かを判断する。制御部27は、マーカの表示色を変更した回数を示す変数「n」を管理し、例えば、当該変数「n」の値が1であるか否かを判断する。ARマーカ65を表示する設定を変更させるための処理が1回目である場合(ステップS1417においてYES)、制御部27は、ステップS1425の処理を行い、そうでない場合(ステップS1417においてNO)、制御部27は、ステップS1419の処理を行う。   In step S1417, the control unit 27 refers to the memory and determines whether or not the process for changing the setting for displaying the AR marker 65 on the information processing apparatus 100M is the first time. The control unit 27 manages a variable “n” indicating the number of times the marker display color has been changed, and determines whether or not the value of the variable “n” is 1, for example. If the process for changing the setting for displaying AR marker 65 is the first time (YES in step S1417), control unit 27 performs the process of step S1425; otherwise (NO in step S1417), the control unit 27 performs the process of step S1419.

ステップS1425において、制御部27は、撮影画像に含まれる色の分布を参照し、撮影画像を構成する各色から、分布が最も少ない色を選択する。例えば、制御部27は、撮影画像に含まれる色を、赤、青、緑などいくつかのグループに分類し、最も色の少ないグループを選択する。   In step S1425, the control unit 27 refers to the color distribution included in the photographed image and selects a color having the smallest distribution from the colors constituting the photographed image. For example, the control unit 27 classifies the colors included in the captured image into several groups such as red, blue, and green, and selects the group with the fewest colors.

ステップS1427において、制御部27は、ステップS1425で選択した色に基づき、情報処理装置100Mに対し、ARマーカ65の発光色を変更するよう指示を送る。情報処理装置100Sは、変色待ちモードへ移行する。   In step S1427, the control unit 27 sends an instruction to the information processing apparatus 100M to change the emission color of the AR marker 65 based on the color selected in step S1425. The information processing apparatus 100S shifts to the color change waiting mode.

ステップS1429において、制御部27は、マーカの表示色を変更した回数を示す変数「n」を更新する。ここでは、情報処理装置100Mに表示されるARマーカ65の表示色を変更する1回目の処理であるため、例えば変数「n」の値を「1」とする。   In step S1429, the control unit 27 updates the variable “n” indicating the number of times the marker display color has been changed. Here, since this is the first process of changing the display color of the AR marker 65 displayed on the information processing apparatus 100M, for example, the value of the variable “n” is set to “1”.

また、ステップS1419(ARマーカ65の表示方法を変更する処理が初回ではない場合)において、制御部27は、変数「n」の値を参照し、撮影画像に含まれる色の分布のうち、値「n」番目に少ない色を選択する。   Further, in step S1419 (when the process of changing the display method of the AR marker 65 is not the first time), the control unit 27 refers to the value of the variable “n” and determines the value among the color distributions included in the captured image. Select the “n” th least color.

ステップS1421において、制御部27は、ステップS1419で選択した色でARマーカ65を発光させるよう、情報処理装置100Mに指示を送信し、情報処理装置100Sを「変色待ちモード」へ移行させる。   In step S1421, the control unit 27 transmits an instruction to the information processing apparatus 100M to cause the AR marker 65 to emit light with the color selected in step S1419, and shifts the information processing apparatus 100S to the “color change waiting mode”.

ステップS1423において、制御部27は、変数「n」の値をカウントアップすることで更新する。   In step S <b> 1423, the control unit 27 updates the value of the variable “n” by counting up.

以上に示す処理を行うことで、撮影側の情報処理装置100Sと、被写体となる情報処理装置100Mとは、互いに通信しつつ、撮影画像にコンテンツデータを合成する。(1)情報処理装置100Sは、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mに対し、ARマーカ65を表示するための設定を指示する。(2)情報処理装置100Mは、情報処理装置100Sに表示されるコンテンツデータを、情報処理装置100Mのユーザの所望のものとするため、情報処理装置100Mから情報処理装置100Sに対し、コンテンツデータを指定するための情報(コンテンツデータそのもの、コンテンツデータを取得することができるURLなど)を送信する。   By performing the processing described above, the information processing apparatus 100S on the photographing side and the information processing apparatus 100M serving as the subject synthesize content data with the photographed image while communicating with each other. (1) The information processing apparatus 100S instructs the information processing apparatus 100M to set the AR marker 65 so that the AR marker 65 can be easily detected from the captured image. (2) The information processing apparatus 100M sends content data from the information processing apparatus 100M to the information processing apparatus 100S in order to make the content data displayed on the information processing apparatus 100S desired by the user of the information processing apparatus 100M. Information for designating (content data itself, URL at which content data can be acquired, etc.) is transmitted.

<撮影画像にコンテンツデータを合成するか否かの設定の切替>
図15を参照して、情報処理装置100Sの撮影画像にコンテンツデータを合成するか否かの設定を、被写体となる情報処理装置100Mから切り替える例を説明する。図15は、情報処理装置100Sが、コンテンツデータの合成のONまたはOFFを、情報処理装置100Mの指示によって受け付ける例を示す図である。
<Switching settings for whether or not to synthesize content data with captured images>
With reference to FIG. 15, an example will be described in which the setting as to whether or not to synthesize content data with the captured image of the information processing apparatus 100S is switched from the information processing apparatus 100M that is the subject. FIG. 15 is a diagram illustrating an example in which the information processing apparatus 100S receives content data composition ON or OFF according to an instruction from the information processing apparatus 100M.

<1.情報処理装置100Mからの指定の受信によるON−OFF制御>
例えば、情報処理装置100Sは、情報処理装置100Mからのコンテンツデータの指定を受け付けることで、コンテンツデータの合成のONとOFFとを切り替えることとしてもよい。図15において、被写体となる情報処理装置100Mのユーザは、ディスプレイ16Mに表示されるデータ送信部63に対する入力操作を行う。これにより、情報処理装置100Mから情報処理装置100Sへとコンテンツデータを指定するための情報が送信される。情報処理装置100Sは、情報処理装置100Mからコンテンツデータを指定するための情報を受信すると、コンテンツデータの合成をONにし、画像表示領域52のアニメーション合成部53にコンテンツデータを重ねる。
<1. ON-OFF control by reception of designation from information processing apparatus 100M>
For example, the information processing apparatus 100S may switch ON / OFF of the composition of content data by receiving specification of content data from the information processing apparatus 100M. In FIG. 15, the user of the information processing apparatus 100M serving as a subject performs an input operation on the data transmission unit 63 displayed on the display 16M. Thereby, information for designating content data is transmitted from the information processing apparatus 100M to the information processing apparatus 100S. When the information processing apparatus 100S receives information for specifying content data from the information processing apparatus 100M, the information processing apparatus 100S turns on the composition of the content data and superimposes the content data on the animation composition unit 53 of the image display area 52.

<2.情報処理装置100Mにおける音声認識処理に基づくON−OFF制御>
また、情報処理装置100Mは、マイク22を介して情報処理装置100Mのユーザから音声入力を受け付けて、受け付けた音声に基づいて、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFとを切り替えることとしてもよい。例えば、情報処理装置100Mは、マイク22から出力される音声信号に対して音声認識処理を行って、音声信号に示されるテキストデータを取得する。情報処理装置100Mは、テキストデータに示される命令に応じて、データ送信部63に対する入力操作が行われたものとしてコンテンツデータを情報処理装置100Sへ送信することとしてもよい。
<2. ON-OFF control based on voice recognition processing in information processing apparatus 100M>
In addition, the information processing apparatus 100M receives voice input from the user of the information processing apparatus 100M via the microphone 22, and switches ON / OFF of content data synthesis in the information processing apparatus 100S based on the received voice. It is good. For example, the information processing apparatus 100M performs voice recognition processing on the voice signal output from the microphone 22 and acquires text data indicated by the voice signal. The information processing apparatus 100M may transmit content data to the information processing apparatus 100S as an input operation performed on the data transmission unit 63 according to a command indicated in the text data.

また、情報処理装置100Mは、音声認識処理によって取得されるテキストデータに示される命令に応じて、情報処理装置100Sに対し、コンテンツデータの合成のONとOFFとを指示することとしてもよい。これにより、情報処理装置100Mのユーザは、自らが所望するタイミングで、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFのタイミングを制御することができる。   Further, the information processing apparatus 100M may instruct the information processing apparatus 100S to turn on and off the composition of content data in accordance with a command indicated in the text data acquired by the speech recognition process. As a result, the user of the information processing apparatus 100M can control the ON / OFF timing of content data synthesis in the information processing apparatus 100S at a timing desired by the user.

<3.情報処理装置100Mにおける振動の検出に基づくON−OFF制御>
また、情報処理装置100Mは、情報処理装置100Mのユーザが情報処理装置100Mを把持したまま振る動作(シェイク)を加速度センサ26等の測定結果に基づき検出し、検出結果に応じて、情報処理装置100Sに、コンテンツデータの合成のONとOFFとを切り替える指示を送信することとしてもよい。
<3. On-off control based on vibration detection in information processing apparatus 100M>
Further, the information processing apparatus 100M detects a motion (shake) that the user of the information processing apparatus 100M shakes while holding the information processing apparatus 100M based on the measurement result of the acceleration sensor 26 or the like. An instruction to switch ON / OFF of the composition of content data may be transmitted to 100S.

これにより、情報処理装置100Mのユーザが、例えばある作品のキャラクターになりきっている場合に、情報処理装置100Sにおいて、そのキャラクターの特徴を示すコンテンツデータが合成されるタイミングを、ユーザ自身が容易に制御することができる。そのため、情報処理装置100Sと情報処理装置100Mとは、ユーザに対し、キャラクターになりきった感覚を提供することができる。図15の例では、情報処理装置100Mのユーザが、エネルギー波を示すコンテンツデータを情報処理装置100Sの画像表示領域52に表示するタイミングを制御している。   As a result, when the user of the information processing apparatus 100M has become a character of a certain work, for example, the user himself can easily determine the timing at which the content data indicating the characteristics of the character is synthesized in the information processing apparatus 100S. Can be controlled. Therefore, the information processing apparatus 100S and the information processing apparatus 100M can provide the user with a sense of being a character. In the example of FIG. 15, the user of the information processing apparatus 100M controls the timing at which content data indicating an energy wave is displayed in the image display area 52 of the information processing apparatus 100S.

また、情報処理装置100Sは、コンテンツデータの合成のONとOFFとを切り替える過程を含めて、コンテンツデータと撮影画像とが合成される前の画像と、合成された後の画像とを、例えば動画等によって保存することもできる。情報処理装置100Sは、保存された動画等を、他のユーザと共有することができることとしてもよい。例えば、情報処理装置100Sは、撮影画像に対してコンテンツデータを合成して生成された静止画または動画を、例えば画像投稿用のWebサイトやグループチャットに投稿することができることとしてもよい。これにより、ユーザ同士での作品の楽しみ方のバリエーションを拡げることができる。   In addition, the information processing apparatus 100S includes, for example, a moving image that includes the image before the content data and the captured image are combined and the image after the combination including the process of switching ON and OFF of the content data combining. It can also be saved by, for example. The information processing apparatus 100 </ b> S may be able to share a stored video or the like with other users. For example, the information processing apparatus 100S may be able to post a still image or a moving image generated by synthesizing content data to a captured image, for example, on an image posting website or group chat. Thereby, the variation of how to enjoy a work between users can be expanded.

<コンテンツデータの購入を受け付けるためのユーザインタフェースの例>
図16を参照して、情報処理装置100がユーザからコンテンツデータの購入を受け付けるためのユーザインタフェースの例を説明する。図16は、情報処理装置100において、撮影画像に合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
<Example of user interface for accepting purchase of content data>
An example of a user interface for the information processing apparatus 100 to accept purchase of content data from a user will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of an interface for receiving an input operation for purchasing content data to be combined with a captured image in the information processing apparatus 100.

図16に示すように、制御部27は、ディスプレイ16において、購入ボタン72と、コンテンツデータリスト71とを表示する。コンテンツデータリスト71は、ユーザが購入可能なコンテンツデータの一覧を表示する。   As shown in FIG. 16, the control unit 27 displays a purchase button 72 and a content data list 71 on the display 16. The content data list 71 displays a list of content data that can be purchased by the user.

制御部27は、タッチパネル15を介して、ユーザがコンテンツデータを選択するための入力操作を受け付ける。購入ボタン72は、ユーザが選択したコンテンツデータを購入するための入力操作を受け付けるボタンである。   The control unit 27 receives an input operation for the user to select content data via the touch panel 15. The purchase button 72 is a button for accepting an input operation for purchasing content data selected by the user.

<実施の形態2>
次に、実施の形態2にかかる情報処理装置100について説明する。実施の形態2では、複数の情報処理装置100が通信接続を確立する(例えば、1の情報処理装置100に対し、他の装置が通信接続を確立する)。これら複数の情報処理装置100において、被写体となる情報処理装置100それぞれは、マーカをディスプレイ16に表示する。
<Embodiment 2>
Next, the information processing apparatus 100 according to the second embodiment will be described. In the second embodiment, a plurality of information processing apparatuses 100 establish a communication connection (for example, another apparatus establishes a communication connection with respect to one information processing apparatus 100). In the plurality of information processing apparatuses 100, each of the information processing apparatuses 100 serving as subjects displays a marker on the display 16.

撮影側となる情報処理装置100は、撮影画像に含まれる複数のマーカをそれぞれ認識し、認識される各マーカとコンテンツデータとを対応付けてディスプレイ16に表示する。例えば、情報処理装置100は、撮影画像に対し画像認識処理を行うときに、検出対象とする複数のマーカを登録する。情報処理装置100は、これらマーカそれぞれと、コンテンツデータとを対応付けてメモリに保持する。これにより、被写体となる各情報処理装置は、マーカをディスプレイ16に表示し、撮影側の情報処理装置100は、撮影画像において、被写体の情報処理装置100に表示される各マーカの位置に、それぞれコンテンツデータを合成することができる。例えば、2人の被写体が、それぞれの情報処理装置100にマーカを表示し、各被写体と、コンテンツデータとを対応づける。これにより、情報処理装置100は、複数の被写体が、例えばそれぞれ異なる発光色のサーベル状の武具を把持している場面をディスプレイ16に表示することができる。   The information processing apparatus 100 on the photographing side recognizes each of a plurality of markers included in the photographed image, and displays the recognized markers on the display 16 in association with the content data. For example, the information processing apparatus 100 registers a plurality of markers to be detected when performing image recognition processing on a captured image. The information processing apparatus 100 associates each of these markers with the content data and holds them in the memory. As a result, each information processing device that is a subject displays a marker on the display 16, and the information processing device 100 on the photographing side is positioned at the position of each marker displayed on the information processing device 100 that is the subject in the captured image. Content data can be synthesized. For example, two subjects display a marker on each information processing apparatus 100 and associate each subject with content data. As a result, the information processing apparatus 100 can display on the display 16 a scene in which a plurality of subjects are holding saber-like weapons having different emission colors, for example.

<変形例 コンテンツデータの配信方法>
上記の実施形態の説明では、情報処理装置100は、ARコンテンツデータ31を、例えば配信サーバ900から取得することができるとして説明したが、この他にも、例えば、ある特定の地域に限定してARコンテンツデータ31を取得することができることとしてもよい。例えば、コンテンツデータを配信する配信サーバ900は、情報処理装置100の位置として、(a)測位センサ17のGPSによる測位の結果、(b)情報処理装置100が無線通信をしている無線基地局700の識別情報、(c)情報処理装置100が無線通信をしている無線LANルータの識別情報等の情報を取得する。配信サーバ900は、情報処理装置100から、配布地域が限定されているARコンテンツデータ31を取得するための要求を受け付けたとき、情報処理装置100の位置の情報に基づいて、ARコンテンツデータ31の配信の可否を制御する(または、情報処理装置100において、ARコンテンツデータ31の配信を受けることが可能な地域であるか否かを判定してもよい)。
<Modification Example Content Data Distribution Method>
In the above description of the embodiment, the information processing apparatus 100 has been described as being able to acquire the AR content data 31 from, for example, the distribution server 900. However, for example, the information processing apparatus 100 is limited to a specific area, for example. The AR content data 31 may be acquired. For example, the distribution server 900 that distributes content data uses the position of the information processing apparatus 100 as a result of (a) positioning by the GPS of the positioning sensor 17, and (b) a wireless base station with which the information processing apparatus 100 is performing wireless communication. Information such as identification information 700, (c) identification information of the wireless LAN router with which the information processing apparatus 100 is performing wireless communication is acquired. When the distribution server 900 receives a request from the information processing apparatus 100 to acquire the AR content data 31 whose distribution area is limited, the distribution server 900 stores the AR content data 31 based on the position information of the information processing apparatus 100. Whether or not distribution is possible is controlled (or it may be determined whether or not the information processing apparatus 100 is in a region where the AR content data 31 can be distributed).

このように、情報処理装置100がARコンテンツデータ31を取得可能な地域を限定することで、例えば、ARコンテンツデータ31と関係のある地域で開催されるイベントや観光地へとユーザが訪問することを促すことができる。例えば、配信サーバ900は、地域の産品や、観光地に関連する物品や、地域に関連するアニメーション作品の作中に登場するアイテムなどを示すコンテンツデータを、地域限定で情報処理装置100へ配信することとしてもよい。   In this way, by limiting the areas in which the information processing apparatus 100 can acquire the AR content data 31, for example, the user visits an event or a sightseeing spot held in an area related to the AR content data 31. Can be encouraged. For example, the distribution server 900 distributes content data indicating local products, articles related to sightseeing spots, items appearing in the production of animation works related to the area, etc. to the information processing apparatus 100 in a limited area. It is good as well.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

11,13 アンテナ、12 遠距離通信用モジュール、14 近距離通信用モジュール、15 タッチパネル、16 ディスプレイ、17 測位センサ、18 フロントカメラ、19 リアカメラ、20 電源制御部、21 バッテリ、22 マイク、23 スピーカ、24 音声処理部、25 記憶部、26 加速度センサ、27 制御部、31 ARコンテンツデータ、32 画像データ、33 コンテンツ管理テーブル、41 検出処理部、42 映像処理部、43 通信処理部、44 音声認識部、100 情報処理装置、600 ルータ、700 無線基地局、800 ネットワーク、900 配信サーバ。   11, 13 Antenna, 12 Long-distance communication module, 14 Short-distance communication module, 15 Touch panel, 16 Display, 17 Position sensor, 18 Front camera, 19 Rear camera, 20 Power supply control unit, 21 Battery, 22 Microphone, 23 Speaker , 24 voice processing unit, 25 storage unit, 26 acceleration sensor, 27 control unit, 31 AR content data, 32 image data, 33 content management table, 41 detection processing unit, 42 video processing unit, 43 communication processing unit, 44 voice recognition Part, 100 information processing device, 600 router, 700 wireless base station, 800 network, 900 distribution server.

Claims (10)

情報処理装置の動作を制御するためのプログラムであって、
前記情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記他の情報処理装置は、前記他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、
前記プログラムは、前記プロセッサに、
前記他の情報処理装置との通信接続を確立するステップと、
前記通信接続を確立した前記他の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信するステップと、
前記他の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップと、
前記撮影画像に対する前記特定の画像の検出結果に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成するステップと、
前記生成された前記合成画像データを前記第1のディスプレイに表示するステップとを実行させる、プログラム。
A program for controlling the operation of the information processing apparatus,
The information processing apparatus stores a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and content data combined with the captured image. And a processor for controlling the operation of the information processing apparatus,
The other information processing apparatus is configured to display a specific image detected by an image recognition process on a second display included in the other information processing apparatus,
The program is stored in the processor.
Establishing a communication connection with the other information processing apparatus;
Transmitting display settings for displaying the specific image on the second display to the other information processing apparatus that has established the communication connection;
Detecting the specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting; ,
Determining a position to synthesize the content data based on a detection result of the specific image with respect to the captured image, and generating synthesized image data by synthesizing the content data at the determined position;
Displaying the generated composite image data on the first display.
前記送信するステップは、前記撮影画像に含まれる色の分布を取得し、前記分布において撮影画像に含まれる色が少ない色を優先して、前記特定の画像の表示色として決定し、決定した前記表示色を前記表示設定に含めて前記他の情報処理装置へ送信するステップを含む、請求項1記載のプログラム。   The transmitting step obtains a distribution of colors included in the photographed image, determines a display color of the specific image by giving priority to colors having a small number of colors included in the photographed image in the distribution, and determines the determined The program according to claim 1, further comprising a step of including a display color in the display setting and transmitting the display color to the other information processing apparatus. 前記検出するステップは、前記他の情報処理装置へ送信した前記表示設定に含まれる前記特定の画像の表示色のフィルタを前記撮影画像に適用することでフィルタ適用後の画像を取得し、取得した画像に対し前記画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップを含む、請求項2記載のプログラム。   The detecting step acquires and acquires an image after applying the filter by applying a filter of a display color of the specific image included in the display setting transmitted to the other information processing apparatus to the captured image. The program according to claim 2, further comprising: detecting the specific image included in the captured image by performing the image recognition process on the image. 前記プログラムは、前記プロセッサに、
前記他の情報処理装置から、前記第1のディスプレイに合成すべきコンテンツデータの指定を受信するステップを実行させ、
前記表示するステップは、前記他の情報処理装置によって指定された前記コンテンツデータを前記撮影画像に合成するステップを含む、請求項1記載のプログラム。
The program is stored in the processor.
Receiving a designation of content data to be combined with the first display from the other information processing apparatus;
The program according to claim 1, wherein the displaying includes synthesizing the content data designated by the other information processing apparatus with the photographed image.
情報処理装置の動作を制御するためのプログラムであって、
前記情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プログラムは、前記プロセッサに、
前記他の情報処理装置との通信接続を確立するステップと、
前記ディスプレイに、画像認識処理によって検出される特定の画像を表示するステップと、
前記通信接続を確立した前記他の情報処理装置から、前記特定の画像を前記ディスプレイに表示するための表示設定を受信するステップとを実行させ、
前記特定の画像を表示するステップは、前記他の情報処理装置から受信した前記表示設定に従って、前記特定の画像を前記ディスプレイに表示させるステップを含む、プログラム。
A program for controlling the operation of the information processing apparatus,
The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus,
The program is stored in the processor.
Establishing a communication connection with the other information processing apparatus;
Displaying a specific image detected by an image recognition process on the display;
Receiving a display setting for displaying the specific image on the display from the other information processing apparatus that has established the communication connection; and
The step of displaying the specific image includes a step of displaying the specific image on the display according to the display setting received from the other information processing apparatus.
前記プログラムは、前記プロセッサに、
前記通信接続を確立した他の情報処理装置に対し、前記他の情報処理装置の前記撮影画像に合成すべき前記コンテンツデータの指定を送信するステップを実行させる、請求項5記載のプログラム。
The program is stored in the processor.
The program according to claim 5, wherein a step of transmitting designation of the content data to be combined with the captured image of the other information processing apparatus is executed to the other information processing apparatus that has established the communication connection.
前記情報処理装置は、前記他の情報処理装置において撮影画像に合成させるためのコンテンツデータを記憶するためのメモリを備え、
前記送信するステップは、前記他の情報処理装置に対し、前記コンテンツデータ本体、前記コンテンツデータの識別情報、または前記コンテンツデータの取得方法を示す情報の少なくともいずれかを送信するステップを含む、請求項6記載のプログラム。
The information processing apparatus includes a memory for storing content data to be combined with a captured image in the other information processing apparatus,
The transmitting step includes a step of transmitting at least one of the content data main body, the identification information of the content data, or information indicating an acquisition method of the content data to the other information processing apparatus. 6. The program according to 6.
第1の情報処理装置と第2の情報処理装置とからなるシステムにおいて合成画像を生成する方法であって、
前記第1の情報処理装置は、カメラと、第2の情報処理装置と通信するための第1の通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記第1の情報処理装置の動作を制御するためのプロセッサとを備え、
前記第2の情報処理装置は、前記第1の情報処理装置と通信するための第2の通信モジュールと、画像認識処理によって検出される特定の画像を表示するよう構成される第2のディスプレイとを備え、
前記方法は、
前記第1の情報処理装置と前記第2の情報処理装置とが、互いに通信接続を確立するステップと、
前記第1の情報処理装置が、前記通信接続を確立した前記第2の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信するステップと、
前記第1の情報処理装置が、前記第2の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップと、
前記第1の情報処理装置が、前記撮影画像において、前記検出された前記特定の画像に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成するステップと、
前記第1の情報処理装置が、前記生成された前記合成画像データを前記第1のディスプレイに表示するステップとを含む、方法。
A method for generating a composite image in a system including a first information processing apparatus and a second information processing apparatus,
The first information processing apparatus includes a camera, a first communication module for communicating with the second information processing apparatus, a first display for displaying an image captured by the camera, and the captured image. A memory for storing the content data to be combined; and a processor for controlling the operation of the first information processing apparatus;
The second information processing apparatus includes a second communication module for communicating with the first information processing apparatus, and a second display configured to display a specific image detected by an image recognition process. With
The method
The first information processing apparatus and the second information processing apparatus establishing a communication connection with each other;
The first information processing apparatus transmitting a display setting for displaying the specific image on the second display to the second information processing apparatus that has established the communication connection;
Included in the captured image by performing image recognition processing based on the display setting for a captured image obtained by capturing the second information processing apparatus with the camera by the first information processing apparatus. Detecting the specific image to be detected;
The first information processing apparatus determines a position for combining the content data in the captured image based on the detected specific image, and combines the content data at the determined position. Generating image data; and
The first information processing apparatus includes a step of displaying the generated composite image data on the first display.
撮影機能を有する情報処理装置であって、
前記情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記他の情報処理装置は、前記他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、
前記プロセッサは、
前記他の情報処理装置との通信接続を確立し、前記通信接続を確立した前記他の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信する通信処理部と、
前記他の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出する検出部と、
前記撮影画像に対する前記特定の画像の検出結果に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成し、前記生成された前記合成画像データを前記第1のディスプレイに表示する映像処理部と、の各機能を発揮するよう構成される、情報処理装置。
An information processing apparatus having a photographing function,
The information processing apparatus stores a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and content data combined with the captured image. And a processor for controlling the operation of the information processing apparatus,
The other information processing apparatus is configured to display a specific image detected by an image recognition process on a second display included in the other information processing apparatus,
The processor is
Communication that establishes a communication connection with the other information processing apparatus and transmits a display setting for displaying the specific image on the second display to the other information processing apparatus that has established the communication connection. A processing unit;
A detection unit that detects the specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting. When,
Based on a detection result of the specific image with respect to the photographed image, a position to synthesize the content data is determined, combined image data is generated by combining the content data at the determined position, and the generated An information processing apparatus configured to perform each function of a video processing unit that displays composite image data on the first display.
情報処理装置であって、
前記情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プロセッサは、
前記他の情報処理装置との通信接続を確立し、前記通信接続を確立した前記他の情報処理装置から、前記特定の画像を前記ディスプレイに表示するための表示設定を受信する通信処理部と、
前記他の情報処理装置から受信した前記表示設定に従って、前記特定の画像を前記ディスプレイに表示させる映像処理部と、の各機能を発揮するよう構成される、情報処理装置。
An information processing apparatus,
The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus,
The processor is
A communication processing unit that establishes a communication connection with the other information processing apparatus and receives a display setting for displaying the specific image on the display from the other information processing apparatus that has established the communication connection;
An information processing apparatus configured to exhibit each function of a video processing unit that displays the specific image on the display in accordance with the display setting received from the other information processing apparatus.
JP2013266833A 2013-12-25 2013-12-25 program Active JP6305757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013266833A JP6305757B2 (en) 2013-12-25 2013-12-25 program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013266833A JP6305757B2 (en) 2013-12-25 2013-12-25 program

Publications (2)

Publication Number Publication Date
JP2015122707A true JP2015122707A (en) 2015-07-02
JP6305757B2 JP6305757B2 (en) 2018-04-04

Family

ID=53533956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013266833A Active JP6305757B2 (en) 2013-12-25 2013-12-25 program

Country Status (1)

Country Link
JP (1) JP6305757B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046162A (en) * 2015-08-26 2017-03-02 隆正 光信 Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program
EP3261057A1 (en) 2016-06-22 2017-12-27 Fujitsu Limited Head mounted display and transmission control method
WO2018065667A1 (en) * 2016-10-05 2018-04-12 Kone Corporation Generation of augmented reality
US11132574B2 (en) 2017-01-12 2021-09-28 Samsung Electronics Co., Ltd. Method for detecting marker and electronic device thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159274A (en) * 2010-01-29 2011-08-18 Pantech Co Ltd Terminal and method for providing expansion reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159274A (en) * 2010-01-29 2011-08-18 Pantech Co Ltd Terminal and method for providing expansion reality

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046162A (en) * 2015-08-26 2017-03-02 隆正 光信 Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program
EP3261057A1 (en) 2016-06-22 2017-12-27 Fujitsu Limited Head mounted display and transmission control method
WO2018065667A1 (en) * 2016-10-05 2018-04-12 Kone Corporation Generation of augmented reality
US11132574B2 (en) 2017-01-12 2021-09-28 Samsung Electronics Co., Ltd. Method for detecting marker and electronic device thereof

Also Published As

Publication number Publication date
JP6305757B2 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
JP5769032B2 (en) Imaging apparatus, imaging method, and program
JP6538079B2 (en) Imaging parameter setting method, apparatus, program, and recording medium
US9049317B2 (en) Communication system, communication terminal, and method of controlling a communication system
KR102449670B1 (en) Method for creating video data using cameras and server for processing the method
CN103607538A (en) Photographing method and photographing apparatus
US9635235B2 (en) Communication apparatus and control method thereof
JP6305757B2 (en) program
CN105657257A (en) Method, device and system for taking panoramic photo, mobile terminal and selfie stick
JP2021039468A (en) Imaging device, communication system, communication method, and program
JP2019506012A (en) Smart airplane shooting method, smart airplane, program, and recording medium
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN111741511B (en) Quick matching method and head-mounted electronic equipment
US10291835B2 (en) Information processing apparatus, imaging apparatus, information processing method, and imaging system
CN113573122A (en) Audio and video playing method and device
JP2020198516A (en) Imaging apparatus, image processing method, and program
EP3621292B1 (en) Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof
JP2016127379A (en) Information processing device, control method, and program
JP2013021473A (en) Information processing device, information acquisition method, and computer program
EP4250238A1 (en) Three-dimensional model reconstruction method, device, and storage medium
WO2019041158A1 (en) Photography optimization control method and apparatus for photographing device, and computer processing device
JP6515966B2 (en) Imaging device, system, electronic device and program
JP5728280B2 (en) Stereoscopic image capturing system, portable communication terminal, stereoscopic image capturing method for stereoscopic image capturing system, stereoscopic image capturing program for portable communication terminal, and stereoscopic image capturing method for portable communication terminal
CN110324791A (en) Carry out method, apparatus, computer equipment and the storage medium of networking
JP2016082356A (en) Electronic apparatus and program
JP2015023382A (en) Information processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180307

R150 Certificate of patent or registration of utility model

Ref document number: 6305757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250