JP2015122707A - Information processing device, method and program - Google Patents
Information processing device, method and program Download PDFInfo
- Publication number
- JP2015122707A JP2015122707A JP2013266833A JP2013266833A JP2015122707A JP 2015122707 A JP2015122707 A JP 2015122707A JP 2013266833 A JP2013266833 A JP 2013266833A JP 2013266833 A JP2013266833 A JP 2013266833A JP 2015122707 A JP2015122707 A JP 2015122707A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing apparatus
- image
- display
- content data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 421
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000004891 communication Methods 0.000 claims abstract description 86
- 238000012545 processing Methods 0.000 claims abstract description 81
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 239000003086 colorant Substances 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 54
- 238000009826 distribution Methods 0.000 claims description 24
- 239000002131 composite material Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 239000003550 marker Substances 0.000 abstract description 100
- 230000008859 change Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本開示は、カメラの撮影により得られる撮影画像データに、別の画像を合成して表示するための技術に関する。 The present disclosure relates to a technique for combining and displaying another image on captured image data obtained by capturing with a camera.
スマートフォン、タブレット端末など、カメラを備えた情報処理装置が広く普及している。ユーザは、これらカメラ機能を利用して、例えばユーザ同士を撮影し、SNS(Social Networking Service)サイトやグループチャットアプリ等に投稿して撮影画像をユーザ間で共有している。 Information processing apparatuses equipped with cameras such as smartphones and tablet terminals are widely used. Users use these camera functions, for example, to photograph users and post them to an SNS (Social Networking Service) site, a group chat application, etc., and share the photographed image between users.
これらスマートフォンなどの情報処理装置に対して、数々のアプリケーションが提供されている。情報処理装置は、例えばアプリケーションストアを通じて、配信サーバからアプリケーションをダウンロードする。これらアプリケーションは、例えば、カメラが生成する画像信号に基づき、情報処理装置のディスプレイに撮影画像のプレビューを表示しつつ、撮影画像に対し、アイコンなど別の画像を合成する操作をユーザから受け付けて、合成画像を生成するためのものなどがある。撮影画像に対して別の画像を合成するための技術は、例えば特開2008−103873号公報(特許文献1)に開示されている。 Numerous applications are provided for information processing apparatuses such as smartphones. The information processing apparatus downloads the application from the distribution server through, for example, an application store. These applications, for example, based on the image signal generated by the camera, while displaying a preview of the captured image on the display of the information processing apparatus, accepting an operation for synthesizing another image such as an icon with the captured image from the user, For generating a composite image. A technique for synthesizing another image with a captured image is disclosed in, for example, Japanese Patent Application Laid-Open No. 2008-103873 (Patent Document 1).
情報処理装置は、アプリケーションを起動して、例えば、撮影画像に合成するための画像を指定する入力操作をユーザから受け付けて、撮影画像に対し、ユーザが指定する位置に画像を合成する。例えば、情報処理装置のユーザが、被写体となる別の人物を撮影し、撮影画像に合成するための画像として、炎や刀などのアニメーション画像を指定したとする。また、ユーザが、撮影画像の被写体の手の部分を、アニメーション画像を合成する位置として指定したとする。情報処理装置は、撮影画像を表示するとともに、ユーザが指定した位置(被写体の手の部分)にアニメーション画像を合成する。これにより、ユーザは、被写体とアニメーション画像とを合成し、他のユーザ(例えば、被写体となったユーザ)と画像を共有して楽しむことができる。 For example, the information processing apparatus starts an application, receives an input operation for designating an image to be combined with the captured image, for example, and combines the image with the captured image at a position specified by the user. For example, it is assumed that the user of the information processing apparatus has photographed another person as a subject and designated an animation image such as a flame or a sword as an image to be combined with the photographed image. Also, assume that the user designates the hand portion of the subject of the captured image as the position where the animation image is to be synthesized. The information processing apparatus displays a captured image and synthesizes an animation image at a position designated by the user (a portion of the subject's hand). Thereby, the user can synthesize the subject and the animation image, and enjoy sharing the image with other users (for example, the user who becomes the subject).
しかし、撮影画像に対してユーザがアニメーション画像を合成する場合に、アニメーション画像を合成する位置を指定する操作をする必要があるため、ユーザにとって入力操作が煩雑になることがある。例えば、アニメーション画像を、被写体のどの部位に合成すべきか定まっている場合(例えば、アニメーション画像が、刀など手に把持するものである場合)に、ユーザが、都度、被写体の手の位置を指定してアニメーション画像を合成することが、ユーザにとって手間に感じられることがある。 However, when a user synthesizes an animation image with a captured image, it is necessary to perform an operation for designating a position where the animation image is to be synthesized, which may make the input operation complicated for the user. For example, when it is determined which part of the subject should synthesize the animation image (for example, when the animation image is held by a hand such as a sword), the user designates the position of the subject's hand each time. Thus, it may be troublesome for the user to synthesize the animation image.
ただし、アニメーション画像を被写体のどの部分に合成すべきかがある程度定まっている場合は、その合成すべき位置を画像認識処理等によって検出することもできる。例えば、眼鏡など顔に装着する物品を示す画像を、被写体の顔の一部分に合成する場合を想定する。この場合、情報処理装置は、顔検出処理によって目の位置等を検出し、検出された位置に基づいて、アニメーション画像を合成すべき位置をある程度特定することができる。これにより、ユーザの入力操作の手間を軽減することも期待できる。しかし、撮影環境の光量など、被写体を撮影する状況によっては、撮影画像から、画像認識処理等によってアニメーション画像を合成すべき位置を特定することが困難になることもある。 However, when it is determined to some extent in which part of the subject the animation image should be synthesized, the position to be synthesized can also be detected by image recognition processing or the like. For example, it is assumed that an image indicating an article to be worn on the face such as glasses is synthesized with a part of the face of the subject. In this case, the information processing apparatus can detect the position of the eyes and the like by face detection processing, and can specify to some extent the position where the animation image is to be synthesized based on the detected position. This can also be expected to reduce the user's input operation. However, depending on the situation where the subject is photographed, such as the amount of light in the photographing environment, it may be difficult to specify the position where the animation image should be synthesized from the photographed image by image recognition processing or the like.
したがって、撮影画像に対し、別の画像を合成する場合に、その別の画像を合成する位置の調整をするユーザの手間を軽減し、また、被写体の撮影環境にかかわらず、画像を合成すべき位置を検出する精度を向上させる技術が必要とされている。 Therefore, when combining another image with the captured image, the user's effort to adjust the position for combining the other image is reduced, and the image should be combined regardless of the shooting environment of the subject. There is a need for a technique that improves the accuracy of position detection.
一実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成される。このプログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、生成された合成画像データを第1のディスプレイに表示するステップとを実行させる。 According to one embodiment, a program for controlling the operation of the information processing apparatus is provided. An information processing apparatus stores a content module combined with a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and a captured image. A memory and a processor for controlling the operation of the information processing apparatus are provided. The other information processing apparatus is configured to display a specific image detected by the image recognition process on a second display included in the other information processing apparatus. This program establishes a communication connection with another information processing apparatus in the processor, and a display setting for displaying a specific image on the second display for the other information processing apparatus that has established the communication connection. And a step of detecting a specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting. Determining a position where the content data is to be combined based on the detection result of the specific image with respect to the photographed image, generating composite image data by combining the content data at the determined position, and the generated composite image data Are displayed on the first display.
別の実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備える。プログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、ディスプレイに、画像認識処理によって検出される特定の画像を表示するステップと、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信するステップとを実行させ、特定の画像を表示するステップは、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させるステップを含む。 According to another embodiment, a program for controlling the operation of the information processing apparatus is provided. The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus. The program includes a step of establishing a communication connection with another information processing apparatus on the processor, a step of displaying a specific image detected by the image recognition process on the display, and another information processing apparatus establishing the communication connection. Receiving a display setting for displaying the specific image on the display, and displaying the specific image in accordance with the display setting received from another information processing apparatus. Including the step of displaying.
別の実施形態に従うと、第1の情報処理装置と第2の情報処理装置とからなるシステムにおいて合成画像を生成する方法が提供される。第1の情報処理装置は、カメラと、第2の情報処理装置と通信するための第1の通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、第1の情報処理装置の動作を制御するためのプロセッサとを備える。第2の情報処理装置は、第1の情報処理装置と通信するための第2の通信モジュールと、画像認識処理によって検出される特定の画像を表示するよう構成される第2のディスプレイとを備える。この方法は、第1の情報処理装置と第2の情報処理装置とが、互いに通信接続を確立するステップと、第1の情報処理装置が、通信接続を確立した第2の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、第1の情報処理装置が、第2の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、第1の情報処理装置が、撮影画像において、検出された特定の画像に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、第1の情報処理装置が、生成された合成画像データを第1のディスプレイに表示するステップとを含む。 According to another embodiment, a method for generating a composite image in a system including a first information processing apparatus and a second information processing apparatus is provided. The first information processing device is combined with the camera, the first communication module for communicating with the second information processing device, the first display for displaying a photographed image by the camera, and the photographed image. A memory for storing content data and a processor for controlling the operation of the first information processing apparatus are provided. The second information processing apparatus includes a second communication module for communicating with the first information processing apparatus, and a second display configured to display a specific image detected by the image recognition process. . In this method, the first information processing apparatus and the second information processing apparatus establish a communication connection with each other, and the first information processing apparatus establishes a communication connection with the second information processing apparatus. A step of transmitting a display setting for displaying a specific image on the second display; and a captured image obtained by photographing the second information processing apparatus with the camera by the first information processing apparatus, The step of detecting a specific image included in the photographed image by performing image recognition processing based on the display setting, and the first information processing apparatus in the photographed image based on the detected specific image Determining a position where the data is to be combined, generating composite image data by combining the content data at the determined position, and the first information processing apparatus using the generated composite image data as the first And displaying on the display.
別の実施形態に従うと、撮影機能を有する情報処理装置が提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備え、他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信する通信処理部と、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出する検出部と、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成し、生成された合成画像データを第1のディスプレイに表示する映像処理部と、の各機能を発揮するよう構成される。 According to another embodiment, an information processing apparatus having a photographing function is provided. An information processing apparatus stores a content module combined with a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and a captured image. A memory and a processor for controlling the operation of the information processing apparatus are provided, and the other information processing apparatus displays a specific image detected by the image recognition process on a second display included in the other information processing apparatus. The processor establishes a communication connection with another information processing apparatus, and sets display settings for displaying a specific image on the second display with respect to the other information processing apparatus that has established the communication connection. By performing image recognition processing based on the display settings for captured images obtained by photographing the communication processing unit to be transmitted and other information processing devices with the camera A detection unit that detects a specific image included in the captured image, and a position where the content data is combined based on a detection result of the specific image with respect to the captured image, and a combined image in which the content data is combined at the determined position The image processing unit is configured to generate data and display the generated composite image data on the first display.
別の実施形態に従う情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備え、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信する通信処理部と、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させる映像処理部と、の各機能を発揮するよう構成される。 An information processing apparatus according to another embodiment includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus. A communication processing unit that establishes a communication connection with another information processing apparatus and receives a display setting for displaying a specific image on the display from the other information processing apparatus that has established the communication connection; According to the display setting received from the apparatus, each function of the video processing unit that displays a specific image on the display is configured.
上記一実施形態によると、撮影画像において、別の画像を合成する位置を調整するためのユーザの手間を軽減することができ、撮影画像に対し、別の画像を容易に合成することができる。また、被写体の撮影環境に対応して、情報処理装置間で通信が行なわれることで、撮影画像に対し、別の画像を合成する位置を検出する精度を向上させることができる。 According to the above-described embodiment, it is possible to reduce the user's trouble of adjusting the position where another image is combined in the captured image, and it is possible to easily combine another image with the captured image. Further, by performing communication between the information processing apparatuses corresponding to the shooting environment of the subject, it is possible to improve the accuracy of detecting a position where another image is combined with the shot image.
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<実施の形態1>
図1は、実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。図1では、情報処理装置100として、情報処理装置100Mと情報処理装置100Sとを示している(以下、情報処理装置100Mと情報処理装置100Sとを総称して情報処理装置100ということもある)。情報処理装置100は、例えば、タッチパネルを備えるスマートフォンであるが、スマートフォンに限られない。情報処理装置100は、カメラを備え、カメラが撮影した撮影画像をディスプレイ16に表示している。図1の例では、情報処理装置100Mを保持する被写体を、情報処理装置100Sが撮影している。情報処理装置100Mは、ディスプレイ16Mに、AR(Augmented Reality)マーカ65を表示している。情報処理装置100Sは、カメラによって被写体を撮影しており、撮影画像をディスプレイ16Sに表示している。情報処理装置100Sは、撮影画像から、被写体が保持している情報処理装置100Mのディスプレイ16に表示されるARマーカ65を、画像認識処理によって検出する。情報処理装置100Sは、検出したARマーカ65の位置に、撮影画像に合成するためのARモデルデータ(コンテンツデータ)を合成する。
<
FIG. 1 is a diagram illustrating an example of a situation in which the
情報処理装置100Sと情報処理装置100Mとは、無線LAN(Local Area Network)規格、Bluetooth(登録商標)など近距離無線通信用のプロトコルに従って通信接続し、互いにデータを送受信することができる。情報処理装置100Sは、撮影画像において情報処理装置100Mのディスプレイ16Mに表示されるARマーカ65を画像認識処理によって検出することを容易にするため、情報処理装置100Mと通信し、ARマーカ65の発光色を指定する。例えば、ARマーカ65が、情報処理装置100Mの周囲の環境と同種類の色で発光している場合に、情報処理装置100SによるARマーカ65の検出が困難になることがある。そこで、情報処理装置100Mの周囲の環境に少ない色でARマーカ65を発光させるよう、情報処理装置100Sが情報処理装置100Mに対して指示をする。これにより、被写体の周囲の環境にかかわらず、情報処理装置100SによるARマーカ65の検出の精度が高まる。
The
また、被写体となる情報処理装置100Mのユーザは、情報処理装置100Mが通信接続している情報処理装置100Sに対し、撮影画像からARマーカ65を検出したときにARマーカ65の位置に合成すべきコンテンツデータを指定することができる。これにより、情報処理装置100Mのユーザは、自らが被写体となった撮影画像において、どのコンテンツデータを合成するかを情報処理装置100Sに対して指定することができる。
In addition, the user of the
なお、図1に示すように、情報処理装置100Sは、スピーカ23Sとフロントカメラ18Sとを備える。情報処理装置100Sのユーザは、フロントカメラ18Sを起動させてユーザ自身を容易に撮影することができる。例えばコンテンツデータを合成するためのマーカの模様をユーザが保持することで、情報処理装置100Sのユーザは、ディスプレイ16Sに表示されるユーザ自身と、コンテンツデータとの合成画像を容易に得ることができる。
As shown in FIG. 1, the
図1の例では、被写体のユーザ(情報処理装置100Sのユーザ)は、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきっているとする。被写体は、キャラクターの衣装を装着し、ある姿勢を維持している。情報処理装置100Sは、撮影画像に対し画像認識処理を行うことで、被写体が保持する情報処理装置100Mのディスプレイ16Mに表示されたARマーカ65を検出し、検出結果に基づいて、コンテンツデータを合成する位置を設定する。これにより、例えば、被写体が、ある作品のキャラクターになりきっている場合に、情報処理装置100は、作品中の演出や作品中のアイテムなどを撮影画像に合成することができる。このように、情報処理装置100は、キャラクターになりきった感覚を被写体に対して提供することができる。
In the example of FIG. 1, it is assumed that the subject user (the user of the
<構成>
図2は、情報処理装置100を含むネットワークの構成を示す図である。図2では、情報処理装置100として、情報処理装置100A、100B、100Cが示されている。情報処理装置100A、100Cは、スマートフォンであり、情報処理装置100Bは、タブレット端末である。図2を参照して、情報処理装置100Aは、無線基地局700と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。配信サーバ900は、情報処理装置100が撮影画像と合成してディスプレイ16に表示するための複数のコンテンツデータを記憶している。情報処理装置100Aは、配信サーバ900と通信することで、配信サーバ900からコンテンツデータを取得する。例えば、情報処理装置100は、使用可能な期間が定められたコンテンツデータや、課金処理によって購入することができるコンテンツデータなどを配信サーバ900から取得する。情報処理装置100Bは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。情報処理装置100Cは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。
<Configuration>
FIG. 2 is a diagram illustrating a network configuration including the
情報処理装置100Bと情報処理装置100Cとは、無線通信規格に従って通信接続し、互いにデータを送受信することができる。情報処理装置100Bと情報処理装置100Cとは、撮影画像から、画像認識処理によって特定の画像(例えば、マーカ)を検出したときに、コンテンツデータを撮影画像に合成してディスプレイ16に表示する。情報処理装置100Bと情報処理装置100Cとは、互いに通信することにより、ディスプレイ16に表示するマーカの発光色を変更して撮影画像からマーカの検出を容易にする処理、撮影画像に合成するコンテンツデータを送受信する処理等を行う。
The
図3は、情報処理装置100の構成を示すブロック図である。図3に示すように、情報処理装置100は、アンテナ11,13と、遠距離通信用モジュール12と、近距離通信用モジュール14と、タッチパネル15と、ディスプレイ16と、測位センサ17と、フロントカメラ18と、リアカメラ19と、電源制御部20と、バッテリ21と、マイク22と、スピーカ23と、音声処理部24と、記憶部25と、加速度センサ26と、制御部27とを含む。
FIG. 3 is a block diagram illustrating a configuration of the
アンテナ11とアンテナ13とは、情報処理装置100が発する信号を電波として放射する。また、アンテナ11は、空間から電波を受信して受信信号を遠距離通信用モジュール12へ与える。アンテナ13は、空間から電波を受信して受信信号を近距離通信用モジュール14へ与える。
The
遠距離通信用モジュール12と近距離通信用モジュール14とは、情報処理装置100が他の無線機器と通信するため、アンテナ11等を介して信号を送受信するための変復調処理などを行う。遠距離通信用モジュール12と近距離通信用モジュール14とは、チューナー、高周波回路などを含む通信モジュールであり、情報処理装置100が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部27へ与える。
The long-
遠距離通信用モジュール12は、例えば、LTE(Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)などの移動体通信システムに対応した通信モジュールであり、比較的長距離の通信に対応している。
The long-
近距離通信用モジュール14は、例えば、Bluetooth(登録商標)などの近距離無線通信規格や、IEEE(Institute of Electrical and Electronic Engineers)802.11などの無線LAN(Local Area Network)規格などに対応した通信モジュールであり、比較的近距離の通信に対応している。情報処理装置100が複数の通信方式に対応する場合、これら通信方式に対応してアンテナと通信用モジュールとを備えてもよい。
The short-
タッチパネル15は、ユーザの入力操作を受け付ける。タッチパネル15は、例えば静電容量方式のものを用いることによってユーザの接触操作を受け付ける。タッチパネル15は、ユーザによる入力操作を制御部27へ出力する。
The
ディスプレイ16は、メニュー画面においてアイコンや背景画像を表示し、アプリケーションの動作によって静止画や動画などを表示する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)や有機EL(electroluminescence)ディスプレイによって実現される。
The
測位センサ17は、情報処理装置100の位置を計測するためのセンサであり、例えばGPS(Global Positioning System)モジュールである。
The
フロントカメラ18とリアカメラ19は、入射光を受光して電気信号に変換するカメラモジュールであり、CMOS(Complementary Metal Oxide Semiconductor)センサ、ADC(Analog to Digital Converter)等を含み、画像信号を制御部27へ出力する。情報処理装置100の筺体において、ディスプレイ16が配置される面を前面としたときに、フロントカメラ18は、情報処理装置100の前面に配置される。また、リアカメラ19は、情報処理装置100の背面に配置される。
The
電源制御部20は、情報処理装置100の各回路に対する電力の供給を制御する。電源制御部20は、例えば電源制御用IC(Integrated Circuit)である。
The power
バッテリ21は、情報処理装置100の各回路を動作させるための電力を供給する供給源である。バッテリ21からの電力は、電源制御部20の制御に従って各回路へ供給される。
The
マイク22は、ユーザによる音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部24へ与える。
The
スピーカ23は、音声処理部24から与えられる音声信号を音声に変換して当該音声を情報処理装置100の外部へ出力する。
The
音声処理部24は、音声信号の変復調を行う。音声処理部24は、マイク22から与えられる信号を変調して、変調後の信号を制御部27へ与える。また、音声処理部24は、音声信号をスピーカ23へ与える。音声処理部24は、例えば音声処理用のプロセッサによって実現される。
The
記憶部25は、例えばフラッシュメモリ等により構成され、情報処理装置100が使用するデータおよびプログラムを記憶する。ある局面において、記憶部25は、ARコンテンツデータ31と、画像データ32と、コンテンツ管理テーブル33とを記憶する。
The
ARコンテンツデータ31は、撮影画像に合成するための各コンテンツデータの識別情報に対応する静止画または動画のデータである。
The
画像データ32は、撮影画像とコンテンツデータとを合成した画像をデータとして保存する処理によって生成される静止画または動画のデータである。
The
コンテンツ管理テーブル33は、詳しくは後述するが、撮影画像に合成する対象となるコンテンツデータそれぞれを識別する識別情報と、コンテンツデータのファイル名と、コンテンツデータの名称と、コンテンツデータを利用できる期間とを対応付けたテーブルである。 As will be described in detail later, the content management table 33 includes identification information for identifying each content data to be combined with a captured image, a file name of the content data, a name of the content data, and a period during which the content data can be used. Is a table in which
制御部27は、記憶部25に記憶される制御プログラムを読み込んで実行することにより、情報処理装置100の動作を制御する。制御部27は、例えばアプリケーションプロセッサである。制御部27は、プログラムに従って動作することにより、検出処理部41と、映像処理部42と、通信処理部43と、音声認識部44との各機能を発揮する。
The
検出処理部41は、画像認識処理の機能を情報処理装置100に発揮させ、リアカメラ19またはフロントカメラ18から出力される撮影画像に対し、画像認識処理を施すことにより、撮影画像に含まれるマーカなどの特定の被写体を検出する。例えば、検出処理部41は、撮影画像に対して画像認識処理を行い、撮影画像に含まれるマーカの位置、マーカの傾きなどを出力する。
The
映像処理部42は、撮影画像に対し、検出処理部41の検出結果に基づいてコンテンツデータを合成する位置を決定する等の処理を行なって、合成後の画像を生成する。映像処理部42は、撮影画像や、生成した画像等に基づいて映像信号を生成してディスプレイ16の表示内容を制御する。
The
通信処理部43は、通信プロトコルに従って、情報処理装置100と他の情報処理装置との通信処理を制御する。
The
音声認識部44は、マイク22から出力される音声信号、情報処理装置100が他の情報処理装置から受信する音声信号その他の音声信号に対し、音声認識処理を行って、音声信号に示される人間の音声に基づき文字データを生成する。情報処理装置100は、自装置において音声認識処理用のプログラムを動作させ、音声信号から文字データを生成することとしてもよい。また、情報処理装置100は、音声信号を示す音声データを外部のサーバ(配信サーバ900など)へ送信し、外部のサーバによって音声認識処理を行わせ、その処理の結果を外部のサーバから受信することとしてもよい。
The
<データ構造>
図4を参照し、情報処理装置100の処理において用いられるデータを説明する。図4は、コンテンツ管理テーブル33を示す図である。
<Data structure>
With reference to FIG. 4, data used in the processing of the
図4に示すように、コンテンツ管理テーブル33の各レコードは、識別番号331と、ファイル名332と、ARデータ名称333と、利用可能期間334とを含む。
As shown in FIG. 4, each record of the content management table 33 includes an
識別番号331は、コンテンツデータそれぞれを識別するための識別情報である。ファイル名332は、コンテンツデータの識別情報に対応するファイルの名称を示す。ARデータ名称333は、識別情報に示されるコンテンツデータのタイトルを示す。利用可能期間334は、コンテンツデータを利用できる期間を示す。図4に示すように、例えば、利用可能期間334のデータ「2013/10/31」は、ユーザがコンテンツデータを利用できる期間が2013年10月31日までであることを示し、データ「期限設定なし」は、コンテンツデータの利用可能な期間が設定されていないことを示す。
The
<ユーザインタフェースの例(撮影側の装置)>
図5を参照して、情報処理装置100がディスプレイ16に表示する画面の一例を説明する。図5は、被写体を撮影する撮影側の情報処理装置100において、撮影画像とコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。
<Example of user interface (photographing device)>
An example of a screen displayed on the
図5に示すように、撮影側の情報処理装置100Sの制御部27は、ディスプレイ16Sにおいて、表示切替部51と、画像表示領域52と、撮影切替部54と、撮影開始部55と、撮影画像投稿部56と、選択ファイル表示部57と、指示送信部58とを表示する。また、制御部27は、撮影画像に合成するコンテンツデータをアニメーション合成部53に表示する。図5の例では、選択ファイル表示部57に示されるコンテンツデータがユーザによって選択されている。制御部27は、選択ファイル表示部57に示されるコンテンツデータと、撮影画像とを合成して画像表示領域52に表示する。
As shown in FIG. 5, the
表示切替部51は、ユーザによって指定されたコンテンツデータと撮影画像とが合成された画像をディスプレイ16に表示するか否かの設定を示す領域である。図8の例では、表示切替部51は設定「ON」を示している。この場合、制御部27は、コンテンツデータと撮影画像とを合成して生成された画像をディスプレイ16に表示する。なお、表示切替部51の表示内容が設定「OFF」の場合は、制御部27は、カメラによって取得された撮影画像をディスプレイ16に表示する。制御部27は、ユーザの入力操作をタッチパネル15によって受け付けており、表示切替部51に対する入力操作を受け付けて、撮影画像とコンテンツデータとが合成された画像を表示するか否かの設定のONとOFFとを切り替える。
The
画像表示領域52は、情報処理装置100のカメラから出力される撮影画像と、ユーザによって指定されたコンテンツデータとを合成した画像を表示するための領域である。画像表示領域52において、コンテンツデータを合成している領域をアニメーション合成部53に示す。制御部27は、撮影画像に対する画像認識処理により、マーカなど特定の被写体を検出し、検出された位置に基づいてアニメーション合成部53を決定し、アニメーション合成部53にコンテンツデータを合成する。
The
撮影切替部54は、画像表示領域52において表示されている画像を、静止画として保存するか、動画として保存するかの設定を受け付けるための領域である。
The
撮影開始部55は、画像表示領域52において表示されている画像を保存するための入力操作をユーザから受け付けるための領域である。表示切替部51において、設定が「ON」、すなわちコンテンツデータと撮影画像とが合成された画像を表示する設定である場合、情報処理装置100は、撮影開始部55に対する入力操作に応じて、コンテンツデータが合成された画像を静止画または動画として保存する。
The
撮影画像投稿部56は、画像表示領域52に表示されている画像、または撮影開始部55への入力操作に応じて保存した画像を、他の情報処理装置と共有するための入力操作をユーザから受け付けるための領域である。情報処理装置100は、撮影画像投稿部56に対する入力操作を受け付けることで、他の情報処理装置へ画像ファイルを送信するための処理、画像投稿用のSNSサイトにアクセスして画像を投稿するための処理などを行う。
The photographed
選択ファイル表示部57は、ユーザによって選択されたコンテンツデータを示す領域である。また、選択ファイル表示部57は、コンテンツデータを選択する操作をユーザから受け付けるための領域である。例えば、情報処理装置100は、選択ファイル表示部57に対する入力操作を受け付けることで、コンテンツデータの選択をユーザから受け付けるための画面を表示する。
The selected
指示送信部58は、被写体となっているユーザの情報処理装置100Mと通信し、マーカの色の変更などの指示を情報処理装置100Mに行うための入力操作を受け付ける領域である。
The
<ユーザインタフェースの例(マーカ側の装置)>
図6を参照して、被写体となるユーザが把持する情報処理装置100Mがディスプレイ16Mに表示する画面の一例を説明する。図6は、情報処理装置100Mにおいて、ARマーカを表示し、情報処理装置100Sの撮影画像に合成するコンテンツデータを指定するためのユーザインタフェースの一例を示す図である。
<User interface example (marker side device)>
With reference to FIG. 6, an example of a screen displayed on the
図6に示すように、情報処理装置100Mの制御部27は、ディスプレイ16Mにおいて、マーカ表示領域61と、コンテンツ指定部62と、データ送信部63と、データ購入部64とを表示する。
As illustrated in FIG. 6, the
マーカ表示領域61は、撮影側の情報処理装置100Mが、撮影画像に対する画像認識処理によって検出するARマーカ65を表示するための領域である。
The
コンテンツ指定部62は、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを情報処理装置100Mにおいて指定するための入力操作を受け付ける領域である。制御部27は、コンテンツ指定部62において、情報処理装置100Mのユーザが指定したコンテンツデータを示す画像を表示する。また、制御部27は、例えばコンテンツ指定部62に対する入力操作を受け付けて、コンテンツデータを選択するための画面をディスプレイ16Mに表示する。
The
データ送信部63は、情報処理装置100Mのユーザが指定したコンテンツデータを特定する情報を、撮影側の情報処理装置100Sに送信するための入力操作をユーザから受け付ける領域である。情報処理装置100Mの制御部27は、データ送信部63に対する入力操作を受け付けて、情報処理装置100Sに対し、コンテンツデータそのもの、または、コンテンツデータの識別子などコンテンツデータを特定する情報を送信する。
The
データ購入部64は、コンテンツデータの購入をするための入力操作をユーザから受け付ける領域である。制御部27は、データ購入部64に対する入力操作を受け付けて、購入可能なコンテンツデータのリストを表示し、コンテンツデータを配信する外部のサーバとの通信接続を行う。
The
<制御構造>
図7を参照して、情報処理装置100の制御構造を説明する。図7は、実施の形態1の情報処理装置100による、コンテンツデータと撮影画像とを合成して表示するための処理の概要を示す図である。なお、図7では、情報処理装置100Mを保持しているユーザを図示していない。
<Control structure>
A control structure of the
図7(A)に示すように、情報処理装置100Sは、カメラを起動して情報処理装置100Mを撮影している。情報処理装置100Mは、ディスプレイ16MにARマーカ65を表示している。ただし、撮影環境(周囲の色、光量など)の影響を受けて、情報処理装置100Sは、撮影画像から、ARマーカ65の検出に失敗している。情報処理装置100Sは、情報処理装置100Mと通信し、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mのマーカ表示領域61に表示されるARマーカ65の発光色など、ARマーカ65の表示の設定を指定する。
As illustrated in FIG. 7A, the
図7(B)に示すように、情報処理装置100Mは、情報処理装置100Sの指示に応じて、ディスプレイ16Mに表示するARマーカ65の設定(発光色などの設定)を変更する。例えば、情報処理装置100Sは、撮影画像に含まれる各色の分布を参照し、各色のうち最も少ない色を検出し、この色でARマーカ65を表示するよう情報処理装置100Mに指示を送る。情報処理装置100Sは、情報処理装置100Mに指示した色を用いたフィルタを適用し、撮影画像からARマーカ65を検出する。情報処理装置100Sは、撮影画像においてARマーカ65を検出した位置に基づいて、コンテンツデータを表示する位置を決定する。
As illustrated in FIG. 7B, the
図7(C)に示すように、被写体側の情報処理装置100Mは、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを指定することもできる。情報処理装置100Mは、情報処理装置100Sと通信接続し、コンテンツデータそのもの、コンテンツデータの識別子、またはコンテンツデータを取得する方法を示す情報などコンテンツデータを特定する情報を情報処理装置100Sへ送信する。例えば、情報処理装置100Mは、情報処理装置100Sと通信し、情報処理装置100Sのコンテンツ管理テーブル33に示されるコンテンツデータの一覧を取得することとしてもよい。情報処理装置100Mは、情報処理装置100Sが管理しているコンテンツデータの一覧の中から、コンテンツデータを識別する情報を選択し、選択した識別情報を情報処理装置100Sへ送信することとしてもよい。
As shown in FIG. 7C, the subject-side
図7(D)に示すように、情報処理装置100Sは、撮影画像からARマーカ65を検出した位置に基づいてコンテンツデータを合成する位置を決定し、決定した位置に、情報処理装置100Mから指定されたコンテンツデータを表示する。
As illustrated in FIG. 7D, the
なお、実施の形態1では、コンテンツデータは、例えば3次元の形状を有するアニメーションのデータである。以下、情報処理装置100がユーザからの入力操作をタッチパネル15によって受け付けて、コンテンツデータを撮影画像に合成する処理を説明する。
In the first embodiment, the content data is, for example, animation data having a three-dimensional shape. Hereinafter, a process in which the
<被写体側の情報処理装置100Mの制御構造>
図8は、被写体となる情報処理装置100Mがマーカをディスプレイ16に表示する処理を示すフローチャートである。
<Control structure of
FIG. 8 is a flowchart illustrating a process in which the
ステップS801において、情報処理装置100Mの制御部27は、撮影側となる情報処理装置100Sと、例えば無線LANやBluetooth(登録商標)などの近距離無線通信の規格に従って通信接続を確立する。
In step S801, the
ステップS803において、制御部27は、撮影側の情報処理装置100Sに対し、コンテンツデータを指定するか否かを判断する。例えば、制御部27は、コンテンツデータを指定するか否かの入力操作をユーザから受け付ける。情報処理装置100Mが情報処理装置100Sに対しコンテンツデータを指定する場合(ステップS803においてYES)、制御部27は、ステップS805の処理を行い、そうでない場合(ステップS803においてNO)、制御部27は、ステップS807の処理を行う。
In step S803, the
ステップS805において、制御部27は、情報処理装置100Mが情報処理装置100Sへ送信するコンテンツデータのデータサイズと閾値とを比較し、データサイズが閾値を上回る場合は、コンテンツデータを特定する情報として、コンテンツデータを取得する方法を示す情報(例えば、URL(Uniform Resource Locator))を情報処理装置100Sへ送信する。また、情報処理装置100Mの制御部27は、コンテンツデータのデータサイズが閾値を越えない場合は、コンテンツデータそのもの(コンテンツデータ本体)を情報処理装置100Sへ送信する。
In step S805, the
ステップS807において、制御部27は、ARマーカ65を表示するための設定(表示するマーカの形状、表示する色、表示する大きさなど)に基づいて、ARマーカ65をマーカ表示領域61に表示する。制御部27は、ARマーカ65を表示するための設定を情報処理装置100Sから指定されている場合は、情報処理装置100Sの指定に従ってARマーカ65をマーカ表示領域61に表示する。
In step S807, the
ステップS809において、制御部27は、タイマーを設定して、イベントの発生を待機する状態へと移る。ステップS809において制御部27が設定するタイマーは、情報処理装置100Mが測位センサ17や加速度センサ26によって情報処理装置100Mの使用状態を示す情報を取得し、取得した情報を、情報処理装置100Sへ送信するタイミングを示す。
In step S809, the
図9は、被写体となる情報処理装置100Mが、撮影側の情報処理装置100Sからの通信を受信して、マーカの表示を変更する処理を示すフローチャートである。
FIG. 9 is a flowchart illustrating a process in which the
ステップS901において、情報処理装置100Mの制御部27は、情報処理装置100Sから、ARマーカ65をディスプレイ16に表示する設定を示すデータを受信する。
In step S901, the
ステップS903において、制御部27は、ステップS901で受信したデータに基づいて、ARマーカ65の表示方法(マーカの色、模様、形状、表示サイズなど)の設定を更新し、表示方法の設定に従ってディスプレイ16にARマーカ65を表示する。
In step S903, the
図10は、被写体となる情報処理装置100Mが、情報処理装置100Mによる計測データを情報処理装置100Sへ送信するための送信タイマーイベント発生時の処理を示すフローチャートである。図10に示すように、情報処理装置100Mは、加速度センサ26、測位センサ17、ジャイロセンサなどを備えており、これらセンサによる測定データを保持している。情報処理装置100Mは、タイマーに示される周期に従って、情報処理装置100Sへ測定データを送信する。
FIG. 10 is a flowchart showing processing when a transmission timer event occurs for the
ステップS1001において、情報処理装置100Mの制御部27は、情報処理装置100Mの各種センサの測定データをメモリから読み出す。
In step S1001, the
ステップS1003において、制御部27は、メモリから読み出した測定データを、撮影側の情報処理装置100Sへ送信する。
In step S1003, the
ステップS1005において、制御部27は、情報処理装置100Mの各種センサの測定データを送信するための送信タイマーを設定する。
In step S1005, the
制御部27は、ステップS1005で設定した送信タイマーによるイベントが発生する都度、図10に示す処理を行う。
The
図11は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信接続を確立し、情報処理装置100Mのディスプレイ16に表示されるARマーカ65を認識するための処理を示すフローチャートである。
FIG. 11 illustrates a process for the
ステップS1101において、情報処理装置100Sの制御部27は、近距離無線通信の規格に従って、被写体となる情報処理装置100Mとの通信接続を確立する。
In step S1101, the
ステップS1103において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1103に示す処理の詳細は、後述する。
In step S1103, the
ステップS1105において、制御部27は、フロントカメラ18の撮影機能を発揮させるための初期化の処理を行い、例えば撮影画像を取得するためのキャプチャ周期の設定などを行って、フロントカメラ18による撮影を開始する。
In step S <b> 1105, the
図12は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信によってデータを受信し、ARデータをディスプレイ16に表示する設定を更新するための処理を示すフローチャートである。
FIG. 12 is a flowchart illustrating processing for the
ステップS1201において、情報処理装置100Sの制御部27は、撮影側の情報処理装置100Mから、情報処理装置100Mの各種センサの測定データ、情報処理装置100Mによって指定されるコンテンツデータなど、各種のデータを受信する。
In step S1201, the
ステップS1203において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1203に示す処理の詳細は、後述する。
In step S1203, the
ステップS1205において、制御部27は、ステップS1201で受信したデータに基づき、3次元のARデータであるコンテンツデータをディスプレイ16に表示するための向き等のパラメータを更新する。
In step S1205, the
図13は、撮影側となる情報処理装置100Sが、ディスプレイ16において撮影画像に合成するコンテンツデータを設定するための処理を示すフローチャートである。図13に示す処理は、ステップS1103、ステップS1203の各処理に対応する。
FIG. 13 is a flowchart showing a process for setting content data to be combined with a photographed image on the
ステップS1301において、情報処理装置100Sの制御部27は、情報処理装置100Mから、コンテンツデータの指定を受けた場合は、メモリを参照し、撮影画像に合成するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とを比較する。比較の結果、メモリに保持するコンテンツデータの設定と、情報処理装置100Mから指定されたコンテンツデータとが一致する場合は、制御部27は、コンテンツデータの設定を変更する必要がないと判断する(ステップS1301において、「変更なし」)。また、メモリに保持するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とが一致しない場合は、制御部27は、コンテンツデータの設定を変更する必要があると判断し(ステップS1301において、「変更あり」)、ステップS1303の処理を行う。
In step S1301, when the
ステップS1303において、制御部27は、コンテンツデータそのものを情報処理装置100Mから受信しているか、またはコンテンツデータを取得可能なURLの情報を受信しているかを判断する。コンテンツデータそのものを情報処理装置100Mから受信している場合(ステップS1303においてYES)、制御部27は、ステップS1307の処理を行う。制御部27は、コンテンツデータを取得可能なURLの情報を受信している場合は(ステップS1303においてNO)、ステップS1305の処理を行う。
In step S1303, the
ステップS1305において、制御部27は、情報処理装置100Mから受信したURLに基づき、コンテンツデータを受信し、受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。
In step S1305, the
ステップS1307において、制御部27は、情報処理装置100Mから受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。
In step S1307, the
図14は、撮影側となる情報処理装置100Sが、撮影画像に対して画像認識処理を行い、マーカの検出結果に応じてコンテンツデータを合成する処理を示すフローチャートである。情報処理装置100Sは、キャプチャ周期に従って撮影画像を取得し、取得した撮影画像のプレビューをディスプレイ16に表示する都度、図14に示す処理を行う。
FIG. 14 is a flowchart illustrating processing in which the
ステップS1401において、情報処理装置100Sの制御部27は、撮影画像からARマーカ(情報処理装置100Mのディスプレイ16に表示されたARマーカ65)をトレースする処理が終了しているか(ARマーカの検出に成功または失敗)、またはARマーカをトレースする処理を実行中であるかを判断する。ARマーカをトレースする処理が終了している場合(ステップS1401においてYES)、制御部27は、ステップS1407の処理を行う。ARマーカをトレースする処理を実行中である場合(ステップS1401においてNO)、制御部27は、ステップS1403の処理を行う。
In step S1401, the
ステップS1403において、制御部27は、撮影画像に対する画像認識処理によって、ARマーカのトレースに成功したか否かを判断する。制御部27は、ARマーカのトレースに成功している場合(ステップS1403においてYES)、ステップS1405の処理を行い、そうでない場合(ステップS1403においてNO)、ステップS1425の処理を行う。
In step S1403, the
ステップS1405において、制御部27は、撮影画像に対する画像認識処理によって検出されたARマーカの座標値に基づいてコンテンツデータを表示する位置を決定し、情報処理装置100Mから受信した情報処理装置100Mの各種センサの測定データに基づいて、3次元のコンテンツデータの向きなどを決定する。制御部27は、これらコンテンツデータを表示する位置および向きに従って、撮影画像にコンテンツデータを合成してディスプレイ16に表示する。
In step S1405, the
ステップS1407において、情報処理装置100Sの制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するための設定の変更を指示しているモード(変色待ちモード)であるか否かを判断する。制御部27は、変色待ちモードであると判断した場合(ステップS1407においてYES)、ステップS1409の処理を行う。制御部27は、変色待ちモードではないと判断した場合(ステップS1407においてNO)、ステップS1417の処理を行う。
In step S1407, the
そこで、情報処理装置100Sが変色待ちモードである場合を説明する。
ステップS1409において、制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するために指定した色を用いて、撮影画像にフィルター処理を適用する。
Therefore, a case where the
In step S1409, the
ステップS1411において、制御部27は、撮影画像にフィルター処理を適用した画像に基づき、ARマーカ65を検出し、撮影画像におけるARマーカ65の座標値を取得する。
In step S1411, the
ステップS1413において、制御部27は、ステップS1411の処理によって取得された座標値を参照し、ARマーカ65の座標値が一意に確定したか否かを判断する。ARマーカ65の座標値が一意に確定した場合(ステップS1413においてYES)、その座標値を、撮影画像におけるARマーカ65の座標とし、変色待ちモードからARマーカをトレースするモードへ移行し、ステップS1415の処理を行う。制御部27は、マーカの表示色を変更した回数を示す変数「n」の値をリセットする。ARマーカ65の座標値が一意に確定しない(座標値が検出されない、または複数の座標値が検出される)場合(ステップS1413においてNO)、制御部27は、ステップS1419以降の処理を行って、情報処理装置100Mに表示させるマーカの表示色を変更させる。
In step S1413, the
ステップS1415において、制御部27は、撮影画像から検出されたARマーカ65の座標値に基づいて、ARマーカをトレースする処理を開始する。
In step S1415, the
次に、ステップS1407において、情報処理装置100Sが変色待ちモードではない場合を説明する。
Next, a case where the
ステップS1417において、制御部27は、メモリを参照し、情報処理装置100Mに対してARマーカ65を表示する設定を変更させるための処理が1回目であるか否かを判断する。制御部27は、マーカの表示色を変更した回数を示す変数「n」を管理し、例えば、当該変数「n」の値が1であるか否かを判断する。ARマーカ65を表示する設定を変更させるための処理が1回目である場合(ステップS1417においてYES)、制御部27は、ステップS1425の処理を行い、そうでない場合(ステップS1417においてNO)、制御部27は、ステップS1419の処理を行う。
In step S1417, the
ステップS1425において、制御部27は、撮影画像に含まれる色の分布を参照し、撮影画像を構成する各色から、分布が最も少ない色を選択する。例えば、制御部27は、撮影画像に含まれる色を、赤、青、緑などいくつかのグループに分類し、最も色の少ないグループを選択する。
In step S1425, the
ステップS1427において、制御部27は、ステップS1425で選択した色に基づき、情報処理装置100Mに対し、ARマーカ65の発光色を変更するよう指示を送る。情報処理装置100Sは、変色待ちモードへ移行する。
In step S1427, the
ステップS1429において、制御部27は、マーカの表示色を変更した回数を示す変数「n」を更新する。ここでは、情報処理装置100Mに表示されるARマーカ65の表示色を変更する1回目の処理であるため、例えば変数「n」の値を「1」とする。
In step S1429, the
また、ステップS1419(ARマーカ65の表示方法を変更する処理が初回ではない場合)において、制御部27は、変数「n」の値を参照し、撮影画像に含まれる色の分布のうち、値「n」番目に少ない色を選択する。
Further, in step S1419 (when the process of changing the display method of the
ステップS1421において、制御部27は、ステップS1419で選択した色でARマーカ65を発光させるよう、情報処理装置100Mに指示を送信し、情報処理装置100Sを「変色待ちモード」へ移行させる。
In step S1421, the
ステップS1423において、制御部27は、変数「n」の値をカウントアップすることで更新する。
In step S <b> 1423, the
以上に示す処理を行うことで、撮影側の情報処理装置100Sと、被写体となる情報処理装置100Mとは、互いに通信しつつ、撮影画像にコンテンツデータを合成する。(1)情報処理装置100Sは、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mに対し、ARマーカ65を表示するための設定を指示する。(2)情報処理装置100Mは、情報処理装置100Sに表示されるコンテンツデータを、情報処理装置100Mのユーザの所望のものとするため、情報処理装置100Mから情報処理装置100Sに対し、コンテンツデータを指定するための情報(コンテンツデータそのもの、コンテンツデータを取得することができるURLなど)を送信する。
By performing the processing described above, the
<撮影画像にコンテンツデータを合成するか否かの設定の切替>
図15を参照して、情報処理装置100Sの撮影画像にコンテンツデータを合成するか否かの設定を、被写体となる情報処理装置100Mから切り替える例を説明する。図15は、情報処理装置100Sが、コンテンツデータの合成のONまたはOFFを、情報処理装置100Mの指示によって受け付ける例を示す図である。
<Switching settings for whether or not to synthesize content data with captured images>
With reference to FIG. 15, an example will be described in which the setting as to whether or not to synthesize content data with the captured image of the
<1.情報処理装置100Mからの指定の受信によるON−OFF制御>
例えば、情報処理装置100Sは、情報処理装置100Mからのコンテンツデータの指定を受け付けることで、コンテンツデータの合成のONとOFFとを切り替えることとしてもよい。図15において、被写体となる情報処理装置100Mのユーザは、ディスプレイ16Mに表示されるデータ送信部63に対する入力操作を行う。これにより、情報処理装置100Mから情報処理装置100Sへとコンテンツデータを指定するための情報が送信される。情報処理装置100Sは、情報処理装置100Mからコンテンツデータを指定するための情報を受信すると、コンテンツデータの合成をONにし、画像表示領域52のアニメーション合成部53にコンテンツデータを重ねる。
<1. ON-OFF control by reception of designation from
For example, the
<2.情報処理装置100Mにおける音声認識処理に基づくON−OFF制御>
また、情報処理装置100Mは、マイク22を介して情報処理装置100Mのユーザから音声入力を受け付けて、受け付けた音声に基づいて、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFとを切り替えることとしてもよい。例えば、情報処理装置100Mは、マイク22から出力される音声信号に対して音声認識処理を行って、音声信号に示されるテキストデータを取得する。情報処理装置100Mは、テキストデータに示される命令に応じて、データ送信部63に対する入力操作が行われたものとしてコンテンツデータを情報処理装置100Sへ送信することとしてもよい。
<2. ON-OFF control based on voice recognition processing in
In addition, the
また、情報処理装置100Mは、音声認識処理によって取得されるテキストデータに示される命令に応じて、情報処理装置100Sに対し、コンテンツデータの合成のONとOFFとを指示することとしてもよい。これにより、情報処理装置100Mのユーザは、自らが所望するタイミングで、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFのタイミングを制御することができる。
Further, the
<3.情報処理装置100Mにおける振動の検出に基づくON−OFF制御>
また、情報処理装置100Mは、情報処理装置100Mのユーザが情報処理装置100Mを把持したまま振る動作(シェイク)を加速度センサ26等の測定結果に基づき検出し、検出結果に応じて、情報処理装置100Sに、コンテンツデータの合成のONとOFFとを切り替える指示を送信することとしてもよい。
<3. On-off control based on vibration detection in
Further, the
これにより、情報処理装置100Mのユーザが、例えばある作品のキャラクターになりきっている場合に、情報処理装置100Sにおいて、そのキャラクターの特徴を示すコンテンツデータが合成されるタイミングを、ユーザ自身が容易に制御することができる。そのため、情報処理装置100Sと情報処理装置100Mとは、ユーザに対し、キャラクターになりきった感覚を提供することができる。図15の例では、情報処理装置100Mのユーザが、エネルギー波を示すコンテンツデータを情報処理装置100Sの画像表示領域52に表示するタイミングを制御している。
As a result, when the user of the
また、情報処理装置100Sは、コンテンツデータの合成のONとOFFとを切り替える過程を含めて、コンテンツデータと撮影画像とが合成される前の画像と、合成された後の画像とを、例えば動画等によって保存することもできる。情報処理装置100Sは、保存された動画等を、他のユーザと共有することができることとしてもよい。例えば、情報処理装置100Sは、撮影画像に対してコンテンツデータを合成して生成された静止画または動画を、例えば画像投稿用のWebサイトやグループチャットに投稿することができることとしてもよい。これにより、ユーザ同士での作品の楽しみ方のバリエーションを拡げることができる。
In addition, the
<コンテンツデータの購入を受け付けるためのユーザインタフェースの例>
図16を参照して、情報処理装置100がユーザからコンテンツデータの購入を受け付けるためのユーザインタフェースの例を説明する。図16は、情報処理装置100において、撮影画像に合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
<Example of user interface for accepting purchase of content data>
An example of a user interface for the
図16に示すように、制御部27は、ディスプレイ16において、購入ボタン72と、コンテンツデータリスト71とを表示する。コンテンツデータリスト71は、ユーザが購入可能なコンテンツデータの一覧を表示する。
As shown in FIG. 16, the
制御部27は、タッチパネル15を介して、ユーザがコンテンツデータを選択するための入力操作を受け付ける。購入ボタン72は、ユーザが選択したコンテンツデータを購入するための入力操作を受け付けるボタンである。
The
<実施の形態2>
次に、実施の形態2にかかる情報処理装置100について説明する。実施の形態2では、複数の情報処理装置100が通信接続を確立する(例えば、1の情報処理装置100に対し、他の装置が通信接続を確立する)。これら複数の情報処理装置100において、被写体となる情報処理装置100それぞれは、マーカをディスプレイ16に表示する。
<
Next, the
撮影側となる情報処理装置100は、撮影画像に含まれる複数のマーカをそれぞれ認識し、認識される各マーカとコンテンツデータとを対応付けてディスプレイ16に表示する。例えば、情報処理装置100は、撮影画像に対し画像認識処理を行うときに、検出対象とする複数のマーカを登録する。情報処理装置100は、これらマーカそれぞれと、コンテンツデータとを対応付けてメモリに保持する。これにより、被写体となる各情報処理装置は、マーカをディスプレイ16に表示し、撮影側の情報処理装置100は、撮影画像において、被写体の情報処理装置100に表示される各マーカの位置に、それぞれコンテンツデータを合成することができる。例えば、2人の被写体が、それぞれの情報処理装置100にマーカを表示し、各被写体と、コンテンツデータとを対応づける。これにより、情報処理装置100は、複数の被写体が、例えばそれぞれ異なる発光色のサーベル状の武具を把持している場面をディスプレイ16に表示することができる。
The
<変形例 コンテンツデータの配信方法>
上記の実施形態の説明では、情報処理装置100は、ARコンテンツデータ31を、例えば配信サーバ900から取得することができるとして説明したが、この他にも、例えば、ある特定の地域に限定してARコンテンツデータ31を取得することができることとしてもよい。例えば、コンテンツデータを配信する配信サーバ900は、情報処理装置100の位置として、(a)測位センサ17のGPSによる測位の結果、(b)情報処理装置100が無線通信をしている無線基地局700の識別情報、(c)情報処理装置100が無線通信をしている無線LANルータの識別情報等の情報を取得する。配信サーバ900は、情報処理装置100から、配布地域が限定されているARコンテンツデータ31を取得するための要求を受け付けたとき、情報処理装置100の位置の情報に基づいて、ARコンテンツデータ31の配信の可否を制御する(または、情報処理装置100において、ARコンテンツデータ31の配信を受けることが可能な地域であるか否かを判定してもよい)。
<Modification Example Content Data Distribution Method>
In the above description of the embodiment, the
このように、情報処理装置100がARコンテンツデータ31を取得可能な地域を限定することで、例えば、ARコンテンツデータ31と関係のある地域で開催されるイベントや観光地へとユーザが訪問することを促すことができる。例えば、配信サーバ900は、地域の産品や、観光地に関連する物品や、地域に関連するアニメーション作品の作中に登場するアイテムなどを示すコンテンツデータを、地域限定で情報処理装置100へ配信することとしてもよい。
In this way, by limiting the areas in which the
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
11,13 アンテナ、12 遠距離通信用モジュール、14 近距離通信用モジュール、15 タッチパネル、16 ディスプレイ、17 測位センサ、18 フロントカメラ、19 リアカメラ、20 電源制御部、21 バッテリ、22 マイク、23 スピーカ、24 音声処理部、25 記憶部、26 加速度センサ、27 制御部、31 ARコンテンツデータ、32 画像データ、33 コンテンツ管理テーブル、41 検出処理部、42 映像処理部、43 通信処理部、44 音声認識部、100 情報処理装置、600 ルータ、700 無線基地局、800 ネットワーク、900 配信サーバ。 11, 13 Antenna, 12 Long-distance communication module, 14 Short-distance communication module, 15 Touch panel, 16 Display, 17 Position sensor, 18 Front camera, 19 Rear camera, 20 Power supply control unit, 21 Battery, 22 Microphone, 23 Speaker , 24 voice processing unit, 25 storage unit, 26 acceleration sensor, 27 control unit, 31 AR content data, 32 image data, 33 content management table, 41 detection processing unit, 42 video processing unit, 43 communication processing unit, 44 voice recognition Part, 100 information processing device, 600 router, 700 wireless base station, 800 network, 900 distribution server.
Claims (10)
前記情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記他の情報処理装置は、前記他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、
前記プログラムは、前記プロセッサに、
前記他の情報処理装置との通信接続を確立するステップと、
前記通信接続を確立した前記他の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信するステップと、
前記他の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップと、
前記撮影画像に対する前記特定の画像の検出結果に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成するステップと、
前記生成された前記合成画像データを前記第1のディスプレイに表示するステップとを実行させる、プログラム。 A program for controlling the operation of the information processing apparatus,
The information processing apparatus stores a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and content data combined with the captured image. And a processor for controlling the operation of the information processing apparatus,
The other information processing apparatus is configured to display a specific image detected by an image recognition process on a second display included in the other information processing apparatus,
The program is stored in the processor.
Establishing a communication connection with the other information processing apparatus;
Transmitting display settings for displaying the specific image on the second display to the other information processing apparatus that has established the communication connection;
Detecting the specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting; ,
Determining a position to synthesize the content data based on a detection result of the specific image with respect to the captured image, and generating synthesized image data by synthesizing the content data at the determined position;
Displaying the generated composite image data on the first display.
前記他の情報処理装置から、前記第1のディスプレイに合成すべきコンテンツデータの指定を受信するステップを実行させ、
前記表示するステップは、前記他の情報処理装置によって指定された前記コンテンツデータを前記撮影画像に合成するステップを含む、請求項1記載のプログラム。 The program is stored in the processor.
Receiving a designation of content data to be combined with the first display from the other information processing apparatus;
The program according to claim 1, wherein the displaying includes synthesizing the content data designated by the other information processing apparatus with the photographed image.
前記情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プログラムは、前記プロセッサに、
前記他の情報処理装置との通信接続を確立するステップと、
前記ディスプレイに、画像認識処理によって検出される特定の画像を表示するステップと、
前記通信接続を確立した前記他の情報処理装置から、前記特定の画像を前記ディスプレイに表示するための表示設定を受信するステップとを実行させ、
前記特定の画像を表示するステップは、前記他の情報処理装置から受信した前記表示設定に従って、前記特定の画像を前記ディスプレイに表示させるステップを含む、プログラム。 A program for controlling the operation of the information processing apparatus,
The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus,
The program is stored in the processor.
Establishing a communication connection with the other information processing apparatus;
Displaying a specific image detected by an image recognition process on the display;
Receiving a display setting for displaying the specific image on the display from the other information processing apparatus that has established the communication connection; and
The step of displaying the specific image includes a step of displaying the specific image on the display according to the display setting received from the other information processing apparatus.
前記通信接続を確立した他の情報処理装置に対し、前記他の情報処理装置の前記撮影画像に合成すべき前記コンテンツデータの指定を送信するステップを実行させる、請求項5記載のプログラム。 The program is stored in the processor.
The program according to claim 5, wherein a step of transmitting designation of the content data to be combined with the captured image of the other information processing apparatus is executed to the other information processing apparatus that has established the communication connection.
前記送信するステップは、前記他の情報処理装置に対し、前記コンテンツデータ本体、前記コンテンツデータの識別情報、または前記コンテンツデータの取得方法を示す情報の少なくともいずれかを送信するステップを含む、請求項6記載のプログラム。 The information processing apparatus includes a memory for storing content data to be combined with a captured image in the other information processing apparatus,
The transmitting step includes a step of transmitting at least one of the content data main body, the identification information of the content data, or information indicating an acquisition method of the content data to the other information processing apparatus. 6. The program according to 6.
前記第1の情報処理装置は、カメラと、第2の情報処理装置と通信するための第1の通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記第1の情報処理装置の動作を制御するためのプロセッサとを備え、
前記第2の情報処理装置は、前記第1の情報処理装置と通信するための第2の通信モジュールと、画像認識処理によって検出される特定の画像を表示するよう構成される第2のディスプレイとを備え、
前記方法は、
前記第1の情報処理装置と前記第2の情報処理装置とが、互いに通信接続を確立するステップと、
前記第1の情報処理装置が、前記通信接続を確立した前記第2の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信するステップと、
前記第1の情報処理装置が、前記第2の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップと、
前記第1の情報処理装置が、前記撮影画像において、前記検出された前記特定の画像に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成するステップと、
前記第1の情報処理装置が、前記生成された前記合成画像データを前記第1のディスプレイに表示するステップとを含む、方法。 A method for generating a composite image in a system including a first information processing apparatus and a second information processing apparatus,
The first information processing apparatus includes a camera, a first communication module for communicating with the second information processing apparatus, a first display for displaying an image captured by the camera, and the captured image. A memory for storing the content data to be combined; and a processor for controlling the operation of the first information processing apparatus;
The second information processing apparatus includes a second communication module for communicating with the first information processing apparatus, and a second display configured to display a specific image detected by an image recognition process. With
The method
The first information processing apparatus and the second information processing apparatus establishing a communication connection with each other;
The first information processing apparatus transmitting a display setting for displaying the specific image on the second display to the second information processing apparatus that has established the communication connection;
Included in the captured image by performing image recognition processing based on the display setting for a captured image obtained by capturing the second information processing apparatus with the camera by the first information processing apparatus. Detecting the specific image to be detected;
The first information processing apparatus determines a position for combining the content data in the captured image based on the detected specific image, and combines the content data at the determined position. Generating image data; and
The first information processing apparatus includes a step of displaying the generated composite image data on the first display.
前記情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記他の情報処理装置は、前記他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、
前記プロセッサは、
前記他の情報処理装置との通信接続を確立し、前記通信接続を確立した前記他の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信する通信処理部と、
前記他の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出する検出部と、
前記撮影画像に対する前記特定の画像の検出結果に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成し、前記生成された前記合成画像データを前記第1のディスプレイに表示する映像処理部と、の各機能を発揮するよう構成される、情報処理装置。 An information processing apparatus having a photographing function,
The information processing apparatus stores a camera, a communication module for communicating with another information processing apparatus, a first display for displaying an image captured by the camera, and content data combined with the captured image. And a processor for controlling the operation of the information processing apparatus,
The other information processing apparatus is configured to display a specific image detected by an image recognition process on a second display included in the other information processing apparatus,
The processor is
Communication that establishes a communication connection with the other information processing apparatus and transmits a display setting for displaying the specific image on the second display to the other information processing apparatus that has established the communication connection. A processing unit;
A detection unit that detects the specific image included in the photographed image by performing image recognition processing on the photographed image obtained by photographing the other information processing apparatus with the camera based on the display setting. When,
Based on a detection result of the specific image with respect to the photographed image, a position to synthesize the content data is determined, combined image data is generated by combining the content data at the determined position, and the generated An information processing apparatus configured to perform each function of a video processing unit that displays composite image data on the first display.
前記情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プロセッサは、
前記他の情報処理装置との通信接続を確立し、前記通信接続を確立した前記他の情報処理装置から、前記特定の画像を前記ディスプレイに表示するための表示設定を受信する通信処理部と、
前記他の情報処理装置から受信した前記表示設定に従って、前記特定の画像を前記ディスプレイに表示させる映像処理部と、の各機能を発揮するよう構成される、情報処理装置。 An information processing apparatus,
The information processing apparatus includes a communication module for communicating with another information processing apparatus, a display for displaying an image, and a processor for controlling the operation of the information processing apparatus,
The processor is
A communication processing unit that establishes a communication connection with the other information processing apparatus and receives a display setting for displaying the specific image on the display from the other information processing apparatus that has established the communication connection;
An information processing apparatus configured to exhibit each function of a video processing unit that displays the specific image on the display in accordance with the display setting received from the other information processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013266833A JP6305757B2 (en) | 2013-12-25 | 2013-12-25 | program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013266833A JP6305757B2 (en) | 2013-12-25 | 2013-12-25 | program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015122707A true JP2015122707A (en) | 2015-07-02 |
JP6305757B2 JP6305757B2 (en) | 2018-04-04 |
Family
ID=53533956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013266833A Active JP6305757B2 (en) | 2013-12-25 | 2013-12-25 | program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6305757B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017046162A (en) * | 2015-08-26 | 2017-03-02 | 隆正 光信 | Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program |
EP3261057A1 (en) | 2016-06-22 | 2017-12-27 | Fujitsu Limited | Head mounted display and transmission control method |
WO2018065667A1 (en) * | 2016-10-05 | 2018-04-12 | Kone Corporation | Generation of augmented reality |
US11132574B2 (en) | 2017-01-12 | 2021-09-28 | Samsung Electronics Co., Ltd. | Method for detecting marker and electronic device thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011159274A (en) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | Terminal and method for providing expansion reality |
-
2013
- 2013-12-25 JP JP2013266833A patent/JP6305757B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011159274A (en) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | Terminal and method for providing expansion reality |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017046162A (en) * | 2015-08-26 | 2017-03-02 | 隆正 光信 | Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program |
EP3261057A1 (en) | 2016-06-22 | 2017-12-27 | Fujitsu Limited | Head mounted display and transmission control method |
WO2018065667A1 (en) * | 2016-10-05 | 2018-04-12 | Kone Corporation | Generation of augmented reality |
US11132574B2 (en) | 2017-01-12 | 2021-09-28 | Samsung Electronics Co., Ltd. | Method for detecting marker and electronic device thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6305757B2 (en) | 2018-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5769032B2 (en) | Imaging apparatus, imaging method, and program | |
JP6538079B2 (en) | Imaging parameter setting method, apparatus, program, and recording medium | |
US9049317B2 (en) | Communication system, communication terminal, and method of controlling a communication system | |
KR102449670B1 (en) | Method for creating video data using cameras and server for processing the method | |
CN103607538A (en) | Photographing method and photographing apparatus | |
US9635235B2 (en) | Communication apparatus and control method thereof | |
JP6305757B2 (en) | program | |
CN105657257A (en) | Method, device and system for taking panoramic photo, mobile terminal and selfie stick | |
JP2021039468A (en) | Imaging device, communication system, communication method, and program | |
JP2019506012A (en) | Smart airplane shooting method, smart airplane, program, and recording medium | |
US10185387B2 (en) | Communication apparatus, communication method, and computer readable recording medium | |
CN111741511B (en) | Quick matching method and head-mounted electronic equipment | |
US10291835B2 (en) | Information processing apparatus, imaging apparatus, information processing method, and imaging system | |
CN113573122A (en) | Audio and video playing method and device | |
JP2020198516A (en) | Imaging apparatus, image processing method, and program | |
EP3621292B1 (en) | Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof | |
JP2016127379A (en) | Information processing device, control method, and program | |
JP2013021473A (en) | Information processing device, information acquisition method, and computer program | |
EP4250238A1 (en) | Three-dimensional model reconstruction method, device, and storage medium | |
WO2019041158A1 (en) | Photography optimization control method and apparatus for photographing device, and computer processing device | |
JP6515966B2 (en) | Imaging device, system, electronic device and program | |
JP5728280B2 (en) | Stereoscopic image capturing system, portable communication terminal, stereoscopic image capturing method for stereoscopic image capturing system, stereoscopic image capturing program for portable communication terminal, and stereoscopic image capturing method for portable communication terminal | |
CN110324791A (en) | Carry out method, apparatus, computer equipment and the storage medium of networking | |
JP2016082356A (en) | Electronic apparatus and program | |
JP2015023382A (en) | Information processing device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6305757 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |