JP2015023382A - Information processing device, method, and program - Google Patents

Information processing device, method, and program Download PDF

Info

Publication number
JP2015023382A
JP2015023382A JP2013149369A JP2013149369A JP2015023382A JP 2015023382 A JP2015023382 A JP 2015023382A JP 2013149369 A JP2013149369 A JP 2013149369A JP 2013149369 A JP2013149369 A JP 2013149369A JP 2015023382 A JP2015023382 A JP 2015023382A
Authority
JP
Japan
Prior art keywords
content data
information processing
image data
processing apparatus
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013149369A
Other languages
Japanese (ja)
Inventor
源治郎 片山
Genjiro Katayama
源治郎 片山
崇 ▲松▼村
崇 ▲松▼村
Takashi Matsumura
幸彦 青柳
Yukihiko Aoyagi
幸彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL STANDARD KK
Original Assignee
DIGITAL STANDARD KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL STANDARD KK filed Critical DIGITAL STANDARD KK
Priority to JP2013149369A priority Critical patent/JP2015023382A/en
Publication of JP2015023382A publication Critical patent/JP2015023382A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily synthesize another image to a photographed image while displaying the photographed image in a region not desired of the image synthesis by a user.SOLUTION: An information processing device 100 includes a display 16 for displaying an image and a storage part for storing content data to be synthesized with the image. The information processing device 100 calculates a face recognition region 71, in which content data is not synthesized within a subject person, in a photographed image data by performing face detection processing for photographed image data outputted by a camera. The information processing device 100 determines a display position of the content data and image size according to a face recognition result of a subject in the photographed image data, and displays the content data in a synthesis region 81 with not synthesizing the content data in the face recognition region 71.

Description

本開示は、カメラの撮影により得られる撮影画像データに、別の画像を合成して表示するための技術に関する。   The present disclosure relates to a technique for combining and displaying another image on captured image data obtained by capturing with a camera.

スマートフォン、タブレット端末など、カメラを備えた情報処理装置が広く普及している。ユーザは、これらカメラ機能を利用して、例えばユーザ同士を撮影し、SNS(social networking service)サイトやグループチャットアプリ等に投稿して撮影画像をユーザ間で共有している。   Information processing apparatuses equipped with cameras such as smartphones and tablet terminals are widely used. Users use these camera functions to take images of users, for example, and post them to an SNS (social networking service) site, a group chat application, etc., and share the taken image between users.

これらスマートフォンなどの情報処理装置に対して、数々のアプリケーションが提供されている。情報処理装置は、例えばアプリケーションストアを通じて、配信サーバからアプリケーションをダウンロードする。これらアプリケーションは、例えば、情報処理装置のカメラ機能を利用しやすくするもの、撮影画像に対して加工をするためのもの、画像認識処理によって被写体の顔を検出する機能を有するものなどがある。撮影画像の中から顔画像を検出するための技術は、例えば特開2009−223581号公報(特許文献1)に開示されている。   Numerous applications are provided for information processing apparatuses such as smartphones. The information processing apparatus downloads the application from the distribution server through, for example, an application store. These applications include, for example, an application that makes it easy to use the camera function of the information processing apparatus, an application that processes captured images, and an application that has a function of detecting the face of a subject by image recognition processing. A technique for detecting a face image from a captured image is disclosed in, for example, Japanese Patent Application Laid-Open No. 2009-223581 (Patent Document 1).

情報処理装置は、顔検出機能を有するカメラアプリケーションを起動して、撮影画像に含まれる被写体の目の位置を検出し、検出された目の位置に基づいて、例えば眼鏡や仮面などの物体を表す画像を合成する。これにより、ユーザは、被写体が物体(眼鏡など)を装着した画像を得ることができ、例えばユーザが実際に眼鏡を装着することなく眼鏡を装着した後の印象などを容易に確認することができる。このように、撮影画像データに含まれる被写体の顔を検出して、検出結果に応じて眼鏡やヒゲなど別の画像を合成することにより、ユーザは、撮影画像を容易に加工することができ、他のユーザと共有して楽しむことができる。   The information processing apparatus activates a camera application having a face detection function, detects the eye position of the subject included in the photographed image, and represents an object such as glasses or a mask based on the detected eye position Composite the images. As a result, the user can obtain an image in which the subject wears an object (such as glasses), and can easily confirm an impression after the user wears the glasses without actually wearing the glasses, for example. . In this way, by detecting the face of the subject included in the captured image data and combining another image such as glasses or beard according to the detection result, the user can easily process the captured image, You can enjoy sharing with other users.

特開2009−223581号公報JP 2009-223581 A

しかし、ユーザによっては、撮影画像データに対し、アニメーションしている画像などを合成しつつ、撮影画像のうち一部の領域については画像を合成せず、もとの撮影画像データを表示したいことがある。例えば、被写体となる人物が、顔や衣装などを見せつつ、被写体の周囲に別の画像を合成したいことがある。例えば被写体が、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきって髪形を整え、化粧をし、衣装を装着している場合などである。こうした化粧や衣装などは、これ自体が鑑賞の対象としての比重が大きいとも考えられている。その一方で、キャラクターの周囲の光線など、作品上の演出を再現するためのアニメーション画像を撮影画像に合成したいという要請もある。   However, some users may wish to display the original captured image data without combining the images of some of the captured images while combining the animated images with the captured image data. is there. For example, there is a case where a person who is a subject wants to synthesize another image around the subject while showing a face, a costume, or the like. For example, the subject may be a character of a work such as a manga, a game, an animation, or a movie, and the hairstyle is adjusted, makeup is applied, and a costume is worn. Such makeup and costumes are considered to have a high specific gravity as an object of appreciation. On the other hand, there is also a demand for synthesizing an animation image for reproducing the effect on the work, such as light rays around the character, with the photographed image.

したがって、ユーザが画像の合成を望まない領域については撮影画像を表示しつつ、アニメーションしている画像などを撮影画像に容易に合成するための技術が必要とされている。   Therefore, there is a need for a technique for easily synthesizing an animated image or the like with a captured image while displaying a captured image for an area where the user does not want to combine the images.

一実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。プログラムは、プロセッサに、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出するステップと、入力画像データにおいて、検出するステップで検出された人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成するステップと、生成するステップで生成された出力画像データを、ディスプレイに表示するステップとを実行させる。   According to one embodiment, a program for controlling the operation of the information processing apparatus is provided. The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. The program performs an image recognition process on the input image data to the processor, thereby detecting a region indicating a person included in the input image data, and indicating the person detected in the detecting step in the input image data. Determining an area for suppressing display of the content data based on the area, and generating output image data by combining the content data with the input image data so that the content data is not displayed in the determined area; Displaying the output image data generated in the generating step on a display.

別の実施形態に従うと、情報処理装置の動作を制御するための方法が提供される。情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。方法は、情報処理装置が、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出するステップと、入力画像データにおいて、検出するステップで検出された人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成するステップと、生成するステップで生成された出力画像データを、ディスプレイに表示するステップとを含む。   According to another embodiment, a method for controlling the operation of an information processing device is provided. The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. In the method, the information processing device performs image recognition processing on the input image data to detect a region indicating a person included in the input image data, and the person detected in the detecting step in the input image data Determining an area for suppressing display of the content data based on the area indicating the content, and generating the output image data by combining the content data with the input image data so that the content data is not displayed in the determined area And displaying the output image data generated in the generating step on a display.

別の実施形態に従う情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備え、プロセッサは、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出する検出部と、入力画像データにおいて、検出部が検出した人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成する出力画像生成部と、出力画像生成部により生成された出力画像データを、ディスプレイに表示させる表示制御部とを含む。   An information processing apparatus according to another embodiment includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. Is a detection unit that detects a region indicating a person included in the input image data by performing image recognition processing on the input image data, and a region indicating the person detected by the detection unit in the input image data. An output image generation unit that determines an area for suppressing display of the content data and combines the content data with the input image data so that the content data is not displayed in the determined area; A display control unit for displaying the output image data generated by the generation unit on a display.

上記一実施形態によると、ユーザが画像の合成を望まない領域については撮影画像を表示しつつ、別の画像を撮影画像に容易に合成することができる。   According to the above-described embodiment, it is possible to easily combine another image with a captured image while displaying a captured image for a region where the user does not want to combine the images.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。It is a figure which shows an example of the condition where the information processing apparatus 100 concerning embodiment is used. 情報処理装置100を含むネットワークの構成を示す図である。1 is a diagram illustrating a configuration of a network including an information processing apparatus 100. FIG. 情報処理装置100の構成を示すブロック図である。2 is a block diagram illustrating a configuration of an information processing apparatus 100. FIG. コンテンツ管理テーブル51を示す図である。It is a figure which shows the content management table 51. FIG. 撮影画像に合成するコンテンツデータの例を示す図である。It is a figure which shows the example of the content data synthesize | combined with a picked-up image. 実施の形態1の情報処理装置100による、コンテンツデータと撮影画像データとを合成して表示するための処理を示すフローチャートである。3 is a flowchart illustrating processing for combining content data and captured image data and displaying them by the information processing apparatus 100 according to the first embodiment. 撮影画像データとコンテンツデータとを合成する処理を示す図である。It is a figure which shows the process which synthesize | combines picked-up image data and content data. 撮影画像データとコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。It is a figure which shows an example of the user interface for synthesize | combining picked-up image data and content data. 撮影画像データに合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。It is a figure which shows the example of the interface for receiving input operation which purchases the content data used as the object combined with picked-up image data. 情報処理装置100がコンテンツデータの合成のオンまたはオフを音声入力によって受け付ける例を示す図である。It is a figure which shows the example which the information processing apparatus 100 receives ON or OFF of the synthesis | combination of content data by voice input. 実施の形態2の情報処理装置100の表示例を示す図である。6 is a diagram illustrating a display example of the information processing apparatus 100 according to Embodiment 2. FIG. 実施の形態2の情報処理装置100の処理において用いられるユーザ割り当て情報53を示す図である。It is a figure which shows the user allocation information 53 used in the process of the information processing apparatus 100 of Embodiment 2. FIG. 実施の形態2の情報処理装置100による、コンテンツデータを撮影画像データに合成して表示するための処理を示すフローチャートである。10 is a flowchart illustrating processing for combining content data with captured image data and displaying the information by the information processing apparatus 100 according to the second embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<実施の形態1>
図1は、実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。情報処理装置100は、例えば、タッチパネルを備えるスマートフォンであるが、スマートフォンに限られない。情報処理装置100は、カメラを備え、カメラが撮影した撮影画像をディスプレイ16に表示している。情報処理装置100は、撮影画像に、別の画像(コンテンツデータ)を合成してディスプレイ16に表示する。例えば、図1に示すように、情報処理装置100は、被写体の顔の周囲に、ゆらめく炎状の画像を表示するためのコンテンツデータを合成してディスプレイ16に表示する。このとき、情報処理装置100は、撮影画像のうち、画像認識処理に基づいて一部の領域を抽出し、この領域にはコンテンツデータを表示しないよう、ディスプレイ16の表示内容を制御する。例えば、ユーザが撮影画像において、人物の顔を表示したい場合など、人物の顔の部分にコンテンツデータを表示することを望まない場合に、人物の顔の部分を画像認識処理によって検出し、検出した顔の部分を避けてコンテンツデータと撮影画像データとを合成することができる。
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a situation in which the information processing apparatus 100 according to the embodiment is used. The information processing apparatus 100 is, for example, a smartphone including a touch panel, but is not limited to a smartphone. The information processing apparatus 100 includes a camera and displays a captured image captured by the camera on the display 16. The information processing apparatus 100 combines the captured image with another image (content data) and displays it on the display 16. For example, as illustrated in FIG. 1, the information processing apparatus 100 synthesizes content data for displaying a flickering flame-shaped image around the face of the subject and displays the synthesized content data on the display 16. At this time, the information processing apparatus 100 extracts a part of the captured image based on the image recognition process, and controls the display content of the display 16 so as not to display the content data in this area. For example, when a user wants to display a person's face in a captured image and does not want to display content data on the person's face, the person's face is detected and detected by image recognition processing. It is possible to synthesize content data and photographed image data while avoiding the face portion.

図1の例では、被写体は、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきっているとする。被写体は、キャラクターの衣装を装着し、小物を把持し、ある姿勢を維持している。情報処理装置100は、撮影画像に対し画像認識処理を行うことで被写体の顔を検出し、検出結果に基づいて、コンテンツデータを合成しない領域である顔認識領域71を設定する。また、情報処理装置100は、撮影画像おける被写体の顔を検出する処理の結果に基づいて、コンテンツデータを合成するための基準となる座標値を決定する。情報処理装置100は、撮影画像データに合成するコンテンツデータが、顔認識領域71に表示されないよう、コンテンツデータの一部を合成領域81に表示する。これにより、例えば、被写体が、ある作品のキャラクターになりきっている場合に、情報処理装置100は、作品中の演出などを撮影画像に合成することができる。また、例えば被写体の顔の部分などに画像を合成することをユーザが望まない場合に、情報処理装置100は、画像認識処理の結果に基づいて画像を合成しない領域を設定し、当該領域にはコンテンツデータを合成しないように、画像を合成してディスプレイ16に表示することができる。このように、情報処理装置100は、キャラクターになりきった感覚を被写体に対して提供することができる。   In the example of FIG. 1, it is assumed that the subject is a character of a certain work such as a manga, a game, an animation, or a movie. The subject is wearing a character's costume, holding an accessory, and maintaining a certain posture. The information processing apparatus 100 detects the face of the subject by performing image recognition processing on the captured image, and sets a face recognition area 71 that is an area where content data is not combined based on the detection result. Further, the information processing apparatus 100 determines a coordinate value serving as a reference for combining the content data based on the result of the process of detecting the face of the subject in the captured image. The information processing apparatus 100 displays a part of the content data in the synthesis area 81 so that the content data to be synthesized with the captured image data is not displayed in the face recognition area 71. Thereby, for example, when the subject is a character of a certain work, the information processing apparatus 100 can synthesize an effect in the work with the photographed image. Further, for example, when the user does not want to synthesize an image on the face portion of the subject, the information processing apparatus 100 sets an area in which the image is not synthesized based on the result of the image recognition process, The images can be combined and displayed on the display 16 so as not to combine the content data. In this way, the information processing apparatus 100 can provide a sense of being a character to the subject.

<構成>
図2は、情報処理装置100を含むネットワークの構成を示す図である。図2では、情報処理装置100として、情報処理装置100A、100B、100Cを示している。情報処理装置100A、100Bは、スマートフォンであり、情報処理装置100Cは、タブレット端末である。図2を参照して、情報処理装置100Aは、無線基地局700と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。配信サーバ900は、情報処理装置100が撮影画像データと合成してディスプレイ16に表示するための複数のコンテンツデータを記憶している。情報処理装置100Aは、配信サーバ900と通信することで、配信サーバ900からコンテンツデータを取得する。例えば、情報処理装置100は、使用可能な期間が定められたコンテンツデータや、課金処理によって購入することができるコンテンツデータなどを配信サーバ900から取得する。情報処理装置100Bは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。情報処理装置100Cは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。
<Configuration>
FIG. 2 is a diagram illustrating a network configuration including the information processing apparatus 100. In FIG. 2, information processing apparatuses 100 </ b> A, 100 </ b> B, and 100 </ b> C are illustrated as the information processing apparatus 100. The information processing apparatuses 100A and 100B are smartphones, and the information processing apparatus 100C is a tablet terminal. Referring to FIG. 2, information processing apparatus 100 </ b> A is connected to radio base station 700 by radio communication, and communicates with distribution server 900 via network 800. The distribution server 900 stores a plurality of content data for the information processing apparatus 100 to synthesize with the captured image data and display on the display 16. The information processing apparatus 100 </ b> A acquires content data from the distribution server 900 by communicating with the distribution server 900. For example, the information processing apparatus 100 acquires content data for which a usable period is determined, content data that can be purchased through billing processing, and the like from the distribution server 900. The information processing apparatus 100B is connected to the router 600 by wireless communication, and communicates with the distribution server 900 via the network 800. The information processing apparatus 100C is connected to the router 600 by wireless communication, and communicates with the distribution server 900 via the network 800.

図3は、情報処理装置100の構成を示すブロック図である。図3に示すように、情報処理装置100は、アンテナ11,13と、遠距離通信用モジュール12と、近距離通信用モジュール14と、タッチパネル15と、ディスプレイ16と、測位センサ17と、フロントカメラ18と、リアカメラ19と、電源制御部20と、バッテリ21と、マイク22と、スピーカ23と、音声処理部24と、記憶部25と、制御部26とを含む。   FIG. 3 is a block diagram illustrating a configuration of the information processing apparatus 100. As shown in FIG. 3, the information processing apparatus 100 includes antennas 11 and 13, a long-distance communication module 12, a short-distance communication module 14, a touch panel 15, a display 16, a positioning sensor 17, and a front camera. 18, rear camera 19, power supply control unit 20, battery 21, microphone 22, speaker 23, sound processing unit 24, storage unit 25, and control unit 26.

アンテナ11とアンテナ13とは、情報処理装置100が発する信号を電波として放射する。また、アンテナ11は、空間から電波を受信して受信信号を遠距離通信用モジュール12へ与える。アンテナ13は、空間から電波を受信して受信信号を近距離通信用モジュール14へ与える。   The antenna 11 and the antenna 13 radiate a signal emitted from the information processing apparatus 100 as a radio wave. The antenna 11 receives radio waves from the space and gives a received signal to the long-distance communication module 12. The antenna 13 receives radio waves from the space and gives a received signal to the short-range communication module 14.

遠距離通信用モジュール12と近距離通信用モジュール14とは、情報処理装置100が他の無線機器と通信するため、アンテナ11等を介して信号を送受信するための変復調処理などを行う。遠距離通信用モジュール12と近距離通信用モジュール14とは、チューナー、高周波回路などを含む通信モジュールであり、情報処理装置100が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部26へ与える。   The long-distance communication module 12 and the short-distance communication module 14 perform modulation / demodulation processing for transmitting and receiving signals via the antenna 11 and the like so that the information processing apparatus 100 communicates with other wireless devices. The long-distance communication module 12 and the short-distance communication module 14 are communication modules including a tuner, a high-frequency circuit, and the like, perform modulation / demodulation and frequency conversion of radio signals transmitted and received by the information processing apparatus 100, and control received signals. 26.

遠距離通信用モジュール12は、例えば、LTE(Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)などの移動体通信システムに対応した通信モジュールであり、比較的長距離の通信に対応している。   The long-distance communication module 12 is a communication module compatible with mobile communication systems such as LTE (Long Term Evolution) and UMTS (Universal Mobile Telecommunications System), and is compatible with relatively long-distance communication.

近距離通信用モジュール14は、例えば、Bluetooth(登録商標)などの近距離無線通信規格や、IEEE(Institute of Electrical and Electronic Engineers)802.11などの無線LAN(Local Area Network)規格などに対応した通信モジュールであり、比較的近距離の通信に対応している。情報処理装置100が複数の通信方式に対応する場合、これら通信方式に対応してアンテナと通信用モジュールとを備えてもよい。   The short-range communication module 14 corresponds to, for example, a short-range wireless communication standard such as Bluetooth (registered trademark) or a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronic Engineers) 802.11. It is a communication module and supports relatively short distance communication. When the information processing apparatus 100 supports a plurality of communication methods, an antenna and a communication module may be provided corresponding to these communication methods.

タッチパネル15は、ユーザの入力操作を受け付ける。タッチパネル15は、例えば静電容量方式のものを用いることによってユーザの接触操作を受け付ける。タッチパネル15は、ユーザによる入力操作を制御部26へ出力する。   The touch panel 15 receives a user input operation. The touch panel 15 accepts a user's contact operation by using, for example, a capacitive type. The touch panel 15 outputs an input operation by the user to the control unit 26.

ディスプレイ16は、メニュー画面においてアイコンや背景画像を表示し、アプリケーションの動作によって静止画や動画などを表示する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)や有機EL(electroluminescence)ディスプレイによって実現される。   The display 16 displays icons and background images on the menu screen, and displays still images, moving images, and the like according to application operations. The display 16 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (electroluminescence) display.

測位センサ17は、情報処理装置100の位置を計測するためのセンサであり、例えばGPS(Global Positioning System)モジュールである。   The positioning sensor 17 is a sensor for measuring the position of the information processing apparatus 100, and is a GPS (Global Positioning System) module, for example.

フロントカメラ18とリアカメラ19は、入射光を受光して電気信号に変換するカメラモジュールであり、CMOS(Complementary Metal Oxide Semiconductor)センサ、ADC(Analog to Digital Converter)等を含み、画像信号を制御部26へ出力する。情報処理装置100の筺体において、ディスプレイ16が配置される面を前面としたときに、フロントカメラ18は、情報処理装置100の前面に配置される。また、リアカメラ19は、情報処理装置100の背面に配置される。   The front camera 18 and the rear camera 19 are camera modules that receive incident light and convert them into electrical signals, and include a CMOS (Complementary Metal Oxide Semiconductor) sensor, an ADC (Analog to Digital Converter), and the like, and control image signals. 26. In the case of the information processing apparatus 100, when the surface on which the display 16 is disposed is the front surface, the front camera 18 is disposed on the front surface of the information processing apparatus 100. The rear camera 19 is disposed on the back surface of the information processing apparatus 100.

電源制御部20は、情報処理装置100の各回路に対する電力の供給を制御する。電源制御部20は、例えば電源制御用IC(Integrated Circuit)である。   The power supply control unit 20 controls power supply to each circuit of the information processing apparatus 100. The power control unit 20 is, for example, a power control IC (Integrated Circuit).

バッテリ21は、情報処理装置100の各回路を動作させるための電力を供給する供給源である。バッテリ21からの電力は、電源制御部20の制御に従って各回路へ供給される。   The battery 21 is a supply source that supplies power for operating each circuit of the information processing apparatus 100. The electric power from the battery 21 is supplied to each circuit according to the control of the power supply control unit 20.

マイク22は、ユーザによる音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部24へ与える。   The microphone 22 receives a voice input by the user and gives a voice signal corresponding to the voice input to the voice processing unit 24.

スピーカ23は、音声処理部24から与えられる音声信号を音声に変換して当該音声を情報処理装置100の外部へ出力する。   The speaker 23 converts the sound signal given from the sound processing unit 24 into sound and outputs the sound to the outside of the information processing apparatus 100.

音声処理部24は、音声信号の変復調を行う。音声処理部24は、マイク22から与えられる信号を変調して、変調後の信号を制御部26へ与える。また、音声処理部24は、音声信号をスピーカ23へ与える。音声処理部24は、例えば音声処理用のプロセッサによって実現される。   The audio processing unit 24 performs modulation / demodulation of the audio signal. The audio processing unit 24 modulates the signal given from the microphone 22 and gives the modulated signal to the control unit 26. In addition, the audio processing unit 24 gives an audio signal to the speaker 23. The sound processing unit 24 is realized by, for example, a sound processing processor.

記憶部25は、例えばフラッシュメモリ等により構成され、情報処理装置100が使用するデータおよびプログラムを記憶する。ある局面において、記憶部25は、コンテンツ管理テーブル51と、コンテンツデータ52とを記憶する。   The storage unit 25 is configured by a flash memory, for example, and stores data and programs used by the information processing apparatus 100. In one aspect, the storage unit 25 stores a content management table 51 and content data 52.

コンテンツ管理テーブル51は、詳しくは後述するが、撮影画像に合成する対象となるコンテンツデータそれぞれを識別する識別情報と、コンテンツデータのファイル名と、コンテンツデータの名称と、コンテンツデータを利用できる期間とを対応付けたテーブルである。   As will be described in detail later, the content management table 51 includes identification information for identifying each content data to be combined with a captured image, a file name of the content data, a name of the content data, and a period during which the content data can be used. Is a table in which

コンテンツデータ52は、各コンテンツデータの識別情報に対応する静止画または動画のデータである。   The content data 52 is still image or moving image data corresponding to identification information of each content data.

制御部26は、記憶部25に記憶される制御プログラムを読み込んで実行することにより、情報処理装置100の動作の全体を制御する。制御部26は、例えばアプリケーションプロセッサである。制御部26は、プログラムに従って動作することにより、検出処理部61と、画像生成部62と、表示制御部63との各機能を発揮する。検出処理部61は、画像認識処理の機能を情報処理装置100に発揮させ、カメラ7から出力される撮影画像データに対し、画像認識処理を施すことにより、撮影画像データに含まれる人物の顔を検出する。例えば、検出処理部61は、撮影画像データに対して画像認識処理を行い、撮影画像データに含まれる人物の目の位置、顔のサイズなどを出力する。画像生成部62は、撮影画像データに対し、検出処理部61の検出結果に基づいてコンテンツデータを合成する位置を決定する等の処理を行なって、合成後の画像データを生成する。表示制御部63は、映像信号を生成してディスプレイ16の表示内容を制御する機能を情報処理装置100に発揮させる。   The control unit 26 controls the overall operation of the information processing apparatus 100 by reading and executing a control program stored in the storage unit 25. The control unit 26 is, for example, an application processor. The control unit 26 performs the functions of the detection processing unit 61, the image generation unit 62, and the display control unit 63 by operating according to a program. The detection processing unit 61 causes the information processing apparatus 100 to perform the function of image recognition processing, and performs image recognition processing on the captured image data output from the camera 7, thereby detecting a human face included in the captured image data. To detect. For example, the detection processing unit 61 performs image recognition processing on the captured image data, and outputs the positions of the eyes of the person, the face size, and the like included in the captured image data. The image generation unit 62 performs processing such as determining the position where the content data is combined based on the detection result of the detection processing unit 61 with respect to the captured image data, and generates combined image data. The display control unit 63 causes the information processing apparatus 100 to function to generate a video signal and control the display content of the display 16.

<データ構造>
図4を参照し、情報処理装置100の処理において用いられるデータを説明する。図4は、コンテンツ管理テーブル51を示す図である。
<Data structure>
With reference to FIG. 4, data used in the processing of the information processing apparatus 100 will be described. FIG. 4 is a diagram showing the content management table 51.

図4に示すように、コンテンツ管理テーブル51の各レコードは、識別番号511と、ファイル名512と、アニメーション名称513と、利用可能期間514とを含む。   As shown in FIG. 4, each record of the content management table 51 includes an identification number 511, a file name 512, an animation name 513, and an available period 514.

識別番号511は、コンテンツデータそれぞれを識別するための識別情報である。ファイル名512は、コンテンツデータの識別情報に対応するファイルを示す情報である。アニメーション名称513は、識別情報に示されるコンテンツデータのタイトルを示す。利用可能期間514は、コンテンツデータを利用できる期間を示す。図4に示すように、例えば、利用可能期間514のデータ「2013/10/31」は、ユーザがコンテンツデータを利用できる期間が2013年10月31日までであることを示し、データ「期限設定なし」は、コンテンツデータの利用可能な期間が設定されていないことを示す。   The identification number 511 is identification information for identifying each content data. The file name 512 is information indicating a file corresponding to the identification information of the content data. The animation name 513 indicates the title of the content data indicated by the identification information. The available period 514 indicates a period during which the content data can be used. As shown in FIG. 4, for example, the data “2013/10/31” in the available period 514 indicates that the period during which the user can use the content data is October 31, 2013. “None” indicates that an available period of content data is not set.

<撮影画像に合成するためのコンテンツデータ>
図5を参照し、実施の形態1におけるコンテンツデータについて説明する。図5は、撮影画像に合成するコンテンツデータの例を示す図である。
<Content data to be combined with the shot image>
The content data in the first embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of content data to be combined with a captured image.

図5では、記憶部25に記憶されるコンテンツデータの例として、コンテンツデータ52A、52B、52Cを示している。コンテンツデータ52Aは、中心から波形状の線が放射されるようなアニメーションの画像である。コンテンツデータ52Bは、リング状の物体から線が放射されるようなアニメーションの画像である。コンテンツデータ52Cは、文字の形状をしたアニメーションの画像である。これらはコンテンツデータの一例であり、コンテンツデータは、これらの例に限られない。   In FIG. 5, content data 52A, 52B, and 52C are shown as examples of content data stored in the storage unit 25. The content data 52A is an animation image in which a wavy line is emitted from the center. The content data 52B is an animation image in which a line is emitted from a ring-shaped object. The content data 52C is an animation image in the shape of a character. These are examples of content data, and the content data is not limited to these examples.

<制御構造>
図6を参照して、情報処理装置100の制御構造を説明する。図6は、実施の形態1の情報処理装置100による、コンテンツデータと撮影画像データとを合成して表示するための処理を示すフローチャートである。なお、実施の形態1では、コンテンツデータは2次元の形状を有するアニメーションのデータである。以下、情報処理装置100がユーザからの入力操作をタッチパネル15によって受け付けて、コンテンツデータを撮影画像データに合成する処理を説明する。
<Control structure>
The control structure of the information processing apparatus 100 will be described with reference to FIG. FIG. 6 is a flowchart illustrating processing for combining content data and captured image data and displaying them by the information processing apparatus 100 according to the first embodiment. In the first embodiment, the content data is animation data having a two-dimensional shape. Hereinafter, a process in which the information processing apparatus 100 receives an input operation from the user via the touch panel 15 and combines the content data with the captured image data will be described.

ステップS601において、制御部26は、リアカメラ19を起動し、リアカメラ19が撮影する画像の画像サイズの設定など、カメラに関する初期化の処理を行う。   In step S <b> 601, the control unit 26 activates the rear camera 19 and performs initialization processing related to the camera, such as setting the image size of an image captured by the rear camera 19.

ステップS603において、制御部26は、リアカメラ19が生成する画像信号の入力を受け付けて、逐次、撮影画像データを取得し、取得した撮影画像データをディスプレイ16に表示する。   In step S <b> 603, the control unit 26 receives input of image signals generated by the rear camera 19, sequentially acquires captured image data, and displays the acquired captured image data on the display 16.

ステップS605において、制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出する。   In step S605, the control unit 26 performs image recognition processing on the captured image data to detect a human face included in the captured image.

ステップS607において、制御部26は、撮影画像データに対する顔検出処理の結果を取得する。制御部26は、顔検出処理の結果として、撮影画像データにおける人物の顔のサイズ、人物の目の座標、人物の口の座標などを取得する。   In step S607, the control unit 26 acquires the result of the face detection process for the captured image data. As a result of the face detection process, the control unit 26 acquires the face size of the person, the coordinates of the eyes of the person, the coordinates of the mouth of the person, and the like in the captured image data.

ステップS609において、制御部26は、ステップS607で取得した顔検出処理の結果に基づいて、撮影画像データに含まれる被写体の人物の、顔の範囲を示す座標値を算出する。例えば、制御部26は、人物の左目および右目の各座標の平均値と、左目および右目を結ぶ線分とに基づいて、顔の中心を通る線分を推定し、推定された線分に基づいて、顔の中心の座標を推定する。制御部26は、顔の中心の座標から一定の範囲の矩形、円形その他の形状の領域を、撮影画像データに含まれる被写体の顔の範囲として算出する。例えば、制御部26が被写体の顔の範囲を矩形の領域として算出する場合、制御部26は、矩形を構成する4点の座標値を算出する。また、制御部26が被写体の顔の範囲を円形の領域として算出する場合、制御部26は、顔の中心の座標と、半径の大きさを示す値とを算出する。   In step S609, the control unit 26 calculates a coordinate value indicating the face range of the person of the subject included in the captured image data based on the result of the face detection process acquired in step S607. For example, the control unit 26 estimates a line segment passing through the center of the face based on the average value of the coordinates of the left eye and right eye of the person and a line segment connecting the left eye and the right eye, and based on the estimated line segment To estimate the coordinates of the center of the face. The control unit 26 calculates a rectangular, circular, or other shape area within a certain range from the coordinates of the center of the face as the face range of the subject included in the captured image data. For example, when the control unit 26 calculates the face range of the subject as a rectangular region, the control unit 26 calculates the coordinate values of four points that form the rectangle. When the control unit 26 calculates the face range of the subject as a circular region, the control unit 26 calculates the coordinates of the center of the face and a value indicating the size of the radius.

ステップS611において、制御部26は、顔検出処理の結果に基づいて、撮影画像データに合成されるコンテンツデータの画像サイズと、コンテンツデータの表示位置とを決定する。例えば、制御部26は、撮影画像データに含まれる被写体の人物の左目および右目の各座標を基準として、コンテンツデータの表示位置を決定する。また、例えば、制御部26は、被写体の左目と右目との距離に応じて被写体の顔のサイズを推定し、顔のサイズに応じてコンテンツデータの画像サイズを決定する。   In step S611, the control unit 26 determines the image size of the content data to be combined with the photographed image data and the display position of the content data based on the result of the face detection process. For example, the control unit 26 determines the display position of the content data on the basis of the coordinates of the left eye and the right eye of the subject person included in the captured image data. For example, the control unit 26 estimates the size of the subject's face according to the distance between the left eye and the right eye of the subject, and determines the image size of the content data according to the size of the face.

ステップS613において、制御部26は、ステップS609で算出した顔の範囲と、ステップS611で決定したコンテンツデータの画像サイズおよび表示位置とに基づいて、被写体の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの一部を透明化する等の加工を行う。   In step S613, the control unit 26 prevents the content data from being displayed in the face range of the subject based on the face range calculated in step S609 and the image size and display position of the content data determined in step S611. Processing such as making part of the content data transparent.

ステップS615において、制御部26は、加工されたコンテンツデータと、撮影画像データとを合成し、合成によって生成された画像をディスプレイ16へ表示する。その後、制御部26は、ステップS603の処理を行う。   In step S615, the control unit 26 combines the processed content data and the captured image data, and displays an image generated by the combination on the display 16. Thereafter, the control unit 26 performs the process of step S603.

<コンテンツデータの合成の例>
図7を参照して、制御部26が撮影画像データとコンテンツデータとを合成し、合成後の画像をディスプレイ16へ表示する処理を説明する。図7は、撮影画像データとコンテンツデータとを合成する処理を示す図である。
<Example of composition of content data>
With reference to FIG. 7, a process in which the control unit 26 combines the captured image data and the content data and displays the combined image on the display 16 will be described. FIG. 7 is a diagram illustrating a process of combining the captured image data and the content data.

ディスプレイ16Aに示すように、制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出し(ステップS605)、被写体の人物の顔の範囲を算出する(ステップS607、ステップS609)。ディスプレイ16Aにおいて、制御部26が算出した被写体の人物の顔の範囲を顔認識領域71として示す。   As shown on the display 16A, the control unit 26 performs an image recognition process on the captured image data to detect a human face included in the captured image (step S605), and determines the range of the human face of the subject. Calculate (step S607, step S609). In the display 16 </ b> A, the face range of the subject person calculated by the control unit 26 is shown as a face recognition area 71.

ディスプレイ16Bに示すように、制御部26は、コンテンツデータの画像サイズと表示位置とを決定する(ステップS611)。ディスプレイ16Bにおいて、コンテンツデータの画像サイズと表示位置とをコンテンツデータ52Bとして示す。   As shown on the display 16B, the control unit 26 determines the image size and display position of the content data (step S611). On the display 16B, the image size and display position of the content data are shown as content data 52B.

ディスプレイ16Cに示すように、制御部26は、被写体の人物の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの加工を行って撮影画像データと合成する(ステップS613、ステップS615)。   As shown on the display 16C, the control unit 26 processes the content data so that the content data is not displayed in the range of the face of the subject person (step S613, step S615).

<ユーザインタフェースの例>
図8を参照して、情報処理装置100がディスプレイ16に表示する画面の一例を説明する。図8は、撮影画像データとコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。
<Example of user interface>
An example of a screen displayed on the display 16 by the information processing apparatus 100 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of a user interface for combining photographed image data and content data.

図8に示すように、制御部26は、ディスプレイ16において、画像表示領域91と、表示切替部92と、ファイル名表示部93と、アニメーションデータ購入部94と、撮影切替部95と、撮影開始部96と、音声入力受付部97とを表示する。また、制御部26は、ディスプレイ16において、背景アニメーション候補98、選択中アニメーション99、文字アニメーション候補90など、撮影画像データに合成するコンテンツデータの候補を示すアイコン画像を表示する。図8の例では、選択中アニメーション99のコンテンツデータがユーザによって選択されており、制御部26は、選択中アニメーション99のアイコン画像を、他のアイコン画像と区別して表示する。   As shown in FIG. 8, on the display 16, the control unit 26 displays an image display area 91, a display switching unit 92, a file name display unit 93, an animation data purchase unit 94, a shooting switching unit 95, and a shooting start. The unit 96 and the voice input receiving unit 97 are displayed. Further, the control unit 26 displays on the display 16 icon images indicating candidate content data to be combined with photographed image data, such as the background animation candidate 98, the selected animation 99, and the character animation candidate 90. In the example of FIG. 8, the content data of the selected animation 99 is selected by the user, and the control unit 26 displays the icon image of the selected animation 99 separately from other icon images.

画像表示領域91は、情報処理装置100のカメラから出力される撮影画像データと、ユーザによって指定されたコンテンツデータとを合成した画像を表示するための領域である。制御部26は、撮影画像データに対する画像認識処理により、被写体の顔を検出する。画像表示領域91において、被写体の顔の範囲を顔認識領域71に示す。制御部26は、顔認識領域71に示される範囲にコンテンツデータが表示されないよう、撮影画像データにコンテンツデータを合成してディスプレイ16に表示する。図8の例において、合成領域81は、コンテンツデータが表示される領域を示している。   The image display area 91 is an area for displaying an image obtained by combining captured image data output from the camera of the information processing apparatus 100 and content data designated by the user. The control unit 26 detects the face of the subject through image recognition processing on the captured image data. In the image display area 91, the face recognition area 71 indicates the face range of the subject. The control unit 26 synthesizes the content data with the captured image data and displays it on the display 16 so that the content data is not displayed in the range indicated by the face recognition area 71. In the example of FIG. 8, the synthesis area 81 indicates an area where content data is displayed.

表示切替部92は、ユーザによって指定されたコンテンツデータと撮影画像データとが合成された画像をディスプレイ16に表示するか否かの設定を示す領域である。図8の例では、表示切替部92は設定「ON」と示している。この場合、制御部26は、コンテンツデータと撮影画像データとを合成して生成された画像をディスプレイ16に表示する。なお、表示切替部92の表示内容が設定「OFF」の場合は、制御部26は、カメラによって取得された撮影画像データをディスプレイ16に表示する。制御部26は、ユーザの入力操作をタッチパネル15によって受け付けており、表示切替部92に対する入力操作を受け付けて、撮影画像データとコンテンツデータとが合成された画像を表示するか否かの設定のオンとオフとを切り替える。   The display switching unit 92 is an area indicating whether or not to display on the display 16 an image obtained by combining the content data designated by the user and the captured image data. In the example of FIG. 8, the display switching unit 92 indicates the setting “ON”. In this case, the control unit 26 displays an image generated by combining the content data and the captured image data on the display 16. When the display content of the display switching unit 92 is set to “OFF”, the control unit 26 displays the captured image data acquired by the camera on the display 16. The control unit 26 receives a user input operation through the touch panel 15, receives an input operation on the display switching unit 92, and turns on the setting as to whether or not to display an image obtained by combining the captured image data and the content data. Switch between and off.

ファイル名表示部93は、撮影画像データに合成するコンテンツデータのタイトルを示す。制御部26は、コンテンツ管理テーブル51を参照して、ユーザが選択しているコンテンツデータに対応するアニメーション名称513を読み出してファイル名表示部93に表示する。   The file name display section 93 indicates the title of the content data to be combined with the captured image data. The control unit 26 reads the animation name 513 corresponding to the content data selected by the user with reference to the content management table 51 and displays it on the file name display unit 93.

アニメーションデータ購入部94は、コンテンツデータを購入するための入力操作をユーザから受け付けるためのボタンである。情報処理装置100は、例えば配信サーバ900等の外部の装置からコンテンツデータをダウンロードすることができる。情報処理装置100は、配信サーバ900等の外部の装置と接続し、コンテンツデータを購入するための入力操作をユーザから受け付ける。   The animation data purchasing unit 94 is a button for accepting an input operation for purchasing content data from the user. The information processing apparatus 100 can download content data from an external apparatus such as the distribution server 900, for example. The information processing apparatus 100 is connected to an external apparatus such as the distribution server 900 and receives an input operation for purchasing content data from the user.

撮影切替部95は、画像表示領域91において表示されている画像を、静止画として保存するか、動画として保存するかの設定を受け付けるための領域である。   The shooting switching unit 95 is an area for receiving a setting for saving an image displayed in the image display area 91 as a still image or a moving image.

撮影開始部96は、画像表示領域91において表示されている画像を保存するための入力操作をユーザから受け付けるための領域である。表示切替部92において、設定が「ON」、すなわちコンテンツデータと撮影画像データとが合成された画像を表示する設定である場合、情報処理装置100は、撮影開始部96に対する入力操作に応じて、コンテンツデータが合成された画像を静止画または動画として保存する。   The imaging start unit 96 is an area for accepting an input operation for saving the image displayed in the image display area 91 from the user. In the display switching unit 92, when the setting is “ON”, that is, the setting is to display an image in which the content data and the captured image data are combined, the information processing apparatus 100 responds to an input operation to the shooting start unit 96. Save the combined image of the content data as a still image or a moving image.

音声入力受付部97は、音声によるユーザの入力操作を受け付けるための領域である。情報処理装置100は、音声入力受付部97に対する入力操作を受け付けることで、音声入力の受付を開始し、入力された音声に基づいて、音声認識処理を行う。例えば、情報処理装置100は、入力された音声を、音声認識処理用のアプリケーションによって音声認識処理を行わせるか、配信サーバ900等の外部の装置へ送信し、外部の装置に音声認識処理を行わせて、その音声認識処理の結果を受信する。情報処理装置100は、入力された音声の音声認識処理の結果に応じて動作する。例えば、情報処理装置100は、音声認識処理の結果を受けて、撮影開始部96に対する入力操作が行われたものとして動作し、画像表示領域91に表示されている合成後の画像を保存するための処理を行う。また、例えば、情報処理装置100は、音声認識処理の結果を受けて、表示切替部92に対する入力操作が行われたものとして動作し、撮影画像データとコンテンツデータとが合成された画像を表示するか否かの設定を切り替える処理を行う。   The voice input receiving unit 97 is an area for receiving a user input operation by voice. The information processing apparatus 100 starts receiving voice input by receiving an input operation to the voice input receiving unit 97, and performs voice recognition processing based on the input voice. For example, the information processing apparatus 100 causes the input voice to be subjected to voice recognition processing by an application for voice recognition processing or is transmitted to an external device such as the distribution server 900 and performs the voice recognition processing on the external device. Then, the result of the voice recognition process is received. The information processing apparatus 100 operates according to the result of the speech recognition process for the input speech. For example, the information processing apparatus 100 receives the result of the voice recognition process, operates as if the input operation to the shooting start unit 96 has been performed, and stores the combined image displayed in the image display area 91. Perform the process. Further, for example, the information processing apparatus 100 receives the result of the voice recognition processing, operates as if the input operation to the display switching unit 92 has been performed, and displays an image in which the captured image data and the content data are combined. To switch the setting of whether or not.

<コンテンツデータの購入を受け付けるためのユーザインタフェースの例>
図9を参照して、情報処理装置100がユーザからコンテンツデータの購入を受け付けるためのユーザインタフェースの例を説明する。図9は、撮影画像データに合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
<Example of user interface for accepting purchase of content data>
With reference to FIG. 9, an example of a user interface for the information processing apparatus 100 to accept purchase of content data from a user will be described. FIG. 9 is a diagram illustrating an example of an interface for accepting an input operation for purchasing content data to be combined with captured image data.

図9に示すように、制御部26は、ディスプレイ16において、購入ボタン941と、コンテンツデータリスト942とを表示する。制御部26は、タッチパネル15を介して、ユーザがコンテンツデータを選択するための入力操作を受け付ける。購入ボタン941は、ユーザが選択したコンテンツデータを購入するための入力操作を受け付けるボタンである。   As shown in FIG. 9, the control unit 26 displays a purchase button 941 and a content data list 942 on the display 16. The control unit 26 receives an input operation for the user to select content data via the touch panel 15. The purchase button 941 is a button for accepting an input operation for purchasing content data selected by the user.

コンテンツデータリスト942は、ユーザが購入可能なコンテンツデータの一覧を表示する。なお、図9の例では、コンテンツ管理テーブル51の利用可能期間514において、コンテンツデータの利用可能期間が設定されているコンテンツについては、情報処理装置100は、そのコンテンツデータの利用可能期間をコンテンツデータリスト942において表示する。   The content data list 942 displays a list of content data that can be purchased by the user. In the example of FIG. 9, for the content for which the content data availability period is set in the availability period 514 of the content management table 51, the information processing apparatus 100 sets the content data availability period as the content data. Displayed in a list 942.

<撮影画像データにコンテンツデータを合成するか否かの設定の切替>
図10を参照して、撮影画像データにコンテンツデータを合成するか否かの設定を、音声入力によって受け付ける例を説明する。図10は、情報処理装置100がコンテンツデータの合成のオンまたはオフを音声入力によって受け付ける例を示す図である。
<Switching of whether to synthesize content data with captured image data>
With reference to FIG. 10, an example will be described in which setting whether or not to synthesize content data with captured image data is received by voice input. FIG. 10 is a diagram illustrating an example in which the information processing apparatus 100 accepts content data synthesis on / off by voice input.

情報処理装置100は、音声入力受付部97に対する入力操作を受け付けることで、音声入力を受け付ける。図10において、表示切替部92が設定「OFF」を示している場合、制御部26は、ユーザが指定したコンテンツデータと撮影画像データとを合成することなく、ディスプレイ16に撮影画像を表示する。情報処理装置100は、例えば、予め設定されたキーワードの音声入力を受け付けることで、コンテンツデータと撮影画像データとが合成された画像を表示するか否かの設定を切り替える。例えば、図10に示すように、情報処理装置100は、マイク22によって、音声「変身!」などのキーワードの音声入力を受け付ける。これにより、情報処理装置100は、撮影画像データと、コンテンツデータとを合成し、合成により生成された画像を表示する処理を開始し、表示切替部92に設定「ON」を表示する。   The information processing apparatus 100 receives voice input by receiving an input operation on the voice input receiving unit 97. In FIG. 10, when the display switching unit 92 indicates the setting “OFF”, the control unit 26 displays the captured image on the display 16 without combining the content data designated by the user and the captured image data. The information processing apparatus 100 switches, for example, whether to display an image in which content data and captured image data are combined by receiving voice input of a preset keyword. For example, as illustrated in FIG. 10, the information processing apparatus 100 receives a voice input of a keyword such as a voice “transformation!” Through the microphone 22. As a result, the information processing apparatus 100 synthesizes the captured image data and the content data, starts a process of displaying an image generated by the synthesis, and displays the setting “ON” on the display switching unit 92.

このように、情報処理装置100は、撮影画像データに対してコンテンツデータを合成した画像を表示するか否かを音声入力によって切り替え可能とする。これにより、例えば被写体が、ある作品のキャラクターになりきっている場合に、特定の音声の入力によって、コンテンツデータと撮影画像データとが合成された画像を表示するか否かを切り替えることができ、キャラクターになりきった感覚を被写体に対して提供することができる。   In this way, the information processing apparatus 100 can switch whether to display an image obtained by combining content data with captured image data by voice input. Thereby, for example, when the subject is a character of a certain work, it is possible to switch whether or not to display an image in which content data and captured image data are combined by inputting a specific sound, A sense of being a character can be provided to the subject.

また、情報処理装置100は、特定の音声の入力によってコンテンツデータと撮影画像データとが合成された画像を表示するか否かを切り替える過程を、例えば動画等によって保存する入力操作を受け付けて、ユーザが他のユーザと動画等を共有することができることとしてもよい。例えば、情報処理装置100は、撮影画像データに対してコンテンツデータを合成して生成された静止画または動画を、例えば画像投稿用のWebサイトやグループチャットに投稿することができることとしてもよい。これにより、ユーザ同士での作品の楽しみ方のバリエーションを拡げることができる。   In addition, the information processing apparatus 100 accepts an input operation for saving, for example, a moving image, a process of switching whether to display an image in which content data and captured image data are combined by inputting specific sound, May be able to share videos and the like with other users. For example, the information processing apparatus 100 may be able to post a still image or a moving image generated by synthesizing content data to captured image data, for example, on an image posting website or group chat. Thereby, the variation of how to enjoy a work between users can be expanded.

<実施の形態2>
図11〜図13を参照して、別の実施の形態にかかる情報処理装置100について説明する。実施の形態2の情報処理装置100は、撮影画像データに含まれる複数の人物の顔をそれぞれ認識し、各人物の顔とコンテンツデータとを対応付けてディスプレイ16に表示する。情報処理装置100は、顔認識処理によって、撮影画像データに含まれる被写体の人物を検出するとともに、予め被写体の人物の画像データベースを有して、画像認識処理によって検出された人物が誰であるかを特定する。
<Embodiment 2>
An information processing apparatus 100 according to another embodiment will be described with reference to FIGS. The information processing apparatus 100 according to the second embodiment recognizes the faces of a plurality of persons included in the captured image data, and displays each person's face and content data in association with each other on the display 16. The information processing apparatus 100 detects a subject person included in the captured image data by face recognition processing, and has an image database of subject subjects in advance, and who is detected by the image recognition processing Is identified.

図11は、実施の形態2の情報処理装置100の表示例を示す図である。図11に示すように、情報処理装置100は、撮影画像データに対し画像認識処理を行うことにより、第1のユーザと、第2のユーザとを特定する。情報処理装置100は、撮影画像データに含まれる第1のユーザの顔の範囲を顔認識領域71Aとして推定する。また、情報処理装置100は、第1のユーザと、コンテンツデータ52Aとを対応付けて記憶している。同様に、情報処理装置100は、撮影画像データに含まれる第2のユーザの顔の範囲を顔認識領域71Bとして推定する。また、情報処理装置100は、第2のユーザと、コンテンツデータ52Bとを対応付けて記憶している。   FIG. 11 is a diagram illustrating a display example of the information processing apparatus 100 according to the second embodiment. As illustrated in FIG. 11, the information processing apparatus 100 identifies the first user and the second user by performing image recognition processing on the captured image data. The information processing apparatus 100 estimates the range of the first user's face included in the captured image data as the face recognition area 71A. Further, the information processing apparatus 100 stores the first user and the content data 52A in association with each other. Similarly, the information processing apparatus 100 estimates the range of the face of the second user included in the captured image data as the face recognition area 71B. Further, the information processing apparatus 100 stores the second user and the content data 52B in association with each other.

情報処理装置100は、ディスプレイ16において、第1のユーザの顔の範囲にコンテンツデータが表示されないよう、撮影画像データとコンテンツデータとを合成し、合成領域81Aにコンテンツデータを表示する。また、情報処理装置100は、ディスプレイ16において、第2のユーザの顔の範囲にコンテンツデータが表示されないよう、撮影画像データにコンテンツデータを合成し、合成領域81Bにコンテンツデータを表示する。   The information processing apparatus 100 combines the captured image data and the content data so that the content data is not displayed in the range of the first user's face on the display 16, and displays the content data in the combining area 81A. Further, the information processing apparatus 100 synthesizes the content data with the captured image data so that the content data is not displayed in the range of the face of the second user on the display 16 and displays the content data in the synthesis area 81B.

<データ構造>
図12は、実施の形態2の情報処理装置100の処理において用いられるユーザ割り当て情報53を示す図である。情報処理装置100は、例えば、記憶部25にユーザ割り当て情報53を記憶している。ユーザ割り当て情報53は、人物それぞれに対し、どのコンテンツデータが割り当てられているかを示す情報である。
<Data structure>
FIG. 12 is a diagram illustrating user assignment information 53 used in the processing of the information processing apparatus 100 according to the second embodiment. The information processing apparatus 100 stores user allocation information 53 in the storage unit 25, for example. The user assignment information 53 is information indicating which content data is assigned to each person.

ユーザ割り当て情報53の各レコードは、ユーザ識別情報531と、ファイル名532と、アニメーション名称533とを含む。   Each record of the user allocation information 53 includes user identification information 531, a file name 532, and an animation name 533.

ユーザ識別情報531は、ユーザそれぞれを識別するための識別情報である。ファイル名532は、ユーザ識別情報531の識別情報に示されるユーザに対応付けられたコンテンツデータのファイルを特定するための情報である。アニメーション名称533は、ファイル名532に示されるコンテンツデータの名称を示す。   The user identification information 531 is identification information for identifying each user. The file name 532 is information for specifying the content data file associated with the user indicated in the identification information of the user identification information 531. The animation name 533 indicates the name of the content data indicated in the file name 532.

<制御構造>
図13を参照して、実施の形態2における情報処理装置100の動作を説明する。なお、実施の形態1と同一の箇所については同一の参照符号を付して説明を繰り返さない。図13は、実施の形態2の情報処理装置100による、コンテンツデータを撮影画像データに合成して表示するための処理を示すフローチャートである。なお、情報処理装置100は、ユーザの登録を受け付けて、記憶部25に、登録を受け付けたユーザを顔認識処理によって特定するための参照用の画像を記憶している。
<Control structure>
With reference to FIG. 13, the operation of the information processing apparatus 100 in the second embodiment will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated. FIG. 13 is a flowchart illustrating processing for combining content data with captured image data and displaying the information by the information processing apparatus 100 according to the second embodiment. Note that the information processing apparatus 100 receives user registration, and stores in the storage unit 25 a reference image for identifying the user who has received registration through face recognition processing.

ステップS1301において、制御部26は、リアカメラ19を起動し、リアカメラ19が撮影する画像の画像サイズの設定など、カメラに関する初期化の処理を行う。   In step S <b> 1301, the control unit 26 activates the rear camera 19 and performs initialization processing related to the camera, such as setting the image size of an image captured by the rear camera 19.

ステップS1303において、制御部26は、リアカメラ19が生成する画像信号の入力を受け付けて撮影画像データを取得し、取得した撮影画像データのプレビューをディスプレイ16に表示する。   In step S <b> 1303, the control unit 26 receives input of an image signal generated by the rear camera 19 to acquire captured image data, and displays a preview of the acquired captured image data on the display 16.

ステップS1305において、制御部26は、画像認識処理により撮影画像データから顔認識処理によって人物を特定するため、参照用の画像を設定する。制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出し、検出された人物を、参照用の画像と照合することで、検出された人物が誰であるかを特定するための識別子をメモリ等へ出力する。   In step S1305, the control unit 26 sets an image for reference in order to identify a person from the captured image data through face recognition processing through image recognition processing. The control unit 26 performs image recognition processing on the captured image data to detect a person's face included in the captured image, and compares the detected person with a reference image to detect the person's face. An identifier for specifying who the person is is output to a memory or the like.

ステップS1307において、制御部26は、顔認識処理によって出力される各種データを取得する。例えば、制御部26は、撮影画像データにおける人物の識別子、人物の顔のサイズ、人物の目の座標、人物の口の座標などのデータをメモリから読み出して取得する。   In step S1307, the control unit 26 acquires various data output by the face recognition process. For example, the control unit 26 reads out and acquires data such as a person identifier, person face size, person eye coordinates, person mouth coordinates, and the like in the captured image data.

ステップS1309において、制御部26は、ステップS1307で取得した顔認識処理の結果に基づいて、撮影画像データに含まれる被写体の人物の顔の範囲を示す座標値を算出する。   In step S1309, the control unit 26 calculates a coordinate value indicating the range of the face of the subject person included in the captured image data based on the result of the face recognition processing acquired in step S1307.

ステップS1311において、制御部26は、顔認識処理の結果に基づいて、ユーザの識別子に対応したコンテンツデータそれぞれについて、撮影画像データと合成するコンテンツデータの画像サイズと、コンテンツデータの表示位置とを決定する。   In step S1311, the control unit 26 determines the image size of the content data to be combined with the captured image data and the display position of the content data for each content data corresponding to the user identifier based on the result of the face recognition process. To do.

ステップS1313において、制御部26は、ステップS1309で算出した顔の範囲と、ステップS1311で決定したコンテンツデータの画像サイズおよび表示位置とに基づいて、被写体の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの一部を透明化する等の加工を行う。   In step S1313, based on the face range calculated in step S1309 and the image size and display position of the content data determined in step S1311, the control unit 26 prevents content data from being displayed in the face range of the subject. Processing such as making part of the content data transparent.

ステップS1315において、制御部26は、加工されたコンテンツデータと、撮影画像データとを合成し、合成によって生成された画像をディスプレイ16へ表示する。その後、制御部26は、ステップS1303の処理を行う。   In step S1315, the control unit 26 combines the processed content data and the captured image data, and displays an image generated by the combining on the display 16. Thereafter, the control unit 26 performs the process of step S1303.

このように、実施の形態2の情報処理装置100は、撮影画像データに対し、画像認識処理を行って、被写体の人物の顔認識を行い、被写体の人物とコンテンツデータとを対応付けて、コンテンツデータと撮影画像データとを合成することができる。そのため、例えば、被写体となる複数の人物が、それぞれ特定のキャラクターになりきっている場合に、画像を合成したくない領域はそのまま撮影画像データを表示しつつ、各キャラクターに適したコンテンツデータを被写体の人物に合成することができる。例えば、作品中で、複数のキャラクターが登場する構図を再現するためにコンテンツデータを合成することが容易になる。   As described above, the information processing apparatus 100 according to the second embodiment performs image recognition processing on the captured image data, performs face recognition of the subject person, associates the subject person with the content data, and creates a content. Data and captured image data can be combined. For this reason, for example, when a plurality of persons who are subjects are each a specific character, the region where the image is not desired to be synthesized is displayed as it is, while the captured image data is displayed as it is, and content data suitable for each character is displayed on the subject. Can be combined with other people. For example, it becomes easy to synthesize content data to reproduce a composition in which a plurality of characters appear in a work.

<変形例>
上述のように、各実施の形態にかかる情報処理装置100について説明してきたが、以下のように変形することもできる。
<Modification>
As described above, the information processing apparatus 100 according to each embodiment has been described, but can be modified as follows.

<1.画像認識処理による人物の検出>
上述の各実施形態の説明では、撮影画像データに対し、画像認識処理を行うことで、撮影画像データに被写体の人物の顔を検出する構成と、被写体の人物の顔を検出して参照用の画像を照合し、被写体が誰であるかを特定する構成とを説明した。被写体となる人物を検出する方法は、これに限らず、例えば、情報処理装置100が歩行者検出処理用のアルゴリズムを利用可能であれば、これらアルゴリズムを撮影画像データに適用してもよい。情報処理装置100は、被写体を歩行者として検出することで、撮影画像データにおける被写体の全身を検出することができ、この検出結果に基づいて、コンテンツデータを合成する領域を決定してもよい。
<1. Human detection by image recognition processing>
In the description of each of the embodiments described above, the image recognition process is performed on the captured image data to detect the face of the subject person in the captured image data, and the face of the subject person is detected for reference. A configuration for collating images and identifying who the subject is was explained. The method for detecting a person as a subject is not limited to this, and for example, if the information processing apparatus 100 can use algorithms for pedestrian detection processing, these algorithms may be applied to captured image data. The information processing apparatus 100 may detect the subject as a pedestrian to detect the whole body of the subject in the captured image data, and may determine a region where the content data is combined based on the detection result.

<2.コンテンツデータの表示位置>
上記の実施形態の説明では、情報処理装置100は、図6および図7を用いて説明したように、顔認識領域71に、コンテンツデータ52が表示されないよう、コンテンツデータ52の一部を透明化する等の加工をし、加工後のコンテンツデータと、撮影画像データとを合成して合成後の画像データを得ることとして説明した。この他にも、顔認識領域71にコンテンツデータ52が表示されないよう、情報処理装置100は、撮影画像データに含まれる被写体の顔の範囲(顔認識領域71)を算出すると(ステップS609)、顔認識領域71と、コンテンツデータ52の表示領域とで重複部分が生じないように、コンテンツデータ52が顔認識領域71に表示されない表示位置および画像サイズを決定することとしてもよい(ステップS611)。
<2. Display position of content data>
In the description of the above embodiment, the information processing apparatus 100 makes part of the content data 52 transparent so that the content data 52 is not displayed in the face recognition area 71 as described with reference to FIGS. 6 and 7. In the above description, it is described that the processed content data and the captured image data are combined to obtain combined image data. In addition to this, the information processing apparatus 100 calculates the face range (face recognition area 71) of the subject included in the captured image data so that the content data 52 is not displayed in the face recognition area 71 (step S609). The display position and the image size at which the content data 52 is not displayed in the face recognition area 71 may be determined so that no overlap occurs between the recognition area 71 and the display area of the content data 52 (step S611).

<3.コンテンツデータの配信方法>
上記の実施形態の説明では、情報処理装置100は、コンテンツデータ52を、例えば配信サーバ900から取得することができるとして説明したが、この他にも、例えば、ある特定の地域に限定してコンテンツデータ52を取得することができることとしてもよい。例えば、コンテンツデータを配信する配信サーバ900は、情報処理装置100の位置として、(a)測位センサ17のGPS測定の結果、(b)情報処理装置100が無線通信をしている無線基地局700の識別情報、(c)情報処理装置100が無線通信をしている無線LANルータの識別情報等の情報を取得する。配信サーバ900は、情報処理装置100から、配布地域が限定されているコンテンツデータ52を取得するための要求を受け付けたとき、情報処理装置100の位置の情報に基づいて、コンテンツデータ52の配信の可否を制御する(または、情報処理装置100において、コンテンツデータ52の配信を受けることが可能な地域であるか否かを判定してもよい)。
<3. Content data distribution method>
In the description of the above embodiment, the information processing apparatus 100 has been described as being able to acquire the content data 52 from, for example, the distribution server 900. However, in addition to this, for example, the content is limited to a specific area. The data 52 may be acquired. For example, the distribution server 900 that distributes content data uses the position of the information processing apparatus 100 as a result of (a) GPS measurement by the positioning sensor 17 and (b) a wireless base station 700 in which the information processing apparatus 100 is performing wireless communication. And (c) information such as the identification information of the wireless LAN router with which the information processing apparatus 100 is performing wireless communication. When the distribution server 900 receives a request from the information processing apparatus 100 to acquire the content data 52 whose distribution area is limited, the distribution server 900 distributes the content data 52 based on the position information of the information processing apparatus 100. Whether or not it is an area where the distribution of the content data 52 can be received may be controlled in the information processing apparatus 100.

このように、情報処理装置100がコンテンツデータ52を取得可能な地域を限定することで、例えば、コンテンツデータ52と関係のある地域で開催されるイベントや観光地へとユーザが訪問することを促すことができる。   In this way, by limiting the areas where the information processing apparatus 100 can acquire the content data 52, for example, the user is encouraged to visit an event or a sightseeing spot held in an area related to the content data 52. be able to.

その他にも、情報処理装置100は、撮影画像データに対する画像認識処理を行って被写体の顔の領域を検出することで、コンテンツデータ52が表示されないよう顔認識領域71を決定することとして説明してきたが、この顔認識領域71の範囲は、ユーザが編集可能であるとしてもよい。また、情報処理装置100は、ユーザによる手書きの画像の入力を受け付けて、受け付けた画像を、撮影画像データに合成するコンテンツデータ52として記憶することとしてもよい。   In addition, the information processing apparatus 100 has been described as performing the image recognition processing on the captured image data to detect the face area of the subject, thereby determining the face recognition area 71 so that the content data 52 is not displayed. However, the range of the face recognition area 71 may be editable by the user. Further, the information processing apparatus 100 may accept input of a handwritten image by a user and store the received image as content data 52 to be combined with captured image data.

今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

11,13 アンテナ、12 遠距離通信用モジュール、14 近距離通信用モジュール、15 タッチパネル、16 ディスプレイ、17 測位センサ、18 フロントカメラ、19 リアカメラ、20 電源制御部、21 バッテリ、22 マイク、23 スピーカ、24 音声処理部、25 記憶部、26 制御部、51 コンテンツ管理テーブル、52 コンテンツデータ、53 ユーザ割り当て情報、61 検出処理部、62 画像生成部、63 表示制御部、71 顔認識領域、81 合成領域、91 画像表示領域、92 表示切替部、93 ファイル名表示部、94 アニメーションデータ購入部、95 撮影切替部、96 撮影開始部、97 音声入力受付部、98 背景アニメーション候補、99 選択中アニメーション、90 文字アニメーション候補、100 情報処理装置、511 識別番号、512 ファイル名、513 アニメーション名称、514 利用可能期間、531 ユーザ識別情報、532 ファイル名、533 アニメーション名称、600 ルータ、700 無線基地局、800 ネットワーク、900 配信サーバ、941 購入ボタン、942 アニメーションリスト。   11, 13 Antenna, 12 Long-distance communication module, 14 Short-distance communication module, 15 Touch panel, 16 Display, 17 Position sensor, 18 Front camera, 19 Rear camera, 20 Power supply control unit, 21 Battery, 22 Microphone, 23 Speaker 24 audio processing unit 25 storage unit 26 control unit 51 content management table 52 content data 53 user allocation information 61 detection processing unit 62 image generation unit 63 display control unit 71 face recognition area 81 synthesis Area, 91 image display area, 92 display switching section, 93 file name display section, 94 animation data purchasing section, 95 shooting switching section, 96 shooting start section, 97 voice input reception section, 98 background animation candidate, 99 selected animation, 90 character animation 100 information processing device, 511 identification number, 512 file name, 513 animation name, 514 usable period, 531 user identification information, 532 file name, 533 animation name, 600 router, 700 wireless base station, 800 network, 900 Distribution server, 941 Purchase button, 942 Animation list.

Claims (8)

情報処理装置の動作を制御するためのプログラムであって、
前記情報処理装置は、画像を表示するためのディスプレイと、前記画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プログラムは、前記プロセッサに、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出するステップと、
前記入力画像データにおいて、前記検出するステップで検出された前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成するステップと、
前記生成するステップで生成された前記出力画像データを、前記ディスプレイに表示するステップとを実行させる、プログラム。
A program for controlling the operation of the information processing apparatus,
The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus,
The program is stored in the processor.
Detecting an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on the area indicating the person detected in the detecting step, and the content data is not displayed in the determined area. Generating output image data by combining the content data with the input image data; and
And displaying the output image data generated in the generating step on the display.
前記プログラムは、前記プロセッサに、
前記検出するステップにおいて、前記人物を示す領域として、前記入力画像データに含まれる人物の顔の領域を検出させ、
前記生成するステップにおいて、前記検出される顔の領域を、前記コンテンツデータの表示を抑制する領域として決定させる、請求項1記載のプログラム。
The program is stored in the processor.
In the detecting step, as a region indicating the person, a region of a human face included in the input image data is detected,
The program according to claim 1, wherein in the generating step, the detected face area is determined as an area for suppressing display of the content data.
前記プログラムは、前記プロセッサに、
前記生成するステップにおいて、前記検出された前記人物を示す領域に基づいて、前記コンテンツデータを表示する位置を決定し、前記コンテンツデータの表示を抑制する領域と、前記コンテンツデータを表示する位置との重複部分において前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで前記出力画像データを生成させる、請求項1に記載のプログラム。
The program is stored in the processor.
In the generating step, a position for displaying the content data is determined based on an area indicating the detected person, and an area for suppressing the display of the content data and a position for displaying the content data The program according to claim 1, wherein the output image data is generated by combining the content data with the input image data so that the content data is not displayed in an overlapping portion.
前記プログラムは、前記プロセッサに、
前記生成するステップにおいて、前記コンテンツデータの表示を抑制する領域と、前記コンテンツデータを表示する領域とで重複部分が発生しないよう、前記コンテンツデータを表示する領域を決定することで前記コンテンツデータの前記入力画像データへの合成を行わせる、請求項1に記載のプログラム。
The program is stored in the processor.
In the generating step, the region of the content data is determined by determining a region for displaying the content data so that an overlapping portion does not occur between the region for suppressing the display of the content data and the region for displaying the content data. The program according to claim 1, wherein composition is performed on input image data.
前記情報処理装置は、さらに、
撮影により画像信号を生成し、生成された前記画像信号を前記プロセッサへ出力するカメラを備え、
前記プログラムは、前記プロセッサに、
前記検出するステップにおいて、前記カメラから前記プロセッサへ出力される画像信号を前記入力画像データとして受け付けて、前記入力画像データに基づいて前記人物を示す領域を検出させ、
前記生成するステップにおいて、前記カメラから前記プロセッサが受け付けた前記入力画像データに基づき、出力画像データを生成させる、請求項1に記載のプログラム。
The information processing apparatus further includes:
A camera that generates an image signal by shooting and outputs the generated image signal to the processor;
The program is stored in the processor.
In the detecting step, an image signal output from the camera to the processor is received as the input image data, and an area indicating the person is detected based on the input image data,
The program according to claim 1, wherein in the generating step, output image data is generated based on the input image data received by the processor from the camera.
前記情報処理装置は、さらに、
ユーザからの入力操作を受け付けるための操作受付部と、
前記情報処理装置に通信機能を発揮させるための通信モジュールとを備え、
前記情報処理装置は、前記通信モジュールにより外部の通信装置と接続し、前記外部の通信装置から前記コンテンツデータを受信可能に構成され、
前記プログラムは、前記プロセッサに、
前記外部の通信装置から前記コンテンツデータを購入する入力操作を前記操作受付部により受け付ける処理を行わせる、請求項1に記載のプログラム。
The information processing apparatus further includes:
An operation accepting unit for accepting an input operation from a user;
A communication module for causing the information processing apparatus to exert a communication function;
The information processing apparatus is configured to be connected to an external communication apparatus through the communication module and receive the content data from the external communication apparatus.
The program is stored in the processor.
The program according to claim 1, wherein the operation receiving unit performs a process of receiving an input operation for purchasing the content data from the external communication device.
情報処理装置の動作を制御するための方法であって、
前記情報処理装置は、画像を表示するためのディスプレイと、前記画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記方法は、前記情報処理装置が、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出するステップと、
前記入力画像データにおいて、前記検出するステップで検出された前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成するステップと、
前記生成するステップで生成された前記出力画像データを、前記ディスプレイに表示するステップとを含む、方法。
A method for controlling the operation of an information processing apparatus,
The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus,
In the method, the information processing apparatus
Detecting an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on the area indicating the person detected in the detecting step, and the content data is not displayed in the determined area. Generating output image data by combining the content data with the input image data; and
Displaying the output image data generated in the generating step on the display.
情報処理装置であって、
画像を表示するためのディスプレイと、
前記画像に合成されるコンテンツデータを記憶するためのメモリと、
前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プロセッサは、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出する検出部と、
前記入力画像データにおいて、前記検出部が検出した前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成する出力画像生成部と、
前記出力画像生成部により生成された前記出力画像データを、前記ディスプレイに表示させる表示制御部とを含む、情報処理装置。
An information processing apparatus,
A display for displaying images,
A memory for storing content data to be combined with the image;
A processor for controlling the operation of the information processing apparatus,
The processor is
A detection unit that detects an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on an area indicating the person detected by the detection unit, and the content data is not displayed in the determined area. An output image generation unit that generates output image data by combining data with the input image data;
An information processing apparatus comprising: a display control unit configured to display the output image data generated by the output image generation unit on the display.
JP2013149369A 2013-07-18 2013-07-18 Information processing device, method, and program Pending JP2015023382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013149369A JP2015023382A (en) 2013-07-18 2013-07-18 Information processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013149369A JP2015023382A (en) 2013-07-18 2013-07-18 Information processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2015023382A true JP2015023382A (en) 2015-02-02

Family

ID=52487504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013149369A Pending JP2015023382A (en) 2013-07-18 2013-07-18 Information processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2015023382A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144664A (en) * 2018-02-16 2019-08-29 ヤフー株式会社 Information display program, information display method, information display device, and distribution device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088728A (en) * 2002-04-22 2004-03-18 Nariyuki Motoi Picture providing apparatus, method, and program thereof
JP2005277989A (en) * 2004-03-26 2005-10-06 Oki Electric Ind Co Ltd Communication terminal device and its image providing method
JP2012138957A (en) * 2012-04-03 2012-07-19 Fujifilm Corp Image processing device, image processing method, and imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088728A (en) * 2002-04-22 2004-03-18 Nariyuki Motoi Picture providing apparatus, method, and program thereof
JP2005277989A (en) * 2004-03-26 2005-10-06 Oki Electric Ind Co Ltd Communication terminal device and its image providing method
JP2012138957A (en) * 2012-04-03 2012-07-19 Fujifilm Corp Image processing device, image processing method, and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144664A (en) * 2018-02-16 2019-08-29 ヤフー株式会社 Information display program, information display method, information display device, and distribution device

Similar Documents

Publication Publication Date Title
KR102251483B1 (en) Electronic device and method for processing image
CN108898068B (en) Method and device for processing face image and computer readable storage medium
CN110992493B (en) Image processing method, device, electronic equipment and storage medium
KR102220443B1 (en) Apparatas and method for using a depth information in an electronic device
CN108965757B (en) Video recording method, device, terminal and storage medium
KR20190013308A (en) Mobile terminal and method for controlling the same
CN109151044B (en) Information pushing method and device, electronic equipment and storage medium
US20180144546A1 (en) Method, device and terminal for processing live shows
CN112788359B (en) Live broadcast processing method and device, electronic equipment and storage medium
KR20160127606A (en) Mobile terminal and the control method thereof
CN110837300B (en) Virtual interaction method and device, electronic equipment and storage medium
CN112581358A (en) Training method of image processing model, image processing method and device
JP6305757B2 (en) program
WO2020056694A1 (en) Augmented reality communication method and electronic devices
CN111031394B (en) Video production method, device, equipment and storage medium
KR20180041430A (en) Mobile terminal and operating method thereof
JP2015023382A (en) Information processing device, method, and program
KR20140147057A (en) Wearable glass-type device and method of controlling the device
CN112399080A (en) Video processing method, device, terminal and computer readable storage medium
KR20170071017A (en) Mobile terminal and method for controlling the same
CN106385430B (en) The management method and device of communication message
CN109660450B (en) Automatic message reply method, device, terminal, server and storage medium
KR20150093519A (en) Mobile terminal and method for controlling the same
CN114466100B (en) Method, device and system for adapting accessory theme
CN114095600B (en) Earphone theme changing method, smart phone and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171017