JP2015023382A - Information processing device, method, and program - Google Patents
Information processing device, method, and program Download PDFInfo
- Publication number
- JP2015023382A JP2015023382A JP2013149369A JP2013149369A JP2015023382A JP 2015023382 A JP2015023382 A JP 2015023382A JP 2013149369 A JP2013149369 A JP 2013149369A JP 2013149369 A JP2013149369 A JP 2013149369A JP 2015023382 A JP2015023382 A JP 2015023382A
- Authority
- JP
- Japan
- Prior art keywords
- content data
- information processing
- image data
- processing apparatus
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、カメラの撮影により得られる撮影画像データに、別の画像を合成して表示するための技術に関する。 The present disclosure relates to a technique for combining and displaying another image on captured image data obtained by capturing with a camera.
スマートフォン、タブレット端末など、カメラを備えた情報処理装置が広く普及している。ユーザは、これらカメラ機能を利用して、例えばユーザ同士を撮影し、SNS(social networking service)サイトやグループチャットアプリ等に投稿して撮影画像をユーザ間で共有している。 Information processing apparatuses equipped with cameras such as smartphones and tablet terminals are widely used. Users use these camera functions to take images of users, for example, and post them to an SNS (social networking service) site, a group chat application, etc., and share the taken image between users.
これらスマートフォンなどの情報処理装置に対して、数々のアプリケーションが提供されている。情報処理装置は、例えばアプリケーションストアを通じて、配信サーバからアプリケーションをダウンロードする。これらアプリケーションは、例えば、情報処理装置のカメラ機能を利用しやすくするもの、撮影画像に対して加工をするためのもの、画像認識処理によって被写体の顔を検出する機能を有するものなどがある。撮影画像の中から顔画像を検出するための技術は、例えば特開2009−223581号公報(特許文献1)に開示されている。 Numerous applications are provided for information processing apparatuses such as smartphones. The information processing apparatus downloads the application from the distribution server through, for example, an application store. These applications include, for example, an application that makes it easy to use the camera function of the information processing apparatus, an application that processes captured images, and an application that has a function of detecting the face of a subject by image recognition processing. A technique for detecting a face image from a captured image is disclosed in, for example, Japanese Patent Application Laid-Open No. 2009-223581 (Patent Document 1).
情報処理装置は、顔検出機能を有するカメラアプリケーションを起動して、撮影画像に含まれる被写体の目の位置を検出し、検出された目の位置に基づいて、例えば眼鏡や仮面などの物体を表す画像を合成する。これにより、ユーザは、被写体が物体(眼鏡など)を装着した画像を得ることができ、例えばユーザが実際に眼鏡を装着することなく眼鏡を装着した後の印象などを容易に確認することができる。このように、撮影画像データに含まれる被写体の顔を検出して、検出結果に応じて眼鏡やヒゲなど別の画像を合成することにより、ユーザは、撮影画像を容易に加工することができ、他のユーザと共有して楽しむことができる。 The information processing apparatus activates a camera application having a face detection function, detects the eye position of the subject included in the photographed image, and represents an object such as glasses or a mask based on the detected eye position Composite the images. As a result, the user can obtain an image in which the subject wears an object (such as glasses), and can easily confirm an impression after the user wears the glasses without actually wearing the glasses, for example. . In this way, by detecting the face of the subject included in the captured image data and combining another image such as glasses or beard according to the detection result, the user can easily process the captured image, You can enjoy sharing with other users.
しかし、ユーザによっては、撮影画像データに対し、アニメーションしている画像などを合成しつつ、撮影画像のうち一部の領域については画像を合成せず、もとの撮影画像データを表示したいことがある。例えば、被写体となる人物が、顔や衣装などを見せつつ、被写体の周囲に別の画像を合成したいことがある。例えば被写体が、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきって髪形を整え、化粧をし、衣装を装着している場合などである。こうした化粧や衣装などは、これ自体が鑑賞の対象としての比重が大きいとも考えられている。その一方で、キャラクターの周囲の光線など、作品上の演出を再現するためのアニメーション画像を撮影画像に合成したいという要請もある。 However, some users may wish to display the original captured image data without combining the images of some of the captured images while combining the animated images with the captured image data. is there. For example, there is a case where a person who is a subject wants to synthesize another image around the subject while showing a face, a costume, or the like. For example, the subject may be a character of a work such as a manga, a game, an animation, or a movie, and the hairstyle is adjusted, makeup is applied, and a costume is worn. Such makeup and costumes are considered to have a high specific gravity as an object of appreciation. On the other hand, there is also a demand for synthesizing an animation image for reproducing the effect on the work, such as light rays around the character, with the photographed image.
したがって、ユーザが画像の合成を望まない領域については撮影画像を表示しつつ、アニメーションしている画像などを撮影画像に容易に合成するための技術が必要とされている。 Therefore, there is a need for a technique for easily synthesizing an animated image or the like with a captured image while displaying a captured image for an area where the user does not want to combine the images.
一実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。プログラムは、プロセッサに、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出するステップと、入力画像データにおいて、検出するステップで検出された人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成するステップと、生成するステップで生成された出力画像データを、ディスプレイに表示するステップとを実行させる。 According to one embodiment, a program for controlling the operation of the information processing apparatus is provided. The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. The program performs an image recognition process on the input image data to the processor, thereby detecting a region indicating a person included in the input image data, and indicating the person detected in the detecting step in the input image data. Determining an area for suppressing display of the content data based on the area, and generating output image data by combining the content data with the input image data so that the content data is not displayed in the determined area; Displaying the output image data generated in the generating step on a display.
別の実施形態に従うと、情報処理装置の動作を制御するための方法が提供される。情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。方法は、情報処理装置が、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出するステップと、入力画像データにおいて、検出するステップで検出された人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成するステップと、生成するステップで生成された出力画像データを、ディスプレイに表示するステップとを含む。 According to another embodiment, a method for controlling the operation of an information processing device is provided. The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. In the method, the information processing device performs image recognition processing on the input image data to detect a region indicating a person included in the input image data, and the person detected in the detecting step in the input image data Determining an area for suppressing display of the content data based on the area indicating the content, and generating the output image data by combining the content data with the input image data so that the content data is not displayed in the determined area And displaying the output image data generated in the generating step on a display.
別の実施形態に従う情報処理装置は、画像を表示するためのディスプレイと、画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備え、プロセッサは、入力画像データに対し画像認識処理を行うことにより、入力画像データに含まれる人物を示す領域を検出する検出部と、入力画像データにおいて、検出部が検出した人物を示す領域に基づいて、コンテンツデータの表示を抑制する領域を決定し、決定された領域にコンテンツデータが表示されないよう、コンテンツデータを入力画像データに合成することで、出力画像データを生成する出力画像生成部と、出力画像生成部により生成された出力画像データを、ディスプレイに表示させる表示制御部とを含む。 An information processing apparatus according to another embodiment includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus. Is a detection unit that detects a region indicating a person included in the input image data by performing image recognition processing on the input image data, and a region indicating the person detected by the detection unit in the input image data. An output image generation unit that determines an area for suppressing display of the content data and combines the content data with the input image data so that the content data is not displayed in the determined area; A display control unit for displaying the output image data generated by the generation unit on a display.
上記一実施形態によると、ユーザが画像の合成を望まない領域については撮影画像を表示しつつ、別の画像を撮影画像に容易に合成することができる。 According to the above-described embodiment, it is possible to easily combine another image with a captured image while displaying a captured image for a region where the user does not want to combine the images.
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<実施の形態1>
図1は、実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。情報処理装置100は、例えば、タッチパネルを備えるスマートフォンであるが、スマートフォンに限られない。情報処理装置100は、カメラを備え、カメラが撮影した撮影画像をディスプレイ16に表示している。情報処理装置100は、撮影画像に、別の画像(コンテンツデータ)を合成してディスプレイ16に表示する。例えば、図1に示すように、情報処理装置100は、被写体の顔の周囲に、ゆらめく炎状の画像を表示するためのコンテンツデータを合成してディスプレイ16に表示する。このとき、情報処理装置100は、撮影画像のうち、画像認識処理に基づいて一部の領域を抽出し、この領域にはコンテンツデータを表示しないよう、ディスプレイ16の表示内容を制御する。例えば、ユーザが撮影画像において、人物の顔を表示したい場合など、人物の顔の部分にコンテンツデータを表示することを望まない場合に、人物の顔の部分を画像認識処理によって検出し、検出した顔の部分を避けてコンテンツデータと撮影画像データとを合成することができる。
<
FIG. 1 is a diagram illustrating an example of a situation in which the
図1の例では、被写体は、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきっているとする。被写体は、キャラクターの衣装を装着し、小物を把持し、ある姿勢を維持している。情報処理装置100は、撮影画像に対し画像認識処理を行うことで被写体の顔を検出し、検出結果に基づいて、コンテンツデータを合成しない領域である顔認識領域71を設定する。また、情報処理装置100は、撮影画像おける被写体の顔を検出する処理の結果に基づいて、コンテンツデータを合成するための基準となる座標値を決定する。情報処理装置100は、撮影画像データに合成するコンテンツデータが、顔認識領域71に表示されないよう、コンテンツデータの一部を合成領域81に表示する。これにより、例えば、被写体が、ある作品のキャラクターになりきっている場合に、情報処理装置100は、作品中の演出などを撮影画像に合成することができる。また、例えば被写体の顔の部分などに画像を合成することをユーザが望まない場合に、情報処理装置100は、画像認識処理の結果に基づいて画像を合成しない領域を設定し、当該領域にはコンテンツデータを合成しないように、画像を合成してディスプレイ16に表示することができる。このように、情報処理装置100は、キャラクターになりきった感覚を被写体に対して提供することができる。
In the example of FIG. 1, it is assumed that the subject is a character of a certain work such as a manga, a game, an animation, or a movie. The subject is wearing a character's costume, holding an accessory, and maintaining a certain posture. The
<構成>
図2は、情報処理装置100を含むネットワークの構成を示す図である。図2では、情報処理装置100として、情報処理装置100A、100B、100Cを示している。情報処理装置100A、100Bは、スマートフォンであり、情報処理装置100Cは、タブレット端末である。図2を参照して、情報処理装置100Aは、無線基地局700と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。配信サーバ900は、情報処理装置100が撮影画像データと合成してディスプレイ16に表示するための複数のコンテンツデータを記憶している。情報処理装置100Aは、配信サーバ900と通信することで、配信サーバ900からコンテンツデータを取得する。例えば、情報処理装置100は、使用可能な期間が定められたコンテンツデータや、課金処理によって購入することができるコンテンツデータなどを配信サーバ900から取得する。情報処理装置100Bは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。情報処理装置100Cは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。
<Configuration>
FIG. 2 is a diagram illustrating a network configuration including the
図3は、情報処理装置100の構成を示すブロック図である。図3に示すように、情報処理装置100は、アンテナ11,13と、遠距離通信用モジュール12と、近距離通信用モジュール14と、タッチパネル15と、ディスプレイ16と、測位センサ17と、フロントカメラ18と、リアカメラ19と、電源制御部20と、バッテリ21と、マイク22と、スピーカ23と、音声処理部24と、記憶部25と、制御部26とを含む。
FIG. 3 is a block diagram illustrating a configuration of the
アンテナ11とアンテナ13とは、情報処理装置100が発する信号を電波として放射する。また、アンテナ11は、空間から電波を受信して受信信号を遠距離通信用モジュール12へ与える。アンテナ13は、空間から電波を受信して受信信号を近距離通信用モジュール14へ与える。
The
遠距離通信用モジュール12と近距離通信用モジュール14とは、情報処理装置100が他の無線機器と通信するため、アンテナ11等を介して信号を送受信するための変復調処理などを行う。遠距離通信用モジュール12と近距離通信用モジュール14とは、チューナー、高周波回路などを含む通信モジュールであり、情報処理装置100が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部26へ与える。
The long-
遠距離通信用モジュール12は、例えば、LTE(Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)などの移動体通信システムに対応した通信モジュールであり、比較的長距離の通信に対応している。
The long-
近距離通信用モジュール14は、例えば、Bluetooth(登録商標)などの近距離無線通信規格や、IEEE(Institute of Electrical and Electronic Engineers)802.11などの無線LAN(Local Area Network)規格などに対応した通信モジュールであり、比較的近距離の通信に対応している。情報処理装置100が複数の通信方式に対応する場合、これら通信方式に対応してアンテナと通信用モジュールとを備えてもよい。
The short-
タッチパネル15は、ユーザの入力操作を受け付ける。タッチパネル15は、例えば静電容量方式のものを用いることによってユーザの接触操作を受け付ける。タッチパネル15は、ユーザによる入力操作を制御部26へ出力する。
The
ディスプレイ16は、メニュー画面においてアイコンや背景画像を表示し、アプリケーションの動作によって静止画や動画などを表示する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)や有機EL(electroluminescence)ディスプレイによって実現される。
The
測位センサ17は、情報処理装置100の位置を計測するためのセンサであり、例えばGPS(Global Positioning System)モジュールである。
The
フロントカメラ18とリアカメラ19は、入射光を受光して電気信号に変換するカメラモジュールであり、CMOS(Complementary Metal Oxide Semiconductor)センサ、ADC(Analog to Digital Converter)等を含み、画像信号を制御部26へ出力する。情報処理装置100の筺体において、ディスプレイ16が配置される面を前面としたときに、フロントカメラ18は、情報処理装置100の前面に配置される。また、リアカメラ19は、情報処理装置100の背面に配置される。
The
電源制御部20は、情報処理装置100の各回路に対する電力の供給を制御する。電源制御部20は、例えば電源制御用IC(Integrated Circuit)である。
The power
バッテリ21は、情報処理装置100の各回路を動作させるための電力を供給する供給源である。バッテリ21からの電力は、電源制御部20の制御に従って各回路へ供給される。
The
マイク22は、ユーザによる音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部24へ与える。
The
スピーカ23は、音声処理部24から与えられる音声信号を音声に変換して当該音声を情報処理装置100の外部へ出力する。
The
音声処理部24は、音声信号の変復調を行う。音声処理部24は、マイク22から与えられる信号を変調して、変調後の信号を制御部26へ与える。また、音声処理部24は、音声信号をスピーカ23へ与える。音声処理部24は、例えば音声処理用のプロセッサによって実現される。
The
記憶部25は、例えばフラッシュメモリ等により構成され、情報処理装置100が使用するデータおよびプログラムを記憶する。ある局面において、記憶部25は、コンテンツ管理テーブル51と、コンテンツデータ52とを記憶する。
The
コンテンツ管理テーブル51は、詳しくは後述するが、撮影画像に合成する対象となるコンテンツデータそれぞれを識別する識別情報と、コンテンツデータのファイル名と、コンテンツデータの名称と、コンテンツデータを利用できる期間とを対応付けたテーブルである。 As will be described in detail later, the content management table 51 includes identification information for identifying each content data to be combined with a captured image, a file name of the content data, a name of the content data, and a period during which the content data can be used. Is a table in which
コンテンツデータ52は、各コンテンツデータの識別情報に対応する静止画または動画のデータである。
The
制御部26は、記憶部25に記憶される制御プログラムを読み込んで実行することにより、情報処理装置100の動作の全体を制御する。制御部26は、例えばアプリケーションプロセッサである。制御部26は、プログラムに従って動作することにより、検出処理部61と、画像生成部62と、表示制御部63との各機能を発揮する。検出処理部61は、画像認識処理の機能を情報処理装置100に発揮させ、カメラ7から出力される撮影画像データに対し、画像認識処理を施すことにより、撮影画像データに含まれる人物の顔を検出する。例えば、検出処理部61は、撮影画像データに対して画像認識処理を行い、撮影画像データに含まれる人物の目の位置、顔のサイズなどを出力する。画像生成部62は、撮影画像データに対し、検出処理部61の検出結果に基づいてコンテンツデータを合成する位置を決定する等の処理を行なって、合成後の画像データを生成する。表示制御部63は、映像信号を生成してディスプレイ16の表示内容を制御する機能を情報処理装置100に発揮させる。
The
<データ構造>
図4を参照し、情報処理装置100の処理において用いられるデータを説明する。図4は、コンテンツ管理テーブル51を示す図である。
<Data structure>
With reference to FIG. 4, data used in the processing of the
図4に示すように、コンテンツ管理テーブル51の各レコードは、識別番号511と、ファイル名512と、アニメーション名称513と、利用可能期間514とを含む。
As shown in FIG. 4, each record of the content management table 51 includes an
識別番号511は、コンテンツデータそれぞれを識別するための識別情報である。ファイル名512は、コンテンツデータの識別情報に対応するファイルを示す情報である。アニメーション名称513は、識別情報に示されるコンテンツデータのタイトルを示す。利用可能期間514は、コンテンツデータを利用できる期間を示す。図4に示すように、例えば、利用可能期間514のデータ「2013/10/31」は、ユーザがコンテンツデータを利用できる期間が2013年10月31日までであることを示し、データ「期限設定なし」は、コンテンツデータの利用可能な期間が設定されていないことを示す。
The
<撮影画像に合成するためのコンテンツデータ>
図5を参照し、実施の形態1におけるコンテンツデータについて説明する。図5は、撮影画像に合成するコンテンツデータの例を示す図である。
<Content data to be combined with the shot image>
The content data in the first embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of content data to be combined with a captured image.
図5では、記憶部25に記憶されるコンテンツデータの例として、コンテンツデータ52A、52B、52Cを示している。コンテンツデータ52Aは、中心から波形状の線が放射されるようなアニメーションの画像である。コンテンツデータ52Bは、リング状の物体から線が放射されるようなアニメーションの画像である。コンテンツデータ52Cは、文字の形状をしたアニメーションの画像である。これらはコンテンツデータの一例であり、コンテンツデータは、これらの例に限られない。
In FIG. 5,
<制御構造>
図6を参照して、情報処理装置100の制御構造を説明する。図6は、実施の形態1の情報処理装置100による、コンテンツデータと撮影画像データとを合成して表示するための処理を示すフローチャートである。なお、実施の形態1では、コンテンツデータは2次元の形状を有するアニメーションのデータである。以下、情報処理装置100がユーザからの入力操作をタッチパネル15によって受け付けて、コンテンツデータを撮影画像データに合成する処理を説明する。
<Control structure>
The control structure of the
ステップS601において、制御部26は、リアカメラ19を起動し、リアカメラ19が撮影する画像の画像サイズの設定など、カメラに関する初期化の処理を行う。
In step S <b> 601, the
ステップS603において、制御部26は、リアカメラ19が生成する画像信号の入力を受け付けて、逐次、撮影画像データを取得し、取得した撮影画像データをディスプレイ16に表示する。
In step S <b> 603, the
ステップS605において、制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出する。
In step S605, the
ステップS607において、制御部26は、撮影画像データに対する顔検出処理の結果を取得する。制御部26は、顔検出処理の結果として、撮影画像データにおける人物の顔のサイズ、人物の目の座標、人物の口の座標などを取得する。
In step S607, the
ステップS609において、制御部26は、ステップS607で取得した顔検出処理の結果に基づいて、撮影画像データに含まれる被写体の人物の、顔の範囲を示す座標値を算出する。例えば、制御部26は、人物の左目および右目の各座標の平均値と、左目および右目を結ぶ線分とに基づいて、顔の中心を通る線分を推定し、推定された線分に基づいて、顔の中心の座標を推定する。制御部26は、顔の中心の座標から一定の範囲の矩形、円形その他の形状の領域を、撮影画像データに含まれる被写体の顔の範囲として算出する。例えば、制御部26が被写体の顔の範囲を矩形の領域として算出する場合、制御部26は、矩形を構成する4点の座標値を算出する。また、制御部26が被写体の顔の範囲を円形の領域として算出する場合、制御部26は、顔の中心の座標と、半径の大きさを示す値とを算出する。
In step S609, the
ステップS611において、制御部26は、顔検出処理の結果に基づいて、撮影画像データに合成されるコンテンツデータの画像サイズと、コンテンツデータの表示位置とを決定する。例えば、制御部26は、撮影画像データに含まれる被写体の人物の左目および右目の各座標を基準として、コンテンツデータの表示位置を決定する。また、例えば、制御部26は、被写体の左目と右目との距離に応じて被写体の顔のサイズを推定し、顔のサイズに応じてコンテンツデータの画像サイズを決定する。
In step S611, the
ステップS613において、制御部26は、ステップS609で算出した顔の範囲と、ステップS611で決定したコンテンツデータの画像サイズおよび表示位置とに基づいて、被写体の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの一部を透明化する等の加工を行う。
In step S613, the
ステップS615において、制御部26は、加工されたコンテンツデータと、撮影画像データとを合成し、合成によって生成された画像をディスプレイ16へ表示する。その後、制御部26は、ステップS603の処理を行う。
In step S615, the
<コンテンツデータの合成の例>
図7を参照して、制御部26が撮影画像データとコンテンツデータとを合成し、合成後の画像をディスプレイ16へ表示する処理を説明する。図7は、撮影画像データとコンテンツデータとを合成する処理を示す図である。
<Example of composition of content data>
With reference to FIG. 7, a process in which the
ディスプレイ16Aに示すように、制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出し(ステップS605)、被写体の人物の顔の範囲を算出する(ステップS607、ステップS609)。ディスプレイ16Aにおいて、制御部26が算出した被写体の人物の顔の範囲を顔認識領域71として示す。
As shown on the
ディスプレイ16Bに示すように、制御部26は、コンテンツデータの画像サイズと表示位置とを決定する(ステップS611)。ディスプレイ16Bにおいて、コンテンツデータの画像サイズと表示位置とをコンテンツデータ52Bとして示す。
As shown on the display 16B, the
ディスプレイ16Cに示すように、制御部26は、被写体の人物の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの加工を行って撮影画像データと合成する(ステップS613、ステップS615)。
As shown on the display 16C, the
<ユーザインタフェースの例>
図8を参照して、情報処理装置100がディスプレイ16に表示する画面の一例を説明する。図8は、撮影画像データとコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。
<Example of user interface>
An example of a screen displayed on the
図8に示すように、制御部26は、ディスプレイ16において、画像表示領域91と、表示切替部92と、ファイル名表示部93と、アニメーションデータ購入部94と、撮影切替部95と、撮影開始部96と、音声入力受付部97とを表示する。また、制御部26は、ディスプレイ16において、背景アニメーション候補98、選択中アニメーション99、文字アニメーション候補90など、撮影画像データに合成するコンテンツデータの候補を示すアイコン画像を表示する。図8の例では、選択中アニメーション99のコンテンツデータがユーザによって選択されており、制御部26は、選択中アニメーション99のアイコン画像を、他のアイコン画像と区別して表示する。
As shown in FIG. 8, on the
画像表示領域91は、情報処理装置100のカメラから出力される撮影画像データと、ユーザによって指定されたコンテンツデータとを合成した画像を表示するための領域である。制御部26は、撮影画像データに対する画像認識処理により、被写体の顔を検出する。画像表示領域91において、被写体の顔の範囲を顔認識領域71に示す。制御部26は、顔認識領域71に示される範囲にコンテンツデータが表示されないよう、撮影画像データにコンテンツデータを合成してディスプレイ16に表示する。図8の例において、合成領域81は、コンテンツデータが表示される領域を示している。
The
表示切替部92は、ユーザによって指定されたコンテンツデータと撮影画像データとが合成された画像をディスプレイ16に表示するか否かの設定を示す領域である。図8の例では、表示切替部92は設定「ON」と示している。この場合、制御部26は、コンテンツデータと撮影画像データとを合成して生成された画像をディスプレイ16に表示する。なお、表示切替部92の表示内容が設定「OFF」の場合は、制御部26は、カメラによって取得された撮影画像データをディスプレイ16に表示する。制御部26は、ユーザの入力操作をタッチパネル15によって受け付けており、表示切替部92に対する入力操作を受け付けて、撮影画像データとコンテンツデータとが合成された画像を表示するか否かの設定のオンとオフとを切り替える。
The
ファイル名表示部93は、撮影画像データに合成するコンテンツデータのタイトルを示す。制御部26は、コンテンツ管理テーブル51を参照して、ユーザが選択しているコンテンツデータに対応するアニメーション名称513を読み出してファイル名表示部93に表示する。
The file
アニメーションデータ購入部94は、コンテンツデータを購入するための入力操作をユーザから受け付けるためのボタンである。情報処理装置100は、例えば配信サーバ900等の外部の装置からコンテンツデータをダウンロードすることができる。情報処理装置100は、配信サーバ900等の外部の装置と接続し、コンテンツデータを購入するための入力操作をユーザから受け付ける。
The animation
撮影切替部95は、画像表示領域91において表示されている画像を、静止画として保存するか、動画として保存するかの設定を受け付けるための領域である。
The
撮影開始部96は、画像表示領域91において表示されている画像を保存するための入力操作をユーザから受け付けるための領域である。表示切替部92において、設定が「ON」、すなわちコンテンツデータと撮影画像データとが合成された画像を表示する設定である場合、情報処理装置100は、撮影開始部96に対する入力操作に応じて、コンテンツデータが合成された画像を静止画または動画として保存する。
The
音声入力受付部97は、音声によるユーザの入力操作を受け付けるための領域である。情報処理装置100は、音声入力受付部97に対する入力操作を受け付けることで、音声入力の受付を開始し、入力された音声に基づいて、音声認識処理を行う。例えば、情報処理装置100は、入力された音声を、音声認識処理用のアプリケーションによって音声認識処理を行わせるか、配信サーバ900等の外部の装置へ送信し、外部の装置に音声認識処理を行わせて、その音声認識処理の結果を受信する。情報処理装置100は、入力された音声の音声認識処理の結果に応じて動作する。例えば、情報処理装置100は、音声認識処理の結果を受けて、撮影開始部96に対する入力操作が行われたものとして動作し、画像表示領域91に表示されている合成後の画像を保存するための処理を行う。また、例えば、情報処理装置100は、音声認識処理の結果を受けて、表示切替部92に対する入力操作が行われたものとして動作し、撮影画像データとコンテンツデータとが合成された画像を表示するか否かの設定を切り替える処理を行う。
The voice
<コンテンツデータの購入を受け付けるためのユーザインタフェースの例>
図9を参照して、情報処理装置100がユーザからコンテンツデータの購入を受け付けるためのユーザインタフェースの例を説明する。図9は、撮影画像データに合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
<Example of user interface for accepting purchase of content data>
With reference to FIG. 9, an example of a user interface for the
図9に示すように、制御部26は、ディスプレイ16において、購入ボタン941と、コンテンツデータリスト942とを表示する。制御部26は、タッチパネル15を介して、ユーザがコンテンツデータを選択するための入力操作を受け付ける。購入ボタン941は、ユーザが選択したコンテンツデータを購入するための入力操作を受け付けるボタンである。
As shown in FIG. 9, the
コンテンツデータリスト942は、ユーザが購入可能なコンテンツデータの一覧を表示する。なお、図9の例では、コンテンツ管理テーブル51の利用可能期間514において、コンテンツデータの利用可能期間が設定されているコンテンツについては、情報処理装置100は、そのコンテンツデータの利用可能期間をコンテンツデータリスト942において表示する。
The
<撮影画像データにコンテンツデータを合成するか否かの設定の切替>
図10を参照して、撮影画像データにコンテンツデータを合成するか否かの設定を、音声入力によって受け付ける例を説明する。図10は、情報処理装置100がコンテンツデータの合成のオンまたはオフを音声入力によって受け付ける例を示す図である。
<Switching of whether to synthesize content data with captured image data>
With reference to FIG. 10, an example will be described in which setting whether or not to synthesize content data with captured image data is received by voice input. FIG. 10 is a diagram illustrating an example in which the
情報処理装置100は、音声入力受付部97に対する入力操作を受け付けることで、音声入力を受け付ける。図10において、表示切替部92が設定「OFF」を示している場合、制御部26は、ユーザが指定したコンテンツデータと撮影画像データとを合成することなく、ディスプレイ16に撮影画像を表示する。情報処理装置100は、例えば、予め設定されたキーワードの音声入力を受け付けることで、コンテンツデータと撮影画像データとが合成された画像を表示するか否かの設定を切り替える。例えば、図10に示すように、情報処理装置100は、マイク22によって、音声「変身!」などのキーワードの音声入力を受け付ける。これにより、情報処理装置100は、撮影画像データと、コンテンツデータとを合成し、合成により生成された画像を表示する処理を開始し、表示切替部92に設定「ON」を表示する。
The
このように、情報処理装置100は、撮影画像データに対してコンテンツデータを合成した画像を表示するか否かを音声入力によって切り替え可能とする。これにより、例えば被写体が、ある作品のキャラクターになりきっている場合に、特定の音声の入力によって、コンテンツデータと撮影画像データとが合成された画像を表示するか否かを切り替えることができ、キャラクターになりきった感覚を被写体に対して提供することができる。
In this way, the
また、情報処理装置100は、特定の音声の入力によってコンテンツデータと撮影画像データとが合成された画像を表示するか否かを切り替える過程を、例えば動画等によって保存する入力操作を受け付けて、ユーザが他のユーザと動画等を共有することができることとしてもよい。例えば、情報処理装置100は、撮影画像データに対してコンテンツデータを合成して生成された静止画または動画を、例えば画像投稿用のWebサイトやグループチャットに投稿することができることとしてもよい。これにより、ユーザ同士での作品の楽しみ方のバリエーションを拡げることができる。
In addition, the
<実施の形態2>
図11〜図13を参照して、別の実施の形態にかかる情報処理装置100について説明する。実施の形態2の情報処理装置100は、撮影画像データに含まれる複数の人物の顔をそれぞれ認識し、各人物の顔とコンテンツデータとを対応付けてディスプレイ16に表示する。情報処理装置100は、顔認識処理によって、撮影画像データに含まれる被写体の人物を検出するとともに、予め被写体の人物の画像データベースを有して、画像認識処理によって検出された人物が誰であるかを特定する。
<
An
図11は、実施の形態2の情報処理装置100の表示例を示す図である。図11に示すように、情報処理装置100は、撮影画像データに対し画像認識処理を行うことにより、第1のユーザと、第2のユーザとを特定する。情報処理装置100は、撮影画像データに含まれる第1のユーザの顔の範囲を顔認識領域71Aとして推定する。また、情報処理装置100は、第1のユーザと、コンテンツデータ52Aとを対応付けて記憶している。同様に、情報処理装置100は、撮影画像データに含まれる第2のユーザの顔の範囲を顔認識領域71Bとして推定する。また、情報処理装置100は、第2のユーザと、コンテンツデータ52Bとを対応付けて記憶している。
FIG. 11 is a diagram illustrating a display example of the
情報処理装置100は、ディスプレイ16において、第1のユーザの顔の範囲にコンテンツデータが表示されないよう、撮影画像データとコンテンツデータとを合成し、合成領域81Aにコンテンツデータを表示する。また、情報処理装置100は、ディスプレイ16において、第2のユーザの顔の範囲にコンテンツデータが表示されないよう、撮影画像データにコンテンツデータを合成し、合成領域81Bにコンテンツデータを表示する。
The
<データ構造>
図12は、実施の形態2の情報処理装置100の処理において用いられるユーザ割り当て情報53を示す図である。情報処理装置100は、例えば、記憶部25にユーザ割り当て情報53を記憶している。ユーザ割り当て情報53は、人物それぞれに対し、どのコンテンツデータが割り当てられているかを示す情報である。
<Data structure>
FIG. 12 is a diagram illustrating
ユーザ割り当て情報53の各レコードは、ユーザ識別情報531と、ファイル名532と、アニメーション名称533とを含む。
Each record of the
ユーザ識別情報531は、ユーザそれぞれを識別するための識別情報である。ファイル名532は、ユーザ識別情報531の識別情報に示されるユーザに対応付けられたコンテンツデータのファイルを特定するための情報である。アニメーション名称533は、ファイル名532に示されるコンテンツデータの名称を示す。
The
<制御構造>
図13を参照して、実施の形態2における情報処理装置100の動作を説明する。なお、実施の形態1と同一の箇所については同一の参照符号を付して説明を繰り返さない。図13は、実施の形態2の情報処理装置100による、コンテンツデータを撮影画像データに合成して表示するための処理を示すフローチャートである。なお、情報処理装置100は、ユーザの登録を受け付けて、記憶部25に、登録を受け付けたユーザを顔認識処理によって特定するための参照用の画像を記憶している。
<Control structure>
With reference to FIG. 13, the operation of the
ステップS1301において、制御部26は、リアカメラ19を起動し、リアカメラ19が撮影する画像の画像サイズの設定など、カメラに関する初期化の処理を行う。
In step S <b> 1301, the
ステップS1303において、制御部26は、リアカメラ19が生成する画像信号の入力を受け付けて撮影画像データを取得し、取得した撮影画像データのプレビューをディスプレイ16に表示する。
In step S <b> 1303, the
ステップS1305において、制御部26は、画像認識処理により撮影画像データから顔認識処理によって人物を特定するため、参照用の画像を設定する。制御部26は、撮影画像データに対し、画像認識処理を行うことで、撮影画像に含まれる人物の顔を検出し、検出された人物を、参照用の画像と照合することで、検出された人物が誰であるかを特定するための識別子をメモリ等へ出力する。
In step S1305, the
ステップS1307において、制御部26は、顔認識処理によって出力される各種データを取得する。例えば、制御部26は、撮影画像データにおける人物の識別子、人物の顔のサイズ、人物の目の座標、人物の口の座標などのデータをメモリから読み出して取得する。
In step S1307, the
ステップS1309において、制御部26は、ステップS1307で取得した顔認識処理の結果に基づいて、撮影画像データに含まれる被写体の人物の顔の範囲を示す座標値を算出する。
In step S1309, the
ステップS1311において、制御部26は、顔認識処理の結果に基づいて、ユーザの識別子に対応したコンテンツデータそれぞれについて、撮影画像データと合成するコンテンツデータの画像サイズと、コンテンツデータの表示位置とを決定する。
In step S1311, the
ステップS1313において、制御部26は、ステップS1309で算出した顔の範囲と、ステップS1311で決定したコンテンツデータの画像サイズおよび表示位置とに基づいて、被写体の顔の範囲にコンテンツデータが表示されないよう、コンテンツデータの一部を透明化する等の加工を行う。
In step S1313, based on the face range calculated in step S1309 and the image size and display position of the content data determined in step S1311, the
ステップS1315において、制御部26は、加工されたコンテンツデータと、撮影画像データとを合成し、合成によって生成された画像をディスプレイ16へ表示する。その後、制御部26は、ステップS1303の処理を行う。
In step S1315, the
このように、実施の形態2の情報処理装置100は、撮影画像データに対し、画像認識処理を行って、被写体の人物の顔認識を行い、被写体の人物とコンテンツデータとを対応付けて、コンテンツデータと撮影画像データとを合成することができる。そのため、例えば、被写体となる複数の人物が、それぞれ特定のキャラクターになりきっている場合に、画像を合成したくない領域はそのまま撮影画像データを表示しつつ、各キャラクターに適したコンテンツデータを被写体の人物に合成することができる。例えば、作品中で、複数のキャラクターが登場する構図を再現するためにコンテンツデータを合成することが容易になる。
As described above, the
<変形例>
上述のように、各実施の形態にかかる情報処理装置100について説明してきたが、以下のように変形することもできる。
<Modification>
As described above, the
<1.画像認識処理による人物の検出>
上述の各実施形態の説明では、撮影画像データに対し、画像認識処理を行うことで、撮影画像データに被写体の人物の顔を検出する構成と、被写体の人物の顔を検出して参照用の画像を照合し、被写体が誰であるかを特定する構成とを説明した。被写体となる人物を検出する方法は、これに限らず、例えば、情報処理装置100が歩行者検出処理用のアルゴリズムを利用可能であれば、これらアルゴリズムを撮影画像データに適用してもよい。情報処理装置100は、被写体を歩行者として検出することで、撮影画像データにおける被写体の全身を検出することができ、この検出結果に基づいて、コンテンツデータを合成する領域を決定してもよい。
<1. Human detection by image recognition processing>
In the description of each of the embodiments described above, the image recognition process is performed on the captured image data to detect the face of the subject person in the captured image data, and the face of the subject person is detected for reference. A configuration for collating images and identifying who the subject is was explained. The method for detecting a person as a subject is not limited to this, and for example, if the
<2.コンテンツデータの表示位置>
上記の実施形態の説明では、情報処理装置100は、図6および図7を用いて説明したように、顔認識領域71に、コンテンツデータ52が表示されないよう、コンテンツデータ52の一部を透明化する等の加工をし、加工後のコンテンツデータと、撮影画像データとを合成して合成後の画像データを得ることとして説明した。この他にも、顔認識領域71にコンテンツデータ52が表示されないよう、情報処理装置100は、撮影画像データに含まれる被写体の顔の範囲(顔認識領域71)を算出すると(ステップS609)、顔認識領域71と、コンテンツデータ52の表示領域とで重複部分が生じないように、コンテンツデータ52が顔認識領域71に表示されない表示位置および画像サイズを決定することとしてもよい(ステップS611)。
<2. Display position of content data>
In the description of the above embodiment, the
<3.コンテンツデータの配信方法>
上記の実施形態の説明では、情報処理装置100は、コンテンツデータ52を、例えば配信サーバ900から取得することができるとして説明したが、この他にも、例えば、ある特定の地域に限定してコンテンツデータ52を取得することができることとしてもよい。例えば、コンテンツデータを配信する配信サーバ900は、情報処理装置100の位置として、(a)測位センサ17のGPS測定の結果、(b)情報処理装置100が無線通信をしている無線基地局700の識別情報、(c)情報処理装置100が無線通信をしている無線LANルータの識別情報等の情報を取得する。配信サーバ900は、情報処理装置100から、配布地域が限定されているコンテンツデータ52を取得するための要求を受け付けたとき、情報処理装置100の位置の情報に基づいて、コンテンツデータ52の配信の可否を制御する(または、情報処理装置100において、コンテンツデータ52の配信を受けることが可能な地域であるか否かを判定してもよい)。
<3. Content data distribution method>
In the description of the above embodiment, the
このように、情報処理装置100がコンテンツデータ52を取得可能な地域を限定することで、例えば、コンテンツデータ52と関係のある地域で開催されるイベントや観光地へとユーザが訪問することを促すことができる。
In this way, by limiting the areas where the
その他にも、情報処理装置100は、撮影画像データに対する画像認識処理を行って被写体の顔の領域を検出することで、コンテンツデータ52が表示されないよう顔認識領域71を決定することとして説明してきたが、この顔認識領域71の範囲は、ユーザが編集可能であるとしてもよい。また、情報処理装置100は、ユーザによる手書きの画像の入力を受け付けて、受け付けた画像を、撮影画像データに合成するコンテンツデータ52として記憶することとしてもよい。
In addition, the
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
11,13 アンテナ、12 遠距離通信用モジュール、14 近距離通信用モジュール、15 タッチパネル、16 ディスプレイ、17 測位センサ、18 フロントカメラ、19 リアカメラ、20 電源制御部、21 バッテリ、22 マイク、23 スピーカ、24 音声処理部、25 記憶部、26 制御部、51 コンテンツ管理テーブル、52 コンテンツデータ、53 ユーザ割り当て情報、61 検出処理部、62 画像生成部、63 表示制御部、71 顔認識領域、81 合成領域、91 画像表示領域、92 表示切替部、93 ファイル名表示部、94 アニメーションデータ購入部、95 撮影切替部、96 撮影開始部、97 音声入力受付部、98 背景アニメーション候補、99 選択中アニメーション、90 文字アニメーション候補、100 情報処理装置、511 識別番号、512 ファイル名、513 アニメーション名称、514 利用可能期間、531 ユーザ識別情報、532 ファイル名、533 アニメーション名称、600 ルータ、700 無線基地局、800 ネットワーク、900 配信サーバ、941 購入ボタン、942 アニメーションリスト。
11, 13 Antenna, 12 Long-distance communication module, 14 Short-distance communication module, 15 Touch panel, 16 Display, 17 Position sensor, 18 Front camera, 19 Rear camera, 20 Power supply control unit, 21 Battery, 22 Microphone, 23
Claims (8)
前記情報処理装置は、画像を表示するためのディスプレイと、前記画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プログラムは、前記プロセッサに、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出するステップと、
前記入力画像データにおいて、前記検出するステップで検出された前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成するステップと、
前記生成するステップで生成された前記出力画像データを、前記ディスプレイに表示するステップとを実行させる、プログラム。 A program for controlling the operation of the information processing apparatus,
The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus,
The program is stored in the processor.
Detecting an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on the area indicating the person detected in the detecting step, and the content data is not displayed in the determined area. Generating output image data by combining the content data with the input image data; and
And displaying the output image data generated in the generating step on the display.
前記検出するステップにおいて、前記人物を示す領域として、前記入力画像データに含まれる人物の顔の領域を検出させ、
前記生成するステップにおいて、前記検出される顔の領域を、前記コンテンツデータの表示を抑制する領域として決定させる、請求項1記載のプログラム。 The program is stored in the processor.
In the detecting step, as a region indicating the person, a region of a human face included in the input image data is detected,
The program according to claim 1, wherein in the generating step, the detected face area is determined as an area for suppressing display of the content data.
前記生成するステップにおいて、前記検出された前記人物を示す領域に基づいて、前記コンテンツデータを表示する位置を決定し、前記コンテンツデータの表示を抑制する領域と、前記コンテンツデータを表示する位置との重複部分において前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで前記出力画像データを生成させる、請求項1に記載のプログラム。 The program is stored in the processor.
In the generating step, a position for displaying the content data is determined based on an area indicating the detected person, and an area for suppressing the display of the content data and a position for displaying the content data The program according to claim 1, wherein the output image data is generated by combining the content data with the input image data so that the content data is not displayed in an overlapping portion.
前記生成するステップにおいて、前記コンテンツデータの表示を抑制する領域と、前記コンテンツデータを表示する領域とで重複部分が発生しないよう、前記コンテンツデータを表示する領域を決定することで前記コンテンツデータの前記入力画像データへの合成を行わせる、請求項1に記載のプログラム。 The program is stored in the processor.
In the generating step, the region of the content data is determined by determining a region for displaying the content data so that an overlapping portion does not occur between the region for suppressing the display of the content data and the region for displaying the content data. The program according to claim 1, wherein composition is performed on input image data.
撮影により画像信号を生成し、生成された前記画像信号を前記プロセッサへ出力するカメラを備え、
前記プログラムは、前記プロセッサに、
前記検出するステップにおいて、前記カメラから前記プロセッサへ出力される画像信号を前記入力画像データとして受け付けて、前記入力画像データに基づいて前記人物を示す領域を検出させ、
前記生成するステップにおいて、前記カメラから前記プロセッサが受け付けた前記入力画像データに基づき、出力画像データを生成させる、請求項1に記載のプログラム。 The information processing apparatus further includes:
A camera that generates an image signal by shooting and outputs the generated image signal to the processor;
The program is stored in the processor.
In the detecting step, an image signal output from the camera to the processor is received as the input image data, and an area indicating the person is detected based on the input image data,
The program according to claim 1, wherein in the generating step, output image data is generated based on the input image data received by the processor from the camera.
ユーザからの入力操作を受け付けるための操作受付部と、
前記情報処理装置に通信機能を発揮させるための通信モジュールとを備え、
前記情報処理装置は、前記通信モジュールにより外部の通信装置と接続し、前記外部の通信装置から前記コンテンツデータを受信可能に構成され、
前記プログラムは、前記プロセッサに、
前記外部の通信装置から前記コンテンツデータを購入する入力操作を前記操作受付部により受け付ける処理を行わせる、請求項1に記載のプログラム。 The information processing apparatus further includes:
An operation accepting unit for accepting an input operation from a user;
A communication module for causing the information processing apparatus to exert a communication function;
The information processing apparatus is configured to be connected to an external communication apparatus through the communication module and receive the content data from the external communication apparatus.
The program is stored in the processor.
The program according to claim 1, wherein the operation receiving unit performs a process of receiving an input operation for purchasing the content data from the external communication device.
前記情報処理装置は、画像を表示するためのディスプレイと、前記画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記方法は、前記情報処理装置が、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出するステップと、
前記入力画像データにおいて、前記検出するステップで検出された前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成するステップと、
前記生成するステップで生成された前記出力画像データを、前記ディスプレイに表示するステップとを含む、方法。 A method for controlling the operation of an information processing apparatus,
The information processing apparatus includes a display for displaying an image, a memory for storing content data combined with the image, and a processor for controlling the operation of the information processing apparatus,
In the method, the information processing apparatus
Detecting an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on the area indicating the person detected in the detecting step, and the content data is not displayed in the determined area. Generating output image data by combining the content data with the input image data; and
Displaying the output image data generated in the generating step on the display.
画像を表示するためのディスプレイと、
前記画像に合成されるコンテンツデータを記憶するためのメモリと、
前記情報処理装置の動作を制御するためのプロセッサとを備え、
前記プロセッサは、
入力画像データに対し画像認識処理を行うことにより、前記入力画像データに含まれる人物を示す領域を検出する検出部と、
前記入力画像データにおいて、前記検出部が検出した前記人物を示す領域に基づいて、前記コンテンツデータの表示を抑制する領域を決定し、前記決定された領域に前記コンテンツデータが表示されないよう、前記コンテンツデータを前記入力画像データに合成することで、出力画像データを生成する出力画像生成部と、
前記出力画像生成部により生成された前記出力画像データを、前記ディスプレイに表示させる表示制御部とを含む、情報処理装置。 An information processing apparatus,
A display for displaying images,
A memory for storing content data to be combined with the image;
A processor for controlling the operation of the information processing apparatus,
The processor is
A detection unit that detects an area indicating a person included in the input image data by performing image recognition processing on the input image data;
In the input image data, an area for suppressing display of the content data is determined based on an area indicating the person detected by the detection unit, and the content data is not displayed in the determined area. An output image generation unit that generates output image data by combining data with the input image data;
An information processing apparatus comprising: a display control unit configured to display the output image data generated by the output image generation unit on the display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013149369A JP2015023382A (en) | 2013-07-18 | 2013-07-18 | Information processing device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013149369A JP2015023382A (en) | 2013-07-18 | 2013-07-18 | Information processing device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015023382A true JP2015023382A (en) | 2015-02-02 |
Family
ID=52487504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013149369A Pending JP2015023382A (en) | 2013-07-18 | 2013-07-18 | Information processing device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015023382A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144664A (en) * | 2018-02-16 | 2019-08-29 | ヤフー株式会社 | Information display program, information display method, information display device, and distribution device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088728A (en) * | 2002-04-22 | 2004-03-18 | Nariyuki Motoi | Picture providing apparatus, method, and program thereof |
JP2005277989A (en) * | 2004-03-26 | 2005-10-06 | Oki Electric Ind Co Ltd | Communication terminal device and its image providing method |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
-
2013
- 2013-07-18 JP JP2013149369A patent/JP2015023382A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088728A (en) * | 2002-04-22 | 2004-03-18 | Nariyuki Motoi | Picture providing apparatus, method, and program thereof |
JP2005277989A (en) * | 2004-03-26 | 2005-10-06 | Oki Electric Ind Co Ltd | Communication terminal device and its image providing method |
JP2012138957A (en) * | 2012-04-03 | 2012-07-19 | Fujifilm Corp | Image processing device, image processing method, and imaging apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144664A (en) * | 2018-02-16 | 2019-08-29 | ヤフー株式会社 | Information display program, information display method, information display device, and distribution device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102251483B1 (en) | Electronic device and method for processing image | |
CN108898068B (en) | Method and device for processing face image and computer readable storage medium | |
CN110992493B (en) | Image processing method, device, electronic equipment and storage medium | |
KR102220443B1 (en) | Apparatas and method for using a depth information in an electronic device | |
CN108965757B (en) | Video recording method, device, terminal and storage medium | |
KR20190013308A (en) | Mobile terminal and method for controlling the same | |
CN109151044B (en) | Information pushing method and device, electronic equipment and storage medium | |
US20180144546A1 (en) | Method, device and terminal for processing live shows | |
CN112788359B (en) | Live broadcast processing method and device, electronic equipment and storage medium | |
KR20160127606A (en) | Mobile terminal and the control method thereof | |
CN110837300B (en) | Virtual interaction method and device, electronic equipment and storage medium | |
CN112581358A (en) | Training method of image processing model, image processing method and device | |
JP6305757B2 (en) | program | |
WO2020056694A1 (en) | Augmented reality communication method and electronic devices | |
CN111031394B (en) | Video production method, device, equipment and storage medium | |
KR20180041430A (en) | Mobile terminal and operating method thereof | |
JP2015023382A (en) | Information processing device, method, and program | |
KR20140147057A (en) | Wearable glass-type device and method of controlling the device | |
CN112399080A (en) | Video processing method, device, terminal and computer readable storage medium | |
KR20170071017A (en) | Mobile terminal and method for controlling the same | |
CN106385430B (en) | The management method and device of communication message | |
CN109660450B (en) | Automatic message reply method, device, terminal, server and storage medium | |
KR20150093519A (en) | Mobile terminal and method for controlling the same | |
CN114466100B (en) | Method, device and system for adapting accessory theme | |
CN114095600B (en) | Earphone theme changing method, smart phone and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171017 |