JP2011228913A - Image processing apparatus, reply image generation system and program - Google Patents
Image processing apparatus, reply image generation system and program Download PDFInfo
- Publication number
- JP2011228913A JP2011228913A JP2010096493A JP2010096493A JP2011228913A JP 2011228913 A JP2011228913 A JP 2011228913A JP 2010096493 A JP2010096493 A JP 2010096493A JP 2010096493 A JP2010096493 A JP 2010096493A JP 2011228913 A JP2011228913 A JP 2011228913A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- region
- terminal
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置、返信画像生成システム、及び、プログラムに関する。 The present invention relates to an image processing device, a reply image generation system, and a program.
例えば、特許文献1には、通信端末から送信された画像データを表示装置に表示させる表示制御方法であって、画像データを送信した通信端末の位置情報から推定したその通信端末のユーザの現在状況を画像データと共に表示装置に出力する表示制御方法が開示されている。
For example,
また、特許文献2には、携帯電話やパーソナルコンピュータから送信された画像データをDPFに表示させる表示制御方法であって、DPFの利用者に対し表示方法の設定操作を要求することなく、受信した設定情報に基づいて表示方法を設定すると共に、設定変更に伴って不足するデジタル写真データを自動的に補充する表示制御方法が開示されている。 Patent Document 2 discloses a display control method for displaying image data transmitted from a mobile phone or a personal computer on a DPF, which is received without requiring a DPF user to perform a display method setting operation. There has been disclosed a display control method for setting a display method based on setting information and automatically replenishing digital photo data that is deficient when the setting is changed.
特許文献1及び特許文献2に記載された技術は、所定の画像を面白みのある画像に加工できるものでは無かった。
The techniques described in
本発明は、上記点に鑑みてなされたものであり、所定の画像を面白みのある画像に加工する画像処理装置、返信画像生成システム、及び、プログラムを提供することを目的とする。 The present invention has been made in view of the above points, and an object thereof is to provide an image processing apparatus, a reply image generation system, and a program that process a predetermined image into an interesting image.
本発明の第1の観点に係る画像処理装置は、
第1画像を取得する第1画像取得手段と、
第2画像を取得し、取得した前記第2画像と、前記第1画像取得手段が取得した前記第1画像とを合成する画像合成手段と、を備え、
前記画像合成手段は、前記第1画像取得手段が取得した前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する。
An image processing apparatus according to a first aspect of the present invention includes:
First image acquisition means for acquiring a first image;
An image combining unit that acquires a second image and combines the acquired second image with the first image acquired by the first image acquiring unit;
The image synthesizing unit detects a first region satisfying a predetermined criterion in the first image acquired by the first image acquiring unit, and superimposes the second image on a region near the detected first region. Then, a third image obtained by synthesizing the first image and the second image is generated.
本発明の第2の観点に係る返信画像生成システムは、
第1の端末が第2の端末に送信する第1画像に基づいて、前記第1画像に対する返信画像を生成する返信画像生成システムであって、
前記第1画像を表示した前記第2の端末の表示面前方を撮影した撮影画像を取得し、取得した前記撮影画像に基づいて、所定の像を抽出し、抽出した前記所定の像を表す第2画像を生成する画像生成手段と、
前記第1画像と前記画像生成手段が生成した前記第2画像とを合成する画像合成手段と、を備え、
前記画像合成手段は、前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する。
The reply image generation system according to the second aspect of the present invention is:
A reply image generation system for generating a reply image for the first image based on a first image transmitted from a first terminal to a second terminal,
A photographed image obtained by photographing the front of the display surface of the second terminal displaying the first image is obtained, a predetermined image is extracted based on the obtained photographed image, and a first image representing the extracted prescribed image is obtained. Image generating means for generating two images;
Image synthesizing means for synthesizing the first image and the second image generated by the image generating means,
The image composition means detects a first region that satisfies a predetermined criterion in the first image, superimposes the second image on a region in the vicinity of the detected first region, and the first image and the second image A third image synthesized with the image is generated.
また、本発明の第3の観点に係るプログラムは、
コンピュータを、
第1画像を取得する第1画像取得手段、
第2画像を取得し、取得した前記第2画像と、前記第1画像取得手段が取得した前記第1画像とを合成する画像合成手段、として機能させ、
前記画像合成手段は、前記第1画像取得手段が取得した前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する。
A program according to the third aspect of the present invention is:
Computer
First image acquisition means for acquiring a first image;
Acquiring a second image, and causing the acquired second image to function as an image combining unit that combines the first image acquired by the first image acquiring unit;
The image synthesizing unit detects a first region satisfying a predetermined criterion in the first image acquired by the first image acquiring unit, and superimposes the second image on a region near the detected first region. Then, a third image obtained by synthesizing the first image and the second image is generated.
本発明に係る画像処理装置、返信画像生成システム、及び、プログラムによれば、所定の画像を面白みのある画像に加工することができる。 According to the image processing device, the reply image generation system, and the program according to the present invention, a predetermined image can be processed into an interesting image.
本発明に係る1実施形態について図面を参照して説明する。なお、本発明は下記の説明、図面の記載によって限定されるものではない。下記の説明及び図面の内容に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明は適宜省略されている。 An embodiment according to the present invention will be described with reference to the drawings. In addition, this invention is not limited by description of the following description and drawing. It goes without saying that changes (including deletion of components) can be added to the contents of the following description and drawings. Further, in the following description, in order to facilitate understanding of the present invention, descriptions of known technical matters are omitted as appropriate.
まず、図1を参照して、本実施形態に係る返信画像生成システム1の構成を説明する。返信画像生成システム1は、第1の端末100と、第2の端末200と、サーバ300と、を備える。返信画像生成システム1は、画像データを第1の端末100と第2の端末200とで送受信するシステムでもある。
First, the configuration of a reply
第1の端末100と第2の端末200とサーバ300とは、ネットワーク900に接続され、互いに通信可能になっている。なお、本実施形態では、返信画像生成システム1は、第1の端末100と第2の端末200とサーバ300とを1つずつ備えているが、返信画像生成システム1は、第1の端末100と第2の端末200とサーバ300とのうちの少なくとも1つを複数備えても良い。ネットワーク900は、例えばインターネットである。
The
第1の端末100及び第2の端末200は、本実施形態では、デジタルフォトフレームである。第1の端末100及び第2の端末200は、パーソナルコンピュータ、携帯電話等の他の装置であってもよい。第1の端末100と第2の端末200とは、サーバ300を介して、画像データ等のデータを送受信する。
In the present embodiment, the
サーバ300は、第1の端末100又は第2の端末200が送受信する画像データ等のデータを中継する。サーバ300は、所定のコンピュータによって構成される。
The
第1の端末100と第2の端末200とサーバ300とは、画像データを処理するが、画像データは処理中に適宜データ形式が変更されても良いものとする。
The
次に図2及び図3を参照して、第1の端末100の構成を説明する。
Next, the configuration of the
第1の端末100は、制御部110と、内部記憶部120と、操作部130と、表示部140と、通信部150と、I/F部160と、を備える。
The
操作部130は、例えば、タッチセンサ等の入力装置によって構成される。操作部130は、制御部110の制御のもと、ユーザからの操作入力に応じた操作信号を出力し、制御部110に供給する。制御部110は、供給された操作信号に応じて処理を行う。これによって、制御部110は、操作部130へのユーザの操作内容に応じた処理を行う。
The
表示部140は、例えば、表示パネルと表示コントローラとによって構成される。表示コントローラには、制御部110から画像データ等のデータが供給される。表示コントローラは、供給された画像データに基づいて表示パネルを駆動し、表示パネルに画像を表示させる。このようにして、制御部101は、表示部140に所望の画像を表示する。
The
なお、操作部130と表示部140とは、タッチパネル等によって構成されてもよい。この場合には、タッチパネルに内蔵された入力装置が操作部130を構成する。
Note that the
通信部150は、例えば、モデム等の適宜の通信装置によって構成される。通信部150は、有線又は無線で、ネットワーク900に接続される。制御部110は、通信部150及びネットワーク900を介して、データを送受信する。
The
I/F部160は、外部とのインターフェース(I/F)である。I/F部160は、例えば、メディアコントローラ等を備える読取書込装置によって構成される。制御部110は、I/F部160を介して記憶媒体190に対してデータを読み書きする。
The I /
記憶媒体190は、例えば、フラッシュメモリ等を備えるメモリカード等によって構成され、第1の端末100に取り付けられる。記憶媒体190は、画像データ等を記憶する。
The
制御部110は、画像送信部110aと表示制御部110bと画像受信部110cとを備える。制御部110(画像送信部110aと表示制御部110bと画像受信部110cとのそれぞれ)は、例えば、CPU(Central Processing Unit)111とRAM(Random Access Memory)112とから構成され、後述の画像送受信処理Aを行う。内部記憶部120は、例えば、フラッシュメモリ121から構成され、制御部110が使用するデータ等を適宜記憶する。
The
CPU111は、フラッシュメモリ121に記録されているプログラムに従い、さらに、フラッシュメモリ121に記録されているデータ等を用い、第1の端末100全体を制御し、制御部110が行う後述の画像送受信処理Aを行う。フラッシュメモリ121に記録されているプログラム、データ等は、一度、RAM(Random Access Memory)121に読み出されても良い。
The CPU 111 controls the entire
CPU111が行う処理の少なくとも一部は、各種専用回路によって実行されてもよい。つまり、制御部110の少なくとも一部を各種専用回路によって構成してもよい。
At least a part of the processing performed by the CPU 111 may be executed by various dedicated circuits. That is, at least a part of the
RAM112は、CPU111が使用するデータ、CPU111が生成したデータ、CPU111に供給されるデータ等を記憶する。
The
フラッシュメモリ121は、プログラム、及び、CPU111が使用する各種データ等を記憶している。内部記憶部120は、ROM(Read Only Memory)、ハードディスク等の他の記憶装置を備えても良く、この他の記憶装置が、プログラム、CPU111が使用する各種データ等を記憶してもよい。
The
内部記憶部120及び記憶媒体190は、制御部110が使用するデータを記憶する記憶部を構成し、制御部110は、この記憶部からデータを取得し、所定の処理を行うことになる。なお、記憶部は、第1の端末100がデータを読み書き出来るものであればよく、第1の端末100の外部にあってもよい。
The
次に図4及び図5を参照して、第2の端末200の構成を説明する。
Next, the configuration of the
第2の端末200は、第1の端末100の構成にさらに撮影部270を追加した構成である。第2の端末200には、記憶媒体290が取り付けられるが、記憶媒体290も記憶媒体190と同様のものを使用できる。
The
第2の端末200は、制御部210と、内部記憶部220と、操作部230と、表示部240と、通信部250と、I/F部260と、撮影部270と、を備える。
The
制御部210は、制御部110に対応する。制御部210は、画像送信部210aと画像生成部210bと画像受信部210cと表示制御部210dと撮影制御部210eとを備え、後述の画像送受信処理Bを行う。制御部210は、例えば、CPU211とRAM212とによって構成され、CPU211はフラッシュメモリ221に記録されたプログラムに従って後述の画像送受信処理Bを行う。制御部210についての他の説明は、制御部110についての説明と同様であるので、説明を省略する。
The
撮影部270は、撮像素子と、撮像レンズ群と、撮像駆動部と、AFE(Analog Front End)と、DSP(Digital Signal Processor)と、を含む。これらは、制御部110(撮影制御部210e)によって制御されて動作する。撮像部270は、第2の端末200の前方(表示部240の表示画面の法線方向であって、ユーザ側の方向)を撮影する。
The
撮像素子は、CCD(Charge Coupled Device:電荷結合素子)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のイメージセンサによって構成される。撮像素子は、制御部210の制御のもと、撮像レンズ群を介して入射する光による画像を取り込んで画素毎に光電変換し、光電変換により発生した画素毎の電荷に基づく信号を撮像信号としてAFEに供給する。
The imaging device is configured by an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. Under the control of the
撮像レンズ群は、フォーカスレンズ、ズームレンズ等のレンズ群からなる。撮像駆動部は、撮像レンズ群の駆動、撮像素子に入射する光量の制御、及び、撮像素子に光を当てる時間(撮像素子の受光素子が受光する時間の制御)の制御等を行う機構である。撮像レンズ群及び撮像駆動部は制御部210の制御のもとで動作し、撮像素子は撮像を行う。
The imaging lens group includes a lens group such as a focus lens and a zoom lens. The imaging drive unit is a mechanism that controls the driving of the imaging lens group, the control of the amount of light incident on the imaging device, the control of the time during which light is applied to the imaging device (the control of the time that the light receiving element of the imaging device receives light) . The imaging lens group and the imaging drive unit operate under the control of the
AFEは、制御部210の制御のもと、撮像素子から供給される撮像信号に所定の処理(以下、処理Aという。)を行い、撮像素子が撮像した撮像画像を表すデジタルデータ(元画像データ)を生成して出力する。処理Aは、OB(Optical Black)クランプ処理、CDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理、A/D(Analog/digital)処理等を含む処理である。
Under the control of the
DSPは、AFEから供給される元画像データに対して各種処理(以下、処理Bという)を行い、YUV(輝度・色差)形式等の画像データを生成する。処理Bは、輪郭強調、オートホワイトバランス、オートアイリス等の画質を向上させる処理を含む。これによって、撮像素子が撮像した撮像画像を表す画像データ、つまり、撮影部270が撮影した撮影画像データが、生成される。
The DSP performs various processes (hereinafter referred to as process B) on the original image data supplied from the AFE, and generates image data in a YUV (luminance / color difference) format or the like. The process B includes a process for improving the image quality, such as contour enhancement, auto white balance, and auto iris. Thus, image data representing a captured image captured by the image sensor, that is, captured image data captured by the capturing
撮像部270は、上記のような上記の構成によって、制御部210(撮影制御部210e)の制御のもと、撮像する方向にある人物及び背景等の撮像画像を取り込んでこの撮像画像を表す撮像信号を生成し、生成した撮像信号に基づいて、前記の撮像画像を表す元画像データを生成し、生成した元画像データに基づいて、撮影画像データを生成し、制御部210に供給する。なお、撮像部270は、第2の端末200の筐体に設けられたランプ等を有し、このランプは制御部210の制御のもと、点灯する。
With the above configuration, the
なお、DSPが行う処理は、制御部210(画像生成部210b)が行ってもよい。この場合、制御部210は、撮像部270(AFE)から画像元データを受け取り、受け取った画像元データに対して前記の処理Bと同様の処理を行うことによって画像データ(YUV形式等)を生成する。これによって、制御部210は、撮像部270が撮像した撮像画像を表す画像データを取得する。
Note that the processing performed by the DSP may be performed by the control unit 210 (
内部記憶部220と、操作部230と、表示部240と、通信部250と、I/F部260と、は、それぞれ、第1の端末100の、内部記憶部120と、操作部130と、表示部140と、通信部150と、I/F部160と、に対応し、それぞれ、略同様のものであるので、詳しい説明は省略する。
The
サーバ300は、制御部310と、内部記憶部320と、操作部330と、表示部340と、通信部350と、を備える。これらは、第1の端末100の各部と略同様のものである。内部記憶部320と、操作部330と、表示部340と、通信部350と、は、それぞれ、第1の端末100の、内部記憶部120と、操作部130と、表示部140と、通信部150と、に対応する。なお、操作部330と表示部340とは、サーバ300の管理用に使用されるものである。サーバ300は、操作部330と表示部340とを備えなくてもよい。
The
操作部330は、例えば、キーボード等の入力装置によって構成されてもよい。制御部310は、画像送信部310aと表示制御部310bと画像受信部310cとを備え、後述の画像送受信処理Cを行う。なお、制御部310は、例えば、CPU311とRAM312を備え、CPU311は、ハードディスク321に記録されたプログラムに従って、画像送信部310aと表示制御部310bと画像受信部310cとが行う処理である後述の画像送受信処理Cを行う。内部記憶部320は、例えば、ハードディスク321から構成され、制御部310が使用するデータ等を適宜記憶する。その他の説明は、第1の端末100における説明と同様であるで、詳しい説明を省略する。
The
次に返信画像生成システム1の動作(第1の端末100、第2の端末200、サーバ300の各動作)について説明する。返信画像生成システム1は、画像送受信処理を行う。
Next, operations of the reply image generation system 1 (operations of the
まず、画像送受信処理における第1処理(後述の第1画像を第1の端末100から第2の端末200に送信する処理)を図8を参照して説明する。この処理では、第1の端末100と第2の端末200とサーバ300とは、それぞれ、画像送受信処理A乃至Cにおける第1処理を行う。なお、第1の端末100は、例えば、第1ユーザが操作部130を操作して、第1処理を始める要求を行ったときに、画像送受信処理Aの第1処理を開始する。また、第2の端末200とサーバ300とは、画像データを受信するまで待機しているものとする。
First, a first process in the image transmission / reception process (a process of transmitting a first image described later from the
表示制御部110bは、画像送受信処理Aの第1処理を開始すると、記憶媒体190に記録された画像データが表す画像の一覧(例えば、画像のサムネイルの一覧)の画像を表示部140に表示する(ステップS101)。これによって、表示制御部110bは、第1ユーザに対して、送信する画像を指定するように促す。ここで、第1ユーザは、第1の端末100のユーザである。
When the first process of the image transmission / reception process A is started, the
次に、表示制御部110bは、画像が選択されたかを判別する(ステップS102)。第1ユーザが表示部140の一覧の画像を見ながら操作部130を操作して送信したい画像を一覧の中から選択すると、表示制御部110bには操作部130からこの選択に応じた操作信号が供給される。表示制御部110bは、この操作信号の供給によって画像が選択されたと判別する(ステップS102;YES)。このとき、表示制御部110bは、前記の操作信号によって特定される、第1ユーザに選択された画像を表す画像データをこれから送信する画像データとして特定する(ステップS103)。
Next, the
一方、表示制御部110bに操作部130から前記の操作信号が供給されない場合、表示制御部110bは画像が選択されていないと判別し(ステップS102;NO)、再度ステップS102の処理を行う。このようにして、表示制御部110bは、画像が選択されるまで待機する。
On the other hand, when the operation signal is not supplied from the
なお、第1ユーザは、人の顔が写った画像(ここでは、デジタル写真)を、これから送信する画像として選択するものとする。以下では、この画像とこの画像を表す画像データとを、それぞれ、第1画像と第1画像データと、とする。 It is assumed that the first user selects an image (here, a digital photograph) showing a human face as an image to be transmitted. Hereinafter, this image and image data representing this image are referred to as a first image and a first image data, respectively.
次に、表示制御部110bは、記憶媒体190に記録されたアドレスデータが特定する送信先の一覧の画像を表示部140に表示する(ステップS104)。これによって、表示制御部110bは、第1ユーザに対して、第1画像の送信先を指定するように促す。
Next, the
次に、表示制御部110bは、送信先が選択されたかを判別する(ステップS105)。第1ユーザが表示部140の一覧の画像を見ながら操作部130を操作して送信先を一覧の中から選択すると、表示制御部110bには操作部130からこの選択に応じた操作信号が供給される。表示制御部110bは、この操作信号の供給によって送信先が選択されたと判別する(ステップS105;YES)。このとき、表示制御部110bは、前記の操作信号によって特定される、第1ユーザに選択された送信先を特定するアドレスデータをこれから送信する送信先のアドレスデータとして特定する(ステップS106)。なお、送信先は、ユーザが操作部130を操作して直接入力したものであってもよい。また、ここでは、送信先として第2の端末200が指定されたものとする。
Next, the
一方、表示制御部110bに操作部130から前記の操作信号が供給されない場合、表示制御部110bは送信先が選択されていないと判別し(ステップS105;NO)、再度ステップS105の処理を行う。このようにして、表示制御部110bは、送信先が選択されるまで待機する。
On the other hand, when the operation signal is not supplied from the
表示制御部110bは、送信先のアドレスデータと送信する画像データとを特定すると(この特定は、例えば、RAM112に画像データを保持することによって行われる。)、送信指示を行うかを選択させる画像(例えば、「送信を行いますか?」との文字列と、「YES」のボタンと、「NO」のボタンと、を含む画像)を表示部140に表示し(ステップS107)、第1ユーザに第1画像を送信させるかを選択させる。そして、表示制御部110bは、送信指示がされたかを判別する(ステップS108)。
When the
第1ユーザは、表示部140に表示された、送信指示を行うかを選択させる画像を見て、操作部130を操作して送信指示を行うかを選択する。表示制御部110bには操作部130からこの選択に応じた操作信号が供給される。
The first user looks at the image displayed on the
第1ユーザが送信指示を行わない旨を操作部140を介して入力すると、表示制御部110bには、この操作に応じた操作信号(例えば、上記「NO」のボタンを選択したことを示す操作信号)が供給される。表示制御部110bは、この操作信号が供給されると、送信指示がされていないと判別し(ステップS108;NO)、再度ステップS101の処理を行う。これによって、画像の選択等が再度第1ユーザによって行われる。
When the first user inputs that the transmission instruction is not performed via the
第1ユーザが送信指示を行う旨を操作部140を介して入力すると、表示制御部110bには、この操作に応じた操作信号(例えば、上記「YES」のボタンを選択したことを示す操作信号)が供給される。表示制御部110bは、この操作信号が供給されると、送信指示がされたと判別する(ステップS108;YES)。
When the first user inputs a transmission instruction via the
表示制御部110bが操作指示されたと判別した場合(ステップS108;YES)、画像送信部110aは、表示制御部110bが前記で特定した画像データを、表示制御部110bが前記で特定したアドレスデータ(以下、送信先アドレスデータという。)と、自身のアドレスを示すアドレスデータ(第1の端末100のアドレスを示すアドレスデータであり、内部記憶部120が予め記憶しているものとする。また、このアドレスデータを以下では送信元アドレスデータ)と、とともに、通信部150及びネットワーク900を介してサーバ300に送信する(ステップS109)。
When it is determined that the
サーバ300の画像受信部310cは、通信部350を介して、第1の端末100から送信された画像データ、送信元アドレスデータ、及び、送信先アドレスデータを受信する(ステップS110)。画像受信部310cは、受信した画像データを内部記憶部320に記録する(ステップS111)。このとき、画像受信部310cは、画像データに画像ID(画像データを識別するための情報、例えば、連番の番号等)を付し、画像IDを示すデータにそれぞれ対応付けて、受信した画像データ、送信先アドレスデータ、送信元アドレスデータを内部記憶部320に記録する。なお、画像データは、画像データの記録場所(内部記憶部320内の記録場所)を特定するようなデータを介して画像IDと対応付けられて記録される。つまり、画像データの記録場所を示すデータが画像IDと対応付けられて記録される。画像データは、直接画像IDと対応付けられて記録されてもよい。
The
図9に内部記憶部320に記録された、画像IDのデータと、画像データの記録場所を示すデータと、送信先アドレスデータと、送信元アドレスデータとについてのデータ構造の一例を示す。内部記憶部320は、前記のデータを含むデータテーブル(以下、画像送受信用データテーブルという。)を記憶する。図9は、このデータテーブルのデータ構造である。このデータテーブルは、画像データを識別する「画像ID」と、画像データの記録場所を示す「画像データの記録場所」と、画像を送信する端末(ここでは、第2の端末200等)を特定する「送信先アドレス」と、画像を送信した端末(ここでは、第1の端末100等)を特定する「送信元アドレス」と、のそれぞれを示すデータ(互いに対応付けられる。)を含んで構成されるデータ構造になっている。
FIG. 9 shows an example of the data structure of the image ID data, the data indicating the recording location of the image data, the transmission destination address data, and the transmission source address data recorded in the
画像受信部310cが、第1画像データ等を内部記憶部320に記録すると、画像送信部310aは、通信部350及びネットワーク900を介して、この第1画像データに対応する送信先アドレスデータ(第1画像データとともに画像受信部310aが受信した送信先アドレスデータ)が示すアドレスの端末(ここでは、第2端末200)に、この第1画像データと、この第1画像データとともに画像受信部310cが受信した送信元アドレスデータと、画像IDを示すデータと、を送信する(ステップS112)。
When the
第2の端末200の画像受信部210cは通信部350を介して、サーバ200から送信された第1画像データと送信元アドレスデータと画像IDを示すデータとを受信する(ステップS113)。画像受信部210cが前記のデータを受信すると、表示制御部210dは、例えば、表示部240に第1画像データを受信したことを示すメールマーク等を含む画像を表示し、第1画像データを受信したことを第2ユーザに報知する(ステップS114)。なお、画像受信部210cは、送信元アドレスデータと第1画像データと画像IDを示すデータとを互いに対応付けて内部記憶部220に記録する。また、第2ユーザとは、第2の端末200のユーザである。
The image receiving unit 210c of the
次に、画像送受信処理における第2処理(後述の第3画像を第1の端末100に返信する処理)を図10を参照して説明する。この処理では、第1の端末100と第2の端末200とサーバ300とは、それぞれ、画像送受信処理A乃至Cにおける第2処理を行う。なお、第2の端末200は、第1ユーザが操作部230を操作して、第2処理を始める要求(例えば、受信している複数の画像データが表す複数の画像のうちの1つを表示部240に表示させる要求)を行ったときに、画像送受信処理Bの第2処理を開始する。また、第1の端末100とサーバ300とは、画像送受信処理A及びCの第2処理を開始しており、画像データを受信するまで待機しているものとする。
Next, a second process in the image transmission / reception process (a process of returning a third image to be described later to the first terminal 100) will be described with reference to FIG. In this process, the
まず、表示制御部210dは、第1画像データ(例えば、ユーザに指定された第1画像データ)を、例えば、内部記憶部220から取得し、取得した第1画像データを表示部240に供給して、第1画像データが表す第1画像を表示部240に表示する(ステップS201)。
First, the
画像生成部210bは、表示制御部210dが第1画像を表示部240に表示すると、撮影制御部210eは、撮影部270を制御して表示部240の前方の撮影する(ステップS202)。なお、撮影制御部210eは、撮影を開始すると、例えば、撮像部270が備える前記のランプ等を点灯させ、撮影が開始していることを、第2ユーザに報知する。
When the
なお、撮影は、所定の期間(例えば、30秒)行われる。また、撮影制御部210eは、静止画像を所定の時間間隔(例えば、1秒ごと)で撮影することによって、撮影を行う。撮影制御部210eは、この撮影によって順次供給される撮影画像データ(前記の静止画像を表す画像データ)を内部記憶部220に順次記録していく。
Note that photographing is performed for a predetermined period (for example, 30 seconds). Further, the
撮影制御部210eは、順次供給される撮影画像データを表示部240に供給し、この撮像画像データが表す静止画像を順次表示部240の表示画面の所定の表示領域(例えば、表示画面における向かって右上隅)に表示してもよい。これによって、第2ユーザは、後述の自分の動作を画面上で確認できる。また、後述の画像生成部210bは、後述の手の領域の検出を、リアルタイムで行い、手の領域が検出した場合に、撮影制御部210eが所定のランプを点灯することによって、第2ユーザに手の領域が検出されたことをフィードバックしてもよい。
The
上記の撮影の間、表示部240の前方にいる第2ユーザは表示部240が表示する第1画像を見て、表示部240の前で、手で所定のジェスチャーを行う。このジェスチャーとは、ユーザが行う手振りや手真似であって、例えば、「拍手」、「なでる」、「指を指す」、「手を振る」、「包み込む」等の動作がある。また、第2ユーザは、前記のジェスチャーを第1画像に写った所望の顔に対して行う。また、第2ユーザは、いずれか一の動作のみを行うものとする。撮影制御部210eは、撮影部270を用いて、前記の手のジェスチャーを撮影することになる。
During the above photographing, the second user in front of the
画像生成部210bは、撮影制御部210eが前記の所定の期間撮影を行うと、つまり、撮影を終了すると、手の領域を表す第2画像を生成する(ステップS203)。画像生成部210bは、撮影制御部210eが撮影した撮影画像(内部記憶部220に記録された撮影画像データ)に基づいて第2画像を生成する。
When the
例えば、画像生成部210bは、撮影画像を画像解析し、撮影画像について、第2ユーザの手の領域とそれ以外の領域とに分けて手(第2ユーザの手)の領域を検出する。この手の領域の検出は、手のジェスチャーで家電等を操作するための画像認識技術などが使える。この手の領域の検出は、例えば、手のテンプレート画像を用いたテンプレートマッチング等によって行われる。テンプレート画像のデータは、内部記憶部220に予め記憶されるものとする。また、このテンプレート画像は、頭をなでるときの手の画像(上記「なでる」のジェスチャーに対応)、指を指すときの手の画像(上記「指を指す」のジェスチャーに対応)、拍手をするときの手の画像(上記「拍手」のジェスチャーに対応)、手を振るときの手の画像(上記「手を振る」のジェスチャーに対応)、顔を包み込むときの手の画像(上記「包み込む」のジェスチャーに対応)等、第2ユーザが行うであろう手のジェスチャーに対応した画像とする。一のテンプレート画像で、手の領域が検出出来なかった場合には、順次、他のテンプレート画像が使用される。そして、全てのテンプレート画像について、手の領域を検出出来なかった場合には、その撮影画像では手の領域が検出されないことになる。
For example, the
画像生成部210bは、撮影画像について、手の領域を複数検出した場合には、その中で、例えば、一番大きい手の領域を検出する。この手は、撮影部270に近い位置にあると考えられ、第2ユーザの手である可能性が高いからである。
When a plurality of hand regions are detected in the captured image, the
画像生成部210bは、手の領域を検出すると、この手の領域と、それ以外の領域と、に分け、手の領域のみを抽出した画像を生成する。
When detecting the hand region, the
画像生成部210bは、前記の画像を生成すると、この画像を表裏反転(左右反転)させる。撮影部270は、表示部240の前方を撮影しているので、つまり、手を表示部240から撮影しているため、第2ユーザが見る手は、実際に撮影された手と表裏が逆になるからである。次に、反転させた画像を黒く塗りつぶして影絵のような画像(手領域画像)に変換する。
When the
なお、画像生成部210bは、上記の影絵内に、所定の線を入れることによって、指等を表現した画像を手領域画像としてもよい。また、手領域画像は、当然、黒く塗りつぶされたものでなくてもよい。
Note that the
上記のような方法で生成された画像の例を、図11を参照して説明する。図11のように、この手領域画像30は、例えば、手の領域が黒く塗りつぶされた、例えば、ビットマップで表される影絵のような画像になる。なお、図11における矩形は、元の撮影画像の外縁を示す。なお、この手領域画像を表す手領域画像データには、適宜、元の撮影画像における手領域の位置(手領域の中心の位置)、方向(手領域の長尺方向の方向)等を示す位置方向データが含まれるものとする。つまり、この手領域画像データによれば、手領域画像の、元の撮影画像における位置等が分かることなる。
An example of an image generated by the above method will be described with reference to FIG. As shown in FIG. 11, the
なお、上記で説明した一連の処理は、各撮影画像それぞれについて時系列順に行われる。なお、上記のテンプレートマッチングでは、最初に手の領域を検出できたときに使用されたテンプレート画像が、その後の撮影画像におけるテンプレートマッチングで使用される。手領域画像の集合によって、第2画像が構成される。つまり、上記一連の処理によって、人の手の像を含む画像である第2画像であって、複数の手領域画像からなる第2画像が生成されることになる。第2画像を表す画像データ(以下、第2画像データという)は、例えば、第2画像を構成する各手領域画像(時系列順に並ぶ)をそれぞれ表す複数の手領域画像データの集合である。 The series of processing described above is performed in time series for each captured image. In the template matching described above, the template image used when the hand region can be detected for the first time is used for template matching in the subsequent captured image. A second image is constituted by a set of hand region images. That is, by the series of processes described above, a second image that is an image including an image of a human hand and includes a plurality of hand region images is generated. The image data representing the second image (hereinafter referred to as second image data) is, for example, a set of a plurality of hand region image data representing each hand region image (arranged in time series) constituting the second image.
画像生成部210bが第2画像を生成すると、つまり、第2画像データを生成すると、第2画像を構成する各静止画像の手がどのようなジェスチャーを行っている手であるか(ジェスチャーの種別)を特定するデータ(手種別データ)を生成する。これは、例えば、上記のテンプレートマッチングにおいて、手の領域を検出できたときに使用されたテンプレート画像の種別によって特定できる。
When the
画像送信部210aは、画像生成部210bが生成した第2画像データを、現在表示部240に表示されている第1画像の画像IDを特定するデータ(例えば、内部記憶部220に記録されており、これを画像送信部210aが取得する)と、手種別データと、ともにネットワーク900及び通信部250を介してサーバ300に送信する(ステップS204)。このとき、画像送信部210aは、内部記憶部220に前記の画像IDを特定するデータに対応付けられて記録されている、第2画像データとともに、送信元アドレスデータと第2の端末200自身に設定されているアドレスデータ(前記の送信先アドレスデータ)とを送信する。
The
サーバ300の画像受信部310cは、通信部350を介して、画像送信部210aが送信した、第2画像データと、手種別データと、画像IDを特定するデータと、送信元アドレスデータと、送信先アドレスデータと、を受信する(ステップS205)。画像受信部310cがデータを受信すると、画像合成310bは、内部記憶部320が記憶する画像送受信用データテーブルを参照し、画像受信部310cが受信した、画像IDを特定するデータに基づいて、このデータに対応する第1画像データを特定し、この第1画像データを内部記憶部320から取得し、取得した第1画像データが表す第1画像と画像受信部310cが受信した第2画像データが表す第2画像とを合成し、第3画像を生成する(ステップS206)。
The
ここで、ステップS206の処理の詳細を図12を参照して説明する。 Details of the process in step S206 will be described with reference to FIG.
画像合成部310bは、取得した第1画像データに基づいて、顔認識を行う(ステップS301)。顔認識は、例えば、顔の画像のテンプレート画像を用いたテンプレートマッチング等によって行われる。 The image composition unit 310b performs face recognition based on the acquired first image data (step S301). Face recognition is performed by, for example, template matching using a template image of a face image.
画像合成部310bは、認識した顔を基準顔として特定する(ステップS302)。特に、画像合成部310bは、認識した顔が1つである場合には、その顔を基準顔(後述の画像の合成における対象となる顔)として特定する。また、画像合成部310bは、認識した顔が複数ある場合には、大きさが最も大きい顔を基準画像として特定する。最も大きい顔が、第1画像におけるメインの被写体であり、第2ユーザ等が注目して見る顔であると考えられるからである。例えば、図13(a)のように、認識した顔が複数ある場合には、最も大きい顔が基準顔として特定される。図13(a)では、点線で囲まれた顔が基準顔になる。このような顔は、第2ユーザがジェスチャーを行う対象(例えば、頭をなでる対象の顔)である可能性が高いと考えられる。このため、この方法では基準顔の精度が良くなる。また、このような方法によれば、簡単に基準顔を特定できる。 The image composition unit 310b identifies the recognized face as a reference face (step S302). In particular, when there is one recognized face, the image composition unit 310b identifies that face as a reference face (a face to be used in image composition described later). In addition, when there are a plurality of recognized faces, the image composition unit 310b specifies the face having the largest size as the reference image. This is because it is considered that the largest face is the main subject in the first image and the face that the second user or the like sees. For example, as shown in FIG. 13A, when there are a plurality of recognized faces, the largest face is specified as the reference face. In FIG. 13A, a face surrounded by a dotted line is a reference face. Such a face is considered to be highly likely to be an object on which the second user performs a gesture (for example, a face of an object stroking the head). For this reason, this method improves the accuracy of the reference face. Further, according to such a method, the reference face can be easily specified.
なお、認識した顔が複数ある場合には、例えば、画像合成部310bは、予め登録されている顔(例えば、第2ユーザ又は第1ユーザ本人や、友人、家族、知人等の顔)を基準顔として特定してもよい。この場合には、画像IDのデータ毎に、所定の人の顔のテンプレート画像の画像データが記録されており、画像合成部310bは、画像ID毎に、対応する画像データが表すテンプレート画像で、テンプレートマッチングを行う。このような顔は、第2ユーザがジェスチャーを行う対象である可能性が高いと考えられる。このため、この方法では基準顔の特定の精度が良くなる。 When there are a plurality of recognized faces, for example, the image composition unit 310b uses a pre-registered face (for example, a face of a second user or the first user, a face of a friend, family, acquaintance, etc.) as a reference. It may be specified as a face. In this case, image data of a template image of a predetermined person's face is recorded for each image ID data, and the image composition unit 310b is a template image represented by corresponding image data for each image ID. Perform template matching. It is considered that such a face is likely to be a target for the second user to perform a gesture. For this reason, this method improves the accuracy of specifying the reference face.
また、認識した顔が複数ある場合には、例えば、画像合成部310bは、手領域画像データに含まれる、撮影画像における位置及び方向等を特定するデータに基づいて、第1画像に、前記の位置及び方向で、手領域画像を重ねて(撮影画像の画像サイズと第1画像の画像サイズとは同じであるものとする。)、この手領域画像の最も近傍にある顔を基準顔として特定してもよいし、例えば、手領域画像が、指で指したときの手であれば、手の領域において先細りしている部分の延長線上にあって、この部分に最も近い顔を基準顔として特定してもよい。また、例えば、手領域画像が、包み込む手であれば、二つの手の領域の間にある顔を基準顔として特定してもよい。これらのような、手領域画像の手の領域の形状(ジェスチャーの種別)に合わせて基準顔を特定する方法で特定される顔は、第2ユーザがジェスチャーを行う対象(例えば、頭をなでる対象の顔、指で指す対象の顔、手で包み込む対象の顔)である可能性が高いと考えられる。このため、これらの方法では基準顔の特定の精度が良くなる。なお、手の領域の形状(ジェスチャーの種別)は、手種別データによって特定される。 In addition, when there are a plurality of recognized faces, for example, the image composition unit 310b adds, to the first image, the first image based on data specifying the position and direction in the captured image included in the hand region image data. Overlay the hand area image in the position and direction (assuming that the image size of the captured image is the same as the image size of the first image), and specify the face closest to this hand area image as the reference face For example, if the hand area image is a hand when pointing with a finger, the face closest to this part on the extension line of the tapered part in the hand area is used as the reference face. You may specify. Further, for example, if the hand region image is an enveloping hand, the face between the two hand regions may be specified as the reference face. The face specified by the method of specifying the reference face according to the shape of the hand area (type of gesture) of the hand area image is an object that the second user performs a gesture (for example, an object that strokes the head). The face of the subject pointed to by the finger, the face of the subject to be wrapped with the hand). For this reason, in these methods, the accuracy of specifying the reference face is improved. The shape of the hand region (the type of gesture) is specified by the hand type data.
また、認識した顔が複数ある場合には、例えば、画像合成部310bは、顔が正面を向いているものを基準顔としたり、第1画像の中央領域にある顔を基準顔としたりしてもよい。いずれの場合であっても、これらの方法で特定される顔は、第2ユーザがジェスチャーを行う対象である可能性が高いと考えられる。このため、これらの方法では基準顔の特定の精度が良くなる。 In addition, when there are a plurality of recognized faces, for example, the image composition unit 310b sets the face facing the front as the reference face, or sets the face in the center area of the first image as the reference face. Also good. In any case, it is considered that the face identified by these methods is highly likely to be a target for the second user to perform a gesture. For this reason, in these methods, the accuracy of specifying the reference face is improved.
次に、画像合成部310bは、第1画像において、基準顔として特定した顔と同程度の大きさ顔の領域(両者の面積の差分が閾値以下の領域)を、第2画像を重畳させるべきでない顔領域として特定する(ステップS303)。このような顔も、基準顔と同様に、第2ユーザ等にとって重要な人の顔であり、後述のように第2画像を所定以上の面積で重畳させると、重要な人の顔が隠れてしまうからである。例えば、図13(b)のように、基準顔11又は13(点線内の顔)と同様の大きさの顔12又は14が顔領域(点線内の顔)として特定される。 Next, the image compositing unit 310b should superimpose the second image on a face area (area where the difference in area between the two is equal to or less than a threshold) in the first image that is the same size as the face specified as the reference face. Is identified as a non-face region (step S303). Like the reference face, such a face is also an important person's face for the second user or the like. If the second image is overlapped with a predetermined area or more as described later, the important person's face is hidden. Because it ends up. For example, as shown in FIG. 13B, a face 12 or 14 having the same size as the reference face 11 or 13 (face within a dotted line) is specified as a face region (face within a dotted line).
なお、ここでの顔領域の特定に、上記の基準顔の特定で用いられた方法(特に、ジェスチャーの種別に合わせて基準顔を特定する方法以外の方法)が用いられてもよい。 Note that the method used for specifying the reference face (in particular, a method other than the method for specifying the reference face in accordance with the type of gesture) may be used for specifying the face area here.
また、このステップS303は、顔が複数認識された場合に行われる処理であり、顔が1つのみ認識された場合には、画像合成部310bは、この処理をスキップする。また、画像合成部310bは、基準顔以外の顔について、基準顔として特定した顔と同程度の大きさのものが無い場合についても、次の処理に進む。 Further, this step S303 is a process performed when a plurality of faces are recognized, and when only one face is recognized, the image composition unit 310b skips this process. Further, the image composition unit 310b proceeds to the next process even when there is no face other than the reference face having the same size as the face specified as the reference face.
次に、画像合成部310bは、第2画像を第1画像に重畳(合成)する処理を行うが、その前に第2画像を重畳する、第1画像における位置及び第2画像の大きさを決定する処理を行う(ステップS304)。 Next, the image composition unit 310b performs processing for superimposing (combining) the second image on the first image, but before that, the position in the first image and the size of the second image on which the second image is superimposed are determined. Processing to determine is performed (step S304).
この処理を、図14を参照して詳細に説明する。 This process will be described in detail with reference to FIG.
まず、画像合成部310bは、第1画像における、基準顔の像の長尺方向における長さ(例えば基準顔の像を囲む長方形の長尺方向の長さ)を算出する(ステップS401)。また、画像合成部310bは、第2画像が含む手領域画像の長尺方向における長さの平均(例えば、手領域画像を囲む長方形の長尺方向の長さの平均)を算出する(ステップS402)。なお、手領域画像の手が握った状態であっても。この画像の長尺方向の長さを算出する。 First, the image composition unit 310b calculates the length of the reference face image in the long direction (for example, the length in the long direction of the rectangle surrounding the reference face image) in the first image (step S401). Further, the image composition unit 310b calculates the average length in the long direction of the hand region image included in the second image (for example, the average length in the long direction of the rectangle surrounding the hand region image) (step S402). ). Even if the hand of the hand region image is held. The length of this image in the longitudinal direction is calculated.
次に、画像合成部310bは、サイズ係数を求める(ステップS403)。画像合成部310bは、前記で算出した2つの値から、サイズ係数=A×(基準顔の像の長尺方向における長さ)/(手領域画像を囲む長方形の長尺方向の長さの平均)を求める。Aは所定の定数であって、基準顔の像の長尺方向における長さを手領域画像を囲む長方形の長尺方向の長さの平均の何倍にするかによって予め設定しておく。 Next, the image composition unit 310b obtains a size coefficient (step S403). From the two values calculated above, the image composition unit 310b calculates the size coefficient = A × (length of the reference face image in the longitudinal direction) / (average length in the longitudinal direction of the rectangle surrounding the hand region image). ) A is a predetermined constant, and is set in advance according to how many times the length of the reference face image in the longitudinal direction is the average of the length in the longitudinal direction of the rectangle surrounding the hand region image.
画像合成部310bは、第2画像に含まれる各手領域画像を、手領域画像の大きさ(例えば縦及び横の寸法)にサイズ係数を乗じて、サイズ変更する(ステップS404)。これにより、手領域画像の長さの平均は、基準顔のA倍になる。 The image composition unit 310b resizes each hand area image included in the second image by multiplying the size (for example, vertical and horizontal dimensions) of the hand area image by a size coefficient (step S404). As a result, the average length of the hand region image is A times that of the reference face.
次に、画像合成部310bは、サイズ変更後の各手領域画像を、中心を同じにして重ね合わせ、各手領域画像がすべて入る集合領域(例えば、各手領域画像を重ね合わせた和集合の領域)を求め、求めた集合領域を第1画像に重畳させる(ステップS405)。このときの第1画像上の位置(集合領域の中心位置)は、例えば、手種別データが特定するジェスチャーの種別に応じて特定される。 Next, the image compositing unit 310b superimposes the resized hand region images with the same center, and collects all the hand region images (for example, a sum set obtained by superimposing the hand region images). Region) is obtained, and the obtained aggregate region is superimposed on the first image (step S405). At this time, the position on the first image (the center position of the gathering area) is specified according to the type of gesture specified by the hand type data, for example.
例えば、上記「なでる」のジェスチャーの場合、基準顔の上に手が位置するのが普通なので、基準顔の中心位置よりも上かつ第1の距離の位置を集合領域の中心位置とする。 For example, in the case of the “stroking” gesture, since the hand is usually positioned on the reference face, the position above the center position of the reference face and at the first distance is set as the center position of the collection area.
例えば、上記「指を指す」のジェスチャーの場合、指が顔を指すのが普通なので、基準顔の中心位置から、前記集合領域における先細りしている方向と反対側の方向に第2の距離ずらした位置を集合領域の中心位置とする。 For example, in the case of the “pointing finger” gesture, since the finger usually points to the face, the second position is shifted from the center position of the reference face in a direction opposite to the tapering direction in the gathering region. This position is set as the center position of the collection area.
例えば、上記「拍手」のジェスチャーの場合、両手が基準顔に重ならなければよいので、基準顔の中心位置から任意の方向に第3の距離ずらした位置を集合領域の中心位置とする。 For example, in the case of the above “applause” gesture, both hands do not have to overlap the reference face. Therefore, a position shifted by a third distance from the center position of the reference face in an arbitrary direction is set as the center position of the collection area.
例えば、上記「手を振る」のジェスチャーの場合、両手が基準顔に重ならなければよいので、基準顔の中心位置から任意の方向に第4の距離ずらした位置を集合領域の中心位置とする。 For example, in the case of the “waving hand” gesture, both hands do not have to overlap the reference face. Therefore, a position shifted by a fourth distance from the center position of the reference face in an arbitrary direction is set as the center position of the collection area. .
例えば、上記「包み込む」のジェスチャーの場合、両手が基準顔を包むようにするので、基準顔の中心位置から左右方向にそれぞれ第5の距離ずらした位置を集合領域の両手の中心位置とする。 For example, in the case of the “envelop” gesture, both hands wrap the reference face, so the positions shifted by the fifth distance in the left-right direction from the center position of the reference face are set as the center positions of both hands of the collective region.
次に、画像合成部310bは、重畳した集合領域が前記で特定した、基準顔及び第2画像を重畳させるべきでない顔領域に所定の面積以上重なるかを判別し(ステップS406)、所定の面積以上重なっていない場合には(ステップS406;NO)、ステップS408の処理に進む。一方、重畳した集合領域が所定の面積以上重なる場合には(ステップS406;YES)、最小の距離で所定の面積以上重ならない位置に移動させる(ステップS407)。画像生成部310bは、ステップS407の処理において、例えば、集合領域を第1画像において、元の位置から上下左右に1画素、2画素、3画素・・・というように、ずらしていく。そして、例えば、最初に集合領域が基準顔及び第2画像を重畳させるべきでない顔領域第2画像を重畳させるべきでない顔領域に所定の面積以上重ならなくなった位置を最小の距離で重ならない位置とし、集合領域を移動させる。そして、第1画像における、この集合領域の中心位置を特定しておく。なお、集合領域が両手分の二つの離れた領域からなる場合には、適宜、両者について独立して移動させる。 Next, the image composition unit 310b determines whether or not the overlapped aggregate region overlaps the specified face and the face region that should not be superimposed with the second image (step S406). If there is no overlap (step S406; NO), the process proceeds to step S408. On the other hand, when the overlapped aggregate region overlaps with a predetermined area or more (step S406; YES), it is moved to a position where it does not overlap with the predetermined area at the minimum distance (step S407). In the process of step S407, for example, the image generation unit 310b shifts the collection area from the original position vertically, horizontally, 1 pixel, 2 pixels, 3 pixels,... In the first image. And, for example, a position where the set area does not overlap with the reference area and the face area where the second image should not be superimposed on the face area where the second image should not overlap with the minimum area at the minimum distance. And move the collection area. Then, the center position of the collective region in the first image is specified in advance. If the gathering area is composed of two separate areas for both hands, the two are moved independently as appropriate.
次に、画像合成部310bは、第1画像に重畳している集合領域が第1画像の外側に、はみ出していないかを判別し(ステップS408)、はみ出していないと判別すると(ステップS408;NO)、ステップS305の処理を行う。画像合成部310bは、はみ出していると判別した場合(ステップS408;YES)、集合領域を縮小して、最大のサイズで第1画像に納まるような、縮小率(左右の縮小率は同じにする。)を特定する。なお、画像合成部310bは、縮小率を徐々に大きくして、集合領域を順次縮小し、最初に、縮小後の集合領域が第1画像をはみ出さない縮小率を前記の縮小率として特定する。なお、画像生成部310bは、集合領域を縮小する際に、基準顔側に近い所定の1点を中心にして縮小をしていく。このため、縮小後の集合領域の中心位置は縮小前に比べて変化する。画像生成部310bは、この中心位置も特定する。上記のようにして、画像生成部310bは、縮小後の集合領域が第1画像をはみ出さない縮小率を前記の縮小率と特定するとともに、第1画像における集合領域の中心の位置も特定する(ステップS409)。画像生成部310bは、その後、ステップS305の処理を行う。 Next, the image composition unit 310b determines whether or not the collective region superimposed on the first image protrudes outside the first image (step S408), and determines that it does not protrude (step S408; NO). ), The process of step S305 is performed. When it is determined that the image composition unit 310b has protruded (step S408; YES), the reduction ratio (the left and right reduction ratios are the same) is reduced so that the aggregate area is reduced and fits in the first image with the maximum size. .) The image composition unit 310b gradually increases the reduction ratio to sequentially reduce the collection area, and first specifies the reduction ratio at which the reduced collection area does not protrude the first image as the reduction ratio. . Note that the image generation unit 310b performs reduction around a predetermined point close to the reference face side when reducing the collective region. For this reason, the center position of the aggregated area after the reduction changes compared with that before the reduction. The image generation unit 310b also specifies the center position. As described above, the image generation unit 310b specifies the reduction ratio at which the reduced aggregate area does not protrude from the first image as the reduction ratio, and also specifies the position of the center of the aggregate area in the first image. (Step S409). Thereafter, the image generation unit 310b performs the process of step S305.
上記集合領域と、基準顔との関係の例について、図15乃至図18を参照して説明する。なお、各集合領域は、便宜上矩形等の単純な図形で模式化されている。また、顔が1つのとき(基準顔が1つで)、 An example of the relationship between the collective area and the reference face will be described with reference to FIGS. 15 to 18. Each set area is schematically represented by a simple figure such as a rectangle for convenience. Also, when there is one face (one reference face)
図15は、「なでる」のジェスチャーの場合の図である。(a)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させるが(下側の図の点線矩形参照)、移動後の集合領域は第1画像を、はみ出しているので、縮小されている。(b)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させる(下側の図参照)。(b)では、基準顔が小さく、それに伴って集合領域も小さくなっている。このため、移動後の集合領域は第1画像を、はみ出していない。 FIG. 15 is a diagram in the case of the “stroking” gesture. As in (a), when the collection area (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collection area (see the dotted rectangle in the lower diagram), but after the movement The gathering area is reduced because it protrudes from the first image. As shown in (b), when the collective region (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collective region (see the lower diagram). In (b), the reference face is small and the gathering area is also small accordingly. For this reason, the collective area after the movement does not protrude from the first image.
図16は、「指を指す」のジェスチャーの場合の図である。(a)のように、集合領域(黒の多角形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させるが(下側の図の多角形参照)、移動後の集合領域は第1画像を、はみ出しているので、縮小されている。(b)のように、集合領域(黒の多角形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させる(下側の図参照)。(b)では、基準顔が小さく、それに伴って集合領域も小さくなっている。このため、移動後の集合領域は第1画像を、はみ出していない。 FIG. 16 is a diagram in the case of the gesture “pointing finger”. As in (a), when the set area (black polygonal portion) overlaps the reference face, the image composition unit 310b moves the set area (see the polygon in the lower diagram), but after the move The gathering area is reduced because it protrudes from the first image. As shown in (b), when the set area (black polygonal portion) overlaps the reference face, the image composition unit 310b moves the set area (see the lower diagram). In (b), the reference face is small and the gathering area is also small accordingly. For this reason, the collective area after the movement does not protrude from the first image.
図17は、「拍手」又は「手を振る」(両手で手を振る)のジェスチャーの場合の図である。(a)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させるが(下側の図の点線矩形参照)、移動後の集合領域は第1画像を、はみ出しているので、縮小されている。(b)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させる(下側の図参照)。(b)では、基準顔が小さく、それに伴って集合領域も小さくなっている。このため、移動後の集合領域は第1画像を、はみ出していない。なお、この時は、両手を含めて一の集合領域としている。 FIG. 17 is a diagram in the case of a gesture of “applause” or “waving hands” (waving hands with both hands). As in (a), when the collection area (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collection area (see the dotted rectangle in the lower diagram), but after the movement The gathering area is reduced because it protrudes from the first image. As shown in (b), when the collective region (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collective region (see the lower diagram). In (b), the reference face is small and the gathering area is also small accordingly. For this reason, the collective area after the movement does not protrude from the first image. Note that at this time, a single gathering area including both hands is used.
図18は、「包み込む」のジェスチャーの場合の図である。(a)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させる(下側の図参照)。(b)のように、集合領域(黒の矩形部分)は基準顔に重なっている場合、画像合成部310bは、集合領域を移動させる(下側の図参照)。(a)及び(b)両者では、移動後の集合領域は第1画像を、はみ出していない。なお、このようなジェスチャーの場合、集合領域は互いに離間した二つの領域を含み、画像合成部310bは、各領域について、移動、縮小等を行う。 FIG. 18 is a diagram in the case of the gesture of “wrapping”. As in (a), when the collective region (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collective region (see the lower diagram). As shown in (b), when the collective region (black rectangular portion) overlaps the reference face, the image composition unit 310b moves the collective region (see the lower diagram). In both (a) and (b), the gathered area after the movement does not protrude the first image. In the case of such a gesture, the collective region includes two regions that are separated from each other, and the image composition unit 310b performs movement, reduction, and the like for each region.
なお、上記の画像、領域の移動、縮小等は、例えば、各画素についての座標変換によって行われる。 Note that the above-described movement, reduction, and the like of the image and area are performed by, for example, coordinate conversion for each pixel.
次に画像合成部310bは、第2画像に第1画像を合成し、第3画像を生成する(ステップS305)。画像合成部310bは、第1画像データと第2画像データとに基づいて第3画像を生成する。例えば、画像合成部310bは、第2画像データが表す各手領域画像を、それぞれ、第1画像に重畳させて、複数の第3画像を生成する。つまり、ここで生成される第3画像の数は、手領域画像の数と同数になる。画像合成部310bは、ステップS404で生成された、サイズ係数倍(縮小又は拡大)された各手領域画像を第1画像に重畳する。また、各手領域画像の中心位置が、前記ステップS405、ステップS407及びステップS409で特定された、集合領域の中心位置になるように、各手領域画像を第1画像に重畳させる。また、縮小率が特定されている場合には、各手領域画像を特定されている縮小率で縮小し、縮小後の各手領域画像を第1画像に重畳させる。上記のように、集合領域は基準顔及び第2画像を重畳させるべきでない顔領域と所定の面積以上重ならないので、集合領域を構成する各手領域画像もこれらと所定の面積以上重ならないことになる。このようにして、画像合成部310bは、第1画像に、第2画像(を構成する各手領域画像)を合成した複数の第3画像を生成する。 Next, the image composition unit 310b composes the first image with the second image to generate a third image (step S305). The image composition unit 310b generates a third image based on the first image data and the second image data. For example, the image composition unit 310b superimposes each hand region image represented by the second image data on the first image to generate a plurality of third images. That is, the number of third images generated here is the same as the number of hand region images. The image compositing unit 310b superimposes each hand region image generated in step S404 and multiplied by the size coefficient (reduced or enlarged) on the first image. Further, each hand region image is superimposed on the first image so that the center position of each hand region image becomes the center position of the collective region specified in Steps S405, S407, and S409. If the reduction ratio is specified, each hand area image is reduced at the specified reduction ratio, and each reduced hand area image is superimposed on the first image. As described above, the collective area does not overlap with the face area that should not be superimposed with the reference face and the second image more than a predetermined area, so that each hand area image that constitutes the collective area does not overlap with the face area more than a predetermined area. Become. In this way, the image composition unit 310b generates a plurality of third images obtained by compositing the second image (each hand region image constituting the first image) with the first image.
次に画像合成部310bが第3画像を生成すると、画像送信部310aは、生成した第3画像データを、内部記憶部320に記録された送信元アドレスデータ(第2の端末200から送信された画像IDを特定するデータに対応して記録されたデータ)が示す送信元(第1の端末100)に送信する(ステップS207)。このとき、画像送信部310aは、適宜、第3画像データとともに送信先アドレスデータを送信してもよい。これによって、第1の端末100では第1ユーザが返信元を特定できる。画像合成部310bは、通信部350及びネットワーク900を介して前記のデータを送信する。
Next, when the image composition unit 310b generates the third image, the
次に、画像受信部110cが前記の第3画像データを通信部150を介して受信すると(ステップS208)、表示制御部110bは、第3画像データを表示部140に供給し、第3画像データが表す第3画像を表示部140に表示する(ステップS209)。ここでは、第3画像は、複数あるので、時系列に沿って順次表示部140に表示される。このため、表示部140は、スライドショー又は動画のような構成で、第3画像が表示される。このため、第2ユーザの手の動きが再現され、表示部140に表示される画像は面白みのある画像になる。
Next, when the
このようにして、第1画像の返信画像として、この第1画像に、第2ユーザのジェスチャーの画像(第2画像)が重畳された第3画像が、第1の端末100に供給され、表示されることになる。
In this way, the third image obtained by superimposing the second user's gesture image (second image) on the first image is supplied to the
図19に上記画像送受信処理の第2処理の概要を示す。 FIG. 19 shows an outline of the second process of the image transmission / reception process.
図19のように、第2の端末200の表示部140に第1画像(第1の端末100から送信された画像)が表示されると、第2ユーザは例えば、第1画像に含まれる人物の顔をなでるようなジェスチャーを、表示部240の前方で行う。撮影部270は様子を撮像する。第2の端末は、撮影画像に基づいて、第2画像を生成し、サーバ300に送信する。サーバ300は、第2画像と第1画像とを合成し、合成した第3画像を生成して第1の端末100に送信する。第1の端末100は、受信した第3画像を表示部140に表示する。このとき、第2ユーザの手の画像の位置、大きさ等は、第1画像の被写体(顔)の大きさに応じて変更される。このため、(a)では、手50(影絵)が縮小されている。また、(b)では、手50が縮小されていない。
When the first image (the image transmitted from the first terminal 100) is displayed on the
以上のような構成によって、ネットワーク900経由で送られて来た写真(第1画像)へ返信する際、第2の端末200の撮像部270で返信者(第2ユーザ)の手のジェスチャーを撮影し、それを動く影絵(第2画像)として第1画像へ重畳した第3画像を生成する。これにより、キーボードやマウス等の入力装置なしに、簡単に動きのあるリッチなコンテンツを生成し、手軽に楽しく返信することができる。これは、第1の端末100等がデジタルフォトフレームであるときに特に言える。また、第3画像の生成に際しては、手と顔の画像認識を用いる。抽出した手の動きを、顔の位置・サイズを考慮し自動調整して重畳することで、ユーザが細かい位置・サイズ指定をすることなく、適切な配置の影絵が生成される。
With the configuration as described above, when returning to the photograph (first image) sent via the
デジタルフォトフレーム等の画像表示機器は、高機能になってもデザイン等の要請からキーボード等のリッチな入力装置が備えられず、ネットワーク900経由で写真を受け取っても、メッセージや動きのあるコンテンツで返信することが難しかった。本実施形態では、撮像270を用いて手を撮影し返信に使う影絵を生成する。影絵を重畳する位置やサイズを、顔認識情報を使うことで自動化したので、撮像部270以外に特別な入力装置なしで動きのあるリッチな返信コンテンツを生成することが出来る。また、手の動きは自由であるので、例えば定型メッセージやスタンプといった選択型の定型的な画像の返信方法に比べ、多くのバリエーションを持たせられる。また、撮像部270は、手の輪郭が認識できる程度の品質の画像が撮れれば良いので、QRコード認識用などの低画素数の撮像素子を用いた撮像部270とも共用できる。
An image display device such as a digital photo frame is not equipped with a rich input device such as a keyboard due to a request for design even if it becomes highly functional, and even if a photograph is received via the
また、上記では、撮影画像ではなく、手の領域を表す第2画像等をサーバに送る方式にしたため、第2の端末200からサーバ300へ送るデータ量が抑えられている。このため、第2の端末200が低速で安価なネットワーク回線で上りが細い場合も、十分高速にデータを送信することができる。また、第1の端末100内に第1画像がある場合、第2画像のみを送り、再生時に第1の端末100で第3画像を生成するようにすれば、サーバ300から第1の端末100の下り方面のネットワーク負荷も低減することができる。
In the above description, since the second image representing the hand region, etc., is sent to the server instead of the captured image, the amount of data sent from the
本実施形態においては、サーバ300(画像処理装置)は、上記構成によって、第1画像を取得(受信)する第1画像取得部(ここでは画像受信部310a)と、第2画像を取得し、取得した第2画像と、画像受信部310aが取得した第1画像とを合成する画像合成部310bと、を備える。また、画像合成部310bは、第1画像において所定の基準を満たす第1領域(ここでは、顔の領域であって、基準顔の領域を含む領域)を検出し、検出した第1領域の近傍の領域に第2画像を重畳させ、第1画像と第2画像とを合成した第3画像を生成する。
In the present embodiment, the server 300 (image processing apparatus) acquires the first image acquisition unit (here, the
本実施形態においては、返信画像生成システム1は、上記構成によって、第1の端末100が第2の端末200に送信する第1画像に基づいて、第1画像に対する返信画像を生成する返信画像生成システム1であって、第1画像を表示した第2の端末200の表示面前方を撮影した撮影画像を取得し、取得した撮影画像に基づいて、所定の像を抽出し、抽出した所定の像を表す第2画像を生成する画像生成部210bと、第1画像と画像生成部210bが生成した第2画像とを合成する画像合成部310bと、を備える。また、画像合成部310bは、第1画像において所定の基準を満たす第1領域を検出し、検出した第1領域の近傍の領域に第2画像を重畳させ、第1画像と第2画像とを合成した第3画像を生成する。
In the present embodiment, the reply
上記のような構成によって、本実施形態では、所定の基準を満たす第1領域の近傍の領域に第2画像を重畳させるので、所定の画像を面白みのある画像に加工することができる。 With the configuration as described above, in the present embodiment, the second image is superimposed on a region in the vicinity of the first region that satisfies the predetermined criterion, so that the predetermined image can be processed into an interesting image.
また、上記構成によって、画像合成部310bは、第2画像の大きさを第1領域の大きさに応じて調整して、第1領域の近傍の領域に前記第2画像を重畳させる。これによって、第2画像が前記の第1領域に対して大きすぎたり、小さすぎたりしても、適切な大きさで第2画像を重畳させることができるので、精度良く面白みのある画像を生成することができる。 Further, with the above configuration, the image composition unit 310b adjusts the size of the second image according to the size of the first region, and superimposes the second image on a region near the first region. As a result, even if the second image is too large or too small with respect to the first region, the second image can be superimposed with an appropriate size, so that an interesting and accurate image can be generated. can do.
なお、上記では、第1画像は、人物の顔が写った画像であるが、他の画像であってもよく、上記では、第2画像は、人の手の像を表す画像であるが他の画像であっても良い。さらに、第1領域は、人物の顔を含む領域であるが、他の領域であってもよい。 In the above, the first image is an image showing a person's face, but may be another image. In the above, the second image is an image representing an image of a human hand. It may be an image. Furthermore, the first area is an area including a human face, but may be another area.
また、上記では、第2画像は複数の静止画像を含み、画像合成部310bは、第2画像に含まれる複数の静止画像それぞれを第1画像に重畳させた、複数の第3画像を生成する。これによって、動きのある第3画像が生成され、より面白みのある画像が生成される。 In the above, the second image includes a plurality of still images, and the image composition unit 310b generates a plurality of third images in which the plurality of still images included in the second image are superimposed on the first image. . As a result, a moving third image is generated, and a more interesting image is generated.
画像合成部310bは、第2画像を第1領域に所定の面積以上重ならないように(全く重ならない場合も含む。)第1画像に重畳するので、第3画像では、第1領域と第2画像との関係が明確になり、より面白みのある画像が生成される。 The image composition unit 310b superimposes the second image on the first image so as not to overlap the first region by more than a predetermined area (including the case where the second image does not overlap at all). The relationship with the image becomes clear, and a more interesting image is generated.
また、第1画像は、第1の端末100がネットワーク300を介して第2の端末200に送信した送信画像であり、第3画像は、第1の端末100によって表示される、送信画像に対する返信画像である。このように、上記では、返信画像についておもしろい画像を生成できる。
Further, the first image is a transmission image transmitted from the
なお、上記では、第3画像は、複数の静止画像からなるとしたが、一の第1画像に、各手領域画像を順次重畳させたような、所謂ダイナミックフォト等であってもよい。また、第3画像は、スライドショーのプレイリストのような形式であってもよい。このように、第3画像の形式は、一の画像であってもよく、どんなものであっても良い。 In the above description, the third image is composed of a plurality of still images. However, the third image may be a so-called dynamic photo in which each hand region image is sequentially superimposed on one first image. The third image may be in the form of a slide show playlist. Thus, the format of the third image may be one image or any other format.
また、第2画像は、一の静止画像からなるものであってもよい。この場合は、一の静止画像について上記の処理が行われる。第3画像も一の静止画像になる。 Further, the second image may be a single still image. In this case, the above process is performed for one still image. The third image is also a still image.
また、第1の端末100、第2の端末200、及び、サーバ300が有する各構成要素は、他の装置が備えても良い。例えば、サーバ300が、画像生成部210bを備えてもよい。この場合、第2の端末200は、撮影画像をそのままサーバ300に送信し、サーバ300の画像生成部が第3画像を生成する。同様にして、サーバ300の画像合成部310bは、第2の端末200が備えても良い。この場合には、第2の端末200で、第3画像が生成され、サーバ300を介して、第1の端末100に第3画像が返信される。同様にして、第1の端末100が画像生成部210b及び画像合成部310bを備えても良く、この場合には、撮影画像が第1の端末100に供給され、第1の端末100は、第2画像及び第3画像を生成する。このようにして、各部は、どの装置が備えても良い。このため、構成によっては、上記の画像処理装置は、第1の端末100、又は、第2の端末200となることもある。また、上記の取得とは、記憶部から画像等を取得する、通信部を介して画像等を取得する等の他、画像等を生成することによって取得することも含む。
In addition, each device included in the
なお、プログラムは、OS(Operation System)と協働してCPU111(CPU211又はCPU311)に後述の画像送受信処理A(B又はC)を行わせるものであってもよい。この場合、OSもフラッシュメモリ121(フラッシュメモリ221又はハードディスク321)に記録される。また、プログラムは、持ち運び可能な記憶媒体(例えば、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory))に記録され、第1の端末100(第2の端末200又はサーバ300)に供給され、フラッシュメモリ121(フラッシュメモリ221又はハードディスク321)に記録されてもよい。また、プログラムは、ネットワーク900を介して第1の端末100(第2の端末200又はサーバ300)に供給され、フラッシュメモリ121(フラッシュメモリ221又はハードディスク321)に記録されてもよい。
The program may cause the CPU 111 (
プログラムが記録された、フラッシュメモリ121(フラッシュメモリ221又はハードディスク321)等の記憶装置、又は、持ち運び可能な記憶媒体等は、プログラムを記憶した、コンピュータが読み取り可能な記憶媒体になる。プログラムは、機能の少なくとも一部が専用回路によって実現された装置(コンピュータ)を動作させるものであってもよい。つまり、第1の端末100(第2の端末200又はサーバ300)は、全体として、後述の画像送受信処理A(B又はC)を行うものであればよく、プログラムは、そのような第1の端末100(第2の端末200又はサーバ300)を動作させるものであればよい。
A storage device such as the flash memory 121 (the
本実施形態では、第1画像に第2画像を重畳するが、そのまま重畳するだけでは、適切な第3画像にはならない。例えば、手と端末と撮像部とのサイズ・位置関係では手が大きく撮影され過ぎ、そのまま第2画像を重畳させると第1画像の大半が隠れてしまう。また、大画面TVのような端末に、画面の前の全範囲をカバーできるカメラを載せたとすると、今度は手が小さくなり過ぎてしまう。 In the present embodiment, the second image is superimposed on the first image. However, if the second image is simply superimposed as it is, an appropriate third image cannot be obtained. For example, the hand, the terminal, and the size / position relationship between the imaging unit captures the hand too much, and if the second image is superimposed as it is, most of the first image is hidden. If a camera such as a large-screen TV is mounted with a camera that can cover the entire range in front of the screen, the hand becomes too small.
そこで、第2画像の配置のルールとして、第2画像の配置のときに、第1画像における所定の顔を隠さない。また、顔が複数ある場合は、一番大きいものを基準顔とし、それと同程度の大きさの顔全てを隠さないように配置する。また、顔が大きい場合は、影絵の手も大きくする。 Therefore, as a rule for arrangement of the second image, a predetermined face in the first image is not hidden when the second image is arranged. When there are a plurality of faces, the largest face is used as a reference face, and all faces having the same size are arranged so as not to hide them. If the face is large, the shadow hand is also enlarged.
第1画像に加える第2画像は、様々なものが考えられるが、本実施形態のような「受け取った画像への返信」というシチュエーションに限ると、ある程度種類が絞れる。これまで、(アナログ写真を含めて)アルバム等で贈られる画像は、一緒に行った旅行の写真、離れて暮らす孫のイベント写真など、人が写っているケースが多い。このため、返信に用いる画像は、大事な登場人物が背景の人物に比して大きく写っている写真を使う場合が圧倒的に多いと推定される。また、そのような場合、手は大事な登場人物を隠すような動きをすることはせず、かつ、なでる,指差す,手を振る,包み込む等、人をターゲットとした動きをするが多いとも推定される(面白ネタ写真を作るためにわざと人を隠すことはあっても、家族・友人・知人への写真のお礼で返信相手本人を隠すようなことはしづらい)。そこで、上記のルールによって、第2画像を第1画像に重畳することによって、写真の主要被写体の人物(顔が大きく写っている群)を避けた位置に、手の動きのターゲットである人物の顔に比例したサイズの手を重畳することができる。 There are various second images to be added to the first image. However, if the situation is limited to the “reply to received image” situation as in this embodiment, the types can be limited to some extent. Until now, many of the images presented in albums (including analog photos) have been photographed, such as travel photos taken together and event photos of grandchildren living apart. For this reason, it is estimated that the image used for the reply is overwhelmingly often used when a photograph in which an important character appears larger than the background character is used. In addition, in such cases, the hand does not move to hide important characters, and often moves to target people, such as stroking, pointing, waving, wrapping. It is estimated (although it is difficult to hide people intentionally in order to make interesting news photos, it is difficult to hide the person who responded by thanks to photos of family, friends, and acquaintances). Therefore, by superimposing the second image on the first image according to the above rules, the position of the person who is the target of the hand movement in the position avoiding the main subject person in the photograph (a group with a large face) A hand of a size proportional to the face can be superimposed.
なお、図17(a)のように、「拍手,両手を振る」の顔の大きい場合のように位置が大きくずれてしまう場合がある。しかし、上記のルールで上述したように、返信というシチュエーションでは大事な登場人物の顔を隠すようなジェスチャーは好まれないので、このようなケースはほとんど発生しないと思われる。また、ユーザが誤って顔を大きく隠すようなジェスチャーをしてしまった場合の為にも、このようにずらした方が望ましい。 Note that, as shown in FIG. 17A, the position may be greatly shifted as in the case of a large face of “applause and shake hands”. However, as described above in the above rules, since a gesture that hides the face of an important character is not preferred in a reply situation, such a case is unlikely to occur. In addition, it is desirable to shift in this way even when the user mistakenly makes a gesture that largely hides the face.
1・・・返信画像生成システム、100・・・第1の端末、110・・・制御部、110a・・・画像送信部、110b・・・表示制御部、110c・・・画像受信部、111・・・CPU、112・・・RAM、120・・・内部記憶部、121・・・フラッシュメモリ、130・・・操作部、140・・・表示部、150・・・通信部、160・・・I/F部、記憶媒体・・・190、200・・・第2の端末、210・・・制御部、210a・・・画像送信部、110b・・・画像生成部、110c・・・画像受信部、110d・・・表示制御部、110e・・・撮影制御部、211・・・CPU、212・・・RAM、220・・・内部記憶部、221・・・フラッシュメモリ、230・・・操作部、240・・・表示部、250・・・通信部、260・・・I/F部、270・・・撮影部、記憶媒体・・・290、300・・・サーバ、310・・・制御部、310a・・・画像送信部、310b・・・画像合成部、310c・・・画像受信部、311・・・CPU、312・・・RAM、320・・・内部記憶部、321・・・ハードディスク、330・・・操作部、340・・・表示部、350・・・通信部、900・・・サーバ
DESCRIPTION OF
Claims (8)
第2画像を取得し、取得した前記第2画像と、前記第1画像取得手段が取得した前記第1画像とを合成する画像合成手段と、を備え、
前記画像合成手段は、前記第1画像取得手段が取得した前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する、
ことを特徴とする画像処理装置。 First image acquisition means for acquiring a first image;
An image combining unit that acquires a second image and combines the acquired second image with the first image acquired by the first image acquiring unit;
The image synthesizing unit detects a first region satisfying a predetermined criterion in the first image acquired by the first image acquiring unit, and superimposes the second image on a region near the detected first region. Generating a third image obtained by synthesizing the first image and the second image;
An image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。 The image synthesizing unit adjusts the size of the second image according to the size of the first region, and superimposes the second image on a region near the first region;
The image processing apparatus according to claim 1.
前記第2画像は、人の手の像を表す画像であり、
前記第1領域は、前記人物の顔を含む領域である、
ことを特徴とする請求項1又は2に記載の画像処理装置。 The first image is an image showing a person's face,
The second image is an image representing an image of a human hand,
The first area is an area including the face of the person.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像合成手段は、前記第2画像に含まれる前記複数の静止画像それぞれを前記第1画像に重畳させた1以上の前記第3画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。 The second image includes a plurality of still images,
The image synthesizing unit generates one or more third images obtained by superimposing the plurality of still images included in the second image on the first image;
The image processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の画像処理装置。 The image composition means superimposes the second image on the first image so as not to overlap the first region by a predetermined area;
The image processing apparatus according to claim 1.
前記第3画像は、前記第1の端末によって表示される、前記送信画像に対する返信画像である、
ことを特徴とする請求項1に記載の画像処理装置。 The first image is a transmission image transmitted from the first terminal to the second terminal via the network,
The third image is a reply image to the transmission image displayed by the first terminal.
The image processing apparatus according to claim 1.
前記第1画像を表示した前記第2の端末の表示面前方を撮影した撮影画像を取得し、取得した前記撮影画像に基づいて、所定の像を抽出し、抽出した前記所定の像を表す第2画像を生成する画像生成手段と、
前記第1画像と前記画像生成手段が生成した前記第2画像とを合成する画像合成手段と、を備え、
前記画像合成手段は、前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する、
ことを特徴とする返信画像生成システム。 A reply image generation system for generating a reply image for the first image based on a first image transmitted from a first terminal to a second terminal,
A photographed image obtained by photographing the front of the display surface of the second terminal displaying the first image is obtained, a predetermined image is extracted based on the obtained photographed image, and a first image representing the extracted prescribed image is obtained. Image generating means for generating two images;
Image synthesizing means for synthesizing the first image and the second image generated by the image generating means,
The image composition means detects a first region that satisfies a predetermined criterion in the first image, superimposes the second image on a region in the vicinity of the detected first region, and the first image and the second image Generating a third image synthesized with the image;
A reply image generation system characterized by that.
第1画像を取得する第1画像取得手段、
第2画像を取得し、取得した前記第2画像と、前記第1画像取得手段が取得した前記第1画像とを合成する画像合成手段、として機能させ、
前記画像合成手段は、前記第1画像取得手段が取得した前記第1画像において所定の基準を満たす第1領域を検出し、検出した前記第1領域の近傍の領域に前記第2画像を重畳させ、前記第1画像と前記第2画像とを合成した第3画像を生成する、
ことを特徴とするプログラム。 Computer
First image acquisition means for acquiring a first image;
Acquiring a second image, and causing the acquired second image to function as an image combining unit that combines the first image acquired by the first image acquiring unit;
The image synthesizing unit detects a first region satisfying a predetermined criterion in the first image acquired by the first image acquiring unit, and superimposes the second image on a region near the detected first region. Generating a third image obtained by synthesizing the first image and the second image;
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096493A JP5447134B2 (en) | 2010-04-19 | 2010-04-19 | Image processing apparatus, reply image generation system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096493A JP5447134B2 (en) | 2010-04-19 | 2010-04-19 | Image processing apparatus, reply image generation system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011228913A true JP2011228913A (en) | 2011-11-10 |
JP5447134B2 JP5447134B2 (en) | 2014-03-19 |
Family
ID=45043769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010096493A Expired - Fee Related JP5447134B2 (en) | 2010-04-19 | 2010-04-19 | Image processing apparatus, reply image generation system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5447134B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104281371A (en) * | 2013-07-10 | 2015-01-14 | 索尼公司 | Information processing apparatus, information processing method, and program |
EP3076334A1 (en) | 2015-03-31 | 2016-10-05 | Fujitsu Limited | Image analyzing apparatus and image analyzing method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
-
2010
- 2010-04-19 JP JP2010096493A patent/JP5447134B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194644A (en) * | 2008-02-14 | 2009-08-27 | Fujifilm Corp | Image processor, image processing method and image pick-up device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104281371A (en) * | 2013-07-10 | 2015-01-14 | 索尼公司 | Information processing apparatus, information processing method, and program |
JP2015019203A (en) * | 2013-07-10 | 2015-01-29 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US10298525B2 (en) | 2013-07-10 | 2019-05-21 | Sony Corporation | Information processing apparatus and method to exchange messages |
CN104281371B (en) * | 2013-07-10 | 2019-07-02 | 索尼公司 | Information processing equipment, information processing method and program |
EP3076334A1 (en) | 2015-03-31 | 2016-10-05 | Fujitsu Limited | Image analyzing apparatus and image analyzing method |
KR20160117207A (en) | 2015-03-31 | 2016-10-10 | 후지쯔 가부시끼가이샤 | Image analyzing apparatus and image analyzing method |
Also Published As
Publication number | Publication date |
---|---|
JP5447134B2 (en) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9344644B2 (en) | Method and apparatus for image processing | |
US9055276B2 (en) | Camera having processing customized for identified persons | |
US8773566B2 (en) | Photographing condition setting apparatus, photographing condition setting method, and photographing condition setting program | |
EP2753075A1 (en) | Display apparatus and method for video calling thereof | |
US20130027569A1 (en) | Camera having processing customized for recognized persons | |
EP2822267A2 (en) | Method and apparatus for previewing a dual-shot image | |
US20110234838A1 (en) | Image processor, electronic camera, and image processing program | |
KR20140093557A (en) | Method and apparatus for photographing of a portable terminal | |
KR20190013308A (en) | Mobile terminal and method for controlling the same | |
CN109218630B (en) | Multimedia information processing method and device, terminal and storage medium | |
US20120212640A1 (en) | Electronic device | |
JP7110406B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM | |
WO2015143857A1 (en) | Photograph synthesis method and terminal | |
JP2009089220A (en) | Imaging apparatus | |
JP5479850B2 (en) | Moving image creating apparatus and moving image creating method | |
JP5447134B2 (en) | Image processing apparatus, reply image generation system, and program | |
JP2007281843A (en) | Imaging apparatus and image processing method | |
JP2019169985A (en) | Image processing apparatus | |
CN111726531B (en) | Image shooting method, processing method, device, electronic equipment and storage medium | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
JP7128347B2 (en) | Image processing device, image processing method and program, imaging device | |
JP5718502B2 (en) | Image creating apparatus and image creating method | |
JP5181935B2 (en) | Image processing apparatus, program, and subject detection method | |
JP2014072642A (en) | Moving image data processing system, moving image data transmission device, and moving image data reception device | |
JP5467092B2 (en) | Imaging apparatus and image designation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5447134 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |