JP4809655B2 - 画像表示装置、画像表示装置の制御方法及びプログラム - Google Patents

画像表示装置、画像表示装置の制御方法及びプログラム Download PDF

Info

Publication number
JP4809655B2
JP4809655B2 JP2005277921A JP2005277921A JP4809655B2 JP 4809655 B2 JP4809655 B2 JP 4809655B2 JP 2005277921 A JP2005277921 A JP 2005277921A JP 2005277921 A JP2005277921 A JP 2005277921A JP 4809655 B2 JP4809655 B2 JP 4809655B2
Authority
JP
Japan
Prior art keywords
face
image
effect processing
screen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005277921A
Other languages
English (en)
Other versions
JP2006344199A (ja
Inventor
章 鈴木
泰史 奥村
健治 山根
智一 掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2005277921A priority Critical patent/JP4809655B2/ja
Publication of JP2006344199A publication Critical patent/JP2006344199A/ja
Application granted granted Critical
Publication of JP4809655B2 publication Critical patent/JP4809655B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は画像表示装置、画像表示装置の制御方法及びプログラムに関する。
人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像を表示する画像表示装置が知られている。例えば、カメラユニットとモニタとを含み、カメラユニットから入力される、人物の顔を含む少なくとも一部を撮像して生成された画像データに基づいて、モニタに画像を表示させるゲーム装置が知られている(特許文献1)。
特開2004−62456号公報
以上のような画像表示装置によれば、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像を画面に表示させることも可能である。しかしながら、かかる画像を単に表示するだけでは面白みに欠ける場合がある。
本発明は上記課題に鑑みてなされたものであって、その目的は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる画像表示装置、画像表示装置の制御方法及びプログラムを提供することにある。
上記課題を解決するために、本発明に係る画像表示装置は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像を表示する表示手段と、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段と、前記表示手段に表示される画像において、前記顔認識手段によって認識された画像領域の少なくとも1つに、前記顔認識手段によって認識された他の画像領域に含まれる画像の少なくとも一部を表示させる顔部分置換手段と、を含むことを特徴とする。
また、本発明に係る画像表示装置の制御方法は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像を表示手段に表示させるためのステップと、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識するための顔認識ステップと、前記表示手段に表示される画像において、前記顔認識ステップによって認識された画像領域の少なくとも1つに、前記顔認識ステップによって認識された他の画像領域に含まれる画像の少なくとも一部を表示させるための顔部分置換ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像を表示する表示手段、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段、及び、前記表示手段に表示される画像において、前記顔認識手段によって認識された画像領域の少なくとも1つに、前記顔認識手段によって認識された他の画像領域に含まれる画像の少なくとも一部を表示させる顔部分置換手段、としてコンピュータを機能させるためのプログラムである。
また、本発明に係る情報記憶媒体は、上記プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
本発明では、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像が表示される。また、画像データから複数の人物の各々の顔部分の画像領域が認識される。そして、表示される画像において、認識された画像領域の少なくとも1つに、認識された他の画像領域に含まれる画像の少なくとも一部が表示される。本発明によれば、ある人物の顔部分の画像領域に他の人物の顔部分が表示される様子をユーザが楽しめるようになる。その結果として、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
また、本発明の一態様では、前記顔部分置換手段は、前記顔認識手段によって認識された第1画像領域に、前記顔認識手段によって認識された、前記第1画像領域とは異なる第2画像領域に含まれる画像の少なくとも一部を表示させる場合、前記第1画像領域に含まれる画像の少なくとも一部を前記第2画像領域に表示させるようにしてもよい。
また、本発明の一態様では、前記顔部分置換手段は、前記顔認識手段によって認識された第1画像領域に、前記顔認識手段によって認識された、前記第1画像領域とは異なる第2画像領域に含まれる画像の少なくとも一部を表示させる場合、前記第2画像領域に含まれる画像の該一部を前記第2画像領域から前記第1画像領域まで移動させるようにしてもよい。
また、本発明に係る画像表示装置は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示する表示手段と、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段と、前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段と、を含むことを特徴とする。
また、本発明に係る画像表示装置の制御方法は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示手段に表示させるためのステップと、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識するための顔認識ステップと、前記顔認識ステップによる認識結果に基づき、前記画面に対してエフェクト処理を施すためのエフェクト処理ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示する表示手段、前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段、及び、前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段、としてコンピュータを機能させるためのプログラムである。
また、本発明に係る情報記憶媒体は、上記プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
本発明では、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面が表示される。また、その画像データから複数の人物の各々の顔部分の画像領域が認識される。そして、その認識結果に基づき、画面に対してエフェクト処理が施される。本発明によれば、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
また、本発明の一態様では、前記エフェクト処理手段は、前記画面に対して施すエフェクト処理の種類を、前記顔認識手段による認識結果に基づいて変化させるようにしてもよい。
また、本発明の一態様では、前記エフェクト処理手段は、前記画面に対して施すエフェクト処理の種類を、前記顔認識手段によって認識された画像領域の数に基づいて変化させるようにしてもよい。
また、本発明の一態様では、前記顔認識手段は、前記複数の人物の各々の顔部品部分の画像領域を認識する顔部品認識手段を含み、前記エフェクト処理手段は、前記画面に対して施すエフェクト処理の種類を、前記顔部品認識手段による認識結果に基づいて変化させるようにしてもよい。
また、本発明の一態様では、前記顔部品認識手段は、前記複数の人物の各々の目部分の画像領域を認識し、前記エフェクト処理手段は、前記画面に対して施すエフェクト処理の種類を、前記顔部品認識手段によって認識された画像領域の数に基づいて変化させるようにしてもよい。
また、本発明の一態様では、前記エフェクト処理手段は、前記顔認識手段による認識結果に基づいて、前記複数の人物の各々の顔の姿勢を判断する顔姿勢判断手段を含み、前記画面に対して施すエフェクト処理の種類を、前記顔姿勢判断手段による判断結果に基づいて変化させるようにしてもよい。
また、本発明の一態様では、前記エフェクト処理手段によって前記画面に対して施されるエフェクト処理は、前記顔認識手段によって認識された画像領域に関連するエフェクト処理であり、前記エフェクト処理手段は、前記顔認識手段によって認識された画像領域の数が所定の基準数を超える場合、前記顔認識手段によって認識された画像領域のうちの少なくとも1つを選択し、その画像領域に関連するエフェクト処理の実行を制限するエフェクト処理制限手段を含むようにしてもよい。
以下、本発明の実施形態について図面に基づき詳細に説明する。ここでは、ユーザに映像を提供する映像再生装置、ユーザに音楽を提供する音楽再生装置や、ユーザにゲームを提供するゲーム装置等として機能するエンタテインメントシステムに本発明を適用した場合の例について説明する。
実施形態1.
図1は、本発明の実施形態1に係るエンタテインメントシステム(画像表示装置)のハードウェア構成を示す図である。同図に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、を含んで構成されるコンピュータシステムである。
図2はMPU11の構成を示す図である。同図に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。
メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、サブプロセッサ14a乃至14hに対する制御を行う。
サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って各種情報処理を行う。例えば、サブプロセッサ14a乃至14hは、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御する。
バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。
メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。
メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。
インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。
画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。
入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44と、の間のデータ授受を制御する。
音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク40やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。
光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他の情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。
光ディスク36は例えばDVD−ROM等の一般的な光ディスクである。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。
インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。なお、図1では省略されているが、エンタテインメントシステム10には、エンタテインメントシステム10を通信ネットワークに接続するためのインタフェースが含まれるようにしてもよい。
コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作信号をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作信号に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作信号に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。
カメラユニット46は、例えば公知のデジタルハイビジョンカメラ(HDカメラ)を含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをプレイヤに向けた状態でモニタ26の上に設置され、所定のケーブルを介してインタフェース44に接続される。
以上のハードウェア構成を有するエンタテインメントシステム10では、カメラユニット46によって撮影された画像に基づく画面がモニタ26に表示されるようになっている。特に、エンタテインメントシステム10では、カメラユニット46から入力された画像において複数の人物の顔部分が検出された場合、モニタ26に表示される画面において、人物間で顔部分の画像(顔画像)が入れ替わる様子をユーザが楽しめるようになっている。
エンタテインメントシステム10では、例えば図3に示すような画像がカメラユニット46から入力された場合、まずその画像がモニタ26にそのまま表示されるようになっている。その後、所定時間ごとにランダムに人物の組み合わせが選択され、その人物間で顔画像の入れ替えが実行されるようになっている。例えば、画像に写っている人物のうちから人物50及び人物56が選択された場合、図4に示すように、人物50の顔画像50aが人物56の方に移動を開始するとともに、人物56の顔画像56aが人物50の方に移動を開始するようになっている。そして、図5に示すように、人物50の顔部分領域50bに人物56の顔画像56aが表示され、人物56の顔部分領域56bには人物50の顔画像50aが表示されるようになっている。その後、所定時間が経過すると、画像に写っている人物のうちから二人がランダムに新たに選択され、それらの人物の間で顔画像の入れ替えが実行されるようになっている。
以上では一組ずつ顔画像の入れ替えが行われることとして説明したが、複数の組の顔画像の入れ替えが同時に行われるようにしてもよい。例えば、図3乃至図5の例の場合であれば、人物50と人物56との間の顔画像の入れ替えが行われるとともに、人物52と人物54との間の顔画像の入れ替えが行われるようにしてもよい。
次に、以上に説明した顔画像の入れ替えを実現するための構成について説明する。
図6は、実施形態1に係るエンタテインメントシステム10において実現される機能ブロックのうち、本発明に関連するものを主として示す図である。同図に示すように、エンタテインメントシステム10は、画像入力部60と、デコード部62と、顔認識部64と、画像表示部66と、を含んで構成される。
[1.画像入力部]
画像入力部60は、入出力処理部28及びカメラユニット46を主として実現される。画像入力部60は、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データを入力する。画像入力部60から入力された画像データはメインプロセッサ12によってメインメモリ20に格納される。
[2.デコード部]
デコード部62はサブプロセッサ14a乃至14hのうちの少なくとも1つを主として実現される。例えばサブプロセッサ14aを主としてデコード部62は実現される。
デコード部62は、画像入力部60によって入力された画像データに対してデコード処理を実行する。本実施の形態では、画像入力部60(カメラユニット46)からJPEG形式の画像データが入力されるため、デコード部62はJPEG形式の画像データに対するデコード処理を実行する。デコード部62はデコード処理後の画像データをメインメモリ20に記憶させる。
[3.顔認識部]
顔認識部64はサブプロセッサ14a乃至14hのうちの少なくとも1つを主として実現される。例えば、デコード部62の実現に用いられるサブプロセッサとは異なるサブプロセッサ(例えばサブプロセッサ14b)を主として顔認識部64は実現される。
顔認識部64は、デコード部62によるデコード処理後の画像データから人物の顔部分を含む画像領域(顔部分領域)を認識(検出)する。顔部分領域の検出方法としては公知の検出方法を用いるようにすればよい。例えば、目、鼻や口等の顔の部品を検出し、それらの部品の位置に基づいて顔を検出する方法を用いるようにしてもよい。また例えば、肌色情報を用いて検出する方法を用いるようにしてもよい。その他の検出方法を用いるようにしてもよい。
顔認識部64は、顔部分領域の認識結果(検出結果)として、例えば図7に示すような顔部分領域テーブルを記憶する。同図に示すように、この顔部分領域テーブルは「顔部分領域ID」フィールドと「顔部分領域特定情報」フィールドとを含んでいる。「顔部分領域ID」フィールドには顔部分領域IDが格納される。顔部分領域IDは、顔認識部64によって検出された顔部分領域を一意に識別するための情報が格納される。「顔部分領域特定情報」フィールドには顔部分領域特定情報が格納される。顔部分領域特定情報は、顔認識部64によって検出された顔部分領域を特定するための情報が格納される。例えば顔部分領域の特徴点の座標を示す情報が格納される。
なお、以下では、顔部分領域ID「1」の顔部分領域は、図3乃至図5における人物50の顔部分領域(顔部分領域50a)を指すこととして説明する。同様に、顔部分領域ID「2」,「3」又は「4」の顔部分領域は、図3乃至図5における人物52,54,56の顔部分領域をそれぞれ指すこととして説明する。
[4.画像表示部]
画像表示部66は、サブプロセッサ14a乃至14hのうちの少なくとも1つと、画像処理部24と、モニタ26と、を主として実現される。画像表示部66の実現には、例えばデコード部62及び顔認識部64の実現に用いられるサブプロセッサとは異なるサブプロセッサ(例えばサブプロセッサ14c)が用いられる。
画像表示部66は、デコード部62によるデコード処理後の画像データに基づく画像をモニタ26に表示させる。
[5.顔部分入替部]
画像表示部66は顔部分入替部68(顔部分置換手段)を含んで構成される。顔部分入替部68は、モニタ26に表示される画像において、顔認識部64によって認識された画像領域の少なくとも1つに、顔認識部64によって認識された他の画像領域に含まれる画像の少なくとも一部を表示させる。本実施の形態における顔部分入替部68は、顔認識部64によって認識された第1画像領域に、顔認識部64によって認識された第2画像領域(第1画像領域とは異なる画像領域)に含まれる画像の少なくとも一部を表示させる場合、該第1の画像領域に含まれる画像の少なくとも一部を該第2の画像領域に表示させる。また、本実施の形態における顔部分入替部68は、顔認識部64によって認識された第1画像領域に、顔認識部64によって認識された第2画像領域に含まれる画像の少なくとも一部を表示させる場合、モニタ26に表示される画面において、該第2画像領域に含まれる画像の少なくとも一部を第2の画像領域から第1の画像領域まで移動させる。
顔部分入替部68は、例えば図8に示すような顔部分入替状況テーブルを記憶し、顔部分の入れ替え状況を管理する。同図に示すように、この顔部分入替状況テーブルは、「顔画像ID」フィールドと、「現在領域ID」フィールドと、「移動先領域ID」フィールドと、を含んで構成される。「顔画像ID」フィールドには、顔画像を一意に識別する顔画像IDが格納される。なお、顔画像ID「n」の顔画像は、元々の画像(画像入力部60から入力され、デコード部62によってデコード処理が施された画像)において、顔部分領域ID「n」の顔部分領域に含まれる顔部分の画像を指している。「現在領域ID」フィールドには、その顔画像が現在対応づけられている顔部分領域の顔部分領域IDが格納される。「移動先領域ID」フィールドには、その顔画像の移動先の顔画像領域の顔画像領域IDが格納される。すなわち、移動中の顔画像(図4における顔画像50a及び56a)については、「移動先領域ID」フィールドにいずれかの顔部分領域の顔部分領域IDが格納され、移動中でない顔画像については、「移動先領域ID」フィールドが空の状態になる。図8に示す例は、図4に示す画面が表示される場合における顔部分入替状況テーブルを示している。なお、図5に示す画面が表示される場合には、顔画像ID「1」に対応する「現在領域ID」フィールドに「4」が格納され、「移動先領域ID」フィールドは空の状態になる。同様に、顔画像ID「4」に対応する「現在領域ID」フィールドに「1」が格納され、「移動先領域ID」フィールドは空の状態になる。
ここで、画像表示部66(顔部分入替部68)によって実行される処理について説明する。図9はこの処理を示すフロー図である。同図に示す処理は、光ディスク36等から読み出されるプログラムや通信ネットワークを介して供給されるプログラムがメインプロセッサ12やサブプロセッサ14c等によって実行されることによって実現される。また、同図に示す処理は所定時間(本実施の形態では1/60秒)ごとに実行される。
図9に示すように、まず画像表示部66はカウンタtをインクリメントする(S101)。カウンタtは初期値0の変数であり、顔画像の入れ替えの開始タイミングや完了タイミングを計るために用いられる(S103及びS110参照)。
次に、画像表示部66は状態フラグが「0」であるか否かを判断する(S102)。ここで、状態フラグは、顔画像の入れ替えの開始タイミングの到来を監視中の状態であるか、或いは、顔画像の入れ替えを実行中の状態であるかを示す情報である。本実施の形態では、状態フラグは「0」又は「1」のいずれかの値をとるようになっており、顔画像の入れ替えの開始タイミングの到来を監視する状態では「0」になり、顔画像の入れ替えを実行中の状態では「1」になるようになっている。
状態フラグが「0」である場合、画像表示部66はカウンタtの値が所定の定数T1に等しいか否かを判断する(S103)。ここで、定数T1は、顔部分(顔画像)の入れ替えの実行間隔を1/60秒単位で示す数値情報である。すなわち、本実施の形態では、前回の顔部分の入れ替えが完了した後、T1/60秒が経過すると、顔部分の入れ替えが新たに実行されるようになっている。
カウンタtの値が定数T1に等しい場合、顔部分入替部68は顔部分の入れ替えを開始するための処理(S104乃至S108)を実行する。
すなわち、顔部分入替部68は状態フラグを「1」に更新する(S104)。
また、顔部分入替部68は、顔認識部64によって検出された顔部分領域のうちから2つを乱数に基づいて選択する(S105)。そして、顔部分入替部68は、顔部分入替状況テーブルを選択結果に基づいて更新する(S106)。具体的には、このステップにおいて選択された顔部分領域の顔部分領域IDが「現在領域ID」フィールドに格納されたレコードの「移動先領域ID」フィールドに、このステップにおいて選択された他方の顔部分領域の顔部分領域IDが格納される。
次に、顔部分入替部68は、S105において選択された顔部分領域の間の距離を算出する(S107)。具体的には、それらの顔部分領域の各々の代表点(例えば中心点)の間の距離を算出する。そして、顔部分入替部68は、その距離に基づいて顔画像の移動速度(1/60秒ごとの移動距離)を算出する(S108)。本実施の形態では、顔画像の移動がその移動距離によらずあらかじめ決められた一定時間(T2/60秒)で完了するようになっている。すなわち、人物50の顔部分領域から人物56の顔部分領域への移動や、人物52の顔部分領域から人物54の顔部分領域への移動は、同じ時間(T2/60秒)で完了するようになっている。顔部分入替部68は、S107において取得した距離を定数T2で除算することによって、顔画像の移動速度を算出する。算出された移動速度はメインメモリ20に記憶され、モニタ26に表示される画面をフレームバッファに生成する際に参照される(S109参照)。
S102において、状態フラグが「0」でないと判断された場合、すなわち状態フラグが「1」である場合、顔部分入替部68は、t−T1の値が所定の定数T2に等しいか否かを判断する(S110)。なお、t−T1は、顔部分の入れ替えが開始されてからの経過時間を1/60秒単位で示すことになる。
t−T1の値が定数T2に等しい場合、顔部分入替部68は顔部分入替状況テーブルを更新する(S111)。具体的には、「移動先領域ID」フィールドに顔部分領域IDが格納されているレコードに関し、「移動先領域ID」フィールドに格納された顔部分領域IDを「現在領域ID」フィールドに格納させるとともに、「移動先領域ID」フィールドの内容をクリアする。すなわち、「移動先領域ID」フィールドに格納された顔部分領域IDを削除し、「移動先領域ID」フィールドを空の状態にする。また、画像表示部66は状態フラグを「0」に更新し(S112)、カウンタtの値を「0」に初期化する(S113)。
S103乃至S108の処理、或いは、S110乃至S113の処理が完了された後、画像表示部66は、デコード部62によるデコード処理後の画像データと、顔部分領域テーブル及び顔部分入替状況テーブルの内容と、に基づいて、例えば図3乃至図5に示すような画面をフレームバッファに生成する(S109)。
具体的には、画像表示部66は顔部分入替状況テーブルの各レコードを順次読み出し、各レコードごとに次のような処理を実行する。
すなわち、画像表示部66は、まず各レコードに対応する顔画像の表示位置を決定する。顔画像の表示位置を決定するにあたっては、その顔画像が移動中であるか否かをまず判断する。具体的には、「移動先領域ID」フィールドに顔部分領域IDが格納されているか否かを判断する。
画像表示部66は、顔画像が移動中でない場合、すなわち「移動先領域ID」フィールドに顔部分領域IDが格納されていない場合、「現在領域ID」フィールドに格納される顔部分領域IDの顔部分領域に顔画像を表示させるべく、顔部分領域テーブルの「顔部分領域特定情報」フィールドの内容を参照して、顔画像の表示位置を決定する。
一方、画像表示部66は、顔画像が移動中である場合、すなわち「移動先領域ID」フィールドに顔部分領域IDが格納されている場合、「S109において算出された移動速度に移動経過時間(t−T1)を乗じて得られる距離だけ、『現在領域ID』フィールドに格納される顔部分領域IDの顔部分領域から、『移動先領域ID』フィールドに格納される顔部分領域IDの顔部分領域への方向に移動した位置」を、顔画像の代表点の表示位置として決定する。
そして、画像表示部66は、以上のように決定された表示位置に基づいて、各顔画像をフレームバッファに描画する。この場合、画像表示部66は、デコード部62によるデコード処理後の画像データから顔画像の画像データを取得する。例えば、顔画像ID「1」の顔画像の画像データを取得する場合には、顔部分領域テーブルから、顔部分領域ID「1」に対応する「顔部分領域特定情報」フィールドに格納された顔部分領域特定情報を読み出し、その顔部分領域特定情報に基づいて顔画像の画像データを取得する。また、画像表示部66は、顔画像を元々の顔部分領域以外の顔部分領域に描画する場合、その顔部分領域に顔画像が好適に表示されるように、顔画像を拡大又は縮小する。
以上のようにして、顔部分入替状況テーブルの各レコードを順次読み出し、各レコードに対応する顔画像をフレームバッファに描画した後、画像表示部66は、デコード部62によるデコード処理後の画像データに基づいて、顔認識部64によって認識(検出)された顔部分領域以外の画像領域であって移動中の顔画像が描画されていない画像領域をフレームバッファに描画する。
なお、画像表示部66は、デコード部62によるデコード処理後の画像データに基づいて、顔認識部64によって認識された顔部分領域以外の画像領域をフレームバッファに描画した後、各顔画像をフレームバッファに形成された画像に対して上書き描画するようにしてもよい。
以上のようにしてフレームバッファに生成された画像は所定のタイミングでモニタ26に出力される。
以上説明したように、本実施形態1に係るエンタテインメントシステム10では、モニタ26に表示される画面において、人物間で顔部分の画像が入れ替わる様子をユーザが楽しむことができるようになる。その結果として、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
実施形態2.
次に、本発明の実施形態2について説明する。この実施形態2に係るエンタテイメントシステムも、実施形態1に係るエンタテイメントシステム10と同様のハードウェア構成を前提とするので、ここでも図1及び2を参照しながら説明を行う。
実施形態2に係るエンタテイメントシステム10では、実施形態1に係るエンタテイメントシステム10と同様に、カメラユニット46から入力された画像に基づく画面がモニタ26に表示される。本エンタテイメントシステム10では、カメラユニット46の入力画像から検出された顔部分領域に関連したエフェクト処理が画面に施される。特に、本エンタテイメントシステム10では、カメラユニット46の入力画像から検出された顔部分領域の個数に基づいて、エフェクト処理が変化するようになっている。
図10は、カメラユニット46の入力画像から顔部分領域が検出されない場合にモニタ26に表示される画面の一例を示している。同図に示すように、写っている人物全員が手等により顔を隠している場合等には、エフェクト処理が施されないようになっている。カメラユニット46による撮影画像に人物が写っていない場合も同様である。
図11は、カメラユニット46の入力画像から1つの顔部分領域が検出される場合にモニタ26に表示される画面の一例を示している。この場合の画面では、検出された顔部分領域に関連した「星形画像の発生」が行われる。すなわち、この場合の画面では、検出された顔部分領域(同図では顔部分領域50b)から所定時間ごとに所定数(第1の個数)の星形画像70が発生する様子が表される。各星形画像70は、検出された顔部分領域の代表位置(例えば中心位置や重心位置)に最初配置され、各星形画像70ごとに乱数に基づいて決定される方向に向かって移動する。
図12は、カメラユニット46の入力画像から2つの顔部分領域が検出される場合にモニタ26に表示される画面の一例を示している。この場合の画面では、検出された顔部分領域に関連した「顔部分の入れ替え」が行われる。すなわち、この場合の画面では、検出された顔部分領域(同図では顔部分領域50b,54b)間で、所定時間ごとに顔部分(顔画像)が入れ替わる様子が表される。同図の場合、顔部分領域50bに対応する顔画像50aは顔部分領域54bに向かって移動を開始し、顔部分領域54bに対応する顔画像54aは顔部分領域50bに向かって移動を開始する。そして、最終的に、顔部分領域54bに顔画像50aが表示され、顔部分領域50bに顔画像54aが表示される。その後、所定時間が経過すると、顔画像50a,54aは元の顔部分領域50b,54bに向けてそれぞれ移動を開始し、最終的に、元の顔部分領域50b,54bに表示される。以降、以上のような顔部分の入れ替えが繰り返される。
図13は、カメラユニット46の入力画像から3つの顔部分領域が検出される場合にモニタ26に表示される画面の一例を示している。この場合の画面では、検出された顔部分領域に関連した「星形画像の発生」及び「顔部分の入れ替え」が行われる。すなわち、この場合の画面では、検出された各顔部分領域(同図では顔部分領域50b,52b,54b)から所定時間ごとに所定数(第1の個数よりも多い第2の個数)の星形画像70が発生する様子が表されるとともに、所定時間ごとに、検出された顔部分領域のうちから2つがランダムに選択され、それら2つの顔部分領域間で顔部分が入れ替わる様子が表される。同図の例では、顔部分領域50bに対応する顔画像50aが顔部分領域54bに向かって移動し、顔部分領域54bに対応する顔画像54aは顔部分領域50bに向かって移動している。この場合、最終的に、顔部分領域54bに顔画像50aが表示され、顔部分領域50bに顔画像54aが表示される。その後、所定時間が経過すると、検出された顔部分領域のうちから2つが再び選択され、それら2つの顔部分領域間で顔画像の入れ替えが実行される。以降、以上のような顔部分の入れ替えが繰り返される。
以上のように、実施形態2に係るエンタテイメントシステム10では、ユーザは自分や他人の顔を手等で覆い隠したり、それをやめることによって、画面に施されるエフェクト処理の種類を変化させることが可能になっている。言い換えれば、ユーザは自分や他人の顔を手等で覆い隠したり、それをやめたりすることによって、画面に施される各種エフェクト処理をオンオフさせることが可能になっている。
図14は、実施形態2に係るエンタテイメントシステム10において実現される機能ブロックのうち、本発明に関連するものを主として示す図である。なお、同図では、実施形態1に係るエンタテイメントシステム10において実現される機能ブロック(図6参照)と同様の機能ブロックについては同一の符号を付している。それらの機能ブロックについては説明を省略する。
図14に示すように、実施形態2に係るエンタテイメントシステム10は、画像入力部60と、デコード部62と、顔認識部64と、画像表示部66と、を含んで構成される。このうち、画像表示部66はエフェクト処理部65を含んで構成される。
[1.エフェクト処理部]
エフェクト処理部65は、顔認識部64による認識結果に基づき、モニタ26に表示される画面に対してエフェクト処理を施す。本実施の形態では、エフェクト処理部65は、画面に対してエフェクト処理の種類を顔認識部64による認識結果に基づいて変化させる。エフェクト処理部65は、エフェクト処理選択部67と、顔部分入替部68と、星形画像発生部69と、を含んで構成される。
[2.エフェクト処理選択部]
エフェクト処理選択部67は、所定時間(本実施の形態では1/60秒)ごとに、複数種類のエフェクト処理のうちの少なくとも1つを、顔認識部64による認識結果に基づいて選択する。エフェクト処理選択部67によって選択されたエフェクト処理が、モニタ26に表示される画面に対して施されることになる。ここで、「複数種類のエフェクト処理」とは、例えば「星形画像の発生」や「顔部分の入れ替え」である。また例えば、「複数種類のエフェクト処理」とは、所定時間ごとの発生数の異なる「星形画像の発生」である。
本実施の形態では、エフェクト処理選択部67は、複数種類のエフェクト処理のうちの少なくとも1つを、顔認識部64によって認識された顔部分領域の数に基づいて選択する。本実施の形態では、例えば図15に示すようなエフェクト処理情報がエフェクト処理選択部67に保持される。同図に示すように、このエフェクト処理情報は、顔認識部64によって認識された顔部分領域の数と、画面に施されるエフェクト処理の種類と、を対応づけてなる情報である。同図において、「○」はそのエフェクト処理が画面に施されることを示しており、「−」はそのエフェクト処理が画面に施されないことを示している。
[3.星形画像発生部]
星形画像発生部69は、各星形画像70の現在位置や移動方向等を特定するための情報を記憶し、星形画像70の発生状況を管理する。星形画像発生部69には、例えば図16に示すような星形画像発生状況テーブルが記憶される。同図に示すように、この星形画像発生状況テーブルには、「星形画像ID」フィールドと、「移動方向」フィールドと、「現在位置」フィールドと、が含まれる。なお、「星形画像ID」フィールドには、各星形画像70を一意に識別する識別情報が格納される。「移動方向」フィールドには、各星形画像70の移動方向を特定するための情報が格納される。「現在位置」フィールドには、各星形画像70の現在位置を特定するための情報が格納される。
次に、実施形態2に係るエンタテイメントシステム10において実行される処理について説明する。図17は、エンタテイメントシステム10において実行される処理のうち、本発明に関連するものを主として示すフロー図である。同図に示す処理は、光ディスク36等から読み出されるプログラムや通信ネットワークを介して供給されるプログラムがメインプロセッサ12やサブプロセッサ14c等によって実行されることによって実現される。また、同図に示す処理は所定時間(本実施の形態では1/60秒)ごとに実行される。
図17に示すように、この処理では、まず顔認識処理が顔認識部64によって実行する(S201)。すなわち、顔認識部64はデコード部62によるデコード処理後の画像データから顔部分領域を認識し、その認識結果に基づいて顔部分領域テーブルを更新する。
次に、エフェクト処理選択部67は、顔認識部64によって認識された顔部分領域の数が0又は2であるか否かを判定する(S202)。顔認識部64によって認識された顔部分領域の数は、顔部分領域テーブルを参照することにより取得される。
顔認識部64によって認識された顔部分領域の数が0及び2以外である場合、星形画像発生部69は星形画像70の発生状況を更新する(S203)。このステップでは、例えば図18に示す処理(星形画像発生状況更新処理)が実行され、星形画像発生状況テーブルが更新される。
図18に示すように、この処理ではカウンタsがインクリメントされる(S301)。カウンタsは初期値0の変数であり、星形画像70の発生タイミングを計るために用いられる。
次に、星形画像発生部69は、星形画像発生状況テーブルに保持される各星形画像70の現在位置を更新する(S302)。すなわち、星形画像発生部69は、星形画像発生状況テーブルの各レコードの「現在位置」フィールドの内容を、「そのレコードの『現在位置』フィールドの内容によって特定される位置から、そのレコードの『移動方向』フィールドの内容によって特定される方向に、所定距離(1/60秒ごとの移動距離)だけ移動してなる位置」を示す情報に更新する。
次に、星形画像発生部69は、画面外に出た星形画像70が存在するか否かを判定する(S303)。各星形画像70が画面外に出たか否かは、星形画像発生状況テーブルの各レコードの「現在位置」フィールドの内容に基づいて判定される。画面外に出た星形画像70が存在する場合、星形画像発生部69は、その星形画像70に係るレコードを星形画像発生状況テーブルから削除する(S304)。
次に、星形画像発生部69は、カウンタsの値が所定の定数T3に等しいか否かを判定する(S305)。ここで、定数T3は、星形画像70の発生間隔を1/60秒単位で示す数値情報である。星形画像発生部69は、カウンタsの値が定数T3に等しい場合、星形画像発生状況テーブルに新たなレコードを追加する(S306)。
例えば、顔認識部64によって認識された顔部分領域の数が1である場合、星形画像発生部69は、所定数(第1の個数)のレコードを星形画像発生状況テーブルに追加する。この場合、新たに追加されるレコードの「星形画像ID」フィールドには、重複しないように自動的に決定される識別情報が格納される。また、「移動方向」フィールドには、各星形画像ごとに乱数に基づいて決定された移動方向を特定する情報が格納される。また、「現在位置」フィールドには、顔認識部64によって認識された顔部分領域の代表位置を示す情報が格納される。また例えば、顔認識部64によって認識された顔部分領域の数が3である場合、星形画像発生部69は、各顔部分領域ごとに、所定数(第2の個数)のレコードを星形画像発生状況テーブルに追加する。この場合、新たに追加されるレコードの「現在位置」フィールドには、そのレコードに係る顔部分領域の代表位置を示す情報が格納される。
また、S202において、顔認識部64によって認識された顔部分領域の数が0又は2であると判定された場合、星形画像発生部69は星形画像70の発生状況を初期化する(S204)。このステップでは、星形画像発生状況テーブルが初期化される。すなわち、星形画像発生状況テーブルのレコードがすべて削除される。また、このステップでは、星形画像発生状況更新処理において参照されるカウンタsの値が0に初期化される。
S203又はS204の処理が実行された後、エフェクト処理選択部67は、顔認識部64によって認識された顔部分領域の数が0又は1であるか否かを判定する(S205)。顔認識部64によって認識された顔部分領域の数が0及び1以外である場合、顔部分入替部68は顔部分の入替状況を更新する(S206)。このステップでは、図9に示す処理(S109を除く)と同様の処理(顔部分入替状況更新処理)が実行され、顔部分入替状況テーブルが更新される。
一方、顔認識部64によって認識された顔部分領域の数が0又は1である場合、顔部分入替部68は顔部分の入替状況を初期化する(S207)。このステップでは、顔部分入替状況テーブルが初期化される。具体的には、各レコードにおいて「現在領域ID」フィールドの値と「顔画像ID」フィールドの値とが異なる場合には、「現在領域ID」フィールドの値が「顔画像ID」フィールドの値に更新される。また、「移動先領域ID」フィールドにいずれかの領域IDが格納されている場合には、「移動先領域ID」フィールドの内容がクリアされる。また、このステップでは、顔部分入替状況更新処理において参照されるカウンタtの値が0に初期化される。
S201乃至S207の処理が実行された後、画像表示部66は、デコード部62によるデコード処理後の画像データと、星形画像発生状況テーブルの内容と、顔部分領域テーブル及び顔部分入替状況テーブルの内容と、に基づいて、例えば図10乃至12に示すような画面をフレームバッファに生成する(S208)。
具体的には、画像表示部66はS109の処理の場合と同様にして、デコード部62のデコード処理後の画像データに基づく画像上に各顔画像が顔部分入替状況テーブルの内容に応じて配置されてなる画面画像をフレームバッファ上に生成する。その後、画像表示部66は星形画像発生状況テーブルの各レコードを順次読み出し、そのレコードの「現在位置」フィールドの内容によって特定される、フレームバッファ上に生成された画像上の位置に、星形画像70を順次描画する。このようにしてフレームバッファに生成された画像は所定のタイミングでモニタ26に出力される。
以上説明したように、本実施形態2に係るエンタテインメントシステム10では、カメラユニット46から入力された画像に基づく画面がモニタ26に表示され、その画面には、カメラユニット46の入力画像から検出された顔部分領域に関連したエフェクト処理が画面に施される。特に、本実施の形態に係るエンタテイメントシステム10では、カメラユニット46の入力画像から検出された顔部分領域の数に基づいて、画面に施されるエフェクト処理の種類が変化するようになっている。このため、ユーザは自分や他人の顔を手等で覆い隠したり、それをやめることによって、画面に施されるエフェクト処理の種類を変化させることが可能になっている。言い換えれば、ユーザは自分や他人の顔を手等で覆い隠したり、それをやめることによって、画面に施される各種エフェクト処理をオンオフさせることが可能になっている。その結果、本実施の形態に係るエンタテイメントシステム10によれば、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
なお、本実施形態2では、エフェクト処理部65(エフェクト処理制限手段)は、顔認識部64によって認識された顔部分領域の数が所定の基準数より多い場合、顔認識部64によって認識された顔部分領域のうちから超過数分の顔部分領域を選択し、その選択された顔部分領域に関連したエフェクト処理の実行を制限するようにしてもよい。
例えば、基準数が3であり、かつ、図19に示すように顔認識部64によって4つの顔部分領域(顔部分領域50b,52b,54b,56b)が認識される場合、エフェクト処理部65(エフェクト処理制限手段)は、認識された顔部分領域のうちから1つを選択し、その顔部分領域(同図では顔部分領域50b)からの星形画像70の発生を抑止するとともに、その顔部分領域を顔部分の入れ替えの対象から除くようにしてもよい。ここで、エフェクト処理制限の対象とする顔部分領域はランダムに選択されるようにしてもよいし、最も早くから認識されていた顔部分領域から順に選択されるようにしてもよい。
以上のようにすれば、エンタテイメントシステム10の処理負荷が大きくなり過ぎることを抑止できるようになり、また、過剰なエフェクト処理が画面に施される(例えば、星形画像70の数が多くなりすぎる)ことを抑止できるようになる。
また、本実施形態2では、顔認識部64(顔部品認識手段)は、例えば目、鼻や口等の顔部品の画像領域(顔部品部分領域)を認識するようにしてもよい。この場合、エフェクト処理部65は、画面に対して施されるエフェクト処理の種類を、その認識結果に基づいて変化させるようにしてもよい。すなわち、エフェクト処理選択部67は、エフェクト処理の選択をその認識結果に基づいて行うようにしてもよい。
例えば、顔認識部64(顔部品認識手段)は、カメラユニット46の入力画像から目部分領域を認識するようにしてもよい。この場合、エフェクト処理選択部67は、顔認識部64によって認識される目部分領域の数と、画面に施されるエフェクト処理の種類と、を対応づけてなる情報を保持しておき、顔認識部64(顔部品認識手段)によって認識された目部分領域の数に基づいて、エフェクト処理の選択を行うようにしてもよい。このようにして、顔認識部64(顔部品認識手段)によって認識された目部分領域の数に基づいて、画面に施されるエフェクト処理の種類が変化するようにしてもよい。
また例えば、エフェクト処理部67は、顔認識部64によって認識される顔部分領域の数と、顔認識部64(顔部品認識手段)によって認識される目部分領域の数と、の組み合わせと、画面に施されるエフェクト処理の種類と、を対応づけてなる情報を保持しておき、顔認識部64によって認識された顔部分領域の数と、顔認識部64(顔部品認識手段)によって認識された目部分領域の数と、の組み合わせに基づいて、エフェクト処理の選択を行うようにしてもよい。このようにして、顔認識部64によって認識された顔部分領域の数と、顔認識部64(顔部品認識手段)によって認識された目部分領域の数と、の組み合わせに基づいて、画面に施されるエフェクト処理の種類が変化するようにしてもよい。
以上のようにすれば、ユーザは目を閉じたり開いたりすることによって、画面に施されるエフェクト処理の種類を変化させることが可能になる。言い換えれば、ユーザは目を閉じたり開いたりすることによって、画面に施される各種エフェクト処理をオンオフさせることが可能になる。その結果として、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
また、本実施形態2では、エフェクト処理部65(顔姿勢判断手段)は、顔認識部64による認識結果に基づいて複数の人物の各々の顔の姿勢を判断し、その判断結果に基づいて、画面に施されるエフェクト処理の種類を変化させるようにしてもよい。すなわち、エフェクト処理選択部67は、複数の人物の各々の顔の姿勢の判断結果に基づいて、エフェクト処理の選択を行うようにしてもよい。
例えば、エフェクト処理選択部67は、複数の人物の各々の顔の各姿勢(向き)の組み合わせと、画面に施されるエフェクト処理の種類と、を対応づけてなる情報を保持しておき、複数の人物の各々の顔の各姿勢(向き)の組み合わせに基づいて、エフェクト処理の選択を行うようにしてもよい。このようにして、複数の人物の各々の顔の各姿勢(向き)の組み合わせに基づいて、画面に施されるエフェクト処理の種類が変化するようにしてもよい。
以上のようにすれば、ユーザは顔の姿勢(向き)を変えることによって、画面に施されるエフェクト処理の種類を変化させることが可能になる。言い換えれば、ユーザは顔の姿勢(向き)を変えることによって、画面に施される各種エフェクト処理をオンオフさせることが可能になる。その結果として、複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像の表示に係る興趣を向上できるようになる。
なお、本発明は以上に説明した実施の形態に限定されるものではない。
例えば、エンタテイメントシステム10のモニタ26に表示される「複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画像」は、複数のカメラユニット46の各々から通信ネットワーク等を介して入力された画像データに基づいて生成される画像であってもよい。すなわち、画像入力部60には、複数のカメラユニット46が含まれるようにしてもよい。また、デコード部62には、複数のカメラユニット46の各々によって生成された画像データが供給されるようにしてもよい。そして、顔認識部64や画像表示部66には、デコード部62によってデコード処理が施された各画像データに基づいて生成される画像データが供給されるようにしてもよい。
また例えば、実施形態2に係るエンタテイメントシステム10では、顔認識部64による認識結果に基づくエフェクト処理とともに、又は顔認識部64による認識結果に基づくエフェクト処理に代えて、顔認識部64による認識結果に基づく出力(例えば、音声出力やコントローラ42の振動出力)を行うようにしてもよい。
また例えば、本発明はエンタテインメントシステム以外のコンピュータにも適用することができる。例えばパーソナルコンピュータにも適用することができる。
実施形態1及び2に係るエンタテインメントシステムのハードウェア構成を示す図である。 実施形態1及び2に係るMPUの構成を示す図である。 モニタに表示される画面の一例を示す図である。 モニタに表示される画面の一例を示す図である。 モニタに表示される画面の一例を示す図である。 実施形態1に係るエンタテインメントシステムの機能ブロック図である。 顔部分領域テーブルの一例を示す図である。 顔部分入替状況テーブルの一例を示す図である。 エンタテインメントシステムにおいて実行される処理について示すフロー図である。 モニタに表示される画面の一例を示す図である。 モニタに表示される画面の一例を示す図である。 モニタに表示される画面の一例を示す図である。 モニタに表示される画面の一例を示す図である。 実施形態2に係るエンタテインメントシステムの機能ブロック図である。 エフェクト処理情報の一例を示す図である。 星形画像発生状況テーブルの一例を示す図である。 エンタテインメントシステムにおいて実行される処理について示すフロー図である。 エンタテインメントシステムにおいて実行される処理について示すフロー図である。 モニタに表示される画面の一例を示す図である。
符号の説明
10 エンタテインメントシステム、12 メインプロセッサ、14a,14b,14c,14d,14e,14f,14g,14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、40 インタフェース、42 コントローラ、44 インタフェース、46 カメラユニット、50,52,54,56 人物、50a,52a,54a,56a 顔画像、50b,52b,54b,56b 顔画像領域、60 画像入力部、62 デコード部、64 顔認識部、65 エフェクト処理部、66 画像表示部、67 エフェクト処理選択部、68 顔部分入替部、69 星形画像発生部、70 星形画像。

Claims (8)

  1. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示する表示手段と、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段と、
    前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段と、
    を含み、
    前記顔認識手段は、前記複数の人物の各々の目部分の画像領域を認識する顔部品認識手段を含み、
    前記エフェクト処理手段は、前記顔部分の画像領域の数と前記目部分の画像領域の数との組み合わせと、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される前記情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔認識手段によって認識された顔部分の画像領域の数と、前記顔部品認識手段によって認識された目部分の画像領域の数と、の組み合わせに基づいて変化させる、
    ことを特徴とする画像表示装置。
  2. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示する表示手段と、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段と、
    前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段と、
    を含み、
    前記エフェクト処理手段は、
    前記顔認識手段による認識結果に基づいて、前記複数の人物の各々の顔の姿勢を判断する顔姿勢判断手段を含み、
    前記複数の人物の各々の顔の姿勢の判断結果と、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔姿勢判断手段による判断結果に基づいて変化させる、
    ことを特徴とする画像表示装置。
  3. 請求項2に記載の画像表示装置において、
    前記エフェクト処理手段は、前記複数の人物の各々の顔の姿勢の組み合わせと、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される前記情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔姿勢判断手段によって判断された前記複数の人物の各々の顔の姿勢の組み合わせに基づいて変化させることを特徴とする画像表示装置。
  4. 請求項1乃至3のいずれかに記載の画像表示装置において、
    前記エフェクト処理手段によって前記画面に対して施されるエフェクト処理は、前記顔認識手段によって認識された画像領域に関連するエフェクト処理であり、
    前記エフェクト処理手段は、前記顔認識手段によって認識された画像領域の数が所定の基準数を超える場合、前記顔認識手段によって認識された画像領域のうちの少なくとも1つをランダムに又は前記顔認識手段によって認識された順に選択し、その画像領域をエフェクト処理の対象から除くことによって、その画像領域に関連するエフェクト処理の実行を抑止するエフェクト処理制限手段を含む、
    ことを特徴とする画像表示装置。
  5. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示手段に表示させるためのステップと、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識するための顔認識ステップと、
    前記顔認識ステップによる認識結果に基づき、前記画面に対してエフェクト処理を施すためのエフェクト処理ステップと、
    を含み、
    前記顔認識ステップは、前記複数の人物の各々の目部分の画像領域を認識する顔部品認識ステップを含み、
    前記エフェクト処理ステップは、前記顔部分の画像領域の数と前記目部分の画像領域の数との組み合わせと、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される前記情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔認識ステップによって認識された顔部分の画像領域の数と、前記顔部品認識ステップによって認識された目部分の画像領域の数と、の組み合わせに基づいて変化させるステップを含む、
    ことを特徴とする画像表示装置の制御方法。
  6. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示手段に表示させる手段、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段、及び、
    前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段、
    としてコンピュータを機能させ、
    前記顔認識手段は、前記複数の人物の各々の目部分の画像領域を認識する顔部品認識手段を含み、
    前記エフェクト処理手段は、前記顔部分の画像領域の数と前記目部分の画像領域の数との組み合わせと、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される前記情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔認識手段によって認識された顔部分の画像領域の数と、前記顔部品認識手段によって認識された目部分の画像領域の数と、の組み合わせに基づいて変化させる、
    ことを特徴とするプログラム。
  7. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示手段に表示させるためのステップと、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識するための顔認識ステップと、
    前記顔認識ステップによる認識結果に基づき、前記画面に対してエフェクト処理を施すためのエフェクト処理ステップと、
    を含み、
    前記エフェクト処理ステップは、
    前記顔認識ステップによる認識結果に基づいて、前記複数の人物の各々の顔の姿勢を判断する顔姿勢判断ステップと、
    前記複数の人物の各々の顔の姿勢の判断結果と、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔姿勢判断ステップによる判断結果に基づいて変化させるステップと、を含む、
    ことを特徴とする画像表示装置の制御方法。
  8. 複数の人物の顔を含む少なくとも一部を撮像して生成された画像データに基づく画面を表示手段に表示させる手段、
    前記画像データから前記複数の人物の各々の顔部分の画像領域を認識する顔認識手段、及び、
    前記顔認識手段による認識結果に基づき、前記画面に対してエフェクト処理を施すエフェクト処理手段、
    としてコンピュータを機能させ、
    前記エフェクト処理手段は、
    前記顔認識手段による認識結果に基づいて、前記複数の人物の各々の顔の姿勢を判断する顔姿勢判断手段を含み、
    前記複数の人物の各々の顔の姿勢の判断結果と、前記画面に対して施すエフェクト処理の種類と、を対応づけてなる情報を記憶してなる手段に記憶される情報を用いて、前記画面に対して施すエフェクト処理の種類を、前記顔姿勢判断手段による判断結果に基づいて変化させる、
    ことを特徴とするプログラム。
JP2005277921A 2005-05-13 2005-09-26 画像表示装置、画像表示装置の制御方法及びプログラム Expired - Fee Related JP4809655B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005277921A JP4809655B2 (ja) 2005-05-13 2005-09-26 画像表示装置、画像表示装置の制御方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005140774 2005-05-13
JP2005140774 2005-05-13
JP2005277921A JP4809655B2 (ja) 2005-05-13 2005-09-26 画像表示装置、画像表示装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2006344199A JP2006344199A (ja) 2006-12-21
JP4809655B2 true JP4809655B2 (ja) 2011-11-09

Family

ID=37641086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005277921A Expired - Fee Related JP4809655B2 (ja) 2005-05-13 2005-09-26 画像表示装置、画像表示装置の制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4809655B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4978271B2 (ja) * 2007-03-28 2012-07-18 カシオ計算機株式会社 撮像装置、撮像画像の表示方法およびプログラム
JP5750253B2 (ja) * 2010-09-28 2015-07-15 任天堂株式会社 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
KR101765214B1 (ko) 2011-07-01 2017-08-04 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임을 위한 안전 설계
KR101566807B1 (ko) * 2011-08-31 2015-11-13 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임을 위한 위치 설정
KR101567591B1 (ko) 2011-12-02 2015-11-20 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임 시스템을 위한 안전 체계
JP5594305B2 (ja) * 2012-02-17 2014-09-24 カシオ計算機株式会社 画像処理装置、制御方法及びプログラム
JP2014068107A (ja) * 2012-09-25 2014-04-17 Zenrin Datacom Co Ltd 画像処理装置、画像処理システム、画像処理方法およびコンピュータプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270257A (ja) * 1999-01-12 2000-09-29 Sony Corp 情報処理装置および方法、並びに提供媒体
JP4656615B2 (ja) * 2001-01-12 2011-03-23 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
EP1231565A1 (en) * 2001-02-09 2002-08-14 GRETAG IMAGING Trading AG Image colour correction based on image pattern recognition, the image pattern including a reference colour
WO2005031612A1 (ja) * 2003-09-26 2005-04-07 Nikon Corporation 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム
JP2005182196A (ja) * 2003-12-16 2005-07-07 Canon Inc 画像表示方法および画像表示装置

Also Published As

Publication number Publication date
JP2006344199A (ja) 2006-12-21

Similar Documents

Publication Publication Date Title
JP5026692B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3847753B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4809655B2 (ja) 画像表示装置、画像表示装置の制御方法及びプログラム
JP5550248B2 (ja) プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
JP2002196855A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2011186834A (ja) ゲームプログラム、記録媒体、及びコンピュータ装置
JP5502043B2 (ja) ゲーム装置、および、プログラム
US8570330B2 (en) Image processing device, image processing method and information storage medium
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2002102532A (ja) 情報処理システム、方法、コンピュータプログラム、記録媒体、半導体デバイス
JP4824409B2 (ja) 情報処理システム、エンタテインメントシステム、および情報処理システムの入力受け付け方法
JP7014913B2 (ja) メッセージ出力装置、学習装置、メッセージ出力方法、学習方法及びプログラム
JP7285349B2 (ja) メッセージ出力装置、メッセージ出力方法及びプログラム
CN115886816B (zh) 基于vr/ar设备的疲劳检测方法及vr/ar设备
JP7078036B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5223000B2 (ja) ゲーム装置、ゲーム装置の制御方法、プログラム、及び情報記憶媒体
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2004280856A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005319193A (ja) 画像処理システム、プログラム、情報記憶媒体および画像処理方法
JP2003251069A (ja) ゲームプログラム
JP2004089693A (ja) 情報処理システム、情報の出力制限方法、コンピュータプログラム、記録媒体、半導体デバイス

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4809655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees