JP5564384B2 - 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法 - Google Patents

画像生成プログラム、撮像装置、撮像システム、及び画像生成方法 Download PDF

Info

Publication number
JP5564384B2
JP5564384B2 JP2010217531A JP2010217531A JP5564384B2 JP 5564384 B2 JP5564384 B2 JP 5564384B2 JP 2010217531 A JP2010217531 A JP 2010217531A JP 2010217531 A JP2010217531 A JP 2010217531A JP 5564384 B2 JP5564384 B2 JP 5564384B2
Authority
JP
Japan
Prior art keywords
face
image
imaging unit
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010217531A
Other languages
English (en)
Other versions
JP2012074878A (ja
Inventor
祐亮 秋房
直子 森
美鈴 吉田
亜沙子 鍵田
隆薫 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2010217531A priority Critical patent/JP5564384B2/ja
Priority to US13/247,348 priority patent/US8648924B2/en
Publication of JP2012074878A publication Critical patent/JP2012074878A/ja
Application granted granted Critical
Publication of JP5564384B2 publication Critical patent/JP5564384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00183Photography assistance, e.g. displaying suggestions to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮像装置のコンピュータに実行させる画像生成プログラム、撮像装置、撮像システム、及び画像生成方法に関し、より特定的には、人物等の顔を撮像して得られた撮像画像に対して顔認識機能を用いて画像処理を行う撮像装置のコンピュータに実行させる画像生成プログラム、撮像装置、撮像システム、及び画像生成方法に関する。
近年、撮像装置は多機能化しており、人物の顔を撮像して得られた撮像画像から人物の顔の特徴点を抽出して顔を認識する機能を備えた撮像装置が存在する。例えば特許文献1には、撮像画像から被写体である人物の顔に対応する顔領域を検出して、その顔領域に対して、ユーザが要求する処理を行うことができる電子カメラが開示されている。
特開2007−280291号公報
ところで、特許文献1に記載の電子カメラが備える例えば顔の肌色を補正するといった一般的な画像処理機能だけでなく、撮影が楽しくなるような興趣性の高い撮像画像が得られる画像処理機能が求められている。
それ故に、本発明の目的は、興趣性が高い撮像画像が得られる画像生成プログラム、撮像装置、撮像システム、及び画像生成方法を提供することである。
本発明に係る画像生成プログラムは、撮像装置のコンピュータに実行させる画像生成プログラムであって、コンピュータを、撮像画像取得手段、顔画像取得手段、及び顔合成画像生成手段として機能させる。撮像画像取得手段は、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する。顔画像取得手段は、撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、第1顔領域の少なくとも一部の画像を第1顔画像として取得する。顔合成画像生成手段は、複数の顔領域のうちの第1顔領域とは異なる第2顔領域の少なくとも一部を第1顔画像に差し替えた顔合成画像を生成する。
この構成では、例えば、撮像部によって被写体としての2人の顔がリアルタイムに撮像されて、1人目の顔全体に相当する第1顔領域の少なくとも一部を表す第1顔画像が顔画像取得手段によって取得される。そして、2人目の顔全体に相当する第2顔領域の少なくとも一部を第1顔画像に差し替えた顔合成画像が顔合成画像生成手段によって生成される。その結果、例えばある人物の顔全体を別の人物の顔に差し替えた顔合成画像や、ある人物の顔の一部(例えば目)を別の人物の顔の一部(同じく目)に差し替えた顔合成画像が得られる。すなわち、被写体としての複数人の顔をそのまま再現した撮像画像ではなく、複数人の顔を合成した興趣性が高い撮像画像を得ることが可能になる。
なお、撮像部は1つであってもよいし、複数であってもよい。撮像部が1つの場合、複数人の顔を表す1つの撮像画像が取得される。この場合、この1つの撮像画像に含まれている第1顔領域内の画像を同じ1つの撮像画像に含まれている第2顔領域の画像に合成し
た顔合成画像が生成される。一方、撮像部が例えば2つである場合、複数人の顔を表す2つの撮像画像が取得される。この場合、一方の撮像画像に含まれている第2顔領域を、他方の撮像画像に含まれている第1顔画像に差し替えた顔合成画像が生成される。
また、例えば3人の顔が撮影されるような場合に、1人目の顔全体に相当する第1顔領域の少なくとも一部を表す第1顔画像を取得して、2人目と3人目の顔全体に相当する2つの第2顔領域に対して、それぞれの第2顔領域の一部を第1顔画像に差し替えた顔合成画像を生成するようにしてもい。この場合、被写体としての3人の顔を撮影することで、3人とも同じ顔をした極めて興趣性が高い撮像画像が得られる。
コンピュータを、撮像画像取得手段によってリアルタイムに取得される撮像画像を表示手段に表示させ、顔合成画像生成手段によって顔合成画像が生成されたことを条件として、その顔合成画像を撮像画像に代えて表示手段に表示させる第1表示制御手段として更に機能させてもよい。
この構成によれば、被写体である複数人の顔を忠実に再現した撮像画像の表示が興趣性が高い顔合成画像に切り替わるので、撮像装置のユーザが表示手段を見て顔合成画像を容易に確認することができる。例えば撮影が指示されたタイミングで表示手段の表示内容が撮像画像から顔合成画像に切り替わるようにすれば、撮影直後に顔合成画像を容易に確認することができ、撮影の楽しさが向上する。
所定の操作に応じて少なくとも1つの撮像部により取得された撮像画像を用いて、顔画像取得手段が第1顔画像を取得する処理、及び顔合成画像生成手段が顔合成画像を生成する処理が実行されてもよい。
この構成によれば、撮影を指示する所定の操作が行われたときに、第1顔画像を取得して顔合成画像を生成するという一連の処理が行われる。すなわち、撮影時に顔合成画像を得ることが可能になる。このため、例えば撮影直後に顔合成画像を表示手段に表示させるようにすれば、撮像装置のユーザがより楽しく撮影を行うことが可能になる。
コンピュータを、判定手段及び撮影禁止手段として更に機能させてもよい。判定手段は、少なくとも1つの撮像部によりリアルタイムに取得される撮像画像に基づいて、少なくとも1つの撮像部の撮像範囲に被写体としての複数の顔が含まれているか否かを判定する。撮影禁止手段は、撮像範囲に複数の顔が含まれていないと判定手段によって判定されている間、所定の操作に応じた撮影を禁止する。
顔合成画像を生成するためには、少なくとも第1の顔領域及び第2の顔領域を検出可能な撮像画像、すなわち、顔として識別可能な複数の顔画像を含む撮像画像を取得する必要がある。上記構成によれば、顔合成画像を得るために複数人が協力して撮影を行う必要があるため、楽しく撮影することが可能になる。
コンピュータを、撮像範囲に複数の顔が含まれていると判定手段によって判定されている間、所定の操作に応じた撮影が可能であることを報知する報知手段として更に機能させてもよい。
この構成によれば、どのタイミングで所定の操作を行えば顔合成画像を得るための撮影に成功するかをユーザが容易に把握することができ、ユーザが撮影をスムーズに行うことができる。
コンピュータを、第1撮像部により撮像された第1撮像画像を表示手段の第1表示領域
に表示させ、第2撮像部により撮像された第2撮像画像を第1表示領域とは異なる表示手段の第2表示領域に表示させる第2表示制御手段として更に機能させてもよい。
この構成によれば、2つの撮像部によって撮像された撮像画像が異なる表示領域に別々に表示されるので、各撮像部の撮像範囲に顔が含まれているか否かを容易に確認することができ、その結果、顔合成画像を得るための撮影をスムーズに行うことが可能になる。
第2表示制御手段は、顔合成画像生成手段によって顔合成画像が生成されたことを条件として、その顔合成画像を第1撮像画像及び第2撮像画像に代えて表示手段に表示させてもよい。
この構成によれば、顔合成画像が生成されることにより、表示手段の表示内容が第1撮像画像及び第2撮像画像から顔合成画像に自動的に切り替わるので、撮像装置のユーザが、この表示内容が切り替わるのを見て楽しむことができる。なお、顔合成画像は、表示手段の第1表示領域及び第2表示領域を含む1つの表示領域に表示されてもよいし、第1表示領域及び第2表示領域とは別の表示領域に表示されてもよい。
第1撮像部及び第2撮像部のいずれか一方の撮像方向が前記表示手段の法線方向と一致し、且つ第1撮像部及び第2撮像部の他方の撮像方向が法線方向の逆方向と一致することが好ましい。
この構成によれば、撮像装置のユーザが、第1表示領域と第2表示領域の両方に顔が表示されているかを確認しながら、別の人と向かい合った状態で撮影を行うことになる。このため、より楽しく撮影を行うことが可能になる。
本発明は、撮像画像取得手段、顔画像取得手段、及び顔合成画像生成手段を備える撮像装置として捉えることもできる。撮像画像取得手段は、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する。顔画像取得手段は、撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、第1顔領域の少なくとも一部の画像を第1顔画像として取得する。顔合成画像生成手段は、複数の顔領域のうちの第1顔領域とは異なる第2顔領域の少なくとも一部を第1顔画像に差し替えた顔合成画像を生成する。
また、本発明は、撮像画像取得手段、顔画像取得手段、及び顔合成画像生成手段を含む撮像システムとして捉えることもできる。撮像画像取得手段は、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する。顔画像取得手段は、撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、第1顔領域の少なくとも一部の画像を第1顔画像として取得する。顔合成画像生成手段は、複数の顔領域のうちの第1顔領域とは異なる第2顔領域の少なくとも一部を第1顔画像に差し替えた顔合成画像を生成する。
また、本発明は、撮像装置に実行される画像生成方法として捉えることもできる。この画像生成方法では、まず、少なくとも1つの撮像部によりリアルタイムに撮像画像が取得される。次に、取得された撮像画像に含まれる複数の顔領域から第1顔領域が検出され、第1顔領域の少なくとも一部の画像が第1顔画像として取得される。そして、複数の顔領域のうちの第1顔領域とは異なる第2顔領域の少なくとも一部を第1顔画像に差し替えた顔合成画像が生成される。
この発明によれば、被写体としての複数人の顔をそのまま再現した撮像画像ではなく、
複数人の顔を合成した興趣性が高い撮像画像を得ることができる。
開いた状態のゲーム装置10の正面図 開いた状態のゲーム装置10の右側面図 閉じた状態のゲーム装置10の左側面図 閉じた状態のゲーム装置10の正面図 閉じた状態のゲーム装置10の右側面図 閉じた状態のゲーム装置10の背面図 ゲーム装置10の内部構成の一例を示すブロック図 ゲーム装置10を用いた撮影方法について説明するための説明図 上側LCD22と下側LCD12の表示例を示す図 顔認識処理に成功していないときに上側LCD22に表示される画像の一例を示す上側LCD22の画面図 顔認識処理に成功しているときに上側LCD22に表示される画像の一例を示す上側LCD22の画面図 撮影に成功した直後に上側LCD22に表示される顔合成画像80の一例を示す上側LCD22の画面図 撮影に失敗した直後に上側LCD22に表示されるエラーメッセージ83の一例を示す上側LCD22の画面図 上側LCD22に表示されたカメラ画像に含まれている2つの顔領域91,92を例示する上側LCD22の画面図 顔合成処理の概要について説明するための説明図 メインメモリ32のメモリマップ 顔合成画像を生成するためにゲーム装置10で実行される処理の一例を示すフローチャート 図14のステップS18における顔合成処理の詳細フローチャート 外カメラ画像79に第1顔画像81をそのまま合成した場合に得られる顔合成画像の一例を示す上側LCD22の画面図 顔領域91を規定する特徴点P1〜P16を示す説明図 複数のポリゴンPG1を示す説明図 顔領域92を規定する特徴点P21〜P36を示す説明図 複数のポリゴンPG2を示す説明図 ゲーム装置10を用いた他の撮影方法について説明するための説明図 ゲーム装置10を用いた他の撮影方法について説明するための説明図
以下、適宜図面を参照しつつ、本発明の一実施形態に係る画像生成プログラムを実行する撮像装置について説明する。なお、本発明の画像生成プログラム及び撮像装置は任意のコンピュータシステムに適用可能であるが、本実施形態では、撮像装置の一例としての携帯型のゲーム装置10において、外部メモリ45に記録されている画像生成プログラムが実行される場合を例に説明する。
[ゲーム装置10の構成]
図1は、開いた状態のゲーム装置10の正面図である。図2は、開いた状態のゲーム装置10の右側面図である。図3Aは、閉じた状態のゲーム装置10の左側面図である。図3Bは、閉じた状態のゲーム装置10の正面図である。図3Cは、閉じた状態のゲーム装置10の右側面図である。図3Dは、閉じた状態のゲーム装置10の背面図である。
ゲーム装置10は、交換可能なメモリカード(外部メモリ45)内に記憶されたプログ
ラム、又はサーバや他のゲーム装置から受信したプログラムを実行可能である。また、ゲーム装置10は、画像を撮像する撮像部を有しており、撮像された撮像画像(以下「カメラ画像」という。)を表示したり保存したりすることができる。なお、以下の説明では、撮像部によりカメラ画像をリアルタイムに取得することを「撮像」といい、ユーザの指示に応じて撮像部によりカメラ画像を取得して保存することを「撮影」というものとする。
ゲーム装置10は、下側ハウジング11及び上側ハウジング21を備える。上側ハウジング21は、下側ハウジング11に対して開閉可能に連結されている。このため、ゲーム装置10は折り畳みが可能である。このゲーム装置10は、開いた状態(図1,2参照)で使用され、未使用時には閉じた状態(図3A〜図3D参照)で保管される。
[下側ハウジング11の構成]
図1〜図3Dに示されるように、下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12、タッチパネル13、各操作ボタン14(14A〜14L)、アナログスティック15、LED16A,16B、収容部17、マイクロフォン用孔18、及び無線スイッチ19が設けられている。
下側LCD12は、画像を平面的に表示する横長の表示画面を有しており、下側ハウジング11の内側面11Bの中央に設けられている。下側LCD12の画素数は、本実施形態では256dot×192dot(横×縦)であるが、これ以外の解像度であってもよい。なお、下側LCD12はLCDに限定されるものではなく、例えばEL(Electro Luminescence)を利用した表示装置等の他の表示装置であってもよい。
タッチパネル13は、下側LCD12の表示画面を覆うように設けられており、座標入力手段として機能する。タッチパネル13として、本実施形態では抵抗膜方式のタッチパネルが用いられるが、静電容量方式等の他の方式のタッチパネルが用いられてもよい。
収容部17(図1、図3Dに示す破線)には、ユーザがタッチパネル13に対する操作に使用するタッチペン28が下側ハウジング11の上面から収納される。なお、タッチパネル13に対する入力は、例えばユーザが指で行うことも可能である。
図1に示されるように、下側ハウジング11の内側面11Bには、十字ボタン14A、ボタン14B、ボタン14C、ボタン14D、ボタン14E、電源ボタン14F、セレクトボタン14J、HOMEボタン14K、及びスタートボタン14Lが設けられている。また、図3B及び図3Dに示されるように、下側ハウジング11の上面の左端部にLボタン14Gが設けられ、右端部にRボタン14Hが設けられている。また、図3Aに示されるように、下側ハウジング11の左側面には、音量ボタン14Iが設けられている。これらの操作ボタン14A〜14Lには、ゲーム装置10が実行するプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン14Aは選択操作等に使用され、Lボタン14G及びRボタン14Hは、撮像部による撮影の指示に使用される。
アナログスティック15(図1参照)は、方向を指示するデバイスである。このアナログスティック15及び十字ボタン14Aは、下側ハウジング11を把持したユーザが左手の親指で操作可能な位置に設けられている。アナログスティック15は、そのキートップが、下側ハウジング11の内側面11Bに対して平行にスライド可能に構成されており、ゲーム装置10が実行するプログラムに応じて機能する。
下側ハウジング11の内側面11Bには、マイクロフォン用孔18が形成されている。下側ハウジング11の内部には、後述するマイク43(図4参照)が設けられており、マイクロフォン用孔18を介して入力された音がマイク43によって検出される。
図3Aに示されるように、下側ハウジング11の左側面には、開閉可能なカバー部11Cが設けられている。このカバー部11Cの内部には、データ保存用外部メモリ46(図1参照)をゲーム装置10に対して着脱可能に装着するためのコネクタ(不図示)が設けられている。データ保存用外部メモリ46は、このコネクタに接続された状態で、例えばゲーム装置10によって撮像されたカメラ画像を記憶(保存)する。
図3Dに示されるように、下側ハウジング11の上面には、挿入口11Dが形成されている。この挿入口11Dの内部には、画像生成プログラム等を記録した記録媒体としての外部メモリ45(図1参照)をゲーム装置10に対して着脱可能に装着するためのコネクタ(不図示)が設けられている。挿入口11Dから挿入された外部メモリ45がこのコネクタに接続されることで、画像生成プログラムがゲーム装置10に読み出される。
図1に示されるように、下側ハウジング11の下面には、第1LED16Aが設けられている。第1LED16Aは、ゲーム装置10の電源のON/OFF状況をユーザに通知する。図3Cに示されるように、下側ハウジング11の右側面には、第2LED16Bが設けられている。ゲーム装置10は、他の機器との間で無線通信を行うことが可能に構成されている。第2LED16Bは、ゲーム装置10の無線通信の確立状況をユーザに通知する。ゲーム装置10は、無線LANに接続する機能を有する。第2LED16Bに近接して設けられた無線スイッチ19が操作されることにより、この無線通信の機能が有効/無効になる。
[上側ハウジング21の構成]
上側ハウジング21には、上側LCD22(表示手段の一例)、外側撮像部23、内側撮像部24、3D調整スイッチ25、及び3Dインジケータ26が設けられている。
図1に示されるように、ゲーム装置10が折り畳まれた際に内側面11Bと対向する上側ハウジング21の内側面21Bに、上側LCD22が設けられている。上側LCD22は、横長の表示画面を有しており、内側面21Bの中央に設けられている。上側LCD22の画素数は、本実施形態では640dot×200dot(横×縦)であるが、これ以外の解像度であってもよい。なお、上側LCD22はLCDに限定されるものではなく、例えばELを利用した表示装置等の他の表示装置であってもよい。
上側LCD22は、立体視可能な画像(立体画像)を表示する表示装置である。上側LCD22は、実質的に同一の表示領域を用いて左目用画像と右目用画像とを表示する。具体的には、上側LCD22は、左目用画像と右目用画像とを所定単位で(例えば、1列ずつ)横方向に交互に表示する。なお、上側LCD22は、左目用画像と右目用画像とを交互に表示する方式の表示装置であってもよい。また、上側LCD22は、裸眼立体視可能な表示装置である。この場合、上側LCD22は、横方向に交互に表示される左目用画像と右目用画像とを左目及び右目のそれぞれに分解して見えるようにレンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、上側LCD22は、パララックスバリア方式のものとする。上側LCD22は、視差バリアを用いてユーザの左目に左目用画像をユーザの右目に右目用画像をそれぞれ視認させることにより、ユーザにとって立体感のある立体画像(立体視可能な画像)を表示する表示装置として機能する。なお、上側LCD22は、視差バリアを無効にすることができ、これにより、画像を平面的に表示することもできる。
3D調整スイッチ25は、図1及び図2に示されるように、上側ハウジング21の内側面11Bと右側面とが交差する部分に設けられている。この3D調整スイッチ25は、例えば上下方向へスライド可能なスライダを有している。このスライダが最下点位置に配置
されている場合、上側LCD22の視差バリアが無効にされ、上側LCD22に画像が平面的に表示される。一方、スライダが最下点よりも上側に配置されている場合、上側LCD22に画像が立体的に表示される。なお、スライダの位置を変化させることで、左目用画像と右目用画像との横方向の位置のズレ量が変化し、立体画像の見え方が調整される。
3Dインジケータ26は、図1に示されるように、上側ハウジング21の内側面21Bに設けられている。3Dインジケータ26は上側LCD22が立体表示モードであるか否かを報知するものである。この3Dインジケータ26は、本実施形態ではLEDであり、上側LCD22が立体表示モードであるとき(3D調整スイッチ25が最下点よりも上側に配置されているとき)に点灯する。
外側撮像部23(第1撮像部の一例)は、図3Bに示されるように、上側ハウジング21の外側面21D(内側面21Bとは反対側の面)に設けられている。この外部撮像部23は、外側左撮像部23A及び外側右撮像部23Bから構成されている。外側左撮像部23A及び外側右撮像部23Bは、それぞれ所定の共通の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを有している。外側左撮像部23A及び外側右撮像部23Bは、ユーザが上側LCD22を正面から視認した場合に、図1に示されるように、外側左撮像部23Aが左側に位置すると共に外側右撮像部23Bが右側に位置するように設けられている。なお、外側左撮像部23A及び外側右撮像部23Bの間隔は、人間の両目の間隔程度に設定されている。また、外側左撮像部23A及び外側右撮像部23Bの撮像方向52(図2参照)は、いずれも外側面21Dの外向きの法線方向であり、且つ互いに平行である。
外側左撮像部23Aと外側右撮像部23Bとは、ゲーム装置10が実行するプログラムによって、ステレオカメラとして使用することが可能である。外側撮像部23をステレオカメラとして使用する場合、外側左撮像部23Aは、ユーザの左目で視認されるカメラ画像(左目用画像)を撮像し、外側右撮像部23Bは、ユーザの右目で視認されるカメラ画像(右目用画像)を撮像する。このため、外側撮像部23によって撮像されたカメラ画像を上側LCD22に立体的に表示することが可能である。また、プログラムによっては、外側左撮像部23A及び外側右撮像部23Bのいずれか一方を単独で用いて、外側撮像部23を非ステレオカメラとして使用することも可能である。
内側撮像部24(第2撮像部の一例)は、上側ハウジング21の内側面21Bに設けられている。内側撮像部24は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。この内側撮像部24は、外側撮像部23とは反対方向を撮像する撮像部である。すなわち、内側撮像部24の撮像方向51(図2参照)は、上側LCD22の外向きの法線方向と一致している。このため、ユーザが上側LCD22を正視した状態で、内側撮像部24によりユーザ自身の顔を撮像することができる。
このように、内側撮像部24の撮像方向51が上側LCD22の法線方向と一致し、且つ外側撮像部23の撮像方向52がこの法線方向の逆方向と一致している(図2参照)。したがって、例えばゲーム装置10のユーザが内側撮像部24で自身の顔を撮影しつつ、外側撮像部23で別の人物(以下「フレンド」という。)の顔を撮影しようとした場合、ユーザとフレンドとが、上側ハウジング21を挟んで向かい合った状態で撮影が行われることとなる。
上側ハウジング21の内側面21Bには、スピーカ孔21Eが形成されている。後述するスピーカ44(図4参照)からの音声は、このスピーカ孔21Eを介して出力される。
[ゲーム装置10の内部構成]
次に、図4を参照しつつ、ゲーム装置10の内部構成について説明する。ここで、図4は、ゲーム装置10の内部構成の一例を示すブロック図である。
図4に示されるように、ゲーム装置10は、情報処理部31、メインメモリ32、外部メモリI/F33、データ保存用外部メモリI/F34、データ保存用内部メモリ35、無線通信モジュール36、ローカル通信モジュール37、リアルタイムクロック(RTC)38、加速度センサ39、角速度センサ40、電源回路41、及びI/F回路42等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて下側ハウジング11(又は上側ハウジング21)内に収納されている。
情報処理部31は、CPU(Central Processing Unit)311、GPU(Graphics Processing Unit)312、VRAM(Video RAM)313を含む情報処理手段である。本実施形態では、外部メモリ45に画像生成プログラムが記憶されており、CPU311は、外部メモリ45から画像生成プログラムを読み出して実行する。なお、画像生成プログラムは、他の機器との通信によって他の機器から取得されてもよい。
GPU312は、CPU311からの命令に応じてVRAM313に画像を描画し、その画像を上側LCD22及び/又は下側LCD12に出力する。その結果、上側LCD22及び/又は下側LCD12に画像が表示される。
メインメモリ32は、CPU311のワーク領域やバッファ領域として用いられる揮発性の記憶手段(例えばPSRAM(Pseudo-SRAM))である。メインメモリ32は、情報
処理部31の処理で用いられる各種データを一時的に記憶したり、外部(外部メモリ45や他の機器等)から取得されたプログラムを一時的に記憶したりする。
外部メモリI/F33は、外部メモリ45を着脱可能に接続するためのインターフェースである。外部メモリ45は、情報処理部31によって実行されるプログラムを記憶する不揮発性の記憶手段である。外部メモリ45は、例えば読み取り専用の半導体メモリで構成される。外部メモリ45が外部メモリI/F33に接続されると、外部メモリ45に記憶されたプログラムがメインメモリ32に読み込まれて、情報処理部31によって実行される。
データ保存用外部メモリI/F34は、データ保存用外部メモリ46を着脱可能に接続するためのインターフェースである。データ保存用外部メモリ46は、不揮発性の読み書き可能なメモリ(例えばNAND型フラッシュメモリ)で構成さる。このデータ保存用外部メモリ46には、例えば外側撮像部23又は内側撮像部24による撮影で得られたカメラ画像が記憶される。データ保存用外部メモリ46がデータ保存用外部メモリI/F34に接続されると、情報処理部31は、データ保存用外部メモリ46に記憶された画像を読み込んで上側LCD22及び/又は下側LCD12に表示することができる。
データ保存用内部メモリ35は、読み書き可能な不揮発性メモリ(例えばNAND型フラッシュメモリ)で構成される。このデータ保存用内部メモリ35には、例えば無線通信モジュール36を介した無線通信によってダウンロードされたデータやプログラムが格納される。
無線通信モジュール36は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。ローカル通信モジュール37は、所定の通信方式(例えば赤外線通信)により同種のゲーム装置との間で無線通信を行う機能を有する。CPU311は、無線通信モジュール36を用いてインターネットを介して他の機
器との間でデータを送受信したり、ローカル通信モジュール37を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。
加速度センサ39は、3軸(本実施形態では、xyz軸)方向に沿った直線方向の加速度(直線加速度)の大きさを検出する。加速度センサ39は、図1に示されるように、下側ハウジング11の長手方向をx軸、下側ハウジング11の短手方向をy軸、下側ハウジング11の内側面11Bに対して垂直な方向をz軸として、ゲーム装置10の各軸方向へ生じる直線加速度の大きさをそれぞれ検出する。角速度センサ40は、ゲーム装置10の3軸(本実施形態では、xyz軸)周りに生じるそれぞれの角速度を検出する。CPU311は、加速度センサ39が検出した加速度を示すデータと、角速度センサ40が検出した角速度を示すデータとに基づいて、ゲーム装置10の姿勢や動きを算出することができる。
RTC38は、時間をカウントして情報処理部31に出力する。情報処理部31は、RTC38によって計時された時間に基づき現在時刻(日付)を計算する。電源回路41は、ゲーム装置10が有する電源(例えば下側ハウジング11に収納される充電式電池)からゲーム装置10の各部品に電力を供給する。
I/F回路42には、マイク43、スピーカ44、及びタッチパネル13が接続されている。マイク43は、ユーザの音声を検知して音声信号をI/F回路42に出力する。スピーカ44は、I/F回路42から不図示のアンプを介して入力された音声信号に応じた音を出力する。I/F回路42は、マイク43及びスピーカ44(アンプ)を制御する音声制御回路を有している。音声制御回路は、音声信号に対するA/D変換及びD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。また、I/F回路42は、タッチパネル13を制御するタッチパネル制御回路を有している。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成して情報処理部31に出力する。タッチ位置データは、タッチパネル13の入力面において入力が行われた位置(タッチ位置)の座標を示すデータである。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、及びタッチ位置データの生成を所定時間に1回の割合で行う。CPU311は、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われたタッチ位置を検出することができる。
情報処理部31には、各操作ボタン14A〜14Lの操作状況を示す操作データが出力される。情報処理部31のCPU311は、この操作データに基づいて操作ボタン14A〜14Lの操作の有無を判断し、操作された操作ボタン14に対応する所定の処理を実行する。
下側LCD12及び上側LCD22は、情報処理部31(GPU312)の指示に従って画像を表示する。情報処理部31は、例えば、外側撮像部23によって撮像された左目用画像と右目用画像とを用いた立体画像(立体視可能な画像)を上側LCD22に表示させる。
3D調整スイッチ25は、スライダの位置に応じた電気信号を情報処理部31に出力する。これに対して、情報処理部31(CPU311)は、3D調整スイッチ25からの電気信号に基づいて上側LCD22の表示モードを設定する。また、情報処理部31は、3Dインジケータ26の点灯を制御する。
なお、上述したハードウェア構成は単なる一例に過ぎず、ゲーム装置10の構成は適宜変更可能である。
[顔合成画像を得るための撮影の概要]
次に、図5〜図11を参照しつつ、情報処理部31が画像生成プログラムを実行することによって、外側撮像部23及び内側撮像部24による撮影で得られたカメラ画像から顔合成画像(図9参照)が得られるまでの流れについて説明する。ここで、顔合成画像は、外側撮像部23及び内側撮像部24の一方による撮影で得られたカメラ画像に含まれている顔画像を、外側撮像部23及び内側撮像部24の他方による撮影で得られたカメラ画像に含まれている顔画像に差し替えた画像である。本実施形態では、顔合成画像として、外側撮像部23による撮影で得られたカメラ画像に含まれている顔画像(図11の顔領域92の画像)を、内側撮像部24による撮影で得られたカメラ画像に含まれている顔画像(図11の顔領域91の画像)に差し替えた画像を得る場合を例に説明する。
図5は、ゲーム装置10を用いた撮影について説明するための説明図である。顔合成画像を得るためには、顔と識別できる少なくとも2つの顔画像が得られるように撮影を行う必要がある。このため、図5に示されるように、ユーザは、内側撮像部24によってユーザ自身の顔が撮影され、且つ外側撮像部23(外側左撮像部23A及び外側右撮像部23B)によってフレンドの顔が撮影されるように、ゲーム装置10を構えて例えばRボタン14Hを押して撮影を指示する。これにより、ユーザの顔画像を含んだカメラ画像が内側撮影部24によって取得され、フレンドの顔画像を含んだカメラ画像が外側撮像部23によって取得される。このように、少なくとも2つの顔画像が取得されるように撮影を行うことで、顔合成画像を生成する処理が可能になる。
図6は、上側LCD22と下側LCD12の表示例を示す図である。ゲーム装置10が顔合成画像を得るための撮影モードに移行すると、下側LCD12には、ボタン61〜64を含む操作画面が表示される。ボタン61〜64は、それぞれ所定の処理と対応付けられた画像である。ユーザは、下側LCD12に表示されているボタン61〜64を任意に選択することによって、情報処理部31に所定の処理を実行させることができる。タッチパネル13がタッチペン28でタッチされると、タッチ位置に位置するボタン(図6ではボタン61)がハイライト(例えば輪郭強調)される。そして、ボタン上に位置するタッチペン28がタッチパネル13から離されると、ボタンのハイライトが解除されると共にそのボタンに対応する処理が実行される。
ボタン61は、ゲーム装置10を顔合成画像を得るための撮影が可能な状態に移行させるためのボタンである。後述するが、ボタン61が選択されると、上側LCD22に枠71,72と共に、外側撮像部23及び内側撮像部24によってリアルタイムに取得されるカメラ画像が表示される(図7参照)。
ボタン62は、ゲーム装置10で得られた顔合成画像を閲覧するためのボタンである。ボタン62が選択されると、例えばデータ保存用外部メモリ46に記憶されている顔合成画像のサムネイル画像が下側LCD12に一覧表示される。この状態で、ユーザは、所望のサムネイル画像を選択することで、そのサムネイル画像に対応する顔合成画像を上側LCD22に表示させることができる。ボタン63は、外側撮像部23及び内側撮像部24を用いた撮影に関する各種設定の変更を指示するためのボタンである。
ボタン64は、差し替える側の顔画像と、差し替えられる側の顔画像とを切り替えるためのボタンである。図6に示される例では、ボタン64は、「内カメラ」という文字を含むボタンとして下側LCD12に表示されている。この状態で撮影が行われると、外側撮像部23による撮影で得られたカメラ画像に含まれている顔画像が、内側撮像部24による撮影で得られたカメラ画像に含まれている顔画像に差し替えられた顔合成画像(例えば図9の顔合成画像80)が生成されることになる。つまり、フレンドの顔をユーザの顔に差し替えた顔合成画像が得られる。これに対して、ユーザがタッチペン28を用いた操作
によりボタン64を選択すると、ボタン64は、「外カメラ」という文字を含むボタンとして下側LCD12に表示されることになる。この状態で撮影が行われると、内側撮像部24による撮影で得られたカメラ画像に含まれている顔画像が、外側撮像部23による撮影で得られたカメラ画像に含まれている顔画像に差し替えられた顔合成画像が生成されることになる。つまり、ユーザの顔をフレンドの顔に差し替えた顔合成画像が得られる。
上側LCD22には、撮影前に外側撮像部23及び内側撮像部24によってリアルタイムに取得されるカメラ画像が表示される。本実施形態では、上側LCD22の表示領域が左領域221(第1表示領域の一例)と右領域222(第2表示領域の一例)の2つの領域に区画されており、外側撮像部23により撮像されたカメラ画像(第1撮像画像)が左領域221に表示され、内側撮像部24により撮像されたカメラ画像(第2撮像画像)が右領域222に表示される。また、上側LCD22の表示画面には、左領域221の所定の位置に枠71が表示され、右領域222の所定の位置に枠72が表示されている。
ところで、顔合成画像を生成するためには、外側撮像部23により撮像されたカメラ画像に対する顔認識処理に成功して顔と識別できる顔画像を取得することができ、且つ、内側撮像部24により撮像されたカメラ画像に対する顔認識処理に成功して顔と識別できる顔画像を取得することができる必要がある。このため、外側撮像部23及び内側撮像部24を用いて撮影を行う際に、内側撮像部24の撮像範囲の中央部にユーザの顔が位置し、且つ外側撮像部23の撮像範囲の中央部にフレンドの顔が位置している状態で撮影が行われることが好ましい。このため、外側撮像部23によって撮像されて左領域221に表示されるフレンドの顔が枠71内に位置し、且つ内側撮像部24によって撮像されて右領域222に表示されるユーザの顔が枠72内に位置した状態で撮影を行うことで、顔合成画像を得ることができる。つまり、ユーザとフレンドとが互いに向かい合った状態で協力して撮影を行うことで、フレンドの顔をユーザの顔に差し替えた極めて興趣性が高い顔合成画像80(図9参照)を得ることができる。
図7は、顔認識処理に成功していないときに上側LCD22に表示される画像の一例を示す上側LCD22の画面図である。図8は、顔認識処理に成功したときに上側LCD22に表示される画像の一例を示す上側LCD22の画面図である。なお、図7以降の画面図においては、外側撮像部23及び内側撮像部24による撮像で得られたカメラ画像における人物の背景の図示が省略されている。
上述したように、顔合成画像を得るためには、外側撮像部23及び内側撮像部24を用いてそれぞれ顔と識別できる顔画像を含む2つのカメラ画像を得る必要がある。このため、ゲーム装置10は、撮影が指示される前に外側撮像部23及び内側撮像部24によってリアルタイムに取得される2つのカメラ画像に対して顔認識処理を行い、両方のカメラ画像に対して顔認識に成功していなければ、ユーザがLボタン14G又はRボタン14Hを操作しても撮影が行われないように構成されている。言い換えれば、ゲーム装置10は、外側撮像部23によって取得されるカメラ画像と、内側撮像部24によって取得されるカメラ画像との両方のカメラ画像に対する顔認識に成功するまでは、撮影を禁止するように構成されている。ゲーム装置10がこのように構成されていることで、撮影を行ったにも拘わらず顔合成画像が得られないといった問題が生じることを防止することができる。
ところで、ゲーム装置10が2つのカメラ画像に対する顔認識に成功しなければ撮影を許可しないように構成されているので、顔認識に成功していないこと、或いは顔認識に成功していることをユーザが容易に把握できるようにする必要がある。そこで、本実施形態では、図8に示されるように、外側撮像部23によって取得されたカメラ画像(以下「外カメラ画像」という。)に対する顔認識に成功しているときには左領域221に「OK!」の文字を含む吹き出し74が表示される。また、内側撮像部24によって取得されたカ
メラ画像(以下「内カメラ画像」という。)に対する顔認識に成功しているときには右領域222に「OK!」の文字を含む吹き出し75が表示される。これらの吹き出し74,75は、顔認識に成功しているときだけ上側LCD22に表示され、顔認識に成功していないときには上側LCD22から消去される(図7参照)。このため、ゲーム装置10のユーザが、左領域221に吹き出し74が表示され、且つ右領域222に吹き出し75が表示されるようにゲーム装置10に対するユーザ自身の顔とフレンドの顔の位置を調整してから撮影を指示することで、撮影を成功させることができる。
図9は、撮影に成功した直後に上側LCD22に表示される顔合成画像80の一例を示す上側LCD22の画面図である。図10は、撮影に失敗した直後に上側LCD22に表示されるエラーメッセージ83の一例を示す上側LCD22の画面図である。
外カメラ画像に対する顔認識、及び内カメラ画像に対する顔認識に成功した状態で撮影が行われると、図9に示されるように、上側LCD22には、リアルタイムに取得される外カメラ画像及び内カメラ画像(例えば図7参照)に代えて、顔合成画像80が表示される。このように、実空間内に位置するユーザとフレンドの顔を忠実に再現したカメラ画像が上側LCD22に表示されていた状態から、フレンドの顔がユーザの顔に差し替えられた実空間には存在しない画像が上側LCD22に表示された状態となることで、ユーザとフレンドとが楽しみながら撮影を行うことができる。
一方、撮影直前に顔認識に成功して上側LCD22に吹き出し74,75が表示された状態でユーザが撮影を指示したとしても、撮影が行われるタイミングで例えばゲーム装置10が動かされて顔の位置が大きくずれてしまった場合、2つのカメラ画像から顔を認識できずに撮影に失敗してしまう場合がある。そこで、本実施形態では、このような場合に、図10に例示されるように上側LCD22にエラーメッセージ83を表示することとしている。これに対して、ゲーム装置10に対するユーザとフレンドの顔の位置をある程度固定したままの状態(上側LCD22に吹き出し74,75が表示されたままの状態)で撮影をやり直すことにより、撮影を上手く成功させることができる。
[顔合成処理の概要]
以下、図11及び図12を参照しつつ、2つのカメラ画像を用いて顔合成画像80を得る処理の概要について説明する。ここで、図11は、上側LCD22に表示されたカメラ画像に含まれている2つの顔領域91,92を例示する上側LCD22の画面図である。図12は、顔合成処理の概要について説明するための説明図である。顔合成画像80を得るための撮影前には、外側撮像部23及び内側撮像部24によってリアルタイムに取得された2つのカメラ画像が上側LCD22に左右に並んで表示されている(例えば図8参照)。この状態でユーザによって撮影が指示されると、撮影によって得られた2つのカメラ画像78,79(図11参照)に対する顔認識処理が行われる。そして、その顔認識処理の結果に基づいて、図11に示されるように、上側LCD22に表示されている2つのカメラ画像78,79に含まれているユーザの顔に相当する顔領域91(第1顔領域の一例)と、フレンドの顔に相当する顔領域92(第2顔領域の一例)との2つの顔領域が検出され、顔領域91の画像が第1顔画像81(図12参照)として取得される。
ところで、外側撮像部23が外側左撮像部23A及び外側右撮像部23Bから構成されているので、外側撮像部23によって、それぞれフレンドの顔画像を含んでいる2つの外カメラ画像79A,79B(図12参照)が取得されている。このため、フレンドの顔がユーザの顔画像に差し替えられた顔合成画像80を立体表示させるためには、外側左撮像部23Aによって取得された外カメラ画像79Aと、外側右撮像部23Bによって取得された外カメラ画像79Bとのそれぞれの外カメラ画像79に対して、第1顔画像81を合成する必要がある。
そこで、第1顔画像81が取得されると、図12に示されるように、第1顔画像81が複製される。そして、外側左撮像部23Aによって取得された外カメラ画像79Aに対して、その外カメラ画像79Aに含まれているフレンドの顔に相当する顔領域92(図11参照)に第1顔画像81を配置した左目用合成画像80Aが生成される。これに伴い、外側右撮像部23Bによって取得されたカメラ画像79Bに対して、そのカメラ画像79Bに含まれているフレンドの顔に相当する顔領域92(図11参照)に複製された第1顔画像81を配置した右目用合成画像80Bが生成される。このようにして生成された左目用合成画像80Aと右目用合成画像80Bとが上側LCD22に表示されることで、フレンドの顔をユーザの顔に差し替えた顔合成画像80が上側LCD22に立体表示される。なお、顔領域91と顔領域92との大きさが異なり、また、ユーザとフレンドの顔の傾きが異なっているので、実際には、第1顔画像81に対して拡大/縮小処理や回転処理が施されるが、これらの処理の詳細については後に詳述する。
[メモリマップ]
以下、図13を参照しつつ、メインメモリ32に記憶されるデータについて説明する。ここで、図13は、メインメモリ32のメモリマップである。図13に例示されるように、メインメモリ32は、プログラム記憶領域321及びデータ記憶領域323を有している。プログラム記憶領域321には、CPU311によって実行されるプログラムが記憶される。データ記憶領域323には、顔合成画像を得るための処理に必要な各種データが記憶される。プログラム記憶領域321内のプログラム、及びデータ記憶領域323内のデータの一部は、外部メモリ45に予め記憶されたデータが、顔合成画像を得るための処理に際してメインメモリ32に読み出されたものである。
プログラム記憶領域321には、画像生成プログラム322等が記憶されている。画像生成プログラム322は、後述する図14,図15に示されている一連の処理を情報処理部31に実行させるためのプログラムである。
データ記憶領域323には、カメラ画像データ324、顔認識結果データ325、撮影許可フラグ326、上側LCD表示データ327、下側LCD表示データ328、テクスチャデータ329、ポリゴンデータ330、顔合成画像データ331等が記憶される。
カメラ画像データ324は、外側撮像部23及び内側撮像部24が撮像した撮像画像(外カメラ画像及び内カメラ画像)を示すデータである。顔合成画像を得るための撮影において、本実施形態では、外側撮像部23及び内側撮像部24が両方使用されるので、外側撮像部23が撮像した外カメラ画像、及び内側撮像部24が撮像した内カメラ画像によって、カメラ画像データ324が更新される。このカメラ画像データ324の更新周期は、ゲーム装置10が処理を行う時間単位(例えば1/60秒)と同じでもよいし、この時間単位と異なっていてもよい。なお、このカメラ画像データ324には、撮影前に上側LCD22に表示するために取得される外カメラ画像及び内カメラ画像の他に、撮影によって得られた外カメラ画像及び内カメラ画像(図11参照)のデータも含まれている。この外カメラ画像及び内カメラ画像のデータは、撮影が行われる毎に更新される。
顔認識結果データ325は、カメラ画像データ324が示すカメラ画像に対して逐次行われる顔認識処理の結果を示すデータである。この顔認識結果データ325は、外カメラ画像及び内カメラ画像に対して行われた顔認識処理によって人物の顔を識別できたか否かを示すデータ、カメラ画像に対して顔として識別できた領域(例えば顔領域91,92)を示すデータ等から構成されている。この顔認識結果データ325に外カメラ画像からフレンドの顔を識別できていることを示すデータが含まれているときに、上述したように、上側LCD22の左領域221に吹き出し74(図8参照)が表示される。また、顔認識
結果データ325に内カメラ画像からユーザの顔を識別できていることを示すデータが含まれている場合、上述したように、上側LCD22の右領域222に吹き出し75(図8参照)が表示される。この顔認識結果データ325は、カメラ画像に対する顔認識処理が行われる毎に適宜更新される。
撮影許可フラグ326は、顔認識処理に成功することによって、撮影が許可されているか否かを示すデータである。この撮影許可フラグ326は、顔認識結果データ325に顔認識処理によって人物の顔を識別できたことを示すデータが含まれている場合にONに設定される。本実施形態では、外カメラ画像及び内カメラ画像の両方から人物の顔を識別できていることを示すデータが顔認識結果データ325に含まれている場合に、撮影許可フラグ326が「ON」に設定される。撮影許可フラグ326が「ON」に設定されている場合、Lボタン14G又はRボタン14Hの操作に応じて撮影が実行される。一方、顔認識結果データ325に外カメラ画像及び内カメラ画像のいずれか一方でも顔認識処理によって人物の顔を識別できていないことを示すデータが含まれている場合、撮影許可フラグ326が「OFF」に設定される。撮影許可フラグ326が「OFF」に設定されている場合、Lボタン14G又はRボタン14Hが操作されたとしても撮影が行われることはない。
上側LCD表示データ327は、上側LCD22に表示される画像に関するデータである。この上側LCD表示データ327には、外側撮像部23によってリアルタイムに取得される外カメラ画像、内側撮像部24によってリアルタイムに取得される内カメラ画像、枠71,72を表す画像、吹き出し74,75を表す画像、エラーメッセージ83の画像等のデータが含まれている。
下側LCD表示データ328は、下側LCD12に表示される画像に関するデータである。この下側LCD表示データ328には、ボタン61〜64(図6参照)の画像等のデータが含まれている。
テクスチャデータ329は、第1顔画像81(図12参照)をテクスチャマッピングを用いて外カメラ画像上で表現するために使用される顔テクスチャを示すデータである。このテクスチャデータ329は、本実施形態では、内側撮像部24によって撮影時に取得された内カメラ画像78に含まれている顔領域91(図11参照)の画像に基づいて生成される。
ポリゴンデータ330は、顔認識処理によって識別された顔の特徴点に基づいて生成される複数のポリゴンPG1(図18参照)、複数のポリゴンPG2(図20参照)に関するデータである。ここで、ポリゴンPG1は、内カメラ画像78に対する顔認識処理によって識別された顔の特徴点P1〜P16(図17参照)に基づいて生成された複数のポリゴンである。ポリゴンPG2は、外カメラ画像79に対する顔認識処理によって識別された顔の特徴点P21〜P36(図19参照)に基づいて生成された複数のポリゴンである。なお、本実施形態では、複数のポリゴンPG1が特徴点P1〜P16に基づいて生成され、複数のポリゴンPG2が特徴点P21〜P36に基づいて生成される場合について説明するが、例えば鼻の特徴点P1,P21に代えて後述する口の中心点A4,B4(図17,19参照)を用いて複数のポリゴンPG1,PG2を生成してもよい。ポリゴンデータ330は、テクスチャ座標データ3301、カメラ画像座標データ3302、サイズデータ3303、傾きデータ3304等から構成される。
テクスチャ座標データ3301は、ポリゴンPG1の各頂点が配置されるテクスチャ座標、及びポリゴンPG2の各頂点が配置されるテクスチャ座標を示すデータである。カメラ画像座標データ3302は、ポリゴンPG1の各頂点に対するカメラ画像座標、及びポ
リゴンPG2の各頂点に対するカメラ画像座標を示すデータである。サイズデータ3303は、顔領域91の横サイズX1及び縦サイズY1(図17参照)と、顔領域92の横サイズX2及び縦サイズY2(図19参照)を示すデータを含む。ここで、横サイズX1は、顔領域91が示す顔の左目の中心点A1から右目の中心点A2までの距離を示す。縦サイズY1は、中心点A1と中心点A2とを結ぶ線分αの中点A3から口の中心点A4までの距離を示す。本実施形態では、これらの横サイズX1と縦サイズY1とによって顔領域91の大きさが表される。また、横サイズX2は、顔領域92が示す顔の左目の中心点B1から右目の中心点B2までの距離を示す。縦サイズY2は、中心点B1と中心点B2とを結ぶ線分βの中心点B3から口の中心点B4までの距離を示す。本実施形態では、これらの横サイズX2と縦サイズY2とによって顔領域92の大きさが表される。傾きデータ3304は、水平方向に対する顔領域91が示す顔の傾き(図17に示される線分αの傾き)と、水平方向に対する顔領域92が示す顔の傾き(図19に示される線分βの傾き)を示すデータである。なお、本実施形態においては、これらの点A1〜A4,B1〜B4の座標が顔領域91,92の大きさと傾きを求めるためだけに使用されるが、複数のポリゴンPG1,PG2(図18,20参照)を生成するために使用されてもよい。
顔合成画像データ331は、顔合成処理によって得られた顔合成画像(例えば図12に示される左目用顔合成画像80Aと右目用顔合成画像80B)のデータである。顔合成画像を生成する処理が完了すると、顔合成画像データ331が示す顔合成画像は、上側LCD表示データ327の一部として上側LCD22に所定時間表示される。
なお、図には示されていないが、データ記憶領域323には、ゲーム装置10に対して行われた操作の内容を示す操作データや、仮想ゲーム空間の様子を画面表示するための仮想カメラの制御に関するデータ等が記憶されるが、これらのデータは本発明とは直接関係しないので、ここでの詳細な説明は省略する。
[メイン処理]
次に、図14を参照しつつ、情報処理部31によって実行されるメイン処理について説明する。ここで、図14は、顔合成画像を生成するためにゲーム装置10で実行される処理の一例を示すフローチャートである。なお、以下に説明する一連の処理は、画像生成プログラム322に基づいてCPU311が発行する命令に従って行われる。
ユーザの所定操作によってゲーム装置10が顔合成画像を得るための撮影モードに移行すると、CPU311は、図14に示されるように、カメラ画像を取得する(ステップS1)。具体的には、情報処理部31は、内側撮像部24によって撮像された内カメラ画像と、外側撮像部23によって撮像された外カメラ画像とを取得して、カメラ画像データ324を更新する。そして、第1表示制御手段、第2表示制御手段として機能する情報処理部31は、取得したカメラ画像を上側LCD22に表示させる(ステップS2)。具体的には、CPU311は、ステップS1の処理で取得したカメラ画像の表示をGPU312に対して指示する。これに対して、GPU312は、外カメラ画像及び内カメラ画像、枠71,72等をVRAM313に描画し、描画した画像を上側LCD22に出力する。これにより、例えば図7に示されるように、外カメラ画像が枠71と共に上側LCD22の左領域221に表示されると同時に、内カメラ画像が枠72と共に右領域222に表示される。
このように、情報処理部31は、外カメラ画像を外側撮像部23によりリアルタイムに取得して上側LCD22の左領域221に表示させると共に、内カメラ画像を内側撮像部24によりリアルタイムに取得して上側LCD22の右領域222に表示させる。
次に、情報処理部31は、データ記憶領域323に記憶されている顔認識結果データ3
25を参照して、既に外カメラ画像又は内カメラ画像に対する顔認識に成功しているか否かを判定する(ステップS3)。顔認識に成功していないと情報処理部31によって判定された場合(ステップS3:NO)、すなわち、外カメラ画像に対する顔認識に失敗し、更に内カメラ画像に対する顔認識にも失敗している場合、処理が後述するステップS5へ進められる。このような場合、図7に例示されるように、上側LCD22には吹き出しが表示されない。
一方、報知手段として機能する情報処理部31は、外カメラ画像又は内カメラ画像に対する顔認識に成功していると判定した場合(ステップS3:YES)、上側LCD22に吹き出しを表示させる(ステップS4)。このステップS4において、外カメラ画像に対する顔認識に成功している場合、CPU311は、吹き出し74(図8参照)を上側LCD22の左領域221に表示する処理をGPU312に実行させる。また、内カメラ画像に対する顔認識に成功している場合、CPU311は、吹き出し75(図8参照)を上側LCD22の右領域222に表示する処理をGPU312に実行させる。このように、情報処理部31は、外側撮像部23及び内側撮像部24に複数の顔(ここではユーザとフレンドの顔)が含まれていると判定している間、2つの吹き出し74,75を上側LCD22に表示させることにより、撮影が可能であることをユーザに報知する。
続いて、CPU311は、RTC38から出力される時間情報に基づいて、顔認識処理を実行するタイミングになったか否かを判定する(ステップS5)。顔認識処理を実行するタイミングになっていないとCPU311によって判定された場合(ステップS5:NO)、処理が後述するステップS11へ進められる。一方、CPU311は、顔認識処理を実行するタイミングになったと判定した場合(ステップS5:YES)、所定の顔認識処理を実行する(ステップS6)。この顔認識処理を行った場合、CPU311は、その処理結果に応じて顔認識結果データ325を更新する。なお、顔認識処理は公知の処理であるため、本明細書中ではその詳細な説明を省略する。
ステップS6の処理を行った場合、判定手段として機能するCPU311は、顔認識結果データ325を参照して、ステップS1の処理によって取得された外カメラ画像及び内カメラ画像の両方に対して人物の顔を識別できたか否かを判定する(ステップS7)。ここで、外カメラ画像及び内カメラ画像のいずれか一方でも人物の顔を識別できていない場合、顔合成画像を生成することはできない。そこで、撮影禁止手段として機能するCPU311は、外カメラ画像及び内カメラ画像のいずれか一方でも人物の顔を識別できていないと判定した場合(ステップS7:NO)、撮影許可フラグ326を「OFF」に設定する(ステップS8)。一方、CPU311は、外カメラ画像及び内カメラ画像の両方に関して人物の顔を識別できていると判定した場合(ステップS7:YES)、撮影許可フラグ326を「ON」に設定する(ステップS9)。
このように、CPU311は、外側撮像部23及び内側撮像部24によりリアルタイムに取得される外カメラ画像及び内カメラ画像に基づいて、外側撮像部23及び内側撮像部24の撮像範囲に被写体としての複数の顔が含まれているか否かを判定する。そして、CPU311は、外側撮像部23及び内側撮像部24の撮像範囲に複数の顔が含まれていないと判定している間、撮影許可フラグ326を「OFF」に設定することで、Lボタン14G又はRボタン14Hの操作に応じた撮影を禁止する。
ステップS8の処理を行った場合、ステップS9の処理を行った場合、又はステップS5において顔認識処理を実行するタイミングになっていないと判定した場合(ステップS5:NO)、CPU311は、Lボタン14G又はRボタン14Hが操作されたか否かに基づいて、撮影が指示されたか否かを判定する(ステップS11)。撮影が指示されていないとCPU311によって判定された場合(ステップS11:NO)、処理がステップ
S1へ戻され、撮影が指示されるまでステップS1以降の処理が繰り返される。
CPU311は、撮影が指示されたと判定した場合(ステップS11:YES)、撮影許可フラグ326が「ON」に設定されているか否かを判定する(ステップS12)。撮影許可フラグ326が「ON」に設定されていないとCPU311によって判定された場合(ステップS12:NO)、処理がステップS1へ戻される。なお、本実施形態では、撮影許可フラグが「OFF」に設定されている場合に処理がステップS1へ戻されるが、撮影許可フラグがOFFに設定されている場合に、人物の顔を識別できていないことをユーザに報知するために、例えばスピーカ44から所定のエラー音を出力してから処理がステップS1へ戻されるようにしてもよい。
撮像画像取得手段として機能するCPU311は、撮影許可フラグ326が「ON」に設定されていると判定した場合(ステップS12:YES)、外側撮像部23及び内側撮像部24による撮影を行い(ステップS13)、撮影によって得られた外カメラ画像79及び内カメラ画像78によってカメラ画像データ324を更新する。そして、顔画像取得手段として機能するCPU311は、この撮影によって得られた外カメラ画像79及び内カメラ画像78に対して、ステップS6の処理と同様に、顔認識処理を実行する(ステップS14)。このステップS14の顔認識処理に成功することにより、図11に例示されるように、内カメラ画像78から顔領域91が検出されると共に外カメラ画像79から顔領域92が検出されて、顔領域91の画像が第1顔画像81(図12参照)として取得される。なお、このステップS14では、顔認識処理の結果に応じて、顔認識結果データ325が更新される。
ステップS14の処理に続いて、情報処理部31は、撮影に成功したか否かを判定する(ステップS15)。具体的には、CPU311は、顔認識結果データ325を参照して、ステップS13の処理で得られた外カメラ画像79及び内カメラ画像78の両方に関して、ステップS14の処理によって2人以上の人物の顔(本実施形態ではユーザの顔とフレンドの顔)を識別できたか否かを判定する。
情報処理部31は、撮影に成功しなかったと判定した場合(ステップS15:NO)、すなわち外カメラ画像79及び内カメラ画像78のどちらか一方でも人物の顔を識別できなかった場合、図10に例示されるように、GPU312を制御して上側LCD表示データ327に含まれるエラーメッセージ83を上側LCD22に表示させ(ステップS16)、撮影許可フラグ326を「OFF」に設定する(ステップS17)。このステップS17の処理が行われた場合、処理がステップS1へ戻される。
一方、情報処理部31は、撮影に成功したと判定した場合(ステップS15:YES)、すなわち外カメラ画像79及び内カメラ画像78の両方に関して人物の顔を識別できた場合、外カメラ画像79に含まれている人物の顔(ここではフレンドの顔)を内カメラ画像78に含まれている人物の顔(ここではユーザの顔)に差し替えた左目用合成画像80A及び右目用合成画像80B(図12参照)を生成する顔合成処理を実行する(ステップS18)。
情報処理部31は、ステップS18の処理によって左目用合成画像80A及び右目用合成画像80Bを生成した後、左目用合成画像80A及び右目用合成画像80Bを顔合成画像データ331としてデータ記憶領域323に記憶させると共に、データ保存用外部メモリ46にも記憶させる(ステップS19)。そして、第1表示制御手段、第2表示制御手段として機能するCPU311は、顔合成画像データ331が示す左目用合成画像80A及び右目用合成画像80Bを用いて、図9に例示されるように、顔合成画像80を上側LCD22に所定時間(例えば5秒間)だけ立体表示させる(ステップS20)。
顔合成画像80が生成されたことを条件としてこのステップS20の処理が行われることにより、上側LCD22の左領域221に外カメラ画像79が表示されると共に右領域222に内カメラ画像78が表示されていたのが、左領域221及び右領域222の両方を1つの表示領域として用いて顔合成画像80が表示される。このステップS20の処理が行われた場合、処理が上記ステップS1へと戻されて、再び顔合成画像を得るための撮影が可能な状態となる。
[顔合成処理]
図15は、図14のステップS18における顔合成処理の詳細フローチャートである。情報処理部31は、上述したステップS15の処理で撮影に成功したと判定した場合(ステップS15:YES)、複数のポリゴンPG1,PG2の各頂点のカメラ画像座標を設定する(ステップS181)。具体的には、CPU311は、カメラ画像データ324が示す内カメラ画像78と外カメラ画像79及び顔認識結果データ325を用いて、内カメラ画像78における顔の位置及び顔の特徴点P1〜P16(図17参照)の位置を取得すると共に、外カメラ画像79における顔の位置及び顔の特徴点P21〜P36(図19参照)の位置を取得する。そして、CPU311は、内カメラ画像78における特徴点P1〜P16の位置に基づいて複数のポリゴンPG1(図18参照)の各頂点の位置(カメラ画像座標)を設定すると共に、外カメラ画像79における特徴点P21〜P36の位置に基づいて複数のポリゴンPG2(図20参照)の各頂点の位置(カメラ画像座標)を設定する。そして、CPU311は、複数のポリゴンPG1及び複数のポリゴンPG2に対して設定した各頂点の位置を用いて、複数のポリゴンPG1及び複数のポリゴンPG2に対するカメラ画像座標データ3302を更新する。ここで、複数のポリゴンPG1,PG2は、識別された顔における複数の特徴点P1〜P16、P21〜P36に基づいて三角形又は四角形でそれぞれ設定される。また、顔の特徴点P1〜P16、P21〜P36は、公知のソフトウェアを利用して、撮像されたカメラ画像78,79から識別された顔画像(顔領域91,92が示す画像)に対してエッジ検出等の画像処理を施すことによって、顔画像における鼻先1点、眉4点(左右2点ずつ)、顎先端1点、頬10点(左右5点ずつ)の計16点が検出される。なお、複数のポリゴンPG1,PG2の頂点の位置は、検出された顔の特徴点P1〜P16、P21〜P36と一致させる必要はなく、特徴点P1〜P16、P21〜P36の位置に基づいた任意の位置に設定すればよい。
このように、ステップS181の処理によって、複数のポリゴンPG1の各頂点のカメラ画像座標が設定される。これにより、上側LCD22に表示された内カメラ画像78及び外カメラ画像79に含まれる顔領域91,92から顔領域91が検出される。
ところで、図11に例示されるように、内カメラ画像78から検出された顔領域91が示すユーザの顔の傾きと、外カメラ画像79から検出された顔領域92が示すフレンドの顔の傾きとが異なる場合がある。これは、撮影時のユーザとフレンドの姿勢の違い等によるものである。また、顔領域91と顔領域92の大きさが異なる場合がある。これは、ユーザとフレンドの相対的な顔の大きさの違いだけでなく、撮影時における内側撮像部24からユーザの顔までの距離と、外側撮像部23からフレンドの顔までの距離との違いによるものである。このため、顔領域91に対応する第1顔画像81をそのまま顔領域92に配置して顔合成画像を生成した場合、図16に示されるように、興趣性があっても、極めて不自然な顔を示す顔合成画像が得られることとなる。この図16の例では、顔領域92が示す顔に対して第1顔画像81が示す顔が傾いているために、フレンドの髪や上半身に対して顔が不自然に傾いている。また、顔領域92に対して顔領域91が大きいために、フレンドの耳や首、髪等の一部が顔に隠れている。
そこで、本実施形態では、第1顔画像81を外カメラ画像79(79A,79B)に合
成するに際して、第1顔画像81の回転処理と拡大/縮小処理を行うこととしている。
図15の説明に戻り、CPU311は、ステップS181の処理によってポリゴンPG1,PG2の各頂点のカメラ画像座標を設定した後、顔領域92(図11参照)の顔に対する顔領域91(図11参照)の顔の傾きを算出する(ステップS182)。具体的には、CPU311は、顔領域91の左目の中心点A1と右目の中心点A2とを両端とする線分αの傾きを算出して、水平方向に対する顔領域91の顔の傾きを求める。また、CPU311は、顔領域92の左目の中心点B1と右目の中心点B2とを両端とする線分βの傾きを算出して、水平方向に対する顔領域92の顔の傾きを求める。そして、CPU311は、これら2つの傾きを用いて傾きデータ3304を更新した後、これら2つの傾きの差を求めることにより、顔領域92の顔に対する顔領域91の顔の傾きを算出する。
次に、CPU311は、ポリゴンPG1を回転させる(ステップS183)。顔領域91に含まれる顔を回転させる場合、顔領域91を規定する各特徴点P1〜P16の位置を回転移動させる必要がある。このように、顔領域91の各特徴点P1〜P16の位置を変化させた場合、特徴点P1〜P16に基づいて設定したポリゴンPG1の各頂点位置も回転移動させる必要がある。そこで、このステップS183において、CPU311は、ステップS181の処理で設定した複数のポリゴンPG1の各頂点のカメラ画像座標を、ステップS182の処理で算出した傾きに応じて回転移動させた位置に変更し、変更後のカメラ画像座標を用いてカメラ画像座標データ3302を更新する。
このステップS183の処理が行われることにより、ポリゴンPG1によって表されるユーザの顔の傾きがフレンドの顔の傾き(顔領域92に含まれる顔の傾き)とほぼ一致するように、ポリゴンPG1の各頂点のカメラ画像座標が補正される。
ステップS183の処理に続いて、CPU311は、ポリゴンPG1の大きさを変化させるための倍率(拡大率又は縮小率)を算出する(ステップS184)。具体的には、CPU311は、顔認識結果データ325に含まれている顔領域91(図11参照)を示すデータ(ここでは点A1〜A4の位置を示すデータ)に基づいて、図17に示されるように、顔領域91の横サイズX1と縦サイズY1を算出する。また、CPU311は、顔認識結果データ325に含まれている顔領域92(図11参照)を示すデータ(ここでは点B1〜B4の位置を示すデータ)に基づいて、図19に示されるように、顔領域92の横サイズX2と縦サイズY2を算出する。そして、CPU311は、算出した顔領域91,92のサイズに基づいて、サイズデータ3303を更新する。続いて、CPU311は、サイズデータ3303を参照して、横サイズX1が横サイズX2とほぼ一致し、且つ縦サイズY1が縦サイズY2とほぼ一致するように、ポリゴンPG1の倍率(拡大率又は縮小率)の近似値を算出する。本実施形態では、これまでの説明から明らかなように、顔領域91が顔領域92よりも大きいため、ここでは縮小率が算出される。
次に、CPU311は、ステップS184の処理で算出した倍率に応じて、ポリゴンPG1を拡大又は縮小する(ステップS185)。顔領域91の大きさが顔領域92の大きさとほぼ一致するように顔領域91を拡大又は縮小する場合、顔領域91を規定する特徴点P1〜P16間の距離が変化するために、特徴点P1〜P16の位置に基づいて設定されるポリゴンPG1の各頂点の位置を変化させる必要がある。そこで、このステップS185において、CPU311は、カメラ画像座標データ3302を参照して、ステップS183の処理で変更された複数のポリゴンPG1の各頂点のカメラ画像座標を、ステップS184の処理で算出した倍率でポリゴンPG1を拡大又は縮小して移動させた位置に変更し、変更後のカメラ画像座標を用いてカメラ画像座標データ3302を更新する。
このように、複数のポリゴンPG1の傾きや大きさを変化させることによって、第1顔
画像81を外カメラ画像79の顔領域92に配置した場合に、不自然な顔合成画像が得られるのを防止することができる。なお、ここでは、複数のポリゴンPG1の回転処理を行ってから拡大又は縮小処理を行うこととしているが、複数のポリゴンPG1の拡大又は縮小処理を行ってから回転処理を行うようにしてもよい。
続いて、CPU311は、カメラ画像座標データ3302を参照して、ポリゴンPG1の各頂点の位置(テクスチャ座標)を設定し、設定した各頂点の位置に基づいて、ポリゴンPG1のテクスチャ座標データ3301を更新する(ステップS186)。
そして、顔合成画像生成手段として機能するCPU311は、ポリゴンPG1に第1顔画像81を描画する(ステップS187)。具体的には、情報処理部31は、顔領域91の画像に基づいて、複数のポリゴンPG1の各ポリゴンにマッピングするためのテクスチャを生成して、テクスチャデータ329を更新する。そして、情報処理部31は、テクスチャ座標データ3301が示す各頂点のテクスチャ座標に基づいて、テクスチャデータ329が示す第1顔画像81のテクスチャを複数のポリゴンPG1の各ポリゴンにマッピングする。そして、情報処理部31は、顔認識結果データ325を参照して、複数のポリゴンPG1の基準点(図17に示される中点A3)が複数のポリゴンPG2の基準点(図19に示される中点B3)と一致するように複数のポリゴンPG1を配置してVRAM313に描画する。その際、第1顔画像81の周縁部と、外カメラ画像79における顔領域92の外側の画像との違和感を低減させるために、画素の透過度を示すアルファ値を、ポリゴンPG1の各頂点に対しては「0」に設定する。
このように、Lボタン14G又はRボタン14Hの操作に応じて外側撮像部23及び内側撮像部24により取得された外カメラ画像79及び内カメラ画像78を用いて、第1顔画像81が取得される。そして、それに続いて、第1顔画像81に対して回転処理及び拡大/縮小処理が施され、外カメラ画像79において、顔領域92の画像を処理後の第1顔画像81に差し替えた顔合成画像80が生成される。このようにして生成された顔合成画像80は、ステップS187の処理が完了してステップS20の処理が行われることにより、外カメラ画像79及び内カメラ画像78に代えて上側LCD22に表示される(図9参照)。
[本実施形態の作用効果]
以上説明したように、本実施形態によれば、外側撮像部23及び内側撮像部24によって被写体としてのフレンドとユーザの2人の顔がリアルタイムに撮像されて上側LCD22に表示されている状態(例えば図8参照)で、ユーザの顔を表す第1顔画像81が取得される。そして、フレンドの顔に相当する顔領域92(図11参照)を、回転処理及び拡大/縮小処理後の第1顔画像81に差し替えた顔合成画像80が生成される。その結果、被写体としての人物の顔をそのままリアルに再現したカメラ画像ではなく、複数人の顔を合成した興趣性が高い撮像画像を得ることができる。
また、本実施形態では、被写体であるユーザとフレンドの顔を忠実に再現したカメラ画像の表示が、興趣性が高い顔合成画像80に切り替わるので、ユーザが上側LCD22を見て顔合成画像80を容易に確認することができる。本実施形態は、撮影が指示されたタイミングで、上側LCD22の表示内容がカメラ画像から顔合成画像80に切り替わるので、撮影直後に顔合成画像80を表示させるための操作を行うことなく顔合成画像80を容易に確認することができ、撮影の楽しさが向上する。
また、本実施形態では、外カメラ画像が示すフレンドの顔を内カメラ画像が示すユーザの顔に差し替えた顔合成画像80が生成される。したがって、ユーザは、実空間に存在する(ユーザの目の前にいる)フレンドの顔と、顔合成画像80が示す顔とを見比べて撮影
を楽しむことができる。
また、本実施形態では、Lボタン14G又はRボタン14Hが操作されたときに、第1顔画像81を取得してから顔合成画像80を生成するまでの一連の処理が行われる。すわわち、撮影の直後に顔合成画像80を得ることができる。このため、本実施形態で説明したように、撮影直後に顔合成画像80を上側LCD22に表示させることによってユーザとフレンドとが顔合成画像80を容易に視認することができ、2人で楽しく撮影を行うことができる。
また、本実施形態では、顔合成画像80を得るために、外カメラ画像と内カメラ画像との両方から人物の顔を識別できていなければシャッターが押せない(撮影が許可されない)ようにゲーム装置10が構成されている。このため、顔認識処理を成功させるために複数人(本実施形態ではユーザとフレンドの2人)が協力して撮影を行う必要があるため、一層楽しく撮影を行うことができる。
また、本実施形態では、外側撮像部23及び内側撮像部24のそれぞれの撮像範囲にフレンドとユーザの顔が含まれている間、撮影が可能であることを報知するために、上側LCD22に吹き出し74,75が表示される。このため、どのタイミングでLボタン14G又はRボタン14Hを操作すれば顔合成画像80を得るための撮影に成功するかをユーザが容易に把握することができ、撮影をスムーズに行うことができる。
また、本実施形態では、上側LCD22の左領域221に外カメラ画像が表示され、右領域222に内カメラ画像が表示されるというように、2つの撮像部23,24によって撮像されたカメラ画像が上側LCD22の異なる表示領域に別々に表示される。したがって、各撮像部23,24の撮像範囲に顔が含まれているか否かをユーザが容易に確認することができ、その結果、撮影をスムーズに行うことができる。
また、本実施形態では、顔合成画像80が生成されることにより、上側LCD22の表示内容が外カメラ画像79及び内カメラ画像78から顔合成画像80に自動的に切り替わる。このため、ユーザは、この表示内容が切り替わるのを見て楽しむことができる。
また、本実施形態では、顔合成画像80を得るために、外側撮像部23及び内側撮像部24の両方の撮像部が使用される。このため、ゲーム装置10のユーザが、左領域221及び右領域222の両方に顔が表示されているかを確認しながら、フレンドと向かい合った状態で撮影を行い、撮影直後に上側LCD22に表示された顔合成画像80を2人で確認することで、2人で協力して楽しみながら撮影を行うことができる。
[他の撮影方法]
上記実施形態では、図5に基づいて説明したように、ユーザの顔が内側撮像部24によって撮像され、且つフレンドの顔が外側撮像部23によって撮像される場合について説明したが、1つの撮像部で撮像される人物の数は1人に限定されるものではない。
図21は、外側撮像部23及び内側撮像部24の両方の撮像部を用いて、ユーザと2人のフレンドとの3人で撮影を行う場合の撮影方法を模式的に示した図である。図21に例示されるように、ゲーム装置10のユーザが内側撮像部24によって撮像され、第1フレンド及び第2フレンドの2人が外側撮像部23によって撮像されるように、3人で協力して撮影を行うようにしてもよい。この場合、内カメラ画像からユーザの顔を示す第1顔画像を取得して、外カメラ画像に含まれている2人のフレンドの顔領域に2つの第1顔画像を挿入する顔合成処理を行うことが考えられる。この顔合成処理により、第1フレンドと第2フレンドの2人の顔がいずれもユーザの顔に差し替えられた(2人とも別人の顔をした)、興趣性が高い顔合成画像を得ることができる。
図22は、内側撮像部24のみを用いて、ユーザとフレンドの2人で撮影を行う場合の撮影方法を模式的に示した図である。図22に例示されるように、ゲーム装置10のユーザとフレンドが2人とも内側撮像部24によって撮像されるように、2人で並んで撮影を行うようにしてもよい。この場合、内カメラ画像からフレンドの顔を示す第1顔画像を取得して、第1顔画像を同じ内カメラ画像のユーザの顔領域に挿入する顔合成処理を行うことが考えられる。この顔合成処理により、ユーザとフレンドの2人の顔がいずれもフレンドの顔に差し替えられた、興趣性が高い顔合成画像を得ることができる。このように、外側撮像部23及び内側撮像部24のいずれか一方を用いて複数人の顔を撮影し、それにより得られた1つのカメラ画像から顔合成画像を得るようにしてもよい。
[変形例]
なお、本発明は上記実施形態に限定されるものではなく、以下の形態であってもよい。すなわち、上記実施形態では、フレンドの顔領域92(第2顔領域の一例)の全体を、ユーザの顔領域91(第1顔領域の一例)の全体に対応する第1顔画像81に差し替えて顔合成画像80を得る場合について説明した。これに代えて、第1顔領域の一部の画像を第1顔画像として取得し、第2顔領域の一部をこの第1顔画像に差し替えるようにしてもよい。つまり、ある人物の顔の一部(例えば目)を別の人物の顔の一部(同じく目)に差し替えた顔合成画像を生成するようにしてもよい。
また、上記実施形態では、外カメラ画像が示す人物の顔を内カメラ画像が示す人物の顔に差し替えた顔合成画像を生成する場合について説明したが、これとは逆に、内カメラ画像が示す人物の顔を外カメラ画像が示す人物の顔に差し替えた顔合成画像を生成するようにしてもよい。これにより、外側撮像部23によって撮影される人物が、目の前で撮影を行っているゲーム装置10のユーザの顔と、例えば撮影後に上側LCD22に表示される顔合成画像とを見比べて、ユーザとの撮影を楽しむことができる。
また、上記実施形態では、外側撮像部23をステレオカメラとして使用して、立体的に表示される顔合成画像80(左目用合成画像80A及び右目用合成画像80B)を得る場合について説明したが、外側撮像部23を非ステレオカメラとして使用して、平面的に表示される顔合成画像を得るようにしてもよい。この形態の一例としては、外側撮像部23の外側左撮像部23Aだけを使用して、外側左撮像部23Aによって取得された1つの外カメラ画像に対して、内側撮像部24によって取得された内カメラ画像に含まれている第1顔画像を合成して顔合成画像を得る形態が挙げられる。
また、上記実施形態では、リアルタイムに取得される外カメラ画像及び内カメラ画像が上側LCD22の異なる表示領域に表示される場合について説明したが、上側LCD22と下側LCD12の両方を用いてカメラ画像を表示するようにしてもよい。すなわち、外カメラ画像を上側LCD22に表示し、内カメラ画像を下側LCD12に表示するようにしてもよい。
また、上記実施形態では、顔合成画像80が上側LCD22に表示される場合について説明したが、顔合成画像80を下側LCD12に表示するようにしてもよい。例えば撮影後も上側LCD22に内カメラ画像78及び外カメラ画像79を表示し続けるようにすれば、撮影時のカメラ画像78,79と顔合成画像80とを見比べることができる。また、顔合成画像80を、ゲーム装置10と通信可能に接続された液晶テレビの画面に表示するようにしてもよい。
また、上記実施形態では、Lボタン14G又はRボタン14Hの操作に応じて、第1顔
画像(上記実施形態では第1顔画像81)を取得して顔合成画像を生成する場合について説明した。これに代えて、第1顔画像を取得して顔合成画像を生成する処理を、自動的に行うようにしてもよい。例えば、リアルタイムに取得される外カメラ画像及び内カメラ画像に対して顔認識処理を行い、両方のカメラ画像から顔を識別できたタイミングで、第1顔画像を取得して顔合成画像を生成することが考えられる。
また、上記実施形態では、撮像部の撮像範囲に複数の顔が含まれていない場合に撮影が禁止される場合について説明したが、撮像範囲に複数の顔が含まれているか否かに関わらず、撮影が行えるようにしてもよい。ただし、この場合、ゲーム装置10に対する顔の位置によって顔合成画像が得られないケースが生じるので、上記実施形態で説明したように、顔認識処理に成功したことを条件として撮影を行えるようにすることが好ましい。
また、上記実施形態では、携帯型のゲーム装置10に本発明が適用された場合を例に説明したが、本発明は、ゲーム装置に限らず、任意の携帯型電子機器、例えば、PDA(Personal Digital Assistance)や携帯電話等に適用されてもよい。
また、上記実施形態では、顔合成画像を得るまでの全ての処理をゲーム装置10で行う場合を例に説明したが、一部の処理を他の装置で行っても構わない。例えば、ゲーム装置10が他の装置(例えば、サーバや他のゲーム装置)と通信可能に接続されている場合、上述したメイン処理における処理ステップは、ゲーム装置10及び他の装置が1つの撮像システムとして協働することによって実行されてもよい。また、上記実施形態においては、ゲーム装置10の情報処理部31が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、ゲーム装置10が備える専用回路によって上記処理の一部又は全部が行われてもよい。
また、上述したゲーム装置10の形状、撮像部の数、撮像部の設置位置、撮像部の撮像方向等は単なる一例に過ぎず、他の形状、数、及び設置位置であっても、本発明を実現できることは言うまでもない。また、上述したメイン処理で用いられる処理順序、設定値、判定に用いられる値等は、単なる一例に過ぎず他の順序や値であっても、本発明を実現できることは言うまでもない。
また、画像生成プログラムは、外部メモリ45やデータ保存用外部メモリ46等の外部記憶媒体を通じてゲーム装置10に供給されるだけでなく、有線又は無線の通信回線を通じてゲーム装置10に供給されてもよい。また、上記画像生成プログラムは、ゲーム装置10内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、DVD、或いはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ等であってもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを一時的に記憶するRAM等の揮発性メモリでもよい。
以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
本発明は、人物等の顔を撮像して得られた撮像画像に対して顔認識機能を用いて画像処理を行う撮像装置のコンピュータに実行させる画像生成プログラム、撮像装置、撮像システム、及び画像生成方法等に適用可能である。
10 ゲーム装置
22 上側LCD
23 外側撮像部(第1撮像部の一例)
24 内側撮像部(第2撮像部の一例)
31 情報処理部
32 メインメモリ
51 撮像方向
52 撮像方向
78 内カメラ画像(撮像画像の一例)
79 外カメラ画像(撮像画像の一例)
80 顔合成画像
81 第1顔画像
91 顔領域(第1顔領域の一例)
92 顔領域(第2顔領域の一例)
221 左領域(第1表示領域の一例)
222 右領域(第2表示領域の一例)
311 CPU
312 GPU
313 VRAM

Claims (11)

  1. 撮像装置のコンピュータに実行させる画像生成プログラムであって、
    前記コンピュータを、
    所定の操作に応じて、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する撮像画像取得手段と、
    前記撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、当該第1顔領域の少なくとも一部の画像を第1顔画像として取得する顔画像取得手段と、
    前記複数の顔領域のうちの前記第1顔領域とは異なる第2顔領域の少なくとも一部を前記第1顔画像に差し替えた顔合成画像を生成する顔合成画像生成手段と
    前記撮像画像に基づいて、前記少なくとも1つの撮像部の撮像範囲に被写体としての複数の顔が含まれているか否かを判定する判定手段と、
    前記撮像範囲に複数の顔が含まれていないと前記判定手段によって判定されている間、前記所定の操作に応じた撮影を禁止する撮影禁止手段と、
    前記撮像範囲に複数の顔が含まれていると前記判定手段によって判定されている間、前記所定の操作に応じた撮影が可能であることを報知する報知手段として機能させる、画像生成プログラム。
  2. 前記コンピュータを、前記撮像画像取得手段によってリアルタイムに取得される撮像画像を表示手段に表示させ、前記顔合成画像生成手段によって顔合成画像が生成されたことを条件として、当該顔合成画像を前記撮像画像に代えて前記表示手段に表示させる第1表示制御手段として更に機能させる、請求項1に記載の画像生成プログラム。
  3. 前記コンピュータを、第1撮像部により撮像された第1撮像画像を表示手段の第1表示領域に表示させ、第2撮像部により撮像された第2撮像画像を前記第1表示領域とは異なる前記表示手段の第2表示領域に表示させる第2表示制御手段として更に機能させる、請求項1に記載の画像生成プログラム。
  4. 前記第2表示制御手段は、前記顔合成画像生成手段によって顔合成画像が生成されたことを条件として、当該顔合成画像を前記第1撮像画像及び前記第2撮像画像に代えて前記表示手段に表示させる、請求項に記載の画像生成プログラム。
  5. 前記第1撮像部及び前記第2撮像部のいずれか一方の撮像方向が前記表示手段の法線方向と一致し、且つ前記第1撮像部及び前記第2撮像部の他方の撮像方向が当該法線方向の逆方向と一致する、請求項に記載の画像生成プログラム。
  6. 前記撮像画像取得手段は、第1撮像部および第2撮像部により前記撮像画像を取得し、
    前記コンピュータを、
    前記第1撮像部の第1撮像範囲に被写体としての顔が含まれているという第1条件、及び前記第2撮像部の第2撮像範囲に被写体としての顔が含まれているという第2条件がいずれか一方でも満たされていない場合に、前記第1撮像部および前記第2撮像部による撮影を禁止する撮影禁止手段として更に機能させる、請求項1に記載の画像生成プログラム。
  7. 前記撮像画像取得手段は、第1撮像部および第2撮像部により前記撮像画像を取得し、
    前記コンピュータを、
    前記第1撮像部の第1撮像範囲に被写体としての顔が含まれている場合に、その旨を示唆する第1示唆画像を表示する第1示唆画像表示手段と、
    前記第2撮像部の第2撮像範囲に被写体としての顔が含まれている場合に、その旨を示唆する第2示唆画像を表示する第2示唆画像表示手段として更に機能させる、請求項1に記載の画像生成プログラム。
  8. 前記顔画像取得手段は、特定の操作に応じて、前記複数の顔領域から検出する前記第1顔領域を変更可能である、請求項1に記載の画像生成プログラム。
  9. 所定の操作に応じて、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する撮像画像取得手段と、
    前記撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、当該第1顔領域の少なくとも一部の画像を第1顔画像として取得する顔画像取得手段と、
    前記複数の顔領域のうちの前記第1顔領域とは異なる第2顔領域の少なくとも一部を前記第1顔画像に差し替えた顔合成画像を生成する顔合成画像生成手段と
    前記撮像画像に基づいて、前記少なくとも1つの撮像部の撮像範囲に被写体としての複数の顔が含まれているか否かを判定する判定手段と、
    前記撮像範囲に複数の顔が含まれていないと前記判定手段によって判定されている間、前記所定の操作に応じた撮影を禁止する撮影禁止手段と、
    前記撮像範囲に複数の顔が含まれていると前記判定手段によって判定されている間、前記所定の操作に応じた撮影が可能であることを報知する報知手段とを備える、撮像装置。
  10. 所定の操作に応じて、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得する撮像画像取得手段と、
    前記撮像画像取得手段によって取得された撮像画像に含まれる複数の顔領域から第1顔領域を検出し、当該第1顔領域の少なくとも一部の画像を第1顔画像として取得する顔画像取得手段と、
    前記複数の顔領域のうちの前記第1顔領域とは異なる第2顔領域の少なくとも一部を前記第1顔画像に差し替えた顔合成画像を生成する顔合成画像生成手段と
    前記撮像画像に基づいて、前記少なくとも1つの撮像部の撮像範囲に被写体としての複数の顔が含まれているか否かを判定する判定手段と、
    前記撮像範囲に複数の顔が含まれていないと前記判定手段によって判定されている間、前記所定の操作に応じた撮影を禁止する撮影禁止手段と、
    前記撮像範囲に複数の顔が含まれていると前記判定手段によって判定されている間、前記所定の操作に応じた撮影が可能であることを報知する報知手段とを含む、撮像システム。
  11. 撮像装置に実行される画像生成方法であって、
    所定の操作に応じて、少なくとも1つの撮像部によりリアルタイムに撮像画像を取得するステップと、
    取得された前記撮像画像に含まれる複数の顔領域から第1顔領域を検出し、当該第1顔領域の少なくとも一部の画像を第1顔画像として取得するステップと、
    前記複数の顔領域のうちの前記第1顔領域とは異なる第2顔領域の少なくとも一部を前記第1顔画像に差し替えた顔合成画像を生成するステップと
    前記撮像画像に基づいて、前記少なくとも1つの撮像部の撮像範囲に被写体としての複数の顔が含まれているか否かを判定するステップと、
    前記撮像範囲に複数の顔が含まれていないと判定されている間、前記所定の操作に応じた撮影を禁止するステップと、
    前記撮像範囲に複数の顔が含まれていると判定されている間、前記所定の操作に応じた撮影が可能であることを報知するステップとを含む、画像生成方法。
JP2010217531A 2010-09-28 2010-09-28 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法 Active JP5564384B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010217531A JP5564384B2 (ja) 2010-09-28 2010-09-28 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
US13/247,348 US8648924B2 (en) 2010-09-28 2011-09-28 Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010217531A JP5564384B2 (ja) 2010-09-28 2010-09-28 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法

Publications (2)

Publication Number Publication Date
JP2012074878A JP2012074878A (ja) 2012-04-12
JP5564384B2 true JP5564384B2 (ja) 2014-07-30

Family

ID=45870289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010217531A Active JP5564384B2 (ja) 2010-09-28 2010-09-28 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法

Country Status (2)

Country Link
US (1) US8648924B2 (ja)
JP (1) JP5564384B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101817658B1 (ko) * 2011-12-23 2018-02-22 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP5450739B2 (ja) * 2012-08-30 2014-03-26 シャープ株式会社 画像処理装置及び画像表示装置
US20140135121A1 (en) * 2012-11-12 2014-05-15 Samsung Electronics Co., Ltd. Method and apparatus for providing three-dimensional characters with enhanced reality
KR102076773B1 (ko) * 2013-01-04 2020-02-12 삼성전자주식회사 영상 데이터 획득 방법 및 그 방법을 처리하는 전자 장치
KR20150018264A (ko) * 2013-08-09 2015-02-23 엘지전자 주식회사 안경형 단말기의 정보 제공 장치 및 그 방법
US9766702B2 (en) * 2014-06-19 2017-09-19 Apple Inc. User detection by a computing device
CN104536578B (zh) * 2015-01-13 2018-02-16 京东方科技集团股份有限公司 裸眼3d显示装置的控制方法及装置、裸眼3d显示装置
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
US11284003B2 (en) * 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
USD836654S1 (en) * 2016-10-28 2018-12-25 General Electric Company Display screen or portion thereof with graphical user interface
CN107330408B (zh) * 2017-06-30 2021-04-20 北京乐蜜科技有限责任公司 视频处理方法、装置、电子设备及存储介质
CN109523461A (zh) * 2018-11-09 2019-03-26 北京达佳互联信息技术有限公司 显示目标图像的方法、装置、终端及存储介质
US11704851B2 (en) * 2020-05-27 2023-07-18 Snap Inc. Personalized videos using selfies and stock videos
WO2021263050A1 (en) 2020-06-26 2021-12-30 Limonox Projects Llc Devices, methods and graphical user interfaces for content applications
USD956068S1 (en) * 2020-09-14 2022-06-28 Apple Inc. Display screen or portion thereof with graphical user interface
US11720171B2 (en) 2020-09-25 2023-08-08 Apple Inc. Methods for navigating user interfaces
JP7218031B1 (ja) 2022-08-01 2023-02-06 三信トレーディング株式会社 生物自動計測装置および方法並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4377472B2 (ja) * 1999-03-08 2009-12-02 株式会社東芝 顔画像処理装置
JP2003296713A (ja) * 2002-04-04 2003-10-17 Mitsubishi Electric Corp 顔画像合成装置、顔画像合成方法およびその方法を実行するプログラムならびに顔画像合成装置を備えた通信用端末およびその通信用端末による通信方法
JP4383140B2 (ja) * 2003-09-25 2009-12-16 任天堂株式会社 画像処理装置および画像処理プログラム
JP3948485B2 (ja) * 2006-03-08 2007-07-25 松下電器産業株式会社 ディジタルカメラおよびディジタルカメラ付き携帯電話装置
JP5239126B2 (ja) 2006-04-11 2013-07-17 株式会社ニコン 電子カメラ
JP4577275B2 (ja) * 2006-06-07 2010-11-10 カシオ計算機株式会社 撮像装置、画像記録方法、および、プログラム
KR101431535B1 (ko) * 2007-08-30 2014-08-19 삼성전자주식회사 얼굴인식 기능을 이용한 영상 촬영 장치 및 방법
JP2010056883A (ja) * 2008-08-28 2010-03-11 Nikon Corp 光学装置及び撮影装置
JP5727692B2 (ja) * 2008-12-04 2015-06-03 任天堂株式会社 プログラムおよび情報処理装置
US8839118B2 (en) * 2010-06-30 2014-09-16 Verizon Patent And Licensing Inc. Users as actors in content

Also Published As

Publication number Publication date
JP2012074878A (ja) 2012-04-12
US8648924B2 (en) 2014-02-11
US20120075496A1 (en) 2012-03-29

Similar Documents

Publication Publication Date Title
JP5564384B2 (ja) 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
JP4869430B1 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5750253B2 (ja) 画像生成プログラム、撮像装置、撮像システム、及び画像生成方法
JP5671349B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5646263B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
JP4757948B1 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US20110304611A1 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
WO2013001902A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
JP6723512B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5149939B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5514637B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP2005216061A (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2007042073A (ja) 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
US9737814B2 (en) Computer readable medium storing image processing program of synthesizing images
JP2012174237A (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
US20120072857A1 (en) Computer-readable storage medium, display control apparatus, display control method and display control system
JP2012221259A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
JP2012243147A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5723149B2 (ja) 画像処理システム、画像処理プログラム、画像処理方法及び画像処理装置
JP5687881B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140616

R150 Certificate of patent or registration of utility model

Ref document number: 5564384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250