JP4724242B2 - 電子機器および画像表示方法 - Google Patents

電子機器および画像表示方法 Download PDF

Info

Publication number
JP4724242B2
JP4724242B2 JP2009231129A JP2009231129A JP4724242B2 JP 4724242 B2 JP4724242 B2 JP 4724242B2 JP 2009231129 A JP2009231129 A JP 2009231129A JP 2009231129 A JP2009231129 A JP 2009231129A JP 4724242 B2 JP4724242 B2 JP 4724242B2
Authority
JP
Japan
Prior art keywords
display
still image
image
face images
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009231129A
Other languages
English (en)
Other versions
JP2011082641A (ja
Inventor
浩平 桃崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009231129A priority Critical patent/JP4724242B2/ja
Priority to US12/898,514 priority patent/US20110081047A1/en
Publication of JP2011082641A publication Critical patent/JP2011082641A/ja
Application granted granted Critical
Publication of JP4724242B2 publication Critical patent/JP4724242B2/ja
Priority to US13/548,517 priority patent/US20120281022A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Description

本発明は静止画像のようなコンテンツを表示するための電子機器および画像表示方法に関する。
近年、CCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどといった撮像素子の高解像度化が進められている。このため、携帯電話、パーソナルコンピュータのような電子機器で扱われる、デジタル写真のような静止画像も高解像度化が進められている。
また、最近では、デジタルフォトフレームなどと称される画像再生装置が普及し始めている。デジタルフォトフレームは、例えば、カード型記憶メディアに格納される複数枚の静止画像を所定時間間隔で順次表示する機能を有している。例えばパーソナルコンピュータや電子カメラ等においても、デジタルフォトフレームと同様に、複数枚の静止画像を所定時間間隔で順次表示する機能を有するのが一般的である。
特許文献1には、スライドショー形式で複数の画像を逐次切り替え表示する画像再生装置が開示されている。この画像再生装置は、スライドショー形式で複数の画像を逐次切り替え表示する際に、人物の顔部分のようなターゲット部分をズームアップする機能を有している。
特開2005−354333号公報
しかし、複数の人物が写っている写真については、もしある人物の顔を単純にズームアップすると、例えば隣に写っている人物の顔が、ズームアップされた顔によって隠されてしまう可能性がある。写真によっては、複数の人物が画像内の一部の領域に集中して写っている場合もある。よって、単純なズームアップのみでは、どのような人物が写真に写っているかをユーザに分かり易く提示することは困難である。
本発明は上述の事情を考慮してなされたものであり、静止画像にどのような人物が含まれているかをユーザに分かり易く提示することができる電子機器および画像表示方法を提供することを目的とする。
上述の課題を解決するため、本願請求項1記載の電子機器は、静止画像に含まれる複数の顔画像を検出する顔画像検出手段と、表示画面を分割することによって得られる複数の表示エリアにそれぞれ対応する前記静止画像上の複数の表示範囲が前記複数の顔画像を含むように前記複数の表示範囲それぞれの位置およびサイズを設定する表示範囲設定手段と、前記複数の表示エリア上に前記複数の顔画像をそれぞれ表示するために前記複数の表示範囲内に含まれる複数の部分画像を前記複数の表示エリア上にそれぞれ表示し、前記表示画面の表示形態が前記複数の顔画像が前記複数の表示エリアにそれぞれ表示される第1表示形態から前記静止画像の全体が前記表示画面上に表示される第2表示形態に遷移されるように前記複数の表示範囲の位置およびサイズを変化させる表示制御手段とを具備することを特徴とする。
本発明によれば、静止画像にどのような人物が含まれているかをユーザに分かり易く提示することができる。
本発明の一実施形態に係る電子機器の外観を示す斜視図。 同実施形態の電子機器のシステム構成を示すブロック図。 同実施形態の電子機器によって実行されるコンテンツ再生アプリケーションプログラムの機能構成を示すブロック図。 同実施形態の電子機器によって実行されるコンテンツ再生アプリケーションプログラムが用いるインデックス情報の例を示す図。 同実施形態の電子機器によって扱われる静止画像の例を示す図。 同実施形態の電子機器によって実行される第1エフェクト処理の例を示す図。 図6の第1エフェクト処理の最初に3つの表示エリアにそれぞれ表示される静止画像上の領域を説明するための図。 図6の第1エフェクト処理中に3つの表示エリアにそれぞれ表示される静止画像上の領域を説明するための図。 図6の第1エフェクト処理の最後に3つの表示エリアにそれぞれ表示される静止画像上の領域を説明するための図。 図6の第1エフェクト処理で用いられる、3つの表示エリアにそれぞれ対応する拡大率の変化の例を示す図。 図6の第1エフェクト処理で用いられる、3つの表示エリアにそれぞれ対応する水平座標の変化の例を示す図。 図6の第1エフェクト処理で用いられる、3つの表示エリアにそれぞれ対応する垂直座標の変化の例を示す図。 第1エフェクト処理が施される静止画像の別の例を示す図。 図13の静止画像に対応する第1エフェクト処理の例を示す図。 同実施形態の電子機器によって実行される第1エフェクト処理の手順の例を示すフローチャート。 同実施形態の電子機器によって実行される第2エフェクト処理を説明するための図。 同実施形態の電子機器によって実行される第3エフェクト処理を説明するための図。 同実施形態の電子機器によって実行される、顔画像数に応じたエフェクト変更処理の手順を示すフローチャート。 同実施形態の電子機器によって実行される、顔画像1つの時のエフェクト処理の例を示す図。 同実施形態の電子機器によって実行される、顔画像なしの時のエフェクト処理の例を示す図。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、コンピュータ本体11の右側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。さらに、コンピュータ本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子(図示せず)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備えている。
CPU101は、本コンピュータ10の動作を制御するプロセッサであり、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびコンテンツ再生アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。コンテンツ再生アプリケーションプログラム202は、例えばHDD109等に格納された各種デジタルコンテンツを再生するソフトウェアである。このコンテンツ再生アプリケーションプログラム202は、ショートムービー機能を有している。このショートムービー機能は、例えば、HDD109等に格納された写真、ホームビデオ等といったデジタルコンテンツを用いて、スライドショー(フォトムービー)を作成及び表示する機能である。さらに、このショートムービー機能は、人物の顔にフォーカスしたエフェクトを写真のような静止画像に加える機能を有している。
また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイスおよびLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109およびODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。例えば、USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込みおよび読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC114は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
次に、図3を参照して、以上のような構成をもつ本コンピュータ10上で動作するコンテンツ再生アプリケーションプログラム202の一機能構成を説明する。ここでは、コンテンツ再生アプリケーションプログラム202が有する機能のうち、ショートムービー機能を実現するための構成例について説明する。このショートムービー機能は、HDD109に格納された静止画像データ401だけでなく、インタフェース部(上述のUSBコントローラ111A、カードコントローラ111B等)を介して外部デバイス(デジタルカメラ、メモリカード)からリードされた静止画像データ401に対しても適用することができる。
図3に示すように、コンテンツ再生アプリケーションプログラム202は、インデクシング処理部301およびスライドショー表示制御部302を備えている。
インデクシング処理部301は、HDD109に格納された静止画像データ401の中から目的のデジタル画像を探し出すために使用されるインデックス情報を作成するためのインデクシング処理を実行する。インデクシング処理では、例えば、静止画像データ401から顔画像を検出する顔検出処理が実行される。複数の顔画像を含む静止画像については、それら複数の顔画像それぞれが検出される。顔画像の検出は、例えば、静止画像データの特徴を解析し、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。顔検出処理により、静止画像内に含まれる各顔画像の位置(座標)およびサイズが検出される。このように、インデクシング処理部301は、静止画像に含まれる複数の顔画像の位置およびサイズを検出する顔画像検出部として機能する。
なお、図3に示す静止画像データ401は、写真データ、動画像データから抽出されたフレームデータのいずれであっても良い。
インデクシング処理部301によるインデクシング処理の結果は、インデックス情報402として、データベース109Aに格納される。データベース109Aは、このインデックス情報402の格納用にHDD109内に用意された記憶領域である。図4に、データベース109Aに格納されるインデックス情報402の一構成例を示す。
「画像ID」は、各静止画像401に一意に割り当てられる識別情報である。「撮像日時」は、各静止画像401の撮像日時を示す時刻情報である。「顔画像情報」は、静止画像データ401に含まれる全ての顔画像それぞれに関する情報を含む。一つの顔画像に対応する顔画像情報は、その顔画像の位置、その顔画像のサイズ、等の情報を含む。「文字情報」は、静止画像データ401に含まれる文字列を示す。
更に、インデクシング処理部301は、例えば撮像日時に基づき、HDD109に格納された複数の静止画像データ401をグループ分けし、各グループを識別するための情報を出力する。この情報が「グループ情報」としてデータベース109Aに格納される。
このインデックス情報402を用いることにより、各静止画像データ401について、その静止画像内に顔画像が含まれるか否か、その静止画像に含まれる顔画像の数、その静止画像に含まれる文字列、その静止画像がどのグループに属しているか、等を判定することが可能となる。換言すれば、このインデックス情報402を用いて、目的の人物が写っている静止画像データ401、目的の人物が写っており且つ特定の文字が写っている静止画像データ401等を、HDD109に格納された複数の静止画像データ401の中から速やかに探し出すことができる。
そして、スライドショー表示制御部302は、このインデックス情報402を用いて、HDD109に格納された複数の静止画像データ401の中から所定の選択条件を満たす一つ又は複数の静止画像データを選択することができる。そして、スライドショー表示制御部302は、選択された一つ又は複数の静止画像データを用いて、人物の顔にフォーカスしたエフェクトを有するショートムービーを作成および表示することができる。
スライドショー表示制御部302は、エフェクト処理部3021、エフェクト切り替え部3022、顔画像数カウント部3023、およびエフェクト選択部3024を備えている。エフェクト処理部3021は、複数種のエフェクトモードから選択されたエフェクトモードを静止画像に施すことによって、その静止画像を動画像のような動きを有するショートムービーとして表示する。本実施形態では、例えば、複数の顔画像を含む静止画像に適した第1エフェクトモード(エフェクトモードA)と、一つの顔画像を含む静止画像に適した第2エフェクトモード(エフェクトモードB)と、顔画像を含まない静止画像に適した第3エフェクトモード(エフェクトモードC)とが用意されている。さらに、エフェクトモードA,B,Cの各々は、異なる2種以上のエフェクトを含んでいる。
エフェクト切り替え部3022は、静止画像に施すべきエフェクトを自動的に切り換える。例えば、複数の顔画像を含む静止画像をショートムービーとして表示する場合においては、エフェクト切り替え部3022は、エフェクト処理部3021を制御することによって、静止画像に施すべきエフェクトをエフェクトモードAに含まれるエフェクト間で自動的に切り換える。顔画像数カウント部3023は、選択された静止画像に含まれる顔画像の数をカウントする。顔画像の数は、例えば、上述のインデックス情報402に基づいてカウントすることができる。エフェクト選択部3024は、選択された静止画像に含まれる顔画像の数に応じて、エフェクトモードA,B,Cの内の一つを選択する。選択されたエフェクトモードはエフェクト処理部3021に通知される。
次に、エフェクトモードAに含まれるエフェクトの一つである「3分割ズームアウト」モードについて説明する。この「3分割ズームアウト」モードは、表示画面を分割することによって得られる複数の表示エリア(例えば3つの表示エリア)を用いてショートムービーを表示するモードである。本実施形態では、表示エリア毎に、静止画像上の表示範囲の位置およびサイズが個別に制御される。
より詳しくは、「3分割ズームアウト」モードに対応するエフェクト処理部3021は、表示範囲設定部3021Aおよび表示制御部3021Bを有している。表示範囲設定部3021Aは、インデクシング処理部301によって検出された静止画像内の複数の顔画像それぞれの位置およびサイズに基づき、複数の表示エリアにそれぞれ対応する静止画像上の複数の表示範囲が複数の顔画像を含むように、複数の表示範囲それぞれの位置およびサイズを設定する。表示制御部3021Bは、まず、複数の表示エリア上に複数の顔画像をそれぞれ表示するために、複数の表示範囲内にそれぞれ含まれる複数の部分画像を複数の表示エリア上にそれぞれ表示する。この場合、顔画像それぞれのサイズが正規化されるように、サイズがしきい値よりも小さい顔画像を拡大(ズームイン)してもよい。次いで、表示制御部3021Bは、表示画面の表示形態が、複数の顔画像が複数の表示エリアにそれぞれ表示される第1表示形態から、静止画像の全体が表示画面上に表示される第2表示形態に遷移されるように、複数の表示範囲の位置およびサイズを連続的に変化させる。
これにより、最初は、複数の顔画像が複数の表示エリアに分散して配置された状態で表示される。そして、例えば、時間の経過にしたがって各表示エリアに表示される部分画像が徐々に変化していき、最終的に、静止画像の全体が、複数の表示エリアから構成される表示画面上に表示される。
以下、図5および図6を参照して、「3分割ズームアウト」モードの例を説明する。
図5は、選択された静止画像の例を示す。この静止画像は、3人の人物の顔画像A,B,Cを含むデジタル写真である。図6は、「3分割ズームアウト」モードで図5の静止画像を再生した時の表示画面上の画像の遷移の様子を示している。
「3分割ズームアウト」モードでは、図6に示されているように、ショートムービーとして再生される静止画像を表示するための表示画面500は、例えば、各々が縦方向に延びる3つの表示エリア501,502,503に分割して使用される。第1の表示エリア501は表示画面500の左端側に位置し、第2の表示エリア502は表示画面500の中央部に位置し、第3の表示エリア503は表示画面500の右端側に位置する。3つの表示エリア501,502,503の各々は縦長の形状を有している。3つの表示エリア501,502,503のサイズは同一である。
図6の(1)は、第1の表示形態において表示エリア501,502,503上に表示される画像を示している。第1の表示形態では、3つの顔画像A,B,Cがそれぞれ表示エリア501,502,503上に表示される。この場合、3つの顔画像A,B,Cそれぞれのサイズは、拡大又は縮小によって、表示エリアのサイズに適合するサイズに正規化される。図5の静止画像に含まれる3つの顔画像A,B,Cそれぞれのサイズは、表示エリアのサイズに対応するしきい値よりも小さいので、これら3つの顔画像A,B,Cは拡大された状態で表示エリア501,502,503上にそれぞれ表示される。
図6の(4)は、第2の表示形態において表示エリア501,502,503から構成される表示画面上に表示される画像を示している。第2の表示形態では、静止画像の全体が表示画面上に表示される。すなわち、表示エリア501には、静止画像を縦方向に3分割することによって得られる3つの部分画像の内、左端側の部分画像が表示される。表示エリア502には、3つの部分画像の内の中央部の部分画像が表示される。表示エリア503には、3つの部分画像の内の右端側の部分画像が表示される。
第1の表示形態から第2の表示形態への遷移過程においては、表示エリア501,502,503それぞれの表示画像の内容は連続的に変化される。図6の(2)、(3)は、遷移過程中に表示される多数の表示画像の中の2つの画像を代表して示したものである。
第1の表示形態から第2の表示形態への遷移過程では、表示エリア501,502,503それぞれに対応する3つの表示範囲それぞれのサイズおよび位置が連続的に変化され、これに伴って表示エリア501,502,503それぞれの表示画像の内容も連続的に変化される。
次に、図7、図8および図9を参照して、表示エリア501,502,503それぞれに対応する3つの表示範囲それぞれのサイズおよび位置がどのように変化されるかについて説明する。
図7は、第1の表示形態(図6の(1)によって示される表示状態)に対応する3つの表示範囲f1,f2,f3それぞれのサイズと位置を示している。図7の上部は表示対象の静止画像データを示しており、図7の下部は表示画面を示している。ここでは、静止画像のサイズと表示画面のサイズとが同一である場合が想定されている。実際には静止画像のサイズと最終的な表示画面のサイズは一致しないことが多いが、対応付けは別途並行して行われるので、この説明には含めていない。
表示範囲f1は、表示エリア501に表示されるべき静止画像上の部分画像の範囲を示す。同様に、表示範囲f2は、表示エリア502に表示されるべき静止画像上の部分画像の範囲を示し、表示範囲f3は、表示エリア503に表示されるべき静止画像上の部分画像の範囲を示す。
いま、図示のように、顔画像Aの中心位置座標が(200,600)であり、顔画像Bの中心位置座標が(600,400)であり、顔画像Cの中心位置座標が(1600,750)である場合を想定する。
表示範囲f1は、例えば、顔画像Aのサイズおよび位置に基づいて、少なくとも顔画像A1を含むような位置及びサイズに設定される。例えば、表示範囲f1のサイズおよび位置を、顔画像Aをぎりぎり含むようなサイズおよび位置に設定してもよい。エフェクト処理部3021は、表示範囲f1内に含まれる部分画像を、例えば、その部分画像の中心位置が表示エリア501の中心位置座標(300,500)に位置するように表示エリア501上に表示する。この場合、エフェクト処理部3021は、例えば、表示範囲f1内の部分画像のサイズが表示エリア501のサイズに合うように、表示範囲f1内の部分画像を拡大し、この拡大された部分画像(つまり、拡大された顔画像Aを含む画像)を表示エリア501上に表示してもよい。
表示範囲f2は、例えば、顔画像Bのサイズおよび位置に基づいて、少なくとも顔画像Bを含むような位置及びサイズに設定される。例えば、表示範囲f2のサイズおよび位置を、顔画像Bをぎりぎり含むようなサイズおよび位置に設定してもよい。エフェクト処理部3021は、表示範囲f2内に含まれる部分画像を、例えば、その部分画像の中心位置が表示エリア502の中心位置座標(900,500)に位置するように表示エリア502上に表示する。この場合、エフェクト処理部3021は、例えば、表示範囲f2内の部分画像のサイズが表示エリア502のサイズに合わされるように、表示範囲f2内の部分画像を拡大し、この拡大された部分画像(つまり、拡大された顔画像Bを含む画像)を表示エリア502上に表示してもよい。
表示範囲f3は、例えば、顔画像Cのサイズおよび位置に基づいて、少なくとも顔画像Cを含むような位置及びサイズに設定される。例えば、表示範囲f3のサイズおよび位置を、顔画像Cをぎりぎり含むようなサイズおよび位置に設定してもよい。エフェクト処理部3021は、表示範囲f3内に含まれる部分画像を、例えば、その部分画像の中心位置が表示エリア503の中心位置座標(1500,500)に位置するように表示エリア503上に表示される。この場合、エフェクト処理部3021は、例えば、表示範囲f3内の部分画像のサイズが表示エリア503のサイズに合わされるように、表示範囲f3内の部分画像を拡大し、この拡大された部分画像(つまり、拡大された顔画像Cを含む画像)を表示エリア503上に表示してもよい。
図8は、図6の(3)によって示される表示状態に対応する3つの表示範囲f1,f2,f3それぞれのサイズと位置を示している。
第1の表示形態から第2の表示形態への遷移過程においては、表示範囲f1の位置は、移動開始位置(200,600)から移動終了位置(300,500)に向けて連続的に変化される。また表示範囲f1のサイズも、図7で説明した初期サイズから表示エリア501のサイズに一致するサイズにまで連続的に変化される。エフェクト処理部3021は、表示範囲f1内の部分画像を表示エリア501上に表示する。したがって、表示範囲f1の位置およびサイズが徐々に変化するにつれ、表示エリア501上における顔画像Aの中心位置座標(X1,Y1)は、顔画像Aの本来の位置である座標(200,600)に向かって徐々に移動される。
表示範囲f2の位置は、移動開始位置(600,400)から移動終了位置(900,500)に向けて連続的に変化される。また表示範囲f2のサイズも、図7で説明した初期サイズから表示エリア502のサイズに一致するサイズにまで連続的に変化される。エフェクト処理部3021は、表示範囲f2内の部分画像を表示エリア502上に表示する。したがって、表示範囲f2の位置およびサイズが徐々に変化するにつれ、表示エリア502上における顔画像Bの中心位置座標(X2,Y2)は、顔画像Bの本来の位置である座標(600,400)に向かって徐々に移動される。
表示範囲f3の位置は、移動開始位置(1600,750)から移動終了位置(1500,500)に向けて連続的に変化される。また表示範囲f3のサイズも、図7で説明した初期サイズから表示エリア503のサイズに一致するサイズにまで連続的に変化される。エフェクト処理部3021は、表示範囲f3内の部分画像を表示エリア501上に表示する。したがって、表示範囲f3の位置およびサイズが徐々に変化するにつれ、表示エリア503上における顔画像Cの中心位置座標(X3,Y3)は、顔画像Cの本来の位置である座標(1600,750)に向かって徐々に移動される。
図9は、第2の表示形態(図6の(4)によって示される表示状態)に対応する3つの表示範囲f1,f2,f3それぞれのサイズと位置を示している。
第2の表示形態では、3つの表示範囲f1,f2,f3それぞれの位置は3つの表示エリア501,502,503それぞれに対応する位置に設定される。具体的には、3つの表示範囲f1,f2,f3それぞれの中心位置座標は3つの表示エリア501,502,503それぞれの中心位置座標に一致する。さらに、3つの表示範囲f1,f2,f3それぞれのサイズも、3つの表示エリア501,502,503それぞれのサイズに一致する。したがって、第2の表示形態では、表示エリア501には静止画像内の左端側の部分画像が表示され、表示エリア502には静止画像内の中央の部分画像が表示され、表示エリア503には静止画像内の左端側の部分画像が表示される。よって、静止画像の全体が、表示エリア501,502,503から構成される表示画面上に表示される。
このように、本実施形態によれば、例えば写真内のどの位置に複数の顔画像が存在する場合であっても、それら複数の顔画像を複数の表示エリアに整列させた状態で表示することができる。よって、たとえば、静止画像内の一部領域に集中して複数人の顔が写っている場合であっても、またたとえば、静止画像内の離れた領域に分散して複数人の顔が映っている場合であっても、それら複数人の顔を見やすい状態で同時にユーザに提示することができる。よって、写真のような静止画像にどのような人物が含まれているかをユーザに分かり易く提示することができる。
さらに、本実施形態では、複数の表示エリアに対応する複数の表示範囲の各々の位置およびサイズを変化させることにより、表示画面の表示形態を、複数の顔画像が複数の表示エリアにそれぞれ表示される第1表示形態から、元の写真全体が表示画面上に表示される第2表示形態に容易に遷移させることができる。よって、元の写真に写っている複数の人物の位置関係、および元の写真に写っている背景映像もユーザに提示することができる。
さらに、本実施形態では、複数の表示範囲の各々の位置およびサイズは連続的に変化されるので、表示画面の表示内容を第1表示形態から第2表示形態に円滑に遷移させることができる。よって、静止画像に動画のような動きを与えることができる。
次に、図10、図11および図12を参照して、「3分割ズームアウト」モードにおいて複数の顔画像それぞれのサイズおよび位置がどのように変化されるかについて説明する。
図10は、3つの顔画像A,B,Cに適用される拡大率の変化の様子を示している。上述したように、第1表示形態では、顔画像A,B,Cそれぞれのサイズは、拡大又は縮小によって、表示エリアのサイズに適合するサイズに正規化される。したがって、個々の顔画像に適用される拡大率は、その顔画像のサイズによって異なる値に設定される。エフェクト処理部3021は、各表示範囲内に含まれる部分画像のサイズが対応する表示エリアのサイズに合わされるように、部分画像を拡大する。よって、表示範囲のサイズが小さいほど、その表示範囲内の部分画像に適用される拡大率は大きくなる。
いま、顔画像A,B,Cそれぞれに適用される拡大率がZ1,Z2,Z3であるとする。タイミングT1、つまり、第1表示形態では、顔画像A,B,Cはそれぞれ拡大率Z1,Z2,Z3で拡大された状態で表示エリア501,502,503に表示される。第1表示形態から第2表示形態への遷移は、所定の時間(=T2−T1)を掛けて実行される。第1表示形態から第2表示形態への遷移過程では、拡大率Z1,Z2,Z3の値は、それらの値が“1”(ズーム無し)にまで低下されるように連続的に変化される。
図11は表示画面上における顔画像A,B,Cそれぞれの中心位置のX座標の変化の様子を示し、図12は表示画面上における顔画像A,B,Cそれぞれの中心位置のY座標の変化の様子を示している。
タイミングT1、つまり、第1表示形態では、表示画面上の顔画像Aの中心位置座標(X1,Y1)は表示エリア501の中心位置座標(300,500)に設定される。表示画面上の顔画像Bの中心位置座標(X2,Y2)は表示エリア502の中心位置座標(900,500)に設定される。表示画面上の顔画像Cの中心位置座標(X3,Y3)は表示エリア503の中心位置座標(1500,500)に設定される。
第1表示形態から第2表示形態への遷移過程では、表示範囲f1,f2,f3それぞれの位置およびサイズの変化に連動して、顔画像Aの中心位置座標(X1,Y1)は、座標(300,500)から、静止画像上の顔画像Aの位置に対応する座標(200,600)に向けて移動される。同様に、顔画像Bの中心位置座標(X2,Y2)は、座標(900,500)から、静止画像上の顔画像Bの位置に対応する座標(600,400)に向けて移動され、顔画像Cの中心位置座標(X3,Y3)は、座標(1500,500)から、静止画像上の顔画像Cの位置に対応する座標(1600,750)に向けて移動される。
なお、各顔画像のX方向の位置は必ずしも線形的に変化させる必要はなく、図11に示すように、第1表示形態から第2表示形態への遷移期間(T1からT2までの期間)の最初の期間はゆっくりと変化させ、後半の期間に比較的早い速度で変化させてもよい。このようなX方向の位置の制御は、例えば、各表示範囲の位置をX方向に移動する速度を制御することによって実現し得る。これにより、顔画像A,B,Cが表示エリア501,502,503上に存在する状態ができるだけ長く維持できるようになる。
ところで、本実施形態では、表示画面を3つの表示エリアに分割する例を説明したが、表示エリアの数は2以上の任意の数を使用し得る。また、再生対象の静止画像に含まれる顔画像の数が表示エリアの数よりも多い場合には、静止画像に含まれる顔画像の中から表示エリアの数分の顔画像を選択し、それら選択された顔画像を表示エリアにそれぞれ表示するようにしてもよい。例えば、サイズの大きい顔画像を優先的に選択してもよい。代わりに、ユーザによって予め指定されたグループに属する顔画像を優先的に選択してもよい。
次に、図13および図14を参照して、「3分割ズームアウト」モードの他の例について説明する。図13は、選択された静止画像の例を示す。この静止画像は、4人の人物の顔画像を含むデジタル写真である。図14は、「3分割ズームアウト」モードで図13の静止画像を再生した時の表示画面上の画像の遷移の様子を示している。
図14の(1)は、第1の表示形態において、表示画面内の3つの表示エリア上にそれぞれ表示される画像を示している。第1の表示形態では、図14の静止画像内に含まれる4つの顔画像から3つの顔画像が選択される。そして、3つの表示エリアに対応する3つの表示範囲の各々の位置およびサイズが、その表示範囲が対応する顔画像を少なくとも含むように設定される。3つの表示範囲内にそれぞれ含まれる3つの部分画像が図14の(1)に示されるように3つの表示エリア上にそれぞれ表示される。この場合、3つの部分画像(3つの顔画像)それぞれのサイズはそれぞれ拡大され、各表示エリアのサイズに適合するサイズに正規化される。
図14の(2)は、第1の表示形態(図14の(1)によって示される表示状態)から第2の表示形態(図14の(3)によって示される表示状態)への遷移期間中に表示画面に表示される複数の表示画像内の一つを示している。遷移期間中、3つの表示エリアの各々に対応する表示範囲のサイズは徐々に拡大され、また3つの表示エリアの各々に対応する表示範囲の中心位置は、静止画像上の3つの領域中の対応する一つの領域の中心位置にむけて徐々に移動される。この結果、各表示エリアの表示画像は徐々にズームアウトされ。さらに各表示エリアの表示画像は、その表示エリアに対応する静止画像上の本来の領域に向けてパンニングされていく。右側の表示エリアには、第1の表示形態では表示されていなかった人物の画像が徐々に現れてくる。
図14の(3)は、第2の表示形態において3つの表示エリアから構成される表示画面上に表示される画像を示している。第2の表示形態では、静止画像の全体が表示画面上に表示される。すなわち、左側の表示エリアには、静止画像を縦方向に3分割することによって得られる3つの部分画像の内、左端側の部分画像が表示される。中央の表示エリアには、3つの部分画像の内の中央部の部分画像が表示される。右側の表示エリアには、3つの部分画像の内の右端側の部分画像が表示される。
図15は、エフェクトモードAに含まれるエフェクトを用いた第1エフェクト処理の手順の例を示すフローチャートを表す。
まず、コンテンツ再生アプリケーション202は、静止画像内に含まれる複数の顔画像を検出する(ステップS101)。次に、コンテンツ再生アプリケーション202は、検出した各顔画像の位置およびサイズを保存する(ステップS102)。
コンテンツ再生アプリケーション202は、「3分割ズームアウト」モードでエフェクトを実行する。この場合、コンテンツ再生アプリケーション202は、表示画面を構成する複数の表示エリア上に、検出した複数の顔画像を表示する(ステップS103)。そして、コンテンツ再生アプリケーション202は、表示形態を第1表示形態から第2表示形態に遷移する(ステップS104)。
次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS105)。エフェクトを変更するタイミングでない場合(ステップS105のNO)、コンテンツ再生アプリケーション202は、ステップS103に戻り、「3分割ズームアウト」モードでのエフェクトを再度実行する。
エフェクトを変更するタイミングである場合(ステップS105のYES)、コンテンツ再生アプリケーション202は、静止画像全体をぼかした状態で表示する(ステップS106)。そして、コンテンツ再生アプリケーション202は、静止画像内で検出された複数の顔画像のうち一つを選択し、選択した顔画像をハイライトする(ステップS107)。
次いで、コンテンツ再生アプリケーション202は、全ての顔画像または予め決められた数の顔画像が選択されたか否かを判定する(ステップS108)。全ての顔画像または予め決められた数の顔画像が選択されている場合(ステップS108のYES)、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS109)。全ての顔画像または予め決められた数の顔画像が選択されていない場合(ステップS108のNO)、またはエフェクトを変更するタイミングでない場合(ステップS109のNO)、コンテンツ再生アプリケーション202は、ステップS106に戻る。
エフェクトを変更するタイミングである場合(ステップS109のYES)、コンテンツ再生アプリケーション202は、静止画像全体を表示する(ステップS110)。そして、コンテンツ再生アプリケーション202は、複数の顔画像のうち一つを選択し、選択した顔画像を拡大して表示する(ステップS111)。次いで、コンテンツ再生アプリケーション202は、静止画像全体を表示する(ステップS112)。
コンテンツ再生アプリケーション202は、全ての顔画像または予め決められた数の顔画像が選択されたか否かを判定する(ステップS113)。全ての顔画像または予め決められた数の顔画像が選択されている場合(ステップS113のYES)、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS114)。全ての顔画像または予め決められた数の顔画像が選択されていない場合(ステップS113のNO)、またはエフェクトを変更するタイミングでない場合(ステップS114のNO)、コンテンツ再生アプリケーション202は、ステップS110に戻る。
エフェクトを変更するタイミングである場合(ステップS114のYES)、コンテンツ再生アプリケーション202は、ステップS102に戻る。
以上の処理により、コンテンツ再生アプリケーション202は、エフェクトモードAに含まれるエフェクトを施した静止画像を画面に表示することができる。
次いで、エフェクトモードAに含まれるエフェクトの一つである「一人ずつスポットライト」モードについて説明する。この「一人ずつスポットライト」モードは、画面に静止画像全体をぼかして表示し、静止画像内に含まれる複数の顔画像を一つずつハイライト表示するモードである。
図16を参照して、「一人ずつスポットライト」モードの例を説明する。図16に示す画面に表示されている静止画像は、6人の人物の顔画像を含むデジタル写真である。この静止画像では、中央付近に位置する人物の顔画像がハイライト表示されている。
また、エフェクトモードAに含まれるエフェクトの一つである「一人ずつズームイン・アウト」モードについて説明する。この「一人ずつズームイン・アウト」モードは、画面に静止画像全体を表示し、静止画像内に含まれる複数の顔画像を一つずつ拡大(ズームイン)表示するモードである。
図17を参照して、「一人ずつズームイン・アウト」モードの例を説明する。図17に示す画面に表示されている静止画像も同様に、6人の人物の顔画像を含むデジタル写真である。この静止画像では、左から2番目に位置する人物の顔画像が拡大表示されている。
次いで、図18のフローチャートを参照して、顔画像数に応じたエフェクト変更処理の手順を説明する。
まず、コンテンツ再生アプリケーション202は、生成対象の静止画像が選択されたか否かを判定する(ステップS201)。静止画像が選択されていない場合(ステップS201のNO)、コンテンツ再生アプリケーション202は、再度ステップS201を実行する。
再生対象の静止画像が選択された場合(ステップS201のYES)、コンテンツ再生アプリケーション202は、選択された静止画像内に含まれる顔画像の数をカウントする(ステップS202)。そして、コンテンツ再生アプリケーション202は、カウントされた顔画像の数に応じて処理を切り替える(ステップS203)。
選択された静止画像内に含まれる顔画像の数が複数である場合(ステップS203の複数)、コンテンツ再生アプリケーション202は、エフェクトA1を用いてスライドショーを実行する(ステップS204)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS205)。エフェクトを変更するタイミングでない場合(ステップS205のNO)、コンテンツ再生アプリケーション202は、ステップS204に戻る。
エフェクトを変更するタイミングである場合(ステップS205のYES)、コンテンツ再生アプリケーション202は、エフェクトA2を用いてスライドショーを実行する(ステップS206)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS207)。エフェクトを変更するタイミングでない場合(ステップS207のNO)、コンテンツ再生アプリケーション202は、ステップS206に戻る。
エフェクトを変更するタイミングである場合(ステップS207のYES)、コンテンツ再生アプリケーション202は、エフェクトA3を用いてスライドショーを実行する(ステップS208)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS209)。エフェクトを変更するタイミングでない場合(ステップS209のNO)、コンテンツ再生アプリケーション202は、ステップS208に戻る。
エフェクトを変更するタイミングである場合(ステップS209のYES)、コンテンツ再生アプリケーション202は、ステップS204に戻る。
選択された静止画像内に含まれる顔画像の数が1つである場合(ステップS203の1つ)、コンテンツ再生アプリケーション202は、エフェクトB1を用いてスライドショーを実行する(ステップS211)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS212)。エフェクトを変更するタイミングでない場合(ステップS212のNO)、コンテンツ再生アプリケーション202は、ステップS211に戻る。
エフェクトを変更するタイミングである場合(ステップS212のYES)、コンテンツ再生アプリケーション202は、エフェクトB2を用いてスライドショーを実行する(ステップS213)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS214)。エフェクトを変更するタイミングでない場合(ステップS214のNO)、コンテンツ再生アプリケーション202は、ステップS213に戻る。エフェクトを変更するタイミングである場合(ステップS214のYES)、コンテンツ再生アプリケーション202は、ステップS211に戻る。
選択された静止画像内に含まれる顔画像の数がゼロである場合(ステップS203のゼロ)、コンテンツ再生アプリケーション202は、エフェクトC1を用いてスライドショーを実行する(ステップS221)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS222)。エフェクトを変更するタイミングでない場合(ステップS222のNO)、コンテンツ再生アプリケーション202は、ステップS221に戻る。
エフェクトを変更するタイミングである場合(ステップS222のYES)、コンテンツ再生アプリケーション202は、エフェクトC2を用いてスライドショーを実行する(ステップS223)。次いで、コンテンツ再生アプリケーション202は、エフェクトを変更するタイミングであるか否かを判定する(ステップS224)。エフェクトを変更するタイミングでない場合(ステップS224のNO)、コンテンツ再生アプリケーション202は、ステップS223に戻る。エフェクトを変更するタイミングである場合(ステップS224のYES)、コンテンツ再生アプリケーション202は、ステップS221に戻る。
以上の処理により、コンテンツ再生アプリケーション202は、処理対象の静止画像内に含まれる顔画像数に応じて、異なるエフェクト処理を施した静止画像を画面に表示することができる。
なお、使用するエフェクトは、各エフェクトモードにおいて予め用意された複数のエフェクトのなかから、1または複数をランダムに選択する。また、顔画像を含まない場合に適したエフェクトモードCのエフェクトは、顔画像を含む場合にも適用することができる。さらに、一つの顔画像を含む場合に適したエフェクトモードBのエフェクトは、処理対象の静止画像に複数の顔画像を含む場合にも、一つの顔画像を選択することで適用することができる。例えば、目的人物のみに着目したエフェクトにする。
次いで、エフェクトモードBに含まれるエフェクトの一つである「顔一つエフェクト」モードについて説明する。この「顔一つエフェクト」モードは、画面に静止画像全体を表示し、静止画像内に含まれる一つの顔画像にエフェクトを加えて表示するモードである。
図19を参照して、「顔一つエフェクト」モードの例を説明する。図19に示す画面に表示されている静止画像は、1人の人物の顔画像を含むデジタル写真である。この静止画像では、中央付近に位置する人物の顔画像上に、月桂樹の画像が重畳して描画されている。
また、エフェクトモードCに含まれるエフェクトの一つである「顔なしエフェクト」モードについて説明する。この「顔なしエフェクト」モードは、画面に静止画像全体を表示し、静止画像にエフェクトを加えて表示するモードである。
図20を参照して、「顔なしエフェクト」モードの例を説明する。図20に示す画面に表示されている静止画像は、顔画像を含まないデジタル写真である。この静止画像では、静止画像の中央付近に例えばひし形の別の画像(オブジェクト)が重畳して描画されている。オブジェクトが静止画像上を移動するようにしてもよい。
以上説明したように、本実施形態によれば、静止画像から複数の顔画像のそれぞれのサイズおよび位置が検出され、その検出結果に基づいて、自動的に、複数の顔画像にフォーカスしたエフェクトを有するショートムービーを表示することができる。特に、「3分割ズームアウト」モードでは、表示エリア毎に、静止画像上の表示範囲の位置およびサイズが個別に制御される。そして、最初は、複数の顔画像を含む複数の部分画像が複数の表示エリアに分散して配置された状態で自動的に表示される。そして、例えば、時間の経過にしたがって各表示エリアに表示される部分画像が徐々に変化していき、最終的に、静止画像の全体が表示画面上に表示される。よって、写真のような静止画像にどのような人物が含まれているかをユーザに分かり易く提示することができる。さらに、元の写真に写っている複数の人物の位置関係もユーザに提示することができる。
なお、本実施形態のショートムービー機能はコンピュータプログラムによって実現されているので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じて、このコンピュータプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に得ることが出来る。
また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
101…CPU、201…オペレーティングシステム、202…コンテンツ再生アプリケーションプログラム、301…インデクシング処理部、302…スライドショー表示制御部、401…静止画像データ、402…インデックス情報、501,502,503…表示エリア。

Claims (18)

  1. 静止画像に含まれる複数の顔画像を検出する顔画像検出手段と、
    表示画面を分割することによって得られる複数の表示エリアにそれぞれ対応する前記静止画像上の複数の表示範囲が前記複数の顔画像を含むように前記複数の表示範囲それぞれの位置およびサイズを設定する表示範囲設定手段と、
    前記複数の表示エリア上に前記複数の顔画像をそれぞれ表示するために前記複数の表示範囲内に含まれる複数の部分画像を前記複数の表示エリア上にそれぞれ表示し、前記表示画面の表示形態が前記複数の顔画像が前記複数の表示エリアにそれぞれ表示される第1表示形態から前記静止画像の全体が前記表示画面上に表示される第2表示形態に遷移されるように前記複数の表示範囲の位置およびサイズを変化させる表示制御手段とを具備することを特徴とする電子機器。
  2. 前記表示制御手段は、前記複数の表示範囲内に含まれる複数の部分画像それぞれの中心位置が前記複数の表示エリアそれぞれの中心位置に位置するように前記複数の部分画像を前記複数の表示エリア上にそれぞれ表示することを特徴とする請求項1記載の電子機器。
  3. 前記表示制御手段は、前記各表示範囲内に含まれる部分画像のサイズが対応する表示エリアのサイズに合わされるように前記部分画像を拡大することを特徴とする請求項1記載の電子機器。
  4. 前記表示制御手段は、前記静止画像に含まれる顔画像の数が前記表示エリアの数よりも多い場合、前記静止画像に含まれる顔画像群から前記表示エリアの数と同じ数の顔画像を選択することを特徴とする請求項1記載の電子機器。
  5. 前記表示制御手段は、前記複数の顔画像を含む静止画像に施すエフェクトを、前記表示画面の表示形態を前記第1表示形態から前記第2表示形態に遷移させるための第1エフェクトモードと前記第1エフェクトモードとは異なる第2エフェクトモードとの間で切り換えることを特徴とする請求項1記載の電子機器。
  6. 前記表示制御手段は、再生すべき静止画像に含まれる顔画像の数に応じて、前記再生すべき静止画像に施すエフェクトを、前記表示画面の表示形態を前記第1表示形態から前記第2表示形態に遷移させるための第1エフェクトモードと前記第1エフェクトモードとは異なる第2エフェクトモードとの間で切り換えることを特徴とする請求項1記載の電子機器。
  7. 静止画像に含まれる複数の顔画像を検出するステップと、
    表示画面を分割することによって得られる複数の表示エリアにそれぞれ対応する前記静止画像上の複数の表示範囲が前記複数の顔画像を含むように前記複数の表示範囲それぞれの位置およびサイズを設定するステップと、
    前記複数の表示エリア上に前記複数の顔画像をそれぞれ表示するために前記複数の表示範囲内に含まれる複数の部分画像を前記複数の表示エリア上にそれぞれ表示し、前記表示画面の表示形態が前記複数の顔画像が前記複数の表示エリアにそれぞれ表示される第1表示形態から前記静止画像の全体が前記表示画面上に表示される第2表示形態に遷移されるように前記複数の表示範囲の位置およびサイズを変化させる表示制御ステップとを具備することを特徴とする画像表示方法。
  8. 前記表示制御ステップは、前記複数の表示範囲内に含まれる複数の部分画像それぞれの中心位置が前記複数の表示エリアそれぞれの中心位置に位置するように前記複数の部分画像を前記複数の表示エリア上にそれぞれ表示することを特徴とする請求項7記載の画像表示方法。
  9. 前記表示制御ステップは、前記各表示範囲内に含まれる部分画像のサイズが対応する表示エリアのサイズに合わされるように前記部分画像を拡大するステップを含むことを特徴とする請求項記載の画像表示方法。
  10. 前記表示制御ステップは、前記静止画像に含まれる顔画像の数が前記表示エリアの数よりも多い場合、前記静止画像に含まれる顔画像群から前記表示エリアの数と同じ数の顔画像を選択するステップを含むことを特徴とする請求項記載の画像表示方法。
  11. コンピュータに静止画像を再生させるプログラムであって、
    前記静止画像に含まれる複数の顔画像を検出する手順と、
    表示画面を分割することによって得られる複数の表示エリアにそれぞれ対応する前記静止画像上の複数の表示範囲が前記複数の顔画像を含むように前記複数の表示範囲それぞれの位置およびサイズを設定する手順と、
    前記複数の表示エリア上に前記複数の顔画像をそれぞれ表示するために前記複数の表示範囲内に含まれる複数の部分画像を前記複数の表示エリア上にそれぞれ表示し、前記表示画面の表示形態が前記複数の顔画像が前記複数の表示エリアにそれぞれ表示される第1表示形態から前記静止画像の全体が前記表示画面上に表示される第2表示形態に遷移されるように前記複数の表示範囲の位置およびサイズを変化させる表示制御手順とを前記コンピュータに実行させることを特徴とするプログラム。
  12. 前記表示制御手順は、前記複数の表示範囲内に含まれる複数の部分画像それぞれの中心位置が前記複数の表示エリアそれぞれの中心位置に位置するように前記複数の部分画像を前記複数の表示エリア上にそれぞれ表示することを特徴とする請求項11記載のプログラム。
  13. 静止画像に含まれる複数の顔画像を検出する顔画像検出手段と、
    表示画面を分割することによって得られる複数の表示エリアにそれぞれ対応する前記静止画像上の複数の表示範囲が前記複数の顔画像を含むように前記複数の表示範囲それぞれの位置およびサイズを設定する表示範囲設定手段と、
    前記表示画面の表示形態が前記複数の顔画像が前記複数の表示エリアにそれぞれ表示される第1表示形態から前記静止画像の全体が前記表示画面上に表示される第2表示形態に遷移されるように前記複数の表示範囲の位置およびサイズを変化させる表示制御手段とを具備することを特徴とする電子機器。
  14. 前記表示制御手段は、前記複数の表示範囲内に含まれる複数の部分画像それぞれの中心位置が前記複数の表示エリアそれぞれの中心位置に位置するように前記複数の部分画像を前記複数の表示エリア上にそれぞれ表示することを特徴とする請求項13記載の電子機器。
  15. 前記表示制御手段は、前記各表示範囲内に含まれる部分画像のサイズが対応する表示エリアのサイズに合わされるように前記部分画像を拡大することを特徴とする請求項13記載の電子機器。
  16. 前記表示制御手段は、前記静止画像に含まれる顔画像の数が前記表示エリアの数よりも多い場合、前記静止画像に含まれる顔画像群から前記表示エリアの数と同じ数の顔画像を選択することを特徴とする請求項13記載の電子機器。
  17. 前記表示制御手段は、前記複数の顔画像を含む静止画像に施すエフェクトを、前記表示画面の表示形態を前記第1表示形態から前記第2表示形態に遷移させるための第1エフェクトモードと前記第1エフェクトモードとは異なる第2エフェクトモードとの間で切り換えることを特徴とする請求項13記載の電子機器。
  18. 前記表示制御手段は、再生すべき静止画像に含まれる顔画像の数に応じて、前記再生すべき静止画像に施すエフェクトを、前記表示画面の表示形態を前記第1表示形態から前記第2表示形態に遷移させるための第1エフェクトモードと前記第1エフェクトモードとは異なる第2エフェクトモードとの間で切り換えることを特徴とする請求項13記載の電子機器。
JP2009231129A 2009-10-05 2009-10-05 電子機器および画像表示方法 Active JP4724242B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009231129A JP4724242B2 (ja) 2009-10-05 2009-10-05 電子機器および画像表示方法
US12/898,514 US20110081047A1 (en) 2009-10-05 2010-10-05 Electronic apparatus and image display method
US13/548,517 US20120281022A1 (en) 2009-10-05 2012-07-13 Electronic apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009231129A JP4724242B2 (ja) 2009-10-05 2009-10-05 電子機器および画像表示方法

Publications (2)

Publication Number Publication Date
JP2011082641A JP2011082641A (ja) 2011-04-21
JP4724242B2 true JP4724242B2 (ja) 2011-07-13

Family

ID=43823197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009231129A Active JP4724242B2 (ja) 2009-10-05 2009-10-05 電子機器および画像表示方法

Country Status (2)

Country Link
US (2) US20110081047A1 (ja)
JP (1) JP4724242B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8726161B2 (en) * 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
US10409366B2 (en) 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
JP7032630B2 (ja) * 2016-12-21 2022-03-09 フリュー株式会社 写真作成ゲーム機および画像処理方法
JP2024038699A (ja) * 2022-09-08 2024-03-21 パナソニックIpマネジメント株式会社 車両用情報提供システム、車両用情報提供方法及びプログラム
US20240127855A1 (en) * 2022-10-17 2024-04-18 Adobe Inc. Speaker thumbnail selection and speaker visualization in diarized transcripts for text-based video

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193933A (ja) * 2002-12-11 2004-07-08 Canon Inc 画像拡大表示方法・装置・メディア・プログラム
US7469064B2 (en) * 2003-07-11 2008-12-23 Panasonic Corporation Image display apparatus
US7453506B2 (en) * 2003-08-25 2008-11-18 Fujifilm Corporation Digital camera having a specified portion preview section
JP2005182196A (ja) * 2003-12-16 2005-07-07 Canon Inc 画像表示方法および画像表示装置
JP2007041866A (ja) * 2005-08-03 2007-02-15 Canon Inc 情報処理装置及び情報処理方法並びにプログラム
JP4905124B2 (ja) * 2006-12-27 2012-03-28 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
JP4571617B2 (ja) * 2006-12-28 2010-10-27 三星デジタルイメージング株式会社 撮像装置及び撮像方法

Also Published As

Publication number Publication date
US20110081047A1 (en) 2011-04-07
US20120281022A1 (en) 2012-11-08
JP2011082641A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
EP3125524A1 (en) Mobile terminal and method for controlling the same
EP3226537B1 (en) Mobile terminal and method for controlling the same
JP4724242B2 (ja) 電子機器および画像表示方法
US10222903B2 (en) Display control apparatus and control method thereof
EP3136705B1 (en) Mobile terminal and method for controlling the same
WO2021082639A1 (zh) 操作用户界面的方法、装置、电子设备及存储介质
EP3591499B1 (en) Electronic device, control method for electronic device, program, and computer readable medium
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
US20110064319A1 (en) Electronic apparatus, image display method, and content reproduction program
JP5220157B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2011101251A (ja) 電子機器及び画像表示方法
JP2021145297A (ja) 表示制御装置及びその制御方法
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2021144599A (ja) 電子機器及びその制御方法
WO2022257655A1 (zh) 一种视频拍摄方法及电子设备
US8463052B2 (en) Electronic apparatus and image search method
JP2012079264A (ja) 画像表示装置、画像表示方法
WO2018026152A1 (ko) 랜드스케이프 동영상 컨텐츠의 적응적 재생 시스템 및 재생방법
WO2023160143A1 (zh) 浏览多媒体内容的方法及装置
CN115209203B (en) Electronic device, control method for electronic device, and storage medium
JP7204514B2 (ja) 画像出力装置およびその制御方法、プログラム
US11252328B2 (en) Electronic device and method for controlling the same
US20240251162A1 (en) Electronic apparatus and control method
JP2024131633A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5414842B2 (ja) 電子機器、画像表示方法およびコンテンツ再生プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4724242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350