JP2011101251A - 電子機器及び画像表示方法 - Google Patents

電子機器及び画像表示方法 Download PDF

Info

Publication number
JP2011101251A
JP2011101251A JP2009255313A JP2009255313A JP2011101251A JP 2011101251 A JP2011101251 A JP 2011101251A JP 2009255313 A JP2009255313 A JP 2009255313A JP 2009255313 A JP2009255313 A JP 2009255313A JP 2011101251 A JP2011101251 A JP 2011101251A
Authority
JP
Japan
Prior art keywords
image
group
viewer
operator
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009255313A
Other languages
English (en)
Other versions
JP4768846B2 (ja
Inventor
Kenichi Tanabe
謙一 田部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009255313A priority Critical patent/JP4768846B2/ja
Priority to US12/905,015 priority patent/US8244005B2/en
Publication of JP2011101251A publication Critical patent/JP2011101251A/ja
Application granted granted Critical
Publication of JP4768846B2 publication Critical patent/JP4768846B2/ja
Priority to US13/545,495 priority patent/US20120281888A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 お気に入りの画像ファイルを選択するといったユーザ操作を行うことなく、観賞者であるユーザに関連する静止画像を提示することができる電子機器を実現する。
【解決手段】 操作者認識部304は静止画像データ401をインポートする操作者を認識する。登場人物認識部308は、静止画像データ401に含まれる顔画像に基づいて登場人物を認識する。グループ作成部306は静止画像データ401を分類してグループ化する。そして、インデックス情報格納部309は、操作者、登場人物、及びグループの情報をインデックス情報402として格納する。また、観賞者認識部313は、画面に表示される静止画像を観賞する観賞者を認識する。グループ抽出部314は、インデックス情報402に基づいて、観賞者に関連する静止画像を含むグループを抽出する。画像表示部316は、抽出されたグループに含まれる静止画像を画面に表示する。
【選択図】図3

Description

本発明は、画像を表示する電子機器及び該機器に適用される画像表示方法に関する。
近年、デジタルフォトフレーム等と称される映像再生装置が普及している。デジタルフォトフレームは、例えば、接続された記憶媒体に格納された複数の静止画像を、所定の間隔で順次表示する機能を有する。また、パーソナルコンピュータやデジタルカメラ等においても、デジタルフォトフレームのように、複数枚の静止画像を所定の間隔で順次表示する機能を有するものが一般的である。
特許文献1には、カメラで撮影された人物の顔画像を認識し、認識した顔画像が登録された顔画像である場合に、該顔画像に関連付けて登録されているお気に入りの画像ファイルや音声ファイルを再生する再生装置が開示されている。この再生装置では、ユーザの顔画像と、当該ユーザによって選択されるお気に入りの画像ファイルや音声ファイルとを予め登録している。
特開2009−171176号公報
特許文献1の再生装置では、認識されたユーザの顔画像に応じて、予め登録された画像ファイルや音声ファイルが再生される。そのため、再生装置内に格納されるファイルが更新された場合や再生するファイルを変更したい場合には、ユーザは再度、お気に入りとして登録するファイルを変更する必要がある。また、再生装置内に格納されるファイルが大量であるとき、大量のファイルの中から登録したいファイルを選択する作業は、ユーザにとって煩雑である可能性がある。
本発明は上述の事情を考慮してなされたものであり、お気に入りの画像ファイルを選択するといった煩雑なユーザ操作を行うことなく、観賞者であるユーザに関連する静止画像を提示することができる電子機器及び画像表示方法を提供することを目的とする。
上述の課題を解決するため、本発明の電子機器は、観賞者を撮影して観賞者画像を生成する観賞者撮影手段と、前記観賞者画像に含まれる顔画像を検出し、前記観賞者を認識する観賞者認識手段と、各々が複数の静止画像を含む複数のグループから、前記観賞者の顔画像を含む静止画像又は前記観賞者によりインポートされた静止画像の少なくとも一方を含むグループを抽出するグループ抽出手段と、前記抽出されたグループに含まれる複数の静止画像を画面に表示する画像表示手段とを具備することを特徴とする。
本発明によれば、お気に入りの画像ファイルを選択するといった煩雑なユーザ操作を行うことなく、観賞者であるユーザに関連する静止画像を提示することができる。
本発明の一実施形態に係る電子機器の外観を示す図。 同実施形態の電子機器のシステム構成を示す図。 同実施形態の電子機器上で動作するコンテンツ再生アプリケーションプログラムの機能構成を示すブロック図。 図3のコンテンツ再生アプリケーションプログラムによって用いられるインデックス情報の構成の例を示す図。 図3のコンテンツ再生アプリケーションプログラムによって行われるグループ抽出の動作の例を説明するための概念図。 図3のコンテンツ再生アプリケーションプログラムによって行われる画像選択及び画像表示の動作の例を説明するための概念図。 図3のコンテンツ再生アプリケーションプログラムによって実行される画像表示処理の手順を示すフローチャート。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る電子機器の外観を示す図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。
図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17を備えた表示装置が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。ディスプレイユニット12はさらに、LCD17の上部にカメラモジュール115を備える。カメラモジュール115は、ディスプレイユニット12がコンピュータ本体11の上面を露出する開放位置にあるときに、コンピュータ10を使用するユーザ等を撮影するために用いられる。
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、コンピュータ本体11の右側側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。さらに、コンピュータ本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子(図示せず)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されるように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、HDD109、光ディスクドライブ(ODD)110、USBコントローラ111、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114、カメラモジュール115、カードコントローラ116等を備える。
CPU101は、本コンピュータ10の動作を制御するプロセッサであり、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201や、コンテンツ再生アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。コンテンツ再生アプリケーションプログラム202は、例えばODD110にセットされたDVD(digital versatile disc)等に格納された、例えば、デジタル写真、ホームビデオ等といったデジタルコンテンツを再生する機能を有するソフトウェアである。コンテンツ再生アプリケーションプログラム202は、HDD109に格納されたデジタル画像をいわゆるデジタルフォトフレームのように表示する機能も有している。また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイスおよびLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109およびODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ113は、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。例えば、外部機器であるデジタルカメラによって管理されているデジタル画像を取り込んでHDD109に格納する際の通信等を実行する。
カメラモジュール115は、内蔵するカメラを用いた撮像処理を実行する。カメラモジュール115は、例えば、内蔵するカメラにより撮像された画像を用いて画像データを生成し、当該画像データを主メモリ103やHDD109に格納する際の通信等を実行する。また、カメラモジュール115は、コンテンツ再生アプリケーションプログラム202等の各種のアプリケーションプログラムに画像データを供給する。
カードコントローラ116は、カードスロット20に挿入された記録メディア20Aとの通信を実行する。例えば、カードコントローラ116は、記録メディア20AであるSDカードに格納された画像ファイルを読み出してHDD109に格納する際の通信等を実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC114は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
次に、図3を参照して、コンピュータ10上で動作するコンテンツ再生アプリケーションプログラム202の一機能構成を説明する。ここでは、コンテンツ再生アプリケーションプログラム202が有する機能のうち、HDD109に格納されたデジタル画像(静止画像データ401)をいわゆるデジタルフォトフレームのように表示する機能を実現するための構成例について説明する。コンテンツ再生アプリケーションプログラム202は、インデキシング部301と表示制御部311とを備える。コンテンツ再生アプリケーションプログラム202は、静止画像データをインポートするためのインポートモードと、インポートされた多数の静止画像データを選択的に提示するための提示モードとを有している。
インデキシング部301は、インポートモードで使用される。すなわち、インデキシング部301は、静止画像データ401をインポートし、静止画像データ401の中から目的の静止画像を探し出すためのインデックス情報402を作成するインデキシングに関する各種処理を実行する。なお、静止画像データ401のインポートは、コンピュータ10に静止画像データ401を取り込むこと、より具体的には、コンテンツ再生アプリケーションプログラム202に静止画像データ401を取り込むことを指す。また、静止画像データ401は、動画像データを構成する複数のフレームそれぞれの画像であってもよい。
インデキシング部301は、記録メディア検出部302、操作者画像抽出部303、操作者認識部304、画像インポート部305、グループ作成部306、登場人物画像抽出部307、登場人物認識部308、及びインデックス情報格納部309を備える。記録メディア検出部302は、静止画像データ401のインポート元である記録メディア20Aがコンピュータ10に接続されたことを検出する。記録メディア検出部302は、例えば、カードスロット20に記録メディア20Aが挿入されたことを検出する。静止画像データ401のインポート元は、記録メディア20Aに限らず、コンピュータ10内の記憶装置、コンピュータ10に接続された外部記憶装置、ネットワークを介してコンピュータ10に接続された他のコンピュータ等であってもよい。その場合、記録メディア検出部302は、記憶装置等が接続(認識)されたこと、指定されたディレクトリ等にファイル(新たな静止画像データ)が格納されたこと、又はユーザによる指示等を検出する。記録メディア検出部302は、記録メディア20A等が検出されたことを操作者画像抽出部303に通知する。
操作者画像抽出部303は、カメラモジュール115により生成されたユーザ画像データ403を解析し、ユーザ画像データ403に含まれる、コンピュータ10の操作者の顔画像を抽出する。操作者画像抽出部303は、例えば、ユーザ画像データ403から顔領域を検出し、検出された顔領域をユーザ画像データ403から切り出す。顔領域の検出は、例えば、ユーザ画像データ403の特徴を解析し、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。操作者画像抽出部303は、抽出した顔画像を操作者認識部304に出力する。
操作者認識部304は、操作者画像抽出部303により抽出された顔画像を解析し、当該顔画像に対応する人物を操作者として認識する。そして、操作者認識部304は、画像インポート部305に操作者の認識が完了したことを通知する。また、操作者認識部304は、認識された操作者に関する情報をインデックス情報格納部309に出力する。なお、操作者の顔画像が検出できない場合、操作者の顔画像が認識できない場合等には、カメラモジュール115から新たにユーザ画像データ403を取得して、再度、操作者の顔画像の抽出及び認識を行ってもよい。
画像インポート部305は、操作者認識部304による通知に応答して、記録メディア20Aに格納された静止画像データ401のインポートを開始する。画像インポート部305は、記録メディア20Aに格納された静止画像データ401をコンテンツ再生アプリケーション202に取り込む。画像インポート部305は、記録メディア20Aから静止画像データ401を読み出し、読み出した静止画像データ401をHDD109に格納する。
グループ作成部306は、静止画像データ401を所定の分類規則に基づいて分類し、複数のグループを作成する。グループ作成部306は、例えば、時間や場所、イベント等に基づいて、静止画像データ401を分類する。グループ作成部306は、例えば、時系列上で連続する2つの静止画像データ401において、それらの撮像日時の差が所定の期間を越えている場合に、その間を区切りとすることでグループ化を行う。また、グループ作成部306は、静止画像データ401が動画像データを構成する複数のフレームそれぞれの画像であった場合には、例えば、前後で画像の特徴が大きく変化するいわゆるシーンチェンジ箇所を検出し、各シーンを1区間とすることでグループ化を行う。なお、分類により作成された論理単位のグループはイベントグループとも称する。
登場人物画像抽出部307は、静止画像データ401を解析し、静止画像データ401に含まれる顔領域を抽出する。登場人物画像抽出部307は、例えば、静止画像データ401から顔領域を検出し、検出された顔領域を静止画像データ401から切り出す。登場人物画像抽出部307は、抽出した顔画像を登場人物認識部308に出力する。
登場人物認識部308は、登場人物画像抽出部307により抽出された顔画像を解析し、当該顔画像に対応する人物を登場人物として認識する。そして、登場人物認識部308は、顔画像を同一人物であると推定される顔画像別に分類するための分類情報を生成する。登場人物認識部308は、認識された登場人物に関する情報をインデックス情報格納部309に出力する。
インデックス情報格納部309は、静止画像データ401に含まれる各々の静止画像と、操作者認識部304により認識された操作者に関する情報、及び登場人物認識部308により認識された登場人物に関する情報とを関連付けたデータを、インデックス情報402としてデータベース109Aに格納する。通常、上記の操作者は、インポートされる静止画像データ401の所有者(例えば、写真の撮影者)であることが想定される。したがって、静止画像データ401に含まれる登場人物のみならず、静止画像データ401の所有者をも、静止画像データ401に関連付けて登録することができる。
また、インデックス情報格納部309は、グループ作成部306により分類されたグループに関する情報も、静止画像データ401に関連付けて登録する。したがって、上記の静止画像毎に関連付けられた操作者及び登場人物に関する情報は、当該静止画像を含むグループ(イベントグループ)に関連付けられた人物としても用いられる。
データベース109Aは、インデックス情報402を格納するためにHDD109内に用意された記憶領域である。図4に、データベース109Aに格納されるインデックス情報402の一構成例を示す。インデックス情報402は、画像情報402A及び撮影者情報402Bを含む。画像情報402Aは、画像インポート部305によりインポートされる画像毎に格納される、当該画像に関する情報である。撮影者情報402Bは、画像の撮影者(インポート操作者)に関する情報である。
画像情報402Aには、画像毎の、画像ID、撮像日時、顔画像情報、文字情報、グループ情報、撮影者ID等が含まれる。画像IDは、静止画像データ401に含まれる各々の静止画像に一意に割り当てられる識別情報を示す。撮像日時は、各静止画像401の撮像日時を示す時刻情報を示す。なお、静止画像が動画像データを構成する複数のフレームの一つであるとき、当該静止画像の撮像日時には、動画像データの撮像日時に対して、フレーム番号に基づく先頭フレームからの経過時間を加えた値(タイムスタンプ情報)が設定される。なお、撮像日時は、静止画像データ401の保存日時や更新日時等であってもよい。
顔画像情報は、各静止画像401に含まれる顔画像に関する情報を示す。顔画像情報は、各静止画像401に複数の顔画像が含まれる場合、その複数の顔画像に対応する数だけ格納される。顔画像情報には、顔画像、正面度、サイズ、分類情報等が含まれる。顔画像は、登場人物認識部308により認識された顔画像を示す。正面度は、当該顔画像が正面から撮影された度合いを示す。サイズは、当該顔画像の大きさ(例えば、ピクセル単位の画像サイズ)を示す。分類情報は、登場人物認識部308により認識された複数の顔画像を、同一人物であると推定される顔画像別に分類した分類結果を示す。したがって、分類情報は、例えば、人物に一意に割り当てられる識別情報(人物ID)を示す。
文字情報は、各静止画像401に含まれる文字に関する情報を示す。インデキシング部301には、各静止画像401に含まれる文字(例えば、看板上の文字等)を検出し、検出した文字を認識する文字認識機能を設けてもよい。この文字認識機能を用いて認識された文字を文字情報として格納する。文字の検出(認識)は、例えば、予め用意された各文字の特徴量と類似する特徴量を有する領域を探索することによって行うことができる。
グループ情報は、グループ作成部306により作成される複数のグループを識別するための情報(グループID)を示す。したがって、グループ情報には、当該静止画像が属するグループを示す情報が格納される。
撮影者IDは、操作者認識部304により認識された人物に一意に割り当てられる識別情報を示す。つまり、撮影者IDには、静止画像データ401をインポートする操作を行った操作者に割り当てられた識別情報が格納される。したがって、同一の人物によってインポートされた複数の静止画像の各々には、その人物に対応する同一の撮影者IDが設定される。撮影者情報402Bには、この撮影者IDに対応する撮影者に関する情報が格納される。
撮影者情報402Bは、静止画像データ401をインポートする操作を行う操作者(撮影者)に関する情報を示す。撮影者情報402Bは、撮影者ID、顔画像情報等を含む。
撮影者IDは、上述のように、静止画像データ401をインポートする操作を行った操作者に割り当てられた識別情報を示す。画像情報402Aに含まれる撮影者IDは、撮影者情報402Bに含まれる撮影者IDに対応している。
顔画像情報は、操作者認識部304により認識された顔画像、すなわち操作者(撮影者)の顔画像に関する情報を示す。顔画像情報には、顔画像、正面度、サイズ、分類情報等が含まれる。顔画像は、操作者認識部304により認識された顔画像を示す。正面度は、当該顔画像が正面から撮影された度合いを示す。サイズは、当該顔画像の大きさ(例えば、ピクセル単位の画像サイズ)を示す。分類情報は、操作者認識部304により認識された複数の顔画像を、同一人物であると推定される顔画像別に分類した分類結果を示す。したがって、分類情報は、例えば、人物に一意に割り当てられる識別情報(人物ID)を示す。
つまり、このインデックス情報402によれば、各静止画像データ401について、誰が写っている画像か、文字が写っている画像か否か、どのグループに属する画像か、誰が撮影した画像か、等を知ることができる。換言すれば、このインデックス情報402を用いて、目的の人物が写っている静止画像データ401や人物が写っていない静止画像データ401、目的の人物が写っており、且つ文字が写っている静止画像データ401、目的の人物が撮影した静止画像データ401等を、HDD109に格納された複数の静止画像データ401の中から速やかに探し出すことができる。
表示制御部311は、提示モードで使用される。すなわち、表示制御部311は、インデックス情報402を用いて、HDD109に格納された静止画像データ401の中から所定の選択条件を満たす静止画像を選択し、選択した静止画像を画面に順次表示する。表示制御部311は、単純な順次表示のみならず、表示切り替え時の遷移効果(トランジションエフェクト)等の加工を施して、選択した静止画像を表示してもよい。
表示制御部311は、観賞者画像抽出部312、観賞者認識部313、グループ抽出部314、画像選択部315、及び画像表示部316を備える。観賞者画像抽出部312は、例えば、提示モードの期間中にカメラモジュール115により生成されたユーザ画像データ403を解析し、ユーザ画像データ403に含まれる観賞者の顔画像を抽出する。観賞者画像抽出部312は、例えば、ユーザ画像データ403から顔領域を検出し、検出された顔領域をユーザ画像データ403から切り出す。観賞者画像抽出部312は、抽出した顔画像を観賞者認識部313に出力する。
観賞者認識部313は、観賞者画像抽出部312により抽出された顔画像を解析し、当該顔画像に対応する人物を観賞者(視聴者)として認識する。そして、観賞者認識部313は、認識された観賞者に関する情報をグループ抽出部314に出力する。なお、操作者の顔画像が検出できない場合、操作者の顔画像が認識できない場合等には、カメラモジュール115から新たにユーザ画像データ403を取得して、再度、観賞者の顔画像の抽出及び認識を行ってもよい。また、所定の回数、観賞者の認識(観賞者の顔画像の抽出)を行っても、観賞者が認識できない場合には、画面(LCD17)を見ている観賞者がいないものと判断してコンテンツ再生アプリケーション202を省電力で動作する省電力モードに移行させてもよい。省電力モードで動作するコンテンツ再生アプリケーション202は、例えば、LCD17の電源をオフにする。
観賞者が認識された場合、観賞者認識部313は、認識した観賞者に関する情報をグループ抽出部314に出力する。なお、観賞者画像抽出部312によりユーザ画像データ403から抽出される顔画像は複数であってもよい。すなわち、観賞者認識部313により認識される登場人物は複数であってもよい。その場合、観賞者認識部313は、認識した複数の観賞者それぞれに関する情報をグループ抽出部314に出力する。
グループ抽出部314は、観賞者認識部313により認識された観賞者に関する情報に基づいて、対応する静止画像を含むグループ(イベントグループ)をHDD109内の複数のイベントグループから抽出する。具体的には、グループ抽出部314は、複数のイベントグループから、当該観賞者の顔画像を含む静止画像又は当該観賞者がインポートした静止画像の少なくとも一方を含むイベントグループを、現在の観賞者に関連するイベントグループとして抽出する。複数のイベントグループの各々には、当該グループに含まれる静止画像の少なくとも一つに含まれる登場人物の顔画像と当該グループに含まれる静止画像の少なくとも一つをインポートした操作者の顔画像とが関連付けられていてもよい。この場合、グループ抽出部314は、観賞者の顔画像が登場人物の顔画像又は操作者の顔画像として関連付けられているグループを抽出すればよい。
また、観賞者が複数である場合には、グループ抽出部314は、複数のグループの中から、全ての観賞者の顔画像の各々が、登場人物の顔画像または撮影者の顔画像(インポート操作をした操作者の顔画像)のいずれかとして関連付けられているグループを、それら観賞者に関連するグループとして抽出する。グループ抽出部314は、抽出したグループに関する情報を画像選択部315に出力する。
グループ抽出部314によって抽出されるグループの例について、図5を参照して説明する。図5に示す例では、静止画像データ401が、グループ作成部306によって3つの静止画像データ401A,401B,401Cに分類される場合を想定する。静止画像データ401A,401B,401Cは、それぞれイベントグループ501,502,503に属する。イベントグループ501に関連付けられた人物501Aは、静止画像データ401Aに含まれる顔画像に対応する登場人物601、及び静止画像データ401Aの撮影者602を含む。このことは、イベントグループ501は登場人物601の顔画像を含む少なくとも1つの静止画像データ401Aを含み、さらにイベントグループ501内に含まれる全ての静止画像データ401Aは撮影者602によってインポートされた静止画像であることを意味している。なお、登場人物601及び撮影者602は、登場人物であり、且つ撮影者であることも想定される。その場合、例えば、イベントグループ501は登場人物601の顔画像を含む少なくとも1つの静止画像データ401Aと撮影者(登場人物)602の顔画像を含む少なくとも1つの静止画像データ401Aとを含み、さらにイベントグループ501内に含まれる幾つかの静止画像データ401Aは撮影者602によってインポートされた静止画像であり、残りの幾つかの静止画像データ401Aは登場人物(撮影者)601によってインポートされた静止画像であることを意味している。イベントグループ502に関連付けられた人物502Aは、静止画像データ401Bに含まれる顔画像に対応する登場人物601,603、及び静止画像データ401Aの撮影者604を含む。このことは、イベントグループ502は登場人物601の顔画像を含む少なくとも1つの静止画像データ401Bと登場人物603の顔画像を含む少なくとも1つの静止画像データ401Bとを含み(登場人物601,603の双方を含む1つの静止画像データ401Bがイベントグループ502に含まれていてもよい)、さらにイベントグループ502内に含まれる全ての静止画像データ401Bは撮影者604によってインポートされた静止画像であることを意味している。なお、イベントグループ501の場合と同様に、登場人物601,603、及び撮影者604は、登場人物であり、且つ撮影者であることも想定される。また、イベントグループ503に関連付けられた人物503Aは、静止画像データ401Cに含まれる顔画像に対応する登場人物605,607、及び静止画像データ401Aの撮影者602,606を含む。このことは、イベントグループ503は登場人物602の顔画像を含む少なくとも1つの静止画像データ401Cと登場人物605の顔画像を含む少なくとも1つの静止画像データ401Cとを含み(登場人物602,605の双方を含む1つの静止画像データ401Cがイベントグループ503に含まれていてもよい)、さらにイベントグループ503に含まれる幾つかの静止画像データ401Cは撮影者606によってインポートされた静止画像であり、残りの幾つかの静止画像データ401Cは撮影者607によってインポートされた静止画像であることを意味している。なお、イベントグループ501の場合と同様に、登場人物605,607、及び撮影者602,606は、登場人物であり、且つ撮影者であることも想定される。上述の内容は、インデックス情報402としてデータベース109Aに格納されている。
ここで、観賞者認識部313が現在の観賞者601,602を認識したことを想定した場合、グループ抽出部314は、観賞者601,602のいずれもが関連付けられたイベントグループ501を、HDD109内のイベントグループ501,502,503から優先的に抽出する。なお、グループ抽出部314は、観賞者601,602のいずれかが関連付けられたイベントグループ502,503もHDD109から抽出してもよい。
画像選択部315は、例えば、抽出したグループに含まれる静止画像から、所定の条件を満たす静止画像を選択する。もちろん抽出したグループに含まれる全ての静止画像を選択するようにしてもよい。また、画像表示部316は、画像選択部315により選択された静止画像を所定の順序で画面に表示する。グループ抽出部314によるグループの抽出、画像選択部315による静止画像の選択、及び画像表示部316による画像の表示について、図6を参照して説明する。
図6中、(A)は、HDD109に格納された複数の静止画像データ401が、データベース109Aに格納されたインデックス情報402に基づき、撮像日時の順に時系列に並べられ、かつ、グループ分けされている様子を示す第1の概念図である。図6(A)に示すように、ここでは、HDD109に格納された複数の静止画像データ401が、グループn、グループn+1、グループn+2の3つのグループに分けられているものと想定する。なお、各グループ内の1,2,3,…等の数字が記載された各ボックスは、それぞれ1つの静止画像データ401を表しており、その数字は、各グループ内における撮像日時順を表している。
また、符号c1で示す静止画像データ401のボックス内の丸形は、当該静止画像データ401が、観賞者の顔画像を含む画像であることを表す。符号c2で示す静止画像データ401のボックス内の三角形は、当該静止画像データ401が、観賞者により撮影(インポート)された画像であること表す。符号c3で示す静止画像データ401のボックス内の菱形は、当該静止画像データ401が、観賞者の顔画像を含む画像と観賞者により撮影(インポート)された画像のいずれでもない画像であることを表している。
つまり、この図6(A)は、グループn、グループn+1、グループn+2の3つのグループのうち、観賞者の顔画像を含む静止画像データ401、又は観賞者により撮影された静止画像データ401を含むグループは、グループn、グループn+2の2グループであることを表している。そこで、グループ抽出部314は、このグループn、グループn+2内を表示対象とする静止画像を含むグループとして、HDD109から抽出する。本実施形態では、観賞者の顔画像を含む静止画像データ401、又は観賞者により撮影された静止画像データ401と同一グループに属する静止画像データ401は、観賞者と関連性を有する画像であると判断する。
画像選択部315は、抽出したグループに属する静止画像データ401Aから、データベース109Aに格納されたインデックス情報402に基づき、例えば予め定められた枚数を上限として静止画像データ401を選択する。このとき、画像選択部315は、例えば、観賞者の顔画像を含む静止画像データ401、及び観賞者により撮影された静止画像データ401を優先的に選択することを原則としつつ、人物が写っていない風景画像等も選択する。
図6中、(B)は、画像選択部315による静止画像データ401の選択結果を示す第2の概念図である。図6(B)に示すように、グループnにおいては、符号d1で示す、観賞者によってインポートされた画像が選択されており、また、符号d2で示す、観賞者の顔画像を含む画像と観賞者によりインポートされた画像のいずれでもない画像も選択されている。同様に、グループn+2においても、符号d3で示す、観賞者によってインポートされた画像が選択されており、また、符号d4で示す、観賞者の顔画像を含む画像と観賞者によりインポートされた画像のいずれでもない画像も選択されている。
この符号d1〜d4で示す画像は、従来の画像検索手法において、人物が検索鍵情報として指定された場合には選択され得ない画像であり、この点で、本コンテンツ再生アプリケーションプログラム202は、例えば、「何処へ誰と」がわかるようにスライドショーを表示すべく、高度なインテリジェンスを持った効果的な画像検索を実行する。
また、図6中、(C)は、画像表示部316による静止画像データ401の表示順を示す第3の概念図である。図6(C)に示すように、画像表示部316は、例えば、最新の画像を真っ先に見たいという要求を満たすべく、グループ単位においては現在から過去へと誘導する配列を構成しつつ(グループn+2→グループn)、各グループ内の画像についてはより自然に画像を楽しめるように配列を構成する。即ち、グループの配列と各グループ内の画像の配列とで、異なるアルゴリズムを採用してもよい。
ここで、「旅行」がテーマである静止画像データ401が選択されたものと想定した場合、画像表示部316は、例えば、「何処へ」がまず分かるように、グループn+2については、符号d4で示す、いずれの人物も写っていない画像、つまり、風景画像と推測される画像を先頭に配置して、以降、その他の画像を撮像日付順に配置する。同様に、グループnについても、符号d2で示す、風景画像と推測される画像を先頭に、その他の画像をその後に撮像日付順に配置する。
つまり、コンテンツ再生アプリケーションプログラム202は、例えば「旅行」といったシーンを把握するのに適した画像を代表画像として先頭に配置するといった、高度なインテリジェンスを持った効果的な画像表示も実行する。なお、「旅行」等のテーマが不明である場合は、各グループ内の画像を撮像日時順に配列するようにしてもよい。
次いで、図7のフローチャートを参照して、コンテンツ再生アプリケーションプログラム202により実行される画像表示処理の手順を説明する。
まず、コンテンツ再生アプリケーション202がユーザによってインポートモードに設定された場合を想定する。インポートモードでは、コンテンツ再生アプリケーション202は、記録メディア20Aが検出されたか否かを判定する(ステップS101)。記録メディア20Aが検出された場合(ステップS101のYES)、コンテンツ再生アプリケーション202は、カメラモジュール115により生成されたユーザ画像データ403を受信する(ステップS102)。
次に、コンテンツ再生アプリケーション202は、受信したユーザ画像データ403に含まれるユーザの顔画像を認識する(ステップS103)。具体的には、コンテンツ再生アプリケーション202は、受信したユーザ画像データに含まれる顔領域を検出し、当該顔領域を切り出す。そして、コンテンツ再生アプリケーション202は、切り出された顔領域(顔画像)を解析し、対応する人物を認識する。そして、コンテンツ再生アプリケーション202は、ユーザの顔画像の認識が成功したか否かを判定する(ステップS104)。
ユーザの顔画像の認識が成功した場合(ステップS104のYES)、コンテンツ再生アプリケーション202は、記録メディア20Aに格納された静止画像データ401をインポートする(ステップS105)。インポートが完了したことに応答して、コンテンツ再生アプリケーション202は、インポートされた静止画像データ401を分類し、グループ化する(ステップS106)。そして、コンテンツ再生アプリケーション202は、インポートされた写真に含まれる顔画像に対応する人物(登場人物)を認識する(ステップS107)。次いで、コンテンツ再生アプリケーション202は、ステップS103において認識されたユーザ(操作者)に関する情報(撮影者情報402B)と、ステップS107において認識された登場人物に関する情報(画像情報402A)とをインデックス情報402としてデータベース109Aに格納する(ステップS108)。
インポートが完了した時、コンテンツ再生アプリケーション202は、自動的に提示モードに遷移し得る。コンテンツ再生アプリケーション202は、ステップS103又は後述のステップS113において認識されるユーザ(観賞者)が関連付けられたグループを抽出する(ステップS109)。コンテンツ再生アプリケーション202は、抽出したグループに含まれる静止画像から所定の条件を満たす静止画像を選択する(ステップS110)。そして、コンテンツ再生アプリケーション202は、選択された静止画像を所定の順序に基づいて、画面に順次表示する(ステップS111)。
ステップS111における静止画像の表示と並行して、コンテンツ再生アプリケーション202は、カメラモジュール115からユーザ画像データ403を受信する(ステップS112)。コンテンツ再生アプリケーション202は、受信したユーザ画像データ403に含まれるユーザ(観賞者)の顔画像を認識する(ステップS113)。そして、コンテンツ再生アプリケーション202は、ユーザの顔画像の認識が成功したか否かを判定する(ステップS114)。
ユーザの顔画像の認識が成功した場合(ステップS114のYES)、コンテンツ再生アプリケーション202は、ステップS113で認識されたユーザが前回認識されたユーザとは別の人物であるか否かを判定する(ステップS115)。ステップS113で認識されたユーザが前回認識されたユーザとは別の人物である場合(ステップS115のYES)、コンテンツ再生アプリケーション202は、ステップS109に戻る。すなわち、コンテンツ再生アプリケーション202は、ステップS109以降の処理により、新たに認識されたユーザに適切な静止画像を画面に表示する。
ステップS113で認識されたユーザが前回認識されたユーザと同一の人物である場合(ステップS115のNO)、コンテンツ再生アプリケーション202は、ステップS112に戻る。すなわち、コンテンツ再生アプリケーション202は、現在表示中の静止画像を引き続き画面に表示する。
また、ユーザの顔画像の認識が失敗した場合(ステップS114のNO)、コンテンツ再生アプリケーション202は、画面に表示される写真を観賞するユーザがいないかどうかを判定する(ステップS116)。コンテンツ再生アプリケーション202は、例えば、ユーザ画像データ403から顔画像があると推定される領域が検出されない場合や、ステップS113おける顔画像認識が所定の回数以上失敗した場合等に、画面に表示される静止画像を観賞するユーザがいないものと判定する。画面に表示される静止画像を観賞するユーザがいないと判定された場合(ステップS116のYES)、コンテンツ再生アプリケーション202は、省電力で動作する省電力モードに移行する(ステップS117)。省電力モードで動作するコンテンツ再生アプリケーション202は、例えば、LCD17の電源をオフにする。
画面に表示される静止画像を観賞するユーザがいると判定された場合(ステップS116のNO)、コンテンツ再生アプリケーション202は、ユーザ(観賞者)を認識するためにステップS112に戻る。
なお、ユーザ(観賞者)の顔画像の認識が失敗した場合であっても、コンテンツ再生アプリケーション202は、前回認識が成功した際の観賞者の情報を一定時間記憶しておき、これに基づいて静止画像を表示してもよい。これにより、視聴者が顔を動かした場合や視聴者の顔が何らかの物体によって隠された場合等、視聴者の顔画像が明瞭に捉えられず、認識に失敗した場合にも、適切な画像を画面に表示することができる。
以上の処理により、コンテンツ再生アプリケーション202は、静止画像データ401をインポートするユーザ(操作者)に関する情報と、静止画像データ401に含まれる顔画像に対応する人物(登場人物)に関する情報とを、インデックス情報402としてデータベース109Aに格納し、静止画像データ401をHDD109に格納する。そして、コンテンツ再生アプリケーション202は、このインデックス情報402に基づいて、画面に表示される静止画像を観賞するユーザ(観賞者)に応じて、当該観賞者に関連付けられた静止画像を含むグループをHDD109から抽出して、このグループに含まれる静止画像を画面に表示する。つまり、コンテンツ再生アプリケーション202は、HDD109に格納された静止画像データ401から、観賞者に関連する静止画像(例えば、観賞者の顔画像を含む静止画像、観賞者によってインポートされた静止画像)を抽出することができる。
また、コンテンツ再生アプリケーション202は、静止画像データ401のグループ化やインデックス情報402の生成に対応する処理をバックグラウンドで実行し、並行して、観賞者に応じた静止画像を画面に表示する処理を実行することができる。さらに、上述のインデックス情報402の生成及び観賞者に応じた静止画像の表示は、ユーザによる操作を要することなく実現することができる。つまり、ユーザの利便性と装置の簡便性とを維持したまま、複数のユーザの写真(静止画像データ)を管理し、観賞者(複数可)に応じた写真を提示できるフォトフレーム機能を実現することができる。
なお、コンテンツ再生アプリケーション202には、操作者に関する情報を手動により設定又は修正する機能を持たせてもよい。また、コンテンツ再生アプリケーション202に、観賞者を手動により指定する機能(例えば、誰々モード、誰でもモード等を指定)を持たせてもよい。
なお、操作者及び観賞者を認識するためのユーザ画像データ403を生成するカメラモジュール115は、コンピュータ10に内蔵されるものに限らず、例えば、コンピュータ10にUSBコネクタ19を介して接続される、外付けのウェブカメラ等であってもよい。
以上説明したように、本実施形態によれば、お気に入りの画像ファイルを選択するといった煩雑なユーザ操作を行うことなく、観賞者であるユーザに関連する静止画像を提示することができる。コンテンツ再生アプリケーション202は、観賞者(視聴者)の交代に追随して、それぞれの観賞者が写っている写真だけでなく、観賞者が撮影した写真をも表示することができる。さらに、コンテンツ再生アプリケーション202は、観賞者が写っている写真及び観賞者が撮影した写真に加えて、これら写真に関連する写真、すなわち、これら写真と同一のイベントグループに属する写真も表示することができる。したがって、観賞者は、当該観賞者に関連する写真を、論理単位であるイベントグループ単位で観賞することができる。また、コンテンツ再生アプリケーション202は、視聴者に関連する写真を抽出するため、他人に見せたくない写真等を除外することも可能である。
なお、本実施形態の画像表示処理の手順は全てソフトウェアによって実行することができる。このため、画像表示処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
また本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
109…HDD、109A…データベース、115…カメラモジュール、20A…記録メディア、202…コンテンツ再生アプリケーション、301…インデキシング部、302…記録メディア検出部、303…操作者画像検出部、304…操作者認識部、305…画像インポート部、306…グループ作成部、307…登場人物画像抽出部、308…登場人物認識部、309…インデックス情報格納部、311…表示制御部、312…観賞者画像抽出部、313…観賞者認識部、314…グループ抽出部、315…画像選択部、316…画像表示部、401…静止画像データ、402…インデックス情報、403…ユーザ画像データ。

Claims (9)

  1. 観賞者を撮影して観賞者画像を生成する観賞者撮影手段と、
    前記観賞者画像に含まれる顔画像を検出し、前記観賞者を認識する観賞者認識手段と、
    各々が複数の静止画像を含む複数のグループから、前記観賞者の顔画像を含む静止画像又は前記観賞者によりインポートされた静止画像の少なくとも一方を含むグループを抽出するグループ抽出手段と、
    前記抽出されたグループに含まれる複数の静止画像を画面に表示する画像表示手段とを具備することを特徴とする電子機器。
  2. 前記複数のグループの各々には、当該グループに含まれる静止画像の少なくとも一つに含まれる登場人物の顔画像と当該グループに含まれる静止画像の少なくとも一つをインポートした操作者の顔画像とが関連付けられており、
    前記グループ抽出手段は、前記複数のグループから、前記観賞者の顔画像が前記登場人物の顔画像又は前記操作者の顔画像のいずれかとして関連付けられたグループを選択することを特徴とする請求項1記載の電子機器。
  3. 前記複数のグループの各々には、当該グループに含まれる静止画像の少なくとも一つに含まれる登場人物の顔画像と当該グループに含まれる静止画像の少なくとも一つをインポートした操作者の顔画像とが関連付けられており、
    前記グループ抽出手段は、前記観賞者認識手段によって前記観賞者画像から複数の観賞者の顔画像が認識された場合、前記複数のグループから、前記複数の観賞者の顔画像の各々が登場人物の顔画像又はインポートした操作者の顔画像のいずれかとして関連付けられたグループを選択することを特徴とする請求項1記載の電子機器。
  4. 前記複数のグループの各々には、第1の条件を満たす複数の静止画像が属することを特徴とする請求項1記載の電子機器。
  5. 前記抽出されたグループに含まれる複数の静止画像から、第2の条件を満たす静止画像を選択する画像選択手段をさらに具備し、
    前記画像表示手段は、前記選択された静止画像を所定の順序で前記画面に表示することを特徴とする請求項4記載の電子機器。
  6. 操作者による指示に応じて、複数の静止画像をインポートする画像インポート手段と、
    前記操作者を撮影して操作者画像を生成する操作者撮影手段と、
    前記操作者画像に含まれる顔画像を検出し、前記操作者を認識する操作者認識手段と、
    前記画像インポート手段によってインポートされた複数の静止画像を分類して複数のグループを作成するグループ作成手段と、
    前記インポートされた複数の静止画像の各々から顔画像を検出し、当該顔画像に対応する登場人物を認識する登場人物認識手段と、
    前記複数のグループの各々に対して、前記操作者と当該グループに属する静止画像から認識された登場人物とを関連付ける関連付け手段と、
    観賞者を撮影して観賞者画像を生成する観賞者撮影手段と、
    前記観賞者画像に含まれる顔画像を検出し、前記観賞者を認識する観賞者認識手段と、
    前記複数のグループから、前記観賞者が前記操作者又は前記登場人物のいずれかとして関連付けられたグループを抽出するグループ抽出手段と、
    前記抽出されたグループに含まれる静止画像を画面に表示する画像表示手段とを具備することを特徴とする電子機器。
  7. 観賞者を撮影して観賞者画像を生成する観賞者撮影ステップと、
    前記観賞者画像に含まれる顔画像を検出し、前記観賞者を認識する観賞者認識ステップと、
    各々が複数の静止画像を含む複数のグループから、前記観賞者の顔画像を含む静止画像又は前記観賞者によりインポートされた静止画像の少なくとも一方を含むグループを抽出するグループ抽出ステップと、
    前記抽出されたグループに含まれる複数の静止画像を画面に表示する画像表示ステップとを具備することを特徴とする画像表示方法。
  8. 前記複数のグループの各々には、当該グループに含まれる静止画像の少なくとも一つに含まれる登場人物の顔画像と当該グループに含まれる静止画像の少なくとも一つをインポートした操作者の顔画像とが関連付けられており、
    前記グループ抽出ステップは、前記複数のグループから、前記観賞者の顔画像が前記登場人物の顔画像又は前記操作者の顔画像のいずれかとして関連付けられたグループを選択することを特徴とする請求項7記載の画像表示方法。
  9. 前記複数のグループの各々には、当該グループに含まれる静止画像の少なくとも一つに含まれる登場人物の顔画像と当該グループに含まれる静止画像の少なくとも一つをインポートした操作者の顔画像とが関連付けられており、
    前記グループ抽出ステップは、前記観賞者認識ステップによって前記観賞者画像から複数の観賞者の顔画像が認識された場合、前記複数のグループから、前記複数の観賞者の顔画像の各々が登場人物の顔画像又はインポートした操作者の顔画像のいずれかとして関連付けられたグループを選択することを特徴とする請求項7記載の画像表示方法。
JP2009255313A 2009-11-06 2009-11-06 電子機器及び画像表示方法 Expired - Fee Related JP4768846B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009255313A JP4768846B2 (ja) 2009-11-06 2009-11-06 電子機器及び画像表示方法
US12/905,015 US8244005B2 (en) 2009-11-06 2010-10-14 Electronic apparatus and image display method
US13/545,495 US20120281888A1 (en) 2009-11-06 2012-07-10 Electronic apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009255313A JP4768846B2 (ja) 2009-11-06 2009-11-06 電子機器及び画像表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011131525A Division JP2011199906A (ja) 2011-06-13 2011-06-13 電子機器及び画像表示方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011101251A true JP2011101251A (ja) 2011-05-19
JP4768846B2 JP4768846B2 (ja) 2011-09-07

Family

ID=43974206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009255313A Expired - Fee Related JP4768846B2 (ja) 2009-11-06 2009-11-06 電子機器及び画像表示方法

Country Status (2)

Country Link
US (2) US8244005B2 (ja)
JP (1) JP4768846B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207572A (ja) * 2013-04-12 2014-10-30 キヤノン株式会社 画像処理装置、画像処理装置の制御方法
JP2015064811A (ja) * 2013-09-26 2015-04-09 富士フイルム株式会社 撮像画像の主要顔画像決定装置ならびにその制御方法およびその制御プログラム
JP2016170309A (ja) * 2015-03-13 2016-09-23 株式会社東芝 電子機器

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272077A (ja) * 2009-05-25 2010-12-02 Toshiba Corp 情報再生方法及び情報再生装置
JP4900739B2 (ja) * 2009-09-04 2012-03-21 カシオ計算機株式会社 電子写真立て、その制御方法及びプログラム
GB2537296B (en) * 2014-01-16 2018-12-26 Bartco Traffic Equipment Pty Ltd System and method for event reconstruction
US11367305B2 (en) * 2018-09-28 2022-06-21 Apple Inc. Obstruction detection during facial recognition processes
JP6797388B1 (ja) * 2020-07-31 2020-12-09 アカメディア・ジャパン株式会社 オンライン学習システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285964A (ja) * 2005-02-28 2006-10-19 Fuji Photo Film Co Ltd 画像出力装置、画像出力方法、及びプログラム
JP2008131081A (ja) * 2006-11-16 2008-06-05 Pioneer Electronic Corp テレビ受像機及び/又は録画再生装置の動作設定システム、リモートコントローラ及びテレビ受像機及び/又は録画再生装置
JP2008165009A (ja) * 2006-12-28 2008-07-17 Fujifilm Corp 画像表示装置
JP2009033351A (ja) * 2007-07-25 2009-02-12 Canon Inc 記録再生装置及び方法
JP2009141678A (ja) * 2007-12-06 2009-06-25 Fujifilm Corp デジタルフォトフレームおよびその画像表示方法
JP2009171176A (ja) * 2008-01-16 2009-07-30 Seiko Epson Corp 再生装置およびその制御方法並びにプログラム
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2011061341A (ja) * 2009-09-08 2011-03-24 Casio Computer Co Ltd 電子写真表示装置、その制御方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US7190475B2 (en) * 2000-03-16 2007-03-13 Nikon Corporation Method for providing a print and apparatus
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
US7362919B2 (en) * 2002-12-12 2008-04-22 Eastman Kodak Company Method for generating customized photo album pages and prints based on people and gender profiles
JP2005033276A (ja) 2003-07-07 2005-02-03 Seiko Epson Corp 画像再生システム及び画像再生プログラム、並びに画像再生方法
EP1566788A3 (en) * 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
US20060018522A1 (en) * 2004-06-14 2006-01-26 Fujifilm Software(California), Inc. System and method applying image-based face recognition for online profile browsing
US7602993B2 (en) * 2004-06-17 2009-10-13 Olympus Corporation Image processing and display using a plurality of user movable viewer areas
US7773832B2 (en) 2005-02-28 2010-08-10 Fujifilm Corporation Image outputting apparatus, image outputting method and program
JP2008141484A (ja) 2006-12-01 2008-06-19 Sanyo Electric Co Ltd 画像再生システム及び映像信号供給装置
JP2009038680A (ja) * 2007-08-02 2009-02-19 Toshiba Corp 電子機器および顔画像表示方法
JP4834639B2 (ja) * 2007-09-28 2011-12-14 株式会社東芝 電子機器および画像表示制御方法
US20090178126A1 (en) * 2008-01-03 2009-07-09 Sterling Du Systems and methods for providing user-friendly computer services
JP2010086221A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 画像編集方法および装置、ならびに画像編集方法を実行させるプログラムを記録したコンピュータに読取可能な記録媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285964A (ja) * 2005-02-28 2006-10-19 Fuji Photo Film Co Ltd 画像出力装置、画像出力方法、及びプログラム
JP2008131081A (ja) * 2006-11-16 2008-06-05 Pioneer Electronic Corp テレビ受像機及び/又は録画再生装置の動作設定システム、リモートコントローラ及びテレビ受像機及び/又は録画再生装置
JP2008165009A (ja) * 2006-12-28 2008-07-17 Fujifilm Corp 画像表示装置
JP2009033351A (ja) * 2007-07-25 2009-02-12 Canon Inc 記録再生装置及び方法
JP2009141678A (ja) * 2007-12-06 2009-06-25 Fujifilm Corp デジタルフォトフレームおよびその画像表示方法
JP2009171176A (ja) * 2008-01-16 2009-07-30 Seiko Epson Corp 再生装置およびその制御方法並びにプログラム
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2011061341A (ja) * 2009-09-08 2011-03-24 Casio Computer Co Ltd 電子写真表示装置、その制御方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014207572A (ja) * 2013-04-12 2014-10-30 キヤノン株式会社 画像処理装置、画像処理装置の制御方法
JP2015064811A (ja) * 2013-09-26 2015-04-09 富士フイルム株式会社 撮像画像の主要顔画像決定装置ならびにその制御方法およびその制御プログラム
US9832439B2 (en) 2013-09-26 2017-11-28 Fujifilm Corporation Device for determining principal facial image in photographic image, and method and program for controlling same
JP2016170309A (ja) * 2015-03-13 2016-09-23 株式会社東芝 電子機器

Also Published As

Publication number Publication date
US20110110564A1 (en) 2011-05-12
JP4768846B2 (ja) 2011-09-07
US20120281888A1 (en) 2012-11-08
US8244005B2 (en) 2012-08-14

Similar Documents

Publication Publication Date Title
JP4768846B2 (ja) 電子機器及び画像表示方法
JP4987943B2 (ja) 電子機器及び画像表示方法
US8488914B2 (en) Electronic apparatus and image processing method
JP4940345B2 (ja) 電子機器及び画像処理方法
JP4988012B2 (ja) 電子機器およびインデキシング制御方法
JP2011065277A (ja) 電子機器、画像表示方法およびコンテンツ再生プログラム
US8988457B2 (en) Multi image-output display mode apparatus and method
JP5017424B2 (ja) 電子機器及び画像処理方法
US8494347B2 (en) Electronic apparatus and movie playback method
JP2011082641A (ja) 電子機器および画像表示方法
JP5225330B2 (ja) 電子機器及び画像処理方法
JP2011065278A (ja) 電子機器、画像検索方法およびコンテンツ再生プログラム
JP5479198B2 (ja) 電子機器及び画像処理プログラム
US20110231763A1 (en) Electronic apparatus and image processing method
JP2011199906A (ja) 電子機器及び画像表示方法並びにプログラム
JP2014110469A (ja) 電子機器、画像処理方法、及びプログラム
JP5050115B2 (ja) 電子機器、画像表示方法およびコンテンツ再生プログラム
JP5414842B2 (ja) 電子機器、画像表示方法およびコンテンツ再生プログラム
JP2011243212A (ja) 電子機器、画像表示方法およびコンテンツ再生プログラム
JP5558187B2 (ja) 電子機器及び画像処理プログラム
CN116701687A (zh) 视频显示方法及装置
JP2012004713A (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
JP2011138360A (ja) 情報処理装置及び画像表示方法
JP2012231470A (ja) 電子機器及び画像処理方法
JP2011244155A (ja) 電子機器及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees