JP2014216943A - 電子機器、方法、及びプログラム - Google Patents
電子機器、方法、及びプログラム Download PDFInfo
- Publication number
- JP2014216943A JP2014216943A JP2013094509A JP2013094509A JP2014216943A JP 2014216943 A JP2014216943 A JP 2014216943A JP 2013094509 A JP2013094509 A JP 2013094509A JP 2013094509 A JP2013094509 A JP 2013094509A JP 2014216943 A JP2014216943 A JP 2014216943A
- Authority
- JP
- Japan
- Prior art keywords
- image
- content
- representative
- priority
- image files
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】必要とするファイルを容易に識別可能にする。【解決手段】実施形態によれば、電子機器は、記録手段と、分析手段と、決定手段と、送出手段とを有する。記録手段は、複数の画像ファイルを論理的な記録場所毎に分類して記録する。分析手段は、前記複数の画像ファイルの属性を分析する。決定手段は、前記記録場所毎に、前記属性をもとに代表画像を決定する。送出手段は、前記代表画像を送出する。【選択図】図4
Description
本発明の実施形態は、ファイルを分類して記録する電子機器、方法、プログラムに関する。
写真や動画、音楽等のコンテンツを配信するコンテンツサーバやパーソナルコンピュータ等の電子機器では、複数のデータファイルを記録する場合、論理的な階層構造を作成して、階層別にデータファイルの内容別に分類して記録することが多い。例えば、電子機器は、データファイルの内容に応じて複数のフォルダが作成され、さらに1つのフォルダに複数のサブフォルダが作成される。ユーザは、各階層のフォルダに、関連するデータファイルをまとめて記録する。
このように、論理的な階層構造を作成することにより、複数のデータファイルを分類して記録することができる。しかし、階層の数が多い場合や、各階層に含まれるフォルダ数が多い場合には、必要とするファイルを容易に識別することが困難となる。
例えば、コンテンツサーバに写真などの画像ファイルを、複数のフォルダを作成して記録した場合、ユーザがクライアント機器を用いて、旅行など、特定の出来事に関する写真(画像ファイル)を閲覧するためには、複数のフォルダからフォルダ名などをもとに所望の写真を含むフォルダを識別する。しかし、フォルダ名などによってフォルダを識別できない場合、ユーザは、複数のフォルダを順番に開いて、それぞれのフォルダに記録された写真を確認するなどして、所望のフォルダを探す必要がある。このため、ユーザは、多大な労力と時間を要してしまう。
本発明が解決しようとする課題は、必要とするファイルを容易に識別可能にする電子機器、表示方法、表示プログラムを提供することである。
実施形態によれば、電子機器は、記録手段と、分析手段と、決定手段と、送出手段とを有する。記録手段は、複数の画像ファイルを論理的な記録場所毎に分類して記録する。分析手段は、前記複数の画像ファイルの属性を分析する。決定手段は、前記記録場所毎に、前記属性をもとに代表画像を決定する。送出手段は、前記代表画像を送出する。
以下、図面を参照して、実施形態について説明する。
(第1実施形態)
図1は、第1実施形態におけるコンテンツ配信システムの構成を示すブロック図である。図1に示すコンテンツ配信システムは、ユーザが使用する複数の電子機器10,10−1,…,10−nが、ネットワーク12を通じて、コンテンツサーバ15,16と接続される。ネットワークは、LAN(Local Area Network)、インターネット、公衆電話回線網などの各種ネットワークを利用することが可能である。また、ネットワークは、有線通信だけでなく、無線通信が可能である。
(第1実施形態)
図1は、第1実施形態におけるコンテンツ配信システムの構成を示すブロック図である。図1に示すコンテンツ配信システムは、ユーザが使用する複数の電子機器10,10−1,…,10−nが、ネットワーク12を通じて、コンテンツサーバ15,16と接続される。ネットワークは、LAN(Local Area Network)、インターネット、公衆電話回線網などの各種ネットワークを利用することが可能である。また、ネットワークは、有線通信だけでなく、無線通信が可能である。
コンテンツサーバ15,16は、静止画(写真)や動画、音楽等のコンテンツのデータファイルを、ネットワーク12を通じて配信する機能を有する。コンテンツサーバ15,16は、電子機器10,10−1,…,10−nから送信されるデータファイルをユーザ別に記録し、ネットワーク12を通じて任意に閲覧可能なサービス(ストレージサービス)を提供する。コンテンツサーバ15,16は、それぞれ独立して動作しても良いし、協働してクラウドサービスシステム14として機能しても良い。
コンテンツサーバ15,16は、多数のコンテンツ(データファイル)を、論理的な階層構造が構築されたコンテンツ格納モジュールに記録する。論理的な階層構造には、各階層において複数のフォルダが作成され、フォルダ毎に分類してデータファイルが記録される。
電子機器10,10−1,…,10−nは、例えば携帯型の電子機器が用いられる。携帯型の電子機器には、例えば、パーソナルコンピュータ、タブレット型PC、携帯電話機、スマートフォン、オーディオプレーヤ等がある。電子機器10,10−1,…,10−nは、コンテンツサーバ15,16にアクセスして、ユーザが作成した写真などの静止画や動画像、音楽などのデータファイルをアップロードすることができる。
図2は、第1実施形態におけるコンテンツサーバ15の機能構成を示すブロック図である。なお、コンテンツサーバ16は、コンテンツサーバ15と同様に構成されるものとして詳細な説明を省略する。
コンテンツサーバ15は、例えばコンピュータにより実現されるもので、制御モジュール20、メモリ21、記録モジュール22、及び通信モジュール23とを含む。
コンテンツサーバ15は、例えばコンピュータにより実現されるもので、制御モジュール20、メモリ21、記録モジュール22、及び通信モジュール23とを含む。
制御モジュール20は、システムLSIなどによって構成されるコントローラであり、プロセッサ(CPU)や各種画像処理用のユニットなどを含む。制御モジュール20は、記録モジュール22に記録されたプログラムを実行することで各種処理を制御する。例えば、制御モジュール20は、電子機器10,10−1,…,10−nから各種コンテンツ(データファイル)を受信して、記録モジュール22に記録する処理、電子機器10,10−1,…,10−nからのコンテンツ(データファイル)に対するアクセス要求に対して、データファイルを提供する処理等を制御する。また、制御モジュール20は、コンテンツ分析プログラム22Aを実行することにより、記録モジュール22(コンテンツ格納モジュール22D)に記録されたコンテンツ(画像ファイル等を含むデータファイル)の特徴を表す属性を分析する。また、制御モジュール20は、ファイルマネージャプログラム22Bを実行することにより、電子機器10,10−1,…,10−n(ファイルビューア)からのコンテンツ閲覧要求に対して、閲覧対象として指定された論理的な記録場所(例えば、コンテンツが分類して記録されるフォルダ)を表すオブジェクト(フォルダ等)の名称と代表画像とを送信する。
メモリ21は、制御モジュール20により実行される各種プログラムや、各種プログラムの実行に伴うデータ等を一時的に記録する。
記録モジュール22は、HDDやSSD、あるいは光ディスクを記録媒体とする装置などにより実現されるもので、各種プログラムやデータが記録される。記録モジュール22に記録されるプログラムには、基本プログラム(OS)の他、コンテンツ分析プログラム22A、ファイルマネージャプログラム22Bが含まれる。また、記録モジュール22には、各種コンテンツのデータファイルを記録するためのコンテンツ格納モジュール22D、コンテンツ分析プログラム22Aに基づいて実行されるコンテンツに対する分析のためのデータを記録するためのコンテンツ分析データベース22Cが設けられる。
コンテンツ格納モジュール22Dには、論理的な記録場所として複数の階層にフォルダが作成され、各階層のフォルダに複数のコンテンツのデータファイルが分類して記録される。コンテンツには、静止画、動画、音楽などが含まれる。
通信モジュール23は、他の電子機器(コンテンツサーバ15,16等)との通信を制御するコントローラである。通信モジュール23は、ネットワーク12を通じて、他の電子機器との間で相互にデータを送受信する。
図3は、第1実施形態における電子機器10のシステム構成を示す図である。図3に示す電子機器10は、パーソナルコンピュータの例を示している。
電子機器10は、図3に示されるように、CPU30、システムコントローラ32、メインメモリ34、BIOS−ROM36、SSD(Solid State Drive)38、グラフィクスコントローラ40、サウンドコントローラ42、無線通信デバイス44、エンベデッドコントローラ(EC)46等を備える。
電子機器10は、図3に示されるように、CPU30、システムコントローラ32、メインメモリ34、BIOS−ROM36、SSD(Solid State Drive)38、グラフィクスコントローラ40、サウンドコントローラ42、無線通信デバイス44、エンベデッドコントローラ(EC)46等を備える。
CPU30は、電子機器10に実装された各種モジュールの動作を制御するプロセッサである。CPU30は、不揮発性のストレージデバイスであるSSD38からメインメモリ34にロードされる各種プログラムを実行する。プログラムには、オペレーティングシステム(OS)34A、ファイルビューア34Bを含む。なお、コンテンツ分析プログラム34C、ファイルマネージャプログラム34Dは、第2実施形態において説明する。
また、CPU30は、BIOS−ROM36に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ32は、CPU30と各種コンポーネントとの間を接続するデバイスである。システムコントローラ32には、カメラ43、メインメモリ34の他に、BIOS−ROM36、SSD38、グラフィクスコントローラ40、サウンドコントローラ42、無線通信デバイス44、エンベデッドコントローラ46等が接続される。
グラフィクスコントローラ40は、電子機器10のディスプレイモニタとして使用されるディスプレイ41Aを制御する。グラフィクスコントローラ40は、CPU30の制御のもとで、表示信号をディスプレイ41Aに送信する。ディスプレイ41Aは、表示信号に基づいて画面イメージを表示する。ディスプレイ41Aの表示面にはタッチパネル41Bが配置されている。
サウンドコントローラ42は、音声信号を処理するコントローラであり、スピーカ42Aによる音声出力、マイク42Bからの音声入力を制御する。
無線通信デバイス44は、無線LANや3G移動通信などの無線通信、あるいはNFC(Near Field Communication)などの近接無線通信を実行するように構成されたデバイスである。
エンベデッドコントローラ46は、電力管理のためのコントローラを含むワンチップマイクロコンピュータである。エンベデッドコントローラ46は、ユーザによるパワーボタンの操作に応じて電子機器10を電源オンまたは電源オフする機能を有している。また、エンベデッドコントローラ46は、キーボード47とタッチパッド48の入力を制御する。
図4は、コンテンツサーバ15と電子機器10とにより実現されるコンテンツ配信システムの機能構成を示すブロック図である。
コンテンツサーバ15は、図4に示すように、コンテンツ分析モジュール50、コンテンツ分析データベース52(図2のコンテンツ分析データベース22Cに相当する)、コンテンツ格納モジュール54(図2のコンテンツ格納モジュール22Dに相当する)、及びファイルマネージャ56を有する。コンテンツ分析モジュール50は、制御モジュール20がコンテンツ分析プログラム22Aを実行することにより実現される。ファイルマネージャ56は、制御モジュール20がファイルマネージャプログラム22Bを実行することにより実現される。
コンテンツ分析モジュール50は、オブジェクト抽出モジュール50A、オブジェクト分析モジュール50B、コンテンツデータ処理モジュール50C、オブジェクトデータ処理モジュール50D、オブジェクトグループデータ処理モジュール50Eとを含む。
コンテンツ分析モジュール50は、コンテンツ格納モジュール54に記録されるコンテンツの属性をもとに、コンテンツ格納モジュール54に構成された論理的な階層構造中のフォルダに対して、フォルダ中の複数のデータファイルを代表する代表画像を決定する。各フォルダについて決定される代表画像は、電子機器10においてファイルビューア60によりフォルダを表示する際に、それぞれのフォルダに付加して表示される。
本実施形態では、コンテンツ分析モジュール50は、コンテンツ格納モジュール54に記録される画像ファイルから代表オブジェクトを抽出し、代表オブジェクトを含むコンテンツ(画像ファイル)あるいは代表オブジェクトを示す画像を、代表画像として決定する。コンテンツ分析モジュール50は、複数の画像ファイルの属性をもとに、画像ファイルに含まれる特定のオブジェクトを抽出し、複数のオブジェクトから画像の特徴を表す代表オブジェクトを決定する。画像ファイルから抽出されるオブジェクトには、人物、風景に含まれる自然物(山、川、海など)、構造物(建築物など)、動植物、食べ物、乗り物などがある。
なお、画像ファイルの属性は、例えば画像を分析することにより得られる分析情報や、画像ファイルと関連して設定される情報などがある。
画像を分析することにより得られる分析情報には、オブジェクトを人物とした場合、笑顔度、鮮明度、正面度、人数、画像の撮影場所(生成場所)や撮影時刻などがある。画像ファイルと関連して設定される情報には、人物、自然物、構造物、動植物、食べ物、乗り物などの名称(人物については氏名の他)、画像ファイルと関連する各種データから取得される情報などがある。
オブジェクト抽出モジュール50Aは、コンテンツ格納モジュール54に記録されるコンテンツデータ54A(データファイル)に含まれる画像ファイルから、予め決められた特定のオブジェクトを抽出する。オブジェクト抽出モジュール50Aは、例えば前述した、人物、自然物、構造物、動植物、食べ物、乗り物などを予め抽出対象として設定おくことで、画像ファイルが表す画像中から該当するオブジェクトを抽出するようにしても良いし、予めユーザが指定したオブジェクトを抽出するようにしても良い。例えば、ユーザが人物のオブジェクトを抽出対象として設定した場合、オブジェクト抽出モジュール50Aは、人物に該当する部分画像を画像中から検索して抽出する。人物に該当する部分画像は、例えば顔画像を対象としたり、あるいは体全体や体の一部(上半身など)を対象として検索することができる。
オブジェクト分析モジュール50Bは、オブジェクト抽出モジュール50Aにより抽出されたオブジェクトから、複数の画像ファイルの属性をもとに代表オブジェクトを決定し、代表オブジェクトに基づいて代表画像を決定する。例えば、オブジェクト分析モジュール50Bは、複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて、属性(例えば、人物の顔画像について笑顔度、鮮明度、正面度など)をもとにオブジェクト優先度(第1優先度)を算出する。また、オブジェクト分析モジュール50Bは、複数のオブジェクトのそれぞれについて出現状況を判別し、出現状況に基づいて複数のオブジェクトのオブジェクトグループ優先度(第2優先度)を算出する。出現状況は、例えば同じオブジェクトグループの各オブジェクトを含むコンテンツの個数や再生時間の累計、または、同じオブジェクトグループに含まれる各オブジェクトのコンテンツに登場する時間や面積の累計を用いて求める。
オブジェクト分析モジュール50Bは、オブジェクト優先度(第1優先度)とオブジェクトグループ優先度(第2優先度)とに基づいてコンテンツ優先度を算出し、コンテンツ優先度に基づいて、コンテンツ優先度の高いコンテンツ(画像ファイル)から代表画像を抽出する。代表画像は、最もコンテンツ優先度が高いコンテンツ(画像ファイル)から抽出しても良いし、コンテンツ優先度が高い順に複数のコンテンツ(画像ファイル)から複数の代表画像を抽出しても良い。
コンテンツデータ処理モジュール50Cは、オブジェクト抽出モジュール50Aとオブジェクト分析モジュール50Bによる処理に応じて、コンテンツ分析データベース52に記録されるコンテンツデータテーブル52Aを管理する。
オブジェクトデータ処理モジュール50Dは、オブジェクト抽出モジュール50Aとオブジェクト分析モジュール50Bによる処理に応じて、コンテンツ分析データベース52に記録されるオブジェクトデータテーブル52Bを管理する。
オブジェクトグループデータ処理モジュール50Eは、オブジェクト抽出モジュール50Aとオブジェクト分析モジュール50Bによる処理に応じて、コンテンツ分析データベース52に記録されるオブジェクトグループデータテーブル52Cを管理する。
コンテンツデータテーブル52Aには、各コンテンツ(画像ファイル)に対して設定されたコンテンツID(識別情報)と対応づけて、コンテンツから抽出されるオブジェクトについての分析情報(属性)、コンテンツの格納場所を示すコンテンツパス、オブジェクト分析モジュール50Bによって算出されるコンテンツ優先度を示すデータ等が対応づけて記録される。
オブジェクトデータテーブル52Bには、コンテンツ(画像ファイル)から抽出された各オブジェクトに対して設定されたオブジェクトID(識別情報)と対応づけて、オブジェクトの検出元のコンテンツを示すコンテンツID、同一の対象物に対応するオブジェクト毎に設定されるオブジェクトグループID(識別情報)、コンテンツ(あるいはオブジェクト)の属性(分析情報)をもとにオブジェクト分析モジュール50Bによって決定されるオブジェクト優先度(第1優先度)等が対応づけて記録される。オブジェクトグループIDは、例えば複数のコンテンツ(画像)から同じ人物に対応するオブジェクト(例えば顔画像)が抽出された場合、同じ人物に対応するオブジェクトに対して共通するオブジェクトグループIDが設定される。
オブジェクトグループデータテーブル52Cには、オブジェクトグループIDと対応づけて、オブジェクトグループに含まれるオブジェクトの出現状況をもとにオブジェクト分析モジュール50Bによって決定されるオブジェクトグループ優先度(第2優先度)が設定される。
ファイルマネージャ56は、電子機器10のファイルビューア60からのアクセス要求に応じて、コンテンツ格納モジュール54に記録されたファイルを提供したり、ファイルビューア60を通じて送信されるファイルをコンテンツ格納モジュール54に記録したりする。あるいは、ファイルマネージャ56は、ファイルビューア60を通じて、ユーザからサブフォルダの作成、サブフォルダの名称の指定等を受信し、サブフォルダを作成する。ファイルマネージャ56は、ファイルビューア60からの閲覧フォルダの指定に応じて、閲覧フォルダの直下にあるコンテンツ(データファイル)と、閲覧フォルダ内に作成されたサブフォルダの名称とサブフォルダの代表画像をファイルビューア60に送信する。ファイルマネージャ56は、サブフォルダの代表画像を、コンテンツデータテーブル52Aに記録されるコンテンツ優先度をもとに判別する。なお、ファイルマネージャ56は、1つのフォルダに対して、1つの代表画像を送信しても良いし、コンテンツ優先度の上位から複数の代表画像を送信しても良い。
電子機器10は、ファイルビューア60、ユーザインタフェース62、表示処理モジュール64、音声処理モジュール66、ディスプレイ41A、スピーカ42Aを有する。
ファイルビューア60は、ユーザインタフェース62から入力されるユーザからの指示に応じて、コンテンツサーバ15のファイルマネージャ56にファイルあるいはフォルダの閲覧要求を送信する。ファイルビューア60は、ファイルマネージャ56から受信される画像ファイル(静止画、動画)に基づいて、表示処理モジュール64を通じてディスプレイ41Aに画像を表示させる。また、ファイルマネージャ56から受信される音楽ファイルに基づいて、音声処理モジュール66を通じてスピーカ42Aから音声を出力させる。
次に、第1実施形態の動作について説明する。
第1実施形態では、コンテンツサーバ15において、コンテンツ格納モジュール54に設定された複数のフォルダについて、それぞれのフォルダ内に記録されたデータファイルに基づいて代表画像を決定し、コンテンツの閲覧要求をする電子機器10に公開する。
第1実施形態では、コンテンツサーバ15において、コンテンツ格納モジュール54に設定された複数のフォルダについて、それぞれのフォルダ内に記録されたデータファイルに基づいて代表画像を決定し、コンテンツの閲覧要求をする電子機器10に公開する。
電子機器10のユーザは、コンテンツサーバ15が提供するストレージサービスを利用する場合、コンテンツ格納モジュール54のユーザ用の記憶領域において、階層構造を持った記憶場所を定義することができる。すなわち、データファイルの記憶場所を表すフォルダを作成し、さらにフォルダ内にサブフォルダを作成することにより、記憶場所を階層化することができる。同様にして、サブフォルダにフォルダをさらに作成することにより、階層数を増加することができる。ある階層の1つのフォルダには、下位層の記憶場所を示す任意の数のフォルダの他、任意のデータファイルを記録することができる。
電子機器10のユーザは、例えばデジタルカメラ等によって撮影した画像の画像ファイルを、コンテンツ格納モジュール54において定義した特定のフォルダを指定して記録することができる。
なお、コンテンツ格納モジュール54には、ユーザがアップロードしたデータファイルだけでなく、予めコンテンツサーバ15の管理者側で作成したコンテンツ(データファイル)を含んでいても良い。
図5は、第1実施形態におけるコンテンツ分析モジュール50の動作を示すフローチャートである。
コンテンツ分析モジュール50は、コンテンツ格納モジュール54に記録されたコンテンツに、未分析のコンテンツがあるか探索する。コンテンツ分析モジュール50は、例えば予め決められたタイミング、あるいはユーザにより指定されたタイミングで探索を実行しても良いし、新規にコンテンツが記録されたタイミングで探索を実行しても良い。
コンテンツ分析モジュール50は、コンテンツ格納モジュール54に記録されたコンテンツに、未分析のコンテンツがあるか探索する。コンテンツ分析モジュール50は、例えば予め決められたタイミング、あるいはユーザにより指定されたタイミングで探索を実行しても良いし、新規にコンテンツが記録されたタイミングで探索を実行しても良い。
未分析のコンテンツがコンテンツ格納モジュール54から検出されると(ステップA1)、コンテンツ分析モジュール50は、検出した未分析のコンテンツを分析する(ステップA2)。ここでは、コンテンツ分析モジュール50は、オブジェクト抽出モジュール50Aにより画像ファイルに含まれる予め決められた特定のオブジェクトを抽出し、オブジェクト分析モジュール50Bにより各オブジェクトの特徴を表す分析情報を求める。
例えば、オブジェクト抽出モジュール50Aは、画像中から人物の顔画像領域を認識する顔認識機能を有している。オブジェクト抽出モジュール50Aは、顔認識機能により、例えば、予め用意された顔画像特徴サンプルと類似する特徴を有する顔画像領域を探索することができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。顔認識機能により、画像に含まれる顔画像領域の位置(座標)及びサイズを記録する。
さらに、オブジェクト分析モジュール50Bは、顔認識機能により、顔画像領域の画像特徴を分析する。オブジェクト分析モジュール50Bは、例えば、検出した顔画像の笑顔度、鮮明度、正面度等を算出する。笑顔度は、検出した顔画像が笑顔である度合いを示す指標である。鮮明度は、検出した顔画像が鮮明である度合いを示す指標である。また、正面度は、検出した顔画像が正面を向いている度合いを示す指標である。オブジェクト分析モジュール50Bは、顔画像を人物毎に分類して、人物毎に識別情報(人物ID)を付与して、それぞれの指標をオブジェクトの属性として記録する。
さらに、オブジェクト分析モジュール50Bは、顔認識機能により、顔画像領域の画像特徴を分析する。オブジェクト分析モジュール50Bは、例えば、検出した顔画像の笑顔度、鮮明度、正面度等を算出する。笑顔度は、検出した顔画像が笑顔である度合いを示す指標である。鮮明度は、検出した顔画像が鮮明である度合いを示す指標である。また、正面度は、検出した顔画像が正面を向いている度合いを示す指標である。オブジェクト分析モジュール50Bは、顔画像を人物毎に分類して、人物毎に識別情報(人物ID)を付与して、それぞれの指標をオブジェクトの属性として記録する。
また、オブジェクト抽出モジュール50Aは、例えば画像中から風景(人物以外の画像)を認識する風景認識機能を有している。風景認識機能は、前述した顔認識機能と同様にして、風景画像の特徴サンプルと類似する特徴を分析することにより、風景の種類や、風景に含まれるオブジェクト(自然物、構造物など)を認識することができる。また、画像の色調や構図等により風景画像の特徴を識別することもできる。オブジェクト分析モジュール50Bは、風景認識機能により識別される画像特徴を示す指標を、オブジェクトの属性として記録する。
また、オブジェクト分析モジュール50Bは、画像に付加された情報を対象として、画像の属性を分析することができる。例えば、オブジェクト分析モジュール50Bは、画像の生成日時(撮影日時)、生成場所を識別する。さらに、オブジェクト分析モジュール50Bは、画像の生成日時(撮影日時)と生成場所を示すデータをもとに、例えば所定の期間内(例えば、1日)に生成された他の静止画像と同一のイベントに分類し、分類毎にイベントの識別情報(イベントID)を付与する。
図6は、第1実施形態におけるコンテンツデータテーブル52Aに記録される分析情報の一例を示す図である。
図6に示すように、分析情報は、複数のコンテンツにそれぞれ対応する複数のエントリを含む。各エントリは、例えば、コンテンツID、生成日時(撮影日時)、生成場所(撮影場所)、イベントID、笑顔度、人数、顔画像情報を含む。笑顔度は、画像に含まれる顔画像の笑顔度を総合して決定された情報を示す。人数は、画像に含まれる顔画像の数の合計を示す。
図6に示すように、分析情報は、複数のコンテンツにそれぞれ対応する複数のエントリを含む。各エントリは、例えば、コンテンツID、生成日時(撮影日時)、生成場所(撮影場所)、イベントID、笑顔度、人数、顔画像情報を含む。笑顔度は、画像に含まれる顔画像の笑顔度を総合して決定された情報を示す。人数は、画像に含まれる顔画像の数の合計を示す。
顔画像情報は、画像に含まれる顔画像の認識結果情報である。顔画像情報は、例えば、人物ID、位置、サイズ、笑顔度、鮮明度、及び正面度を含む。なお、1つの画像に複数の顔画像が含まれるときは、複数の顔画像の各々に対応する顔画像情報(顔画像情報(1)(2)…)を含む。
風景情報は、画像に含まれる風景画像の認識結果情報である。風景情報は、例えば風景の種類(風景ID)や、風景に含まれるオブジェクト(自然物、構造物など)を示す情報を示す。なお、1つの画像に複数種の風景画像が含まれるときは、複数の風景画像の各々に対応する風景画像情報(風景情報(1)(2)…)を含む。
コンテンツからオブジェクトが検出された場合(ステップA3、Yes)、オブジェクトデータ処理モジュール50Dは、オブジェクト分析モジュール50Bによる分析結果に応じて、コンテンツ分析データベース52のオブジェクトデータテーブル52Bに、オブジェクトID、検出元コンテンツID、オブジェクトグループID、オブジェクト優先度を記録する(ステップA4)。
ここで、オブジェクトが人物の顔画像である場合、オブジェクトIDは、検出した顔画像のIDであり、オブジェクトグループIDは、どの人物の顔であるかを示す人物IDである。また、オブジェクト優先度は、例えば顔画像の鮮明度と笑顔度から算出される値である。例えば、オブジェクト優先度は、鮮明度と笑顔度とを加算した値としても良いし、鮮明度あるいは笑顔度に重み付けをして算出した値としても良いし、さらに正面度を含めて算出しても良い。
次に、コンテンツデータ処理モジュール50Cは、図7に示すコンテンツデータテーブル52Aのように、コンテンツIDと対応づけて、コンテンツの格納場所を示すコンテンツパスを記録する(ステップA5)。
こうして、顔画像(オブジェクト)の鮮明度、笑顔度、正面度などの分析情報に含まれる属性をもとにオブジェクト優先度を算出することで、ユーザにとって認識しやすい代表画像が採用されやすくできる。
コンテンツ格納モジュール54に記録されたコンテンツの分析を完了すると、オブジェクトデータ処理モジュール50Dは、図9に示すように、オブジェクトグループデータテーブル52Cに、オブジェクトグループIDとオブジェクトグループ優先度を記録する(ステップA6)。
オブジェクトグループ優先度は、例えば、オブジェクトデータテーブル52Bに記録されたデータをもとにして、オブジェクトグループIDに属するオブジェクトの出現状況から算出される。例えば、出現状況として、オブジェクトグループの各オブジェクトを含むコンテンツの個数を求める。
図8に示すオブジェクトデータテーブル52Bの場合、オブジェクトグループID「000」に含まれるオブジェクトは、オブジェクトID「000」「002」「004」「006」…によって示される。従って、オブジェクトID「000」「002」「004」「006」…を含むコンテンツは、検出元コンテンツID「000」「001」「002」「005」によって示される。これにより、オブジェクトグループの各オブジェクトを含むコンテンツの個数を求めることができる。
出現状況として、オブジェクトを含むコンテンツの再生時間の累計とする場合、あるいはオブジェクトのコンテンツに登場する時間の累計とする場合には、動画像についてはオブジェクトが現れている時間を算出し、静止画についてはオブジェクトが含まれている1つの画像ファイルを予め決めた時間に換算した上で累積値を算出する。
また、出現状況として、オブジェクトのコンテンツに登場する面積の累計とする場合には、静止画についてはオブジェクトに相当する領域を検出し、動画像についてはオブジェクトが現れる最初(あるいは最後、中間でも良い)の画像中のオブジェクトに相当する領域を検出して、その面積を合計する。
次に、コンテンツデータ処理モジュール50Cは、オブジェクトデータテーブル52Bとオブジェクトグループデータテーブル52Cとをもとに、各コンテンツ(コンテンツID)についてのコンテンツ優先度を算出して、コンテンツデータテーブル52AにコンテンツIDと対応づけて記録する(ステップA7)。コンテンツの優先度は、コンテンツに含まれるオブジェクトのオブジェクト優先度と、オブジェクトグループの優先度とをもとにして算出される値である。例えば、コンテンツ毎に、コンテンツに含まれるオブジェクトのオブジェクト優先度と、オブジェクトが含まれるオブジェクトグループのオブジェクトグループ優先度との積を求め、各オブジェクトについて求めた積の値を合計する。
例えば、コンテンツID「000」のコンテンツについては、検出コンテンツID「000」に対応するオブジェクトID「000」のオブジェクト優先度「10」と、オブジェクトID「000」に対応するオブジェクトグループID「000」のオブジェクトグループ優先度「111」との積を求める。
また、コンテンツID「001」のコンテンツについては、オブジェクトID「001」「002」「003」が含まれるため、各オブジェクトID「001」「002」「003」に対応するオブジェクト優先度とオブジェクトグループ優先度との積をそれぞれ算出して合計する。コンテンツデータ処理モジュール50Cは、前述のようにして算出した値をもとにコンテンツ優先度を決定して、図7に示すように、各コンテンツIDと対応づけて記録する。
このように、コンテンツ格納モジュール54に記録されたコンテンツに対する分析結果に基づいてコンテンツ優先度を算出するので、コンテンツ格納モジュール54に記録するするコンテンツを追加あるいは削除した場合には、コンテンツ優先度が変更される場合がある。
図10は、コンテンツ格納モジュール54に構築される論理的な階層構造の一例を示す図である。
図10では、最上位層にファイルF1と複数のフォルダFL1(フォルダ名「ALBUM」)とフォルダFL2(フォルダ名「LANDSCAPE」)が設けられている。また、フォルダFL1には、画像ファイルF2,F3の他に、複数のフォルダFL2,FL3,FL4,FL5が作成されている。さらに、フォルダFL2.FL3,FL4,FL5には、それぞれデータファイルやフォルダが含まれている。図10では、フォルダFL2において、下位層に設けられたフォルダFL6,FL7の他画像ファイルF4,F5を示している。
図10では、最上位層にファイルF1と複数のフォルダFL1(フォルダ名「ALBUM」)とフォルダFL2(フォルダ名「LANDSCAPE」)が設けられている。また、フォルダFL1には、画像ファイルF2,F3の他に、複数のフォルダFL2,FL3,FL4,FL5が作成されている。さらに、フォルダFL2.FL3,FL4,FL5には、それぞれデータファイルやフォルダが含まれている。図10では、フォルダFL2において、下位層に設けられたフォルダFL6,FL7の他画像ファイルF4,F5を示している。
本実施形態のコンテンツサーバ15は、例えばフォルダFL1についての代表画像を、フォルダFL1に含まれる全てのコンテンツ(データファイル)を分析した結果に基づいてコンテンツ優先度を算出し、このコンテンツ優先度の最も高いコンテンツを代表画像として決定する。すなわち、図10では、フォルダFL1に対して、グループG1に含まれる全てのコンテンツ(データファイル)をもとに代表画像が決定される。同様にして、フォルダFL2に対して、グループG2に含まれる全てのコンテンツ(データファイル)をもとに代表画像が決定される。
また、フォルダFL1のサブフォルダFL2については、グループG11に含まれる、サブフォルダFL2の下位層の全てのコンテンツ(データファイル)をもとに代表画像が決定される。さらに、フォルダFL2のサブフォルダFL6については、グループG111に含まれる、フォルダFL6の下位層の全てのコンテンツ(データファイル)をもとに代表画像が決定される。
なお、代表画像は、コンテンツ(画像ファイル)そのものでなく、オブジェクトを含む部分的な画像であっても良い。また、コンテンツ優先度の最も高いコンテンツを代表画像として決定するだけでなく、コンテンツ優先度の高い上位複数のコンテンツを代表画像とすることもできる。コンテンツ優先度の高い上位複数のコンテンツは、例えば予め決められた個数(例えば4つ)としたり、コンテンツ優先度が予め決めた基準値よりも高いものとしても良い。
次に、電子機器10からコンテンツサーバ15に記録したデータファイルを閲覧する場合について説明する。図11は、電子機器10のファイルマネージャ56の動作を示すフローチャートである。
ユーザは、コンテンツサーバ15に記録されたコンテンツを閲覧する場合、電子機器10によりコンテンツサーバ15にアクセスする。ユーザは、ユーザインタフェース62を操作することで、ファイルビューア60を通じて、閲覧対象とするフォルダ(閲覧フォルダ)を指定する。
ユーザは、コンテンツサーバ15に記録されたコンテンツを閲覧する場合、電子機器10によりコンテンツサーバ15にアクセスする。ユーザは、ユーザインタフェース62を操作することで、ファイルビューア60を通じて、閲覧対象とするフォルダ(閲覧フォルダ)を指定する。
コンテンツサーバ15のファイルマネージャ56は、ファイルビューア60から閲覧フォルダの指定を受け付けると、閲覧フォルダをファイルビューア60の指定に合わせる(ステップB1)。
次に、ファイルマネージャ56は、コンテンツデータテーブル52Aを参照して、閲覧フォルダのサブフォルダに含まれるコンテンツのうち、コンテンツ優先度の高いコンテンツをサブフォルダの代表画像として決定する(ステップB2)。
ファイルマネージャ56は、閲覧フォルダの直下にあるコンテンツと、サブフォルダの名称とサブフォルダの代表画像をファイルビューア60に送信する(ステップB3)。
ファイルビューア60は、ファイルマネージャ56から送信されるコンテンツと、サブフォルダの名称とサブフォルダの代表画像とをもとに、フォルダ閲覧画面を生成して、表示処理モジュール64を通じてディスプレイ41Aに出力する。ファイルビューア60は、サブフォルダを表示する場合、フォルダを表すアイコンに代表画像を付加して表示する。
図12は、フォルダのアイコンに代表画像を付加した例を示している。図12に示すように、代表画像をサムネイル化して、フォルダを表すアイコンの中央に表示している。
図13は、第1実施形態のフォルダ閲覧画面の一例を示す図である。図13に示すフォルダ閲覧画面は、図10に示す最上位層を閲覧フォルダとして指定した場合の例を示している。
図13に示すように、ファイルF1(画像ファイル「1000.jpg」)がサムネイル化されて表示されると共に、2つのサブフォルダ(フォルダ名「ALBUM」「LANDSCAPE」)のそれぞれに代表画像が付加されている。
さらに、図13に示すフォルダ名「ALBUM」のフォルダが閲覧フォルダとして指定された場合、ファイルビューア60は、ファイルマネージャ56から閲覧フォルダの直下にあるコンテンツと、サブフォルダの名称とサブフォルダの代表画像を受信して、図14に示すように、フォルダ閲覧画面を表示させる。
図14に示すように、サブフォルダを表すフォルダアイコンには、それぞれのフォルダに含まれるコンテンツをもとに決定された代表画像が付加されている。従って、ユーザは、サブフォルダをさらに開いて、フォルダ内に含まれるファイルやフォルダを確認しなくても、代表画像をもとにしてサブフォルダに含まれるコンテンツを推定できるようになる。
(第2実施形態)
図15は、第2実施形態における電子機器10Aの機能構成を示すブロック図である。第1実施形態では、コンテンツサーバ15において代表画像を決定しているが、第2実施形態では、電子機器10Aにおいてコンテンツを記録し、このコンテンツをもとに代表画像を決定する。
図15は、第2実施形態における電子機器10Aの機能構成を示すブロック図である。第1実施形態では、コンテンツサーバ15において代表画像を決定しているが、第2実施形態では、電子機器10Aにおいてコンテンツを記録し、このコンテンツをもとに代表画像を決定する。
電子機器10Aは、図3に示すシステム構成により実現される。なお、電子機器10Aは、パーソナルコンピュータに限定されるものではなく、タブレット型PC、携帯電話機、スマートフォン、オーディオプレーヤなどの他の利きにより実現することができる。
第2実施形態の電子機器10Aでは、コンテンツ分析モジュール70を実現するためのコンテンツ分析プログラム34Cと、ファイルマネージャ76を実現するためのファイルマネージャプログラム34Dが含まれる。コンテンツ格納モジュール54は、例えばSSD38において実現される。
なお、図15に示す構成において、図4と同一の名称を付した構成部分については、第1実施形態と同様にして動作するものとして詳細な説明を省略する。
図15に示すように、スタンドアローンで動作する電子機器10Aであっても、コンテンツ格納モジュール74に記録されたコンテンツについての分析結果をもとにコンテンツ優先度を算出し、コンテンツ優先度をもとにフォルダに代表画像を付したフォルダ閲覧画面を表示させることができる。
従って、ユーザは、フォルダ閲覧画面に表示されたフォルダを開かなくても、フォルダに記録されたコンテンツを代表画像をもとに推定することができる。
なお、第1及び第2実施形態における説明では、フォルダ閲覧画面中のフォルダアイコンを表示する場合に、代表画像を付加する例について説明しているが、ファイルの論理的な記録場所を表すフォルダ以外のオブジェクトを表示する場合にも、記録場所を表すオブジェクトに代表画像を付加して表示することも可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、前述した実施の形態において記載した処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。コンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。
10…電子機器、15,16…コンテンツサーバ、50…コンテンツ分析モジュール、50A…オブジェクト抽出モジュール、50B…オブジェクト分析モジュール、52…コンテンツ分析データベース、52A…コンテンツデータテーブル、52B…オブジェクトデータテーブル、52C…オブジェクトグループデータテーブル、54…コンテンツ格納モジュール、56…ファイルマネージャ、60…ファイルビューア。
Claims (15)
- 複数の画像ファイルを論理的な記録場所毎に分類して記録する記録手段と、
前記複数の画像ファイルの属性を分析する分析手段と、
前記記録場所毎に、前記属性をもとに代表画像を決定する決定手段と、
前記代表画像を送出する送出手段とを具備する電子機器。 - 前記決定手段は、前記複数の画像ファイルの属性をもとに前記画像ファイルから抽出される代表オブジェクトに基づいて、前記代表画像を決定する請求項1記載の電子機器。
- 前記決定手段は、前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて、前記属性をもとに第1優先度を算出し、前記第1優先度をもとに前記代表オブジェクトを抽出する請求項2記載の電子機器。
- 前記決定手段は、前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて出現状況を判別し、前記出現状況に基づいて前記複数のオブジェクトの第2優先度を算出し、前記第2優先度をもとに前記代表オブジェクトを抽出する請求項2記載の電子機器。
- 前記論理的な記録場所を表すオブジェクトに前記代表画像を付加して表示する表示手段をさらに有する請求項1記載の電子機器。
- 複数の画像ファイルを論理的な記録場所毎に分類して記録し、
前記複数の画像ファイルの属性を分析し、
前記記録場所毎に、前記属性をもとに代表画像を決定し、
前記代表画像を送出する方法。 - 前記複数の画像ファイルの属性をもとに前記画像ファイルから抽出される代表オブジェクトに基づいて、前記代表画像を決定する請求項6記載の方法。
- 前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて、前記属性をもとに第1優先度を算出し、前記第1優先度をもとに前記代表オブジェクトを抽出する請求項7記載の方法。
- 前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて出現状況を判別し、前記出現状況に基づいて前記複数のオブジェクトの第2優先度を算出し、前記第2優先度をもとに前記代表オブジェクトを抽出する請求項7記載の方法。
- 前記論理的な記録場所を表すオブジェクトに前記代表画像を付加して表示する請求項6記載の方法。
- コンピュータを、
複数の画像ファイルを論理的な記録場所毎に分類して記録する記録手段と、
前記複数の画像ファイルの属性を分析する分析手段と、
前記記録場所毎に、前記属性をもとに代表画像を決定する決定手段と、
前記代表画像を送出する送出手段として機能させるためのプログラム。 - 前記決定手段は、前記複数の画像ファイルの属性をもとに抽出される代表オブジェクトに基づいて、前記代表画像を決定するようにコンピュータを機能させるための請求項11記載のプログラム。
- 前記決定手段は、前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて、前記属性をもとに第1優先度を算出し、前記第1優先度をもとに前記代表オブジェクトを抽出するようにコンピュータを機能させるための請求項12記載のプログラム。
- 前記決定手段は、前記複数の画像ファイルに含まれる複数のオブジェクトのそれぞれについて出現状況を判別し、前記出現状況に基づいて前記複数のオブジェクトの第2優先度を算出し、前記第2優先度をもとに前記代表オブジェクトを抽出するようにコンピュータを機能させるための請求項12記載のプログラム。
- コンピュータを、
前記論理的な記録場所を表すオブジェクトに前記代表画像を付加して表示する表示手段としてさらに機能させるための請求項11記載のプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094509A JP2014216943A (ja) | 2013-04-26 | 2013-04-26 | 電子機器、方法、及びプログラム |
US14/067,807 US20140324921A1 (en) | 2013-04-26 | 2013-10-30 | Electronic device, method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094509A JP2014216943A (ja) | 2013-04-26 | 2013-04-26 | 電子機器、方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014216943A true JP2014216943A (ja) | 2014-11-17 |
Family
ID=51790206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013094509A Pending JP2014216943A (ja) | 2013-04-26 | 2013-04-26 | 電子機器、方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140324921A1 (ja) |
JP (1) | JP2014216943A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11169661B2 (en) | 2017-05-31 | 2021-11-09 | International Business Machines Corporation | Thumbnail generation for digital images |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7627831B2 (en) * | 2006-05-19 | 2009-12-01 | Fuji Xerox Co., Ltd. | Interactive techniques for organizing and retrieving thumbnails and notes on large displays |
US7792868B2 (en) * | 2006-11-10 | 2010-09-07 | Microsoft Corporation | Data object linking and browsing tool |
JP4909856B2 (ja) * | 2007-09-27 | 2012-04-04 | 株式会社東芝 | 電子機器および表示方法 |
US20110271275A1 (en) * | 2010-04-28 | 2011-11-03 | Hitachi, Ltd. | Software distribution management method of computer system and computer system for software distribution management |
KR101192439B1 (ko) * | 2010-11-22 | 2012-10-17 | 고려대학교 산학협력단 | 디지털 콘텐츠 검색 장치 및 방법 |
US8635843B2 (en) * | 2011-06-17 | 2014-01-28 | Altria Client Services Inc. | Apparatus and method of harvesting agricultural row crops having biased guide members |
-
2013
- 2013-04-26 JP JP2013094509A patent/JP2014216943A/ja active Pending
- 2013-10-30 US US14/067,807 patent/US20140324921A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140324921A1 (en) | 2014-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10846324B2 (en) | Device, method, and user interface for managing and interacting with media content | |
Rawassizadeh et al. | UbiqLog: a generic mobile phone-based life-log framework | |
US8611678B2 (en) | Grouping digital media items based on shared features | |
US11132333B2 (en) | File access with different file hosts | |
US20150187353A1 (en) | Audio tagging | |
US10455110B2 (en) | Suggesting image files for deletion based on image file parameters | |
US10326905B2 (en) | Sensory and cognitive milieu in photographs and videos | |
US20140293069A1 (en) | Real-time image classification and automated image content curation | |
US20190050426A1 (en) | Automatic grouping based handling of similar photos | |
WO2017113131A1 (zh) | 一种多媒体文件的管理方法、电子设备及图形用户界面 | |
JP4940345B2 (ja) | 電子機器及び画像処理方法 | |
JP6300792B2 (ja) | キャプチャされたデータの強化 | |
US20170364303A1 (en) | Suggesting image files for deletion based on image file parameters | |
CN108369806A (zh) | 可配置的通用语言理解模型 | |
US10606924B2 (en) | Contextual file manager | |
TW201636878A (zh) | 語音添加、播放方法及裝置,圖片分類、檢索方法及裝置 | |
US20170262538A1 (en) | Method of and system for grouping object in a storage device | |
JP2014052915A (ja) | 電子機器、表示制御方法及びプログラム | |
TWI726236B (zh) | 個人雲系統及其相關本地化方法 | |
JP2014216943A (ja) | 電子機器、方法、及びプログラム | |
JP2012235304A (ja) | 電子機器、画像処理方法及びプログラム | |
JP2012088886A (ja) | 表示装置、表示方法、およびプログラム | |
JP2014110469A (ja) | 電子機器、画像処理方法、及びプログラム | |
JP5558187B2 (ja) | 電子機器及び画像処理プログラム | |
KR102289293B1 (ko) | 전자장치에서 콘텐츠 재생 방법 및 장치 |