JP2010055424A - 画像を処理する装置、方法およびプログラム - Google Patents

画像を処理する装置、方法およびプログラム Download PDF

Info

Publication number
JP2010055424A
JP2010055424A JP2008220507A JP2008220507A JP2010055424A JP 2010055424 A JP2010055424 A JP 2010055424A JP 2008220507 A JP2008220507 A JP 2008220507A JP 2008220507 A JP2008220507 A JP 2008220507A JP 2010055424 A JP2010055424 A JP 2010055424A
Authority
JP
Japan
Prior art keywords
image
content
selection
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008220507A
Other languages
English (en)
Inventor
Tokuhiro Nakamura
徳裕 中村
Yasukazu Higuchi
靖和 樋口
Shinko Sekine
真弘 関根
Norio Mihara
功雄 三原
Yasuaki Yamauchi
康晋 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008220507A priority Critical patent/JP2010055424A/ja
Priority to US12/461,761 priority patent/US20100057722A1/en
Publication of JP2010055424A publication Critical patent/JP2010055424A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】順次選択される画像に関連する画像をより適切に選択可能な画像処理装置を提供する。
【解決手段】過去に選択された画像と選択順序とを特定可能な履歴情報を記憶する選択履歴記憶部122と、コンテンツ記憶部121のいずれかの画像を表す第1画像を選択する対象コンテンツ選択部101と、メタデータを用いて第1画像と第2画像との関連度を算出する関連度算出部104と、履歴情報に基づいて第1画像の前に選択された第2画像を特定し、特定した第2画像と関連度に関する選択条件を満たす第2画像とを選択する表示コンテンツ選択部105と、第1画像を選択可能な第1選択情報と選択された第2画像を選択可能な第2選択情報とを表示装置200に表示するための情報であって、関連度が大きい第2画像の第2選択情報ほど、第1選択情報の近くに表示する出力情報を生成する出力情報生成部106と、を備えた。
【選択図】 図1

Description

この発明は、複数の画像から選択した画像を、関連する他の画像とともに表示するための情報を生成する装置、方法およびプログラムに関する。
PCでは、検索機能は日常の業務で幅広く用いられている一般的な機能となっている。例えば、Webサービスプロバイダが提供しているWeb検索は万人に幅広く用いられている。通常、PCによる検索では、調べる対象を検索キーワードとして入力するといったように、ユーザが自ら積極的に、能動的に検索を実行する。
現在、テレビ、DVDレコーダ、HDDレコーダといったAV機器もIT化が進んできており、これらの機器がインターネットに接続できるようになってきた。これにともない、AV機器でも、PCと同様の検索機能が提供されるようになっている。AV機器に提供されている検索機能は、PCと同様、能動的な検索機能である。
しかし、AV機器のコンテンツ保存能力の拡大、ビデオオンデマンド(VOD)などのサービスの拡大、および、自装置内のコンテンツだけでなく他のAV機器内のコンテンツとのシームレス性の拡大、さらには、インターネットに存在するコンテンツとのシームレス性の拡大などにより、ユーザがアクセス可能なコンテンツ数は、急速に爆発的に増加している。
また、HDDレコーダの普及により、ユーザのコンテンツの獲得スタイルおよび視聴スタイルが変化している。すなわち、ユーザが視聴を望むコンテンツのみを選択して録画するという能動的な録画スタイルから、とりあえず興味のあるものは録画しておき、その中から取捨選択するというスタイル、または、お勧めサービスやお任せ録画サービスなどを用いた非能動的な録画スタイルへ変化している。このような非能動的なスタイルへの変更に伴い、ユーザがアクセス可能なコンテンツは、必ずしもユーザが把握していないものを多く含むという時代となってきた。
このような状況では、機器からアクセス可能な多量のコンテンツの中から、ユーザの希望に沿ったコンテンツに如何に辿り着くかが重要となってきている。例えば、ユーザは、必ずしもアクセス可能な多量のコンテンツの内容を把握しているわけではない。このため、能動的な検索機能を用いて検索しようとしても、何をキーワードとして検索したらよいかが分からない場合もある。すなわち、AV機器では、従来のような能動的な検索機能によるコンテンツの検索では、所望のコンテンツに辿り着くのは困難となっている。
また、AV機器のユーザがPCの操作に精通しているとは限らない。すなわち、AV機器のユーザが、PCの世界では普通であるキーワード入力型の能動的な検索に馴染みがあるとは言い難い。このような状況のため、AV機器の能動的な検索は一部のユーザのみに使われる機能となっており、余り普及している検索方法とは言い難いのが現状である。
この状況の解決策として、能動的な検索ではなく、ユーザの状況に応じて、ユーザが望むと思われるコンテンツが自動的に検索され、検索結果を直観的に理解しやすい方法で提示できるように改善した受動的な検索機能を提供するということが考えられる。例えば、あるコンテンツと関連があるコンテンツを検索して提示し、提示したコンテンツから所望のコンテンツをユーザに選択させるという方法である。これは、視聴するコンテンツをユーザがキーワードなどを用いて積極的に(能動的に)探すのではなく、あるコンテンツを元として検索したコンテンツの関連性をユーザに提示することで、暗示的にユーザにコンテンツ検索を行わせようという方法である。結果的に、ユーザは、自分の興味のあるコンテンツを明示的な検索無しに検索することができる。
このようにコンテンツを受動的に検索する方法では、コンテンツ同士の関連性をユーザに可視化することが非常に重要であると考えられる。ユーザは、受動的に検索されたコンテンツから、可視化された関連性を参照していずれかのコンテンツを選択することにより、機器からアクセス可能な多量に存在しているコンテンツから所望のコンテンツに辿り着くことが可能となる。
写真の分野では、デジタルカメラなどで撮影した多量の写真を可視化する技術が存在している。例えば、特許文献1は、多量の写真を空間内に可視化する技術が提案されている。これは、複数の画像の時系列的な関係を表すため、画像を時系列順に順次拡大し、この拡大した画像が内周側より時系列の順序でらせん状に表示する技術である。これにより、時系列により連続する多くの画像について、前後関係を容易に理解することができるようになる。
国際公開第WO 00/33572号パンフレット
しかしながら、特許文献1の方法は、時系列順に画像を表示するのみであり、関連するコンテンツを適切に検索して表示するものではない。
本発明は、上記に鑑みてなされたものであって、選択される画像に関連する画像をより適切に選択することができる装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、複数の画像と、前記画像のメタデータとを記憶する画像記憶部と、前記画像記憶部に記憶された画像のうち、いずれかの画像を表す第1画像を順次選択する第1選択部と、前記第1選択部によって選択された画像と、画像が選択された順序とを特定可能な履歴情報を記憶する選択履歴記憶部と、前記第1画像のメタデータと、前記画像記憶部に記憶された画像のうち前記第1画像以外の画像のメタデータとに基づいて、前記第1画像と前記第1画像以外の画像とが関連する度合いを表す関連度を算出する関連度算出部と、前記履歴情報に基づいて、少なくとも前記第1画像の1つ前に選択された画像と、前記関連度に関する予め定められた第1選択条件を満たす画像と、を表す第2画像を選択する第2選択部と、前記第1画像を選択可能な第1選択情報と、選択された前記第2画像を選択可能な第2選択情報とを表示装置に表示するための情報であって、前記関連度が大きい前記第2画像の前記第2選択情報ほど、前記第1選択情報の近くに表示する出力情報を生成する生成部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法およびプログラムである。
本発明によれば、順次選択される画像に関連する画像をより適切に選択することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる装置、方法およびプログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる画像処理装置は、コンテンツに関する所定の情報を用いて時系列以外のコンテンツ間の関連性を算出し、関連性が大きいコンテンツを、ユーザが興味を示すコンテンツの候補として表示するという比較例に対して、より適切にコンテンツを選択する。
比較例では、例えばユーザが選択したコンテンツに付加された情報を元に、他のコンテンツの対応する情報との関連度を算出し、関連度が大きい関連コンテンツを求めてユーザに提示する。提示された関連コンテンツのうちいずれかの関連コンテンツをユーザがさらに選択すると、選択された関連コンテンツに関連する関連コンテンツをさらに検索して提示する。通常は、あるコンテンツに対して表示された関連コンテンツを選択すれば、元のコンテンツは選択された関連コンテンツに対する関連コンテンツとして表示される。このため、ユーザは、元のコンテンツに戻って別の関連コンテンツを選択することなどが可能である。
しかし、関連性の算出方法によっては、元のコンテンツが関連コンテンツとして検索されず、ユーザが元のコンテンツに戻れない場合があった。例えば、ユーザが選択したコンテンツに付加されている情報を元に、他のコンテンツの対応する情報と比較して関連性を求める方法では、同じ2つのコンテンツ間の関連性であっても、いずれのコンテンツを基準とするかによって関連性の値が変化しうる。この結果、元のコンテンツの関連性の値が他のコンテンツの関連性の値より相対的に小さくなり、表示個数の制限等により、元のコンテンツが関連コンテンツとして表示されなくなる場合がある。
この結果、ユーザは、順次選択されるコンテンツ間の関連性を的確に把握して所望のコンテンツを選択することができない場合が生じうる。
これに対し、第1の実施の形態にかかる画像処理装置は、選択されたコンテンツの履歴を記憶し、記憶された履歴を参照することにより、選択されたコンテンツに関連するコンテンツとして、過去に選択されたコンテンツを選択する。これにより、ユーザは直前に選択したコンテンツに戻ることが可能となり、順次選択されるコンテンツに関連するコンテンツを適切に選択することができる。
第1の実施の形態の画像処理装置100は、例えば、TV番組や映画などの動画像コンテンツを録画可能なHDDレコーダとして実現することができる。なお、適用可能な装置はHDDレコーダーに限られるものではない。また、処理対象となるコンテンツは動画像コンテンツに限られるものではなく、静止画像コンテンツを処理対象とするように構成してもよい。以下では、主に動画像コンテンツを処理対象とする例について説明する。
図1は、第1の実施の形態にかかる画像処理装置100の構成を示すブロック図である。図1に示すように、画像処理装置100は、コンテンツ記憶部121と、選択履歴記憶部122と、対象コンテンツ選択部101と、第1メタデータ取得部102と、第2メタデータ取得部103と、関連度算出部104と、表示コンテンツ選択部105と、出力情報生成部106と、を備えている。
コンテンツ記憶部121は、動画像コンテンツデータと、動画像コンテンツデータに付随する情報であるメタデータとを記憶する。例えば、画像処理装置100をHDDレコーダとして実現する場合、コンテンツ記憶部121は、HDDの所定の領域にTV番組を動画像コンテンツとして録画したり、録画したコンテンツを取得したりできるデータベースに相当する。コンテンツ記憶部121は、ユーザが録画した動画像コンテンツ群が蓄積される。ユーザは、コンテンツ記憶部121から所望の動画像コンテンツを取得して視聴する。
図2は、コンテンツ記憶部121に記憶されるデータのデータ構造の一例を示す図である。図2に示すように、コンテンツ記憶部121は、コンテンツを識別するコンテンツIDと、コンテンツの実体データと、コンテンツのメタデータとを対応づけたデータを記憶する。
コンテンツの実体データの格納形式は特に限定されるものではない。例えば、TV番組などのコンテンツが、MPEG2やH.264などのコーデックを用いてエンコードされたファイルとして格納される。なお、実体データをコンテンツIDと対応づけて別の記憶部に記憶するように構成してもよい。
メタデータは、例えば、TV番組の動画像コンテンツに付加されたEPGなどから取得した情報を記憶する。EPGは、インターネットやデータ放送などを通じて得ることが可能な電子番組表データである。EPGには、例えば、TV番組の放送日時、放送チャンネル、番組タイトル、サブタイトル、番組概要、番組ジャンル、出演者リスト、および制作者情報などの番組に関係する様々な情報が含まれる。コンテンツ記憶部121は、このようなEPGから取得した情報をメタデータとしてコンテンツと対応づけて記憶する。
また、メタデータは、コンテンツ記憶部121に動画像コンテンツを記憶した日時を表す録画日時、および録画条件なども記憶する。このようなメタデータは、画像処理装置100がコンテンツを録画するときに、EPG等を参照してタグ情報化し、動画像コンテンツの実体データに付随させてコンテンツ記憶部121に蓄積される。
また、VODサービスやネットワーク上の動画像共有サービスの場合、このようなメタデータが動画像コンテンツの実体データのタグ情報として予め埋めこまれた状態で、サービス提供者からネットワーク回線などを通じてHDDレコーダなどの画像処理装置100に配信され、コンテンツ記憶部121に蓄積されることもありうる。
図2では、メタデータとして、録画日時、コンテンツのタイトル、チャンネル、ジャンルおよび出演者リストを記憶した例が示されている。なお、メタデータとして記憶可能な情報はこれに限られるものではない。例えば、ユーザが入力した情報をメタデータとして蓄積するように構成してもよい。
また、動画像コンテンツはTV番組に限られるものではないし、メタデータもEPGから得られる情報に限定されるものではない。また、コンテンツ記憶部121は、HDDだけでなく、DVD−RAM、光ディスク、メモリカードなどの一般的に利用されているあらゆる記憶媒体により構成することができる。
さらに、コンテンツ記憶部121がデータを取得して蓄積するための領域は1つに限定されるものではなく、HDDやDVD−RAMなどにまたがった領域に蓄積されていてもよい。また、データベースシステムなどから所定の取得処理によって取り出すことが可能であれば、複数の異なる領域にまたがって蓄積されていてもよい。すなわち、複数の領域にデータが記憶されている場合であっても、1つの領域にデータが記憶されている場合と同様に、単一の作業で所望のデータにアクセス可能となっていればよい。また、データを蓄積する領域が画像処理装置100内に存在する必要はなく、例えば、ネットワーク接続された別のHDD等にアクセスすることで、データの蓄積や取得を実行するように構成してもよい。
選択履歴記憶部122は、コンテンツ記憶部121に記憶されたコンテンツのうち、後述する対象コンテンツ選択部101によって処理対象コンテンツとして選択されたコンテンツと選択された順序とを特定可能な履歴情報を記憶する。例えば、選択履歴記憶部122は、選択されたコンテンツのコンテンツIDを、選択された順に記憶する。
ここで、処理対象コンテンツとは、関連するコンテンツを検索する基準となるコンテンツを意味する。選択履歴記憶部122は、過去に処理対象コンテンツとして選択されたコンテンツのコンテンツIDを選択された順で時系列に記憶する。図3は、選択履歴記憶部122に記憶される履歴情報のデータ構造の一例を示す図である。図3に示すように、履歴情報は、コンテンツIDを含む。
なお、履歴情報は上記の形式に限られるものではなく、選択されたコンテンツと、選択された順序とが特定可能な形式であればどのような形式であってもよい。また、選択履歴記憶部122に記憶されるデータは上記に限られず、タイトル名および番組概要などのコンテンツ記憶部121に記憶されているメタデータを同時に記憶するように構成してもよい。
また、選択履歴記憶部122に記憶されるコンテンツ数(記憶コンテンツ数)を制限するように構成してもよい。記憶コンテンツ数は、例えば、システムの初期設定やユーザからの設定変更などによって決定する。記憶コンテンツ数をN(1以上の整数)とした場合、N+1回目の処理対象コンテンツの履歴情報を記憶すると同時に、過去に記憶したコンテンツの履歴情報、例えば1回目に記憶した最も古いコンテンツの履歴情報を選択履歴記憶部122から削除することにより、記憶されるコンテンツ数を調整する。
なお、選択されたコンテンツが必ず記憶されるように構成する必要はない。例えば、記憶対象のコンテンツが選択された時点で、選択されたコンテンツの履歴情報が既に選択履歴記憶部122に記憶されているか否かを調べ、記憶されていない場合に追加するという方法でもよい。この場合、同一コンテンツの履歴情報が選択履歴記憶部122に2つ以上含まれることはなく、既に記憶されている履歴情報が優先されることになる。
これに対し、選択されたコンテンツの履歴情報が既に選択履歴記憶部122に記憶されている場合に、記憶済みの履歴情報を削除し、選択されたコンテンツの履歴情報を追加するという方法でもよい。この場合、新たに選択されたコンテンツの履歴情報が優先されることになる。なお、以下では、選択履歴記憶部122に履歴情報が記憶されているコンテンツを「履歴コンテンツ」と呼ぶ。
対象コンテンツ選択部101は、コンテンツ記憶部121から、所定の選択条件を満たす1つの動画像コンテンツを処理対象コンテンツとして選択する。選択条件としては、例えば、視聴状態のコンテンツを処理対象コンテンツとして選択し、視聴状態のコンテンツが存在しない場合は、最後に視聴したコンテンツを処理対象コンテンツとして選択するという条件を用いることができる。
また、選択条件として、所定の時間経過ごとに、現在の処理対象コンテンツに対する関連度(後述)が最も大きいコンテンツを、次の処理対象コンテンツとして選択するという条件を用いてもよい。このとき、同じジャンルのコンテンツを対象とするように構成してもよい。
また、ユーザが表示装置200のGUI(グラフィカルユーザインタフェース)などを用いて表示画面上で選択したコンテンツを処理対象コンテンツとして選択する選択条件を用いてもよい。例えば、表示装置200の表示画面上に表示された、録画されたコンテンツのリストから、リモコンなどを用いてユーザが選択したコンテンツを処理対象コンテンツとして選択するように構成することができる。
また、上述のお勧めサービスやお任せ録画サービスと同様の手法により、事前に設定されたユーザのプロファイルなどを参照し、ユーザの嗜好に沿ったコンテンツを選択するという選択条件を用いてもよい。例えば、ユーザが、ユーザプロファイルとして、視聴を希望するコンテンツを「サッカー番組」などと指定しておく。対象コンテンツ選択部101は、指定された情報を参照し、コンテンツ記憶部121から、「サッカー番組」であるコンテンツを処理対象コンテンツとして選択する。
また、ユーザの操作履歴を記憶しておき、操作履歴を参照することにより、ユーザが最も頻繁に閲覧している番組などを選択する、という選択条件を用いてもよい。このように、コンテンツ記憶部121に記憶されたコンテンツのうち、特定のコンテンツを選択できるものであれば、あらゆる選択条件を利用することができる。
第1メタデータ取得部102は、対象コンテンツ選択部101によって選択された処理対象コンテンツのメタデータを、コンテンツ記憶部121から取得する。また、第1メタデータ取得部102は、取得したメタデータにコンテンツを代表する画像情報(以下、コンテンツ代表画像という)が含まれていない場合に、コンテンツ代表画像を生成する。第1メタデータ取得部102は、例えば動画像コンテンツの先頭のフレームをコンテンツ代表画像として生成する。なお、コンテンツ代表画像の生成方法はこれに限るものではなく、例えば、カット検出により検出されたフレームをコンテンツ代表画像としてもよい。
第2メタデータ取得部103は、後述する関連度算出部104の指示に従い、指定された動画像コンテンツのメタデータをコンテンツ記憶部121から取得する。具体的には、第2メタデータ取得部103は、対象コンテンツ選択部101が選択した処理対象コンテンツ以外のコンテンツのメタデータを、コンテンツ記憶部121から取得する。取得したメタデータは、関連度算出部104がコンテンツ間の関連度を算出するときに参照される。
また、第2メタデータ取得部103は、第1メタデータ取得部102と同様に、取得したメタデータにコンテンツ代表画像が含まれていない場合は、処理対象コンテンツのコンテンツ代表画像を生成する。
関連度算出部104は、第1メタデータ取得部102で取得された処理対象コンテンツのメタデータと、第2メタデータ取得部103で取得された各コンテンツのメタデータと、を用いて、処理対象コンテンツと他のコンテンツとが関連する度合いを表す関連度を算出する。
関連度算出部104は、まず、処理対象コンテンツを、関連度の算出対象コンテンツ(算出対象コンテンツ1)として決定する。そして、関連度算出部104は、算出対象コンテンツ1のメタデータ(以下、メタデータ1という)を、第1メタデータ取得部102を用いて取得する。
次に、関連度算出部104は、処理対象コンテンツ以外の1つのコンテンツを、関連度の算出対象コンテンツ(算出対象コンテンツ2)として決定する。そして、関連度算出部104は、算出対象コンテンツ2のメタデータ(以下、メタデータ2という)を、第2メタデータ取得部103を用いて取得する。なお、後述する表示コンテンツ選択部105が算出対象コンテンツ2を決定し、関連度算出部104に対して関連度の算出を指示するように構成してもよい。
この結果、算出対象コンテンツ1および算出対象コンテンツ2の録画日時、録画条件、コンテンツのタイトル、サブタイトル、コンテンツの放送日時、放送チャンネル、ジャンル、コンテンツの概要・詳細内容、出演者リストや内容、制作者の情報などといった情報が、それぞれメタデータ1およびメタデータ2として取得される。
そして、関連度算出部104は、メタデータ1とメタデータ2とを比較することで、算出対象コンテンツ1(処理対象コンテンツ)と算出対象コンテンツ2との関連度を算出する。
関連度算出部104は、以下の(1)式を用いて関連度を算出する。
Figure 2010055424
ここで、Nは、コンテンツ記憶部121に記憶されたメタデータの種類の総数を表す。メタデータ(n)は、コンテンツ記憶部121に記憶された複数のメタデータのうちn(n=1,...,N)番目のメタデータを表す。y=f(x1,x2)はメタデータx1とメタデータx2との関連度をyとして返す関数を表す。wは重みを示す値である。
メタデータの種類は、上述の通り多岐に渡るが、以降では説明を簡単にするために、コンテンツ記憶部121には、{録画日時、タイトル、放送チャンネル、ジャンル、出演者リスト}の5つの種類のメタデータが記憶されているものとして説明する。
この場合、関連度は、
=f(メタデータ1の録画日時,メタデータ2の録画日時)
=f(メタデータ1のタイトル,メタデータ2のタイトル)
=f(メタデータ1の放送チャンネル,メタデータ2の放送チャンネル)
=f(メタデータ1のジャンル,メタデータ2のジャンル)
=f(メタデータ1の出演者リスト,メタデータ2の出演者リスト)
の重み付き線形和で表現される。
以下に、fからfの具体例についてそれぞれ説明する。
は、例えば、録画日時が近いほど大きな値をとり、遠いほど小さな値を取る関数である。具体的には、例えば、f=CO1/|diff(rec_date(メタデータ1)−rec_date(メタデータ2))|などを用いることができる。ここで、rec_date(x)は、メタデータxの録画日時を一意に整数化する関数である。例えば、ある基準日時を0とし、基準日時からの経過秒数などに整数化する関数を用いることができる。
また、CO1は予め定められた任意の定数を表す。|X|はXの大きさを示す関数であり、典型的には絶対値を表す。なお、ここでは、f(メタデータ1,メタデータ2)=g(diff(rec_date(メタデータ1)−rec_date(メタデータ2)))とした場合に、g(x)=CO1/|x|で表される関数gを用いた例を示したが、利用可能な関数はこれに限定されるものではない。
例えば、g(x)=CO1/||x||のように、L2ノルムなどを使用するような関数gを用いてもよい。この際、||x||は、典型的には、xを構成するそれぞれの要素の差の自乗合計の平方根をとったものを表す。
また、g(x)は、シグモイド関数のようなものでもよいし、ガンマ関数のようなものでもよい。また、これまでの説明では、メタデータ1とメタデータ2とが近い場合に大きな値をとる関数を用いる例を示したが、これに限定されるものではない。すなわち、両者が近い場合に小さな値をとるような関数を用いてもよい。また、特定の条件の時に大きな値をとるような関数gを用いることもできる。
は、例えば、メタデータ1とメタデータ2のタイトル文字列に同様の文字列が多く含まれているほど大きな値をとるような関数で実現される。例えば、メタデータ1のタイトルが「あいうえお」であり、メタデータ2のタイトルが「かきうえこ」の場合、「うえ」の2文字が両者に含まれている。一方、メタデータ1のタイトルが「あいうえお」であり、メタデータ2のタイトルが「かきくけお」の場合、「お」の1文字が両者に含まれている。このため、前者の例の方がfの値が大きくなる。
以上では、単純に両者に含まれている文字数の比較で値を求める関数fの例を示したが、適用可能な関数はこれに限定されるものではない。例えば、先頭から共通する文字列の文字数が多い方をより大きな値をとる関数を用いてもよい。また、同様の概念を含む文字列を共通の文字列とみなすような関数を用いてもよい。例えば、「野球」と「ベースボール」とを同様の概念の文字列とみなし、これらが比較するタイトルのそれぞれに含まれている場合は、共通文字列が含まれていると判断する関数を用いることができる。
また、タイトルに含まれるメインの文字列とサブの文字列とをそれぞれ比較し、サブの文字列が異なる場合には、他の場合より大きい値を算出する関数fを用いてもよい。メインの文字列が一致し、サブの文字列が異なる場合は、共通のシリーズのコンテンツであることが多いためである。例えば、「あいうえお#2」と、「あいうえお#3」とは、同じドラマコンテンツの異なる回であるとみなせる。このため、このような場合に、fが例えば2倍の値を出力するように構成することができる。
なお、以上の説明は一例であり、曖昧検索や、正規表現による検索などの技術を用いて、より高度な比較を行うことも可能である。
は、例えば、メタデータ1とメタデータ2の放送チャンネルが同じ場合は大きな値ととるような関数である。例えば、放送チャンネルが同じ場合に値CO2を出力し、それ以外の場合に値0を出力する関数として実現できる。ここで、CO2は予め定められた任意の定数である。
これをさらに拡張し、同系列のチャンネルの場合には、別の値を出力する関数を用いてもよい。例えば、メタデータ1の放送チャンネルおよびメタデータ2の放送チャンネルが、それぞれ「NHK第1」および「NHK教育」の場合は、同系列のチャンネルであり、同じ地上波メディアであるため、CO2/2を返すように関数fを構成してもよい。
「NHK第1(地上波)」と「NHK BSハイビジョン(BS放送波)」の場合は、同系列のチャンネルだが放送メディアが異なるため、CO2/4を返すように関数fを拡張してもよい。なお、以上で説明した手法は一例であり、チャンネル間の関連度を返す関数であれば任意の関数を用いることが可能である。
は、例えば、メタデータ1とメタデータ2のジャンルが同じ場合は大きな値をとるような関数である。例えば、メタデータ1のジャンルとメタデータ2のジャンルが一致する場合に予め定められた定数値である値CO3を出力し、一致しない場合に値0を出力する関数を用いることができる。さらに、ジャンル間の階層関係に応じて関連度を算出するような関数を用いてもよい。例えば、メタデータ1のジャンルが「スポーツ」であり、メタデータ2のジャンルが「野球」である場合、「野球」は「スポーツ」の下位のジャンル(サブジャンル)と判定できるため、CO3/2を関連度として出力するように構成することができる。また、例えば、メタデータ1のジャンルが「野球」であり、メタデータ2のジャンルが「サッカー」である場合、「野球」と「サッカー」の上位のジャンル(親ジャンル)が共に「スポーツ」で共通すると判定できるため、CO3/4を関連度として出力するように構成することができる。なお、以上で説明した手法は一例であり、ジャンル間の関連度を返す関数であれば任意の関数を用いることが可能である。
は、例えば、メタデータ1とメタデータ2の出演者リストに共通する出演者の人数が多いほど大きい値を出力する関数である。例えば、(共通する出演者の人数)×CO4を出力する関数fを用いることができる。なお、CO4は予め定められた任意の定数値を表す。例えば、メタデータ1の出演者リストおよびメタデータ2の出演者リストが、それぞれ「WW,XX,YY」および「XX,YY,ZZ」の場合、共通する出演者は2人であるため、関数fは2×CO4を出力する。また、メタデータ1の出演者リストおよびメタデータ2の出演者リストが、それぞれ「VV,WW,XX」および「XX,YY,ZZ」の場合、共通する出演者は1人であるため、関数fは1×CO4を出力する。また、共通の出演者が居ない場合には関数fは0を出力する。
なお、出演者リストには、個人だけでなく、複数の個人からなるグループも含まれうる。このため、例えば、ある出演者SがグループXXのメンバであり、メタデータ1の出演者リストが「VV,WW,XX」、メタデータ2の出演者リストが「S,YY,ZZ」であった場合に、関数fがCO4/2を出力するように構成してもよい。メタデータ1の出演者リストには出演者Sが含まれていないが、SをメンバとするグループXXが含まれるため、出演者Sが出演しているとみなせるためである。
同様に、例えばグループXXとグループYYが同じ事務所に所属する場合などのように、出演グループや出演者間に何らかの関係が定義される場合に、CO4/4を出力するように関数fを拡張してもよい。この場合、出演者(出演グループ)間の関係は、メタデータに定義されていてもよいし、コンテンツ記憶部121に予め記録してもよいし、外部の情報サイト等から取得するように構成してもよい。
また、出演者リストに出現する順番によって重み付けした関連度を算出するように構成してもよい。例えば、メタデータ1のk番目に記載されている出演者と一致する場合に、1/kを重み付け係数として関連度を算出する関数を用いてもよい。すなわち、メタデータ1の1番目に記載されている出演者と一致する場合は算出した関連度をそのまま出力する。また、2番目に記載されている出演者と一致する場合は算出した関連度に1/2を乗じて出力する。また、3番目に記載されている出演者と一致する場合は算出した関連度に1/3を乗じて出力する。
さらに、メタデータ1内での順番とメタデータ2内での順番を共に加味して関連度を算出するように構成してもよい。例えば、メタデータ1の2番目の出演者とメタデータ2の3番目の出演者とが一致する場合、算出した関連度に1/6=1/2×1/3を乗じて出力するようにしてもよい。
また、出演者が主演者であることを表すメタデータをさらに利用して関連度を算出するように構成してもよい。例えば、一致した出演者が主演者の場合には算出した関連度を2倍して出力するといったように、主演者に対する関連度の重み付けを変えるようにしてもよい。
以上で説明したような関数fからfと(1)式から、関連度を算出することができる。なお、上記関数は一例であり、2つの値の相関関係を表す関数であれば従来から用いられているあらゆる関数を使用することが可能である。
例えば、画像に関する所定の情報のヒストグラムを算出し、ヒストグラムの相関関係から関連度を算出するように構成してもよい。すなわち、算出対象コンテンツ1の任意のフレームを表す画像のヒストグラムと、算出対象コンテンツ2の任意のフレームを表す画像のヒストグラムとを算出し、両者の相関の強さに重みを掛け合わせた値を関連度として用いてもよい。なお、ヒストグラムを求める情報としては、例えば画像の輝度などの従来から用いられているあらゆる情報を適用できる。
また、関連度は単独の方法で算出されたものに限る必要はない。例えば、複数の方法で算出された関連度を、ユーザの指定、または予め設定されたプロファイルによって定義される重みを利用した重み付き線形和で合成してもよい。
表示コンテンツ選択部105は、選択履歴記憶部122に記憶されている履歴情報と、関連度算出部104によって算出された関連度とを参照し、表示装置200に表示する対象となる表示コンテンツを選択する。
具体的には、表示コンテンツ選択部105は、まず、選択履歴記憶部122に履歴情報が記憶されている履歴コンテンツを表示コンテンツとして選択する。表示コンテンツ選択部105は、処理対象コンテンツとともに、少なくとも処理対象コンテンツの1つ前に選択された履歴コンテンツを表示コンテンツとして選択する。これにより、ユーザは表示されたコンテンツから直前に選択したコンテンツを選択し、直前に選択したコンテンツに戻ることが可能となる。
さらに、表示コンテンツ選択部105は、関連度算出部104によって算出された関連度が所定の選択条件を満たすコンテンツを、表示コンテンツとして選択する。表示コンテンツ選択部105は、表示コンテンツの個数の上限を定めた上限値から、選択した履歴コンテンツの個数を減算した個数のコンテンツを、関連度が大きい順に選択するという選択条件を用いる。なお、選択条件はこれに限られるものではない。例えば、さらに関連度が所定の閾値より大きいコンテンツを対象として表示コンテンツを選択するように構成してもよい。
出力情報生成部106は、選択された表示コンテンツを表示装置200に表示するための出力情報を生成する。具体的には、出力情報生成部106は、表示装置200上で選択可能なように表示コンテンツそれぞれを可視化した複数の選択情報を生成し、選択情報を所定の基準で配置して表示するための出力情報を生成する。このとき、出力情報生成部106は、処理対象コンテンツに対する関連度が大きいコンテンツの選択情報ほど、処理対象コンテンツの選択情報の近くに配置するように表示する出力情報を生成する。これにより、ユーザは、コンテンツ間の関連を適切に判断し、所望のコンテンツをさらに選択することが可能となる。
出力情報生成部106は、さらに詳細な構成として、表示コンテンツ配置部106aと、空間可視化部106bとを備えている。
表示コンテンツ配置部106aは、第2メタデータ取得部103によって取得されたメタデータを用いて、選択された表示コンテンツを所定の空間に配置して可視化する。
図4は、可視化した表示コンテンツの一例を示す図である。図4に示すように、表示コンテンツ配置部106aは、矩形で表現される背景400の上に、コンテンツ代表画像401、番組タイトル402、録画日時403、および放送チャンネル名404を重ねることによって表示コンテンツを可視化する。これらの情報は、第2メタデータ取得部103によって取得される。
以降では、同図に示すように、背景400、コンテンツ代表画像401、番組タイトル402、録画日時403、および放送チャンネル名404を可視化する要素(メタデータ)として使用する例を用いて説明を行う。なお、可視化する要素はこれに限定されるものではない。また、各要素のレイアウトも同図に示すレイアウトに限定されるものではない。
表示コンテンツ配置部106aは、例えば、CG(コンピュータグラフィックス)技術を用いて、図4のように各要素がレイアウトされた状態で可視化できるようにする。具体的には、表示コンテンツ配置部106aは、まず、背景400の表示サイズに大きさ合わせた板状のポリゴンを用意する。そして、同図のようなレイアウトになるように、ポリゴンの表面の一部(または全部)にコンテンツ代表画像401をテクスチャマッピングする。
また、表示コンテンツ配置部106aは、番組タイトル402、録画日時403、および放送チャンネル名404といった文字情報については、まず、これらの文字情報を可視化した画像をテクスチャ画像としてそれぞれ生成する。そして、表示コンテンツ配置部106aは、生成したテクスチャ画像を所定の位置に所定のサイズ(ポリゴンの表面の一部)でテクスチャマッピングする。
文字情報の可視化には色々な方法が存在するが、例えば、ベクトルデータで表現された文字データをCGのシェーダ技術を用いてテクスチャデータとして可視化(レンダリング)する技術などを使用して実現することが可能である。
なお、以上で説明した文字の可視化の手法は一例であり、これに限定することなく既存のあらゆる手法を用いることが可能である。また、背景400を所定の色で塗るように構成してもよいし、テクスチャマッピングによって所定の画像を貼ってもよい。また、メタデータに応じて背景400を変更するように構成してもよい。例えば、メタデータのジャンルを参照し、コンテンツのジャンルがスポーツの場合は背景400を青く塗り、ジャンルがドラマの場合は背景400を黄色に塗るというように構成してもよい。
このように、表示コンテンツ配置部106aは、コンテンツ記憶部121から取得したメタデータを視覚的に表現することにより、表示コンテンツを可視化する。そして、上記のような例の場合、ユーザは、可視化された表示コンテンツを見ることにより、コンテンツのジャンル、タイトル名、録画日時、放送チャンネル、およびコンテンツの内容を確認することができる。以下では、可視化された表示コンテンツを「可視化コンテンツ」と呼ぶ。
可視化コンテンツは、表示装置200に表示された場合、ユーザによって選択することができる。すなわち、ユーザは、表示された可視化コンテンツのいずれかを選択することにより、次に処理対象コンテンツとするコンテンツを指定することができる。したがって、可視化コンテンツが上述の選択情報に相当する。
さらに、表示コンテンツ配置部106aは、選択された表示コンテンツそれぞれを可視化した複数の可視化コンテンツを所定の空間に配置する。図5は、可視化コンテンツを3次元空間内に配置した例を示す図である。
図5に示すように、可視化コンテンツ201や可視化コンテンツ202を含む複数の可視化コンテンツが、3次元空間内に配置される。なお、同図は、可視化コンテンツ群を配置した3次元空間を上方(Z軸の正側の遠方)から観察した場合の図を示している。
表示コンテンツ配置部106aは、可視化コンテンツそれぞれを、3次元空間内に3次元的に配置する。このため、3次元空間を観察する視点を変えれば、同じ配置でも異なった形式で可視化コンテンツが観察される。図6は、図5と異なる視点から観察した場合の可視化コンテンツの配置例を示す図である。図6は、図5と同じ3次元空間に対して図5と同様に配置した可視化コンテンツ群を、異なる視点(空間の前方、すなわちy軸正側の遠方よりややZ軸正側)から観察した場合の図を示している。
なお、表示コンテンツ配置部106aによる関連度に応じた表示コンテンツの配置処理の詳細については後述する。
空間可視化部106bは、表示コンテンツ配置部106aで生成および配置された可視化コンテンツ群が含まれる空間の様子を所定の視点条件で可視化する。空間可視化部106bは、まず、空間可視化用のパラメータを設定する。具体的には、空間可視化部106bは、空間をどのような方向から可視化するかを設定する。CG的に言えば、空間可視化部106bは、空間をレンダリングするためのカメラ(視点)位置、方向、および範囲などのパラメータの設定などを行う。
また、空間可視化部106bは、必要に応じて空間のレンダリングのための光源の位置、光源の強さ、および範囲などのパラメータも同時に設定する。また、空間可視化部106bは、レンダリングの際の可視化範囲、およびレンダリング手法などを設定する。レンダリング手法の設定方法としては、様々な方法が考えられる。例えば、まず、シェーダプログラムを用いて、予めいくつかのレンダリング手法を定義しておく。そして、空間可視化部106bが、定義されたレンダリング手法から、ユーザ入力、または、システム設定値などを参照して使用するレンダリング手法を決定する。そして、空間可視化部106bは、決定したレンダリング手法を定義したシェーダプログラムをグラフィックス処理専用のハードウェアであるGPU(Graphics Processing Unit)に設定する。
このようにして空間可視化用のパラメータを設定した後、空間可視化部106bは、空間の可視化を実行する。具体的には、空間可視化部106bは、設定したCGパラメータに従って、CG空間をレンダリングする。これにより、表示コンテンツ配置部106aによって3次元空間内に配置された可視化コンテンツ群の様子が可視化される。
また、例えば、ボリュームシャドーというCGの技術を用いれば、可視化コンテンツが前後に重なっている場合に、奥のコンテンツ部分に、手前のコンテンツの影を落とすことも可能である。なお、この際には、影を落とすコンテンツ群の手前側にライトを設定し、ボリュームシャドー技術を用いて影を付加させる。
また、レンダリング後の画像にポストエフェクトとして画像処理することで、同様の効果を実現することも可能である。また、空間可視化部106bは、表示コンテンツ以外の情報も同時に可視化する。例えば、後述するように表示コンテンツを円錐台の側面に設けられたジャンルごとの座標軸上に分けて可視化する場合、ジャンルを示す座標軸、ジャンル名、円錐台の等値面などを同時にレンダリングし、可視化コンテンツ群のレンダリングに重畳させる。
なお、このようにして得られたレンダリング画像に、ポストエフェクト処理による画像処理をさらに行ってもよい。また、得られたレンダリング画像を用いて、別のシェーダプログラムを用いてさらにレンダリングを行い、新たなレンダリング画像を得ることもできる。
このような空間可視化部106bの処理により、レイアウトされた可視化コンテンツ群を特定の視点から見た画像が出力情報として生成される。
次に、このように構成された第1の実施の形態にかかる画像処理装置100による画像処理について図7を用いて説明する。図7は、第1の実施の形態における画像処理の全体の流れを示すフローチャートである。
まず、対象コンテンツ選択部101が、コンテンツ記憶部121から1つのコンテンツを処理対象コンテンツとして選択する(ステップS701)。対象コンテンツ選択部101は、例えば、視聴状態のコンテンツを処理対象コンテンツとして選択する。なお、最後に視聴したコンテンツ、最後に録画したコンテンツ、または、ユーザのプロファイルなどを参照して選択されたコンテンツを、処理対象コンテンツとして選択してもよい。また、例えば、ユーザが表示装置200のGUIで可視化された録画済みコンテンツリストからマウスやリモコンなどを用いて指定したコンテンツを、処理対象コンテンツとして選択してもよい。また、例えば、コンテンツを視聴している状態で、ユーザがリモコンの所定のボタンを押すことによって、現在視聴中のコンテンツを処理対象コンテンツとして選択してもよい。
次に、対象コンテンツ選択部101は、選択した処理対象コンテンツのコンテンツIDを選択履歴記憶部122に記憶する(ステップS702)。
次に、選択された処理対象コンテンツと、処理対象コンテンツに関連するコンテンツを表示コンテンツとして選択する表示コンテンツ選択処理が実行される(ステップS703)。次に、選択された表示コンテンツを表示装置200に表示するための出力情報を生成する出力情報生成処理が実行される(ステップS704)。表示コンテンツ選択処理および出力情報生成処理の詳細については後述する。
次に、出力情報生成部106が、生成した出力情報を表示装置200に出力する(ステップS705)。これにより、処理対象コンテンツ、処理対象コンテンツと関連性の高いコンテンツ群、および選択履歴記憶部122に履歴情報が記憶されている履歴コンテンツが、その関連性に従って空間に配置された様子が表示装置200の表示画面に表示される。
次に、対象コンテンツ選択部101が、処理対象コンテンツの更新が必要か否かを判断する(ステップS706)。例えば、対象コンテンツ選択部101は、所定時間経過ごとに、現在の処理対象コンテンツに対する関連度が最も高いコンテンツを、次の処理対象コンテンツとして選択する選択条件を用いている場合は、所定時間が経過したか否かを判断する。なお、対象コンテンツ選択部101が、ユーザが表示装置200の表示画面に選択されたコンテンツから、処理対象コンテンツ以外のコンテンツを選択したか否かを判断するように構成してもよい。
処理対象コンテンツの更新が必要な場合(ステップS706:YES)、対象コンテンツ選択部101は、選択条件に応じて新たな処理対象コンテンツを選択し(ステップS701)、処理を繰り返す。処理対象コンテンツの更新が必要でない場合(ステップS706:NO)は画像処理を終了する。
次に、ステップS703の表示コンテンツ選択処理の詳細について図8を用いて説明する。図8は、第1の実施の形態における表示コンテンツ選択処理の全体の流れを示すフローチャートである。
まず、関連度算出部104は、処理対象コンテンツに関連するコンテンツとして関連度算出の対象とする算出対象コンテンツ(上述の算出対象コンテンツ2)の条件を決定する(ステップS801)。例えば、関連度算出部104は、コンテンツ記憶部121に含まれている全てのコンテンツを算出対象コンテンツとする条件を決定する。
なお、事前の設定により算出対象コンテンツの条件を変えるように構成してもよい。例えば、メタデータのうち条件とするメタデータの種類や値を設定可能とし、この設定に従い、例えば、特定の日時以降に録画されたコンテンツを対象とする条件、特定のジャンルのコンテンツを対象とする条件、または、特定のタイトルを含むコンテンツを対象とする条件、といったように条件を変更するように構成してもよい。算出対象コンテンツの条件は、ユーザ入力によって与えられてもよいし、システム設定として予め決められていてもよい。なお、関連度算出部104は、いずれの条件であっても履歴コンテンツは算出対象コンテンツに加える。
次に、関連度算出部104は、決定した条件に適合するコンテンツであって、関連度を算出していない算出対象コンテンツを1つ決定する(ステップS802)。関連度算出部104は、第1メタデータ取得部102を用いて、処理対象コンテンツのメタデータ(メタデータ1)をコンテンツ記憶部121から取得する。また、関連度算出部104は、第2メタデータ取得部103を用いて、算出対象コンテンツのメタデータ(メタデータ2)をコンテンツ記憶部121から取得する。
次に、関連度算出部104は、取得したメタデータ1およびメタデータ2を用いて、処理対象コンテンツと算出対象コンテンツとの関連度を算出する(ステップS803)。
次に、関連度算出部104は、すべての算出対象コンテンツについて、処理対象コンテンツとの関連度を算出したか否かを判断する(ステップS804)。すべての算出対象コンテンツの関連度を算出していない場合は(ステップS804:NO)、次の未処理の算出対象コンテンツを選択して処理を繰り返す(ステップS802)。
すべての算出対象コンテンツの関連度を算出した場合(ステップS804:YES)、関連度算出部104は、算出した関連度の一覧を生成して出力する(ステップS805)。
次に、表示コンテンツ選択部105は、生成された関連度の一覧を参照し、履歴コンテンツ以外の算出対象コンテンツであって、所定の選択条件に適合する算出対象コンテンツを表示コンテンツとして選択し、表示コンテンツリストに追加する(ステップS806)。表示コンテンツリストとは、選択した表示コンテンツを保存するリストである。
例えば、表示コンテンツ選択部105は、システム設定またはユーザ入力によって得られたコンテンツ数の上限値がN個であり、関連度を算出した算出対象コンテンツ数がNを超える場合には、関連度が大きい方からN−M個(Mは履歴コンテンツの個数)の算出対象コンテンツを選択して表示コンテンツリストに追加する。表示コンテンツ選択部105は、例えば、関連度が大きい順にソートして表示コンテンツを表示コンテンツリストに保存する。
次に、表示コンテンツ選択部105は、履歴コンテンツを表示コンテンツリストに追加して表示コンテンツリストを更新する(ステップS807)。これにより、表示コンテンツリストには、履歴コンテンツを含めてN個のコンテンツがリストアップされる。なお、図7のステップS702で、処理対象コンテンツも履歴コンテンツとして選択履歴記憶部122に保存されているため、表示コンテンツリストには、処理対象コンテンツも追加される。
次に、ステップS704の出力情報生成処理の詳細について図9を用いて説明する。図9は、第1の実施の形態における出力情報生成処理の全体の流れを示すフローチャートである。
出力情報生成処理では、最初に、表示コンテンツ配置部106aが、表示コンテンツリストに含まれる各コンテンツを3次元空間上に配置して可視化する(ステップS901〜ステップS906)。
具体的には、まず、表示コンテンツ配置部106aが、処理対象コンテンツの配置位置を、3次元空間座標の原点に設定する(ステップS901)。上述のように、処理対象コンテンツは、対象コンテンツ選択部101で選択されたコンテンツであり、関連度算出の基準となるコンテンツである。このため、表示コンテンツ配置部106aは、処理対象コンテンツを図4のように可視化した可視化コンテンツを、3次元空間の原点位置(x,y)=(0,0)に配置する。なお、表示コンテンツ配置部106aは、この可視化コンテンツの法線方向をz軸、すなわち法線ベクトル=(0,0,1)の方向として可視化コンテンツを配置する。
図10および図11は、3次元空間内の可視化コンテンツの配置例を示す模式図である。図10は、配置対象となる3次元空間を上から観察した場合の配置例を表している。また、図11は、配置対象となる3次元空間を正面から観察した場合の配置例を表している。各図の可視化コンテンツ202は、ステップS901で原点に配置された処理対象コンテンツの可視化コンテンツに相当する。
次に、表示コンテンツ配置部106aは、表示コンテンツリストから、配置対象とする未処理のコンテンツを取得する(ステップS902)。例えば、表示コンテンツ配置部106aは、まだ配置していないコンテンツのうち、関連度の最も大きいコンテンツを選択する。表示コンテンツ配置部106aは、取得したコンテンツから図4に示すようなレイアウトの可視化コンテンツを生成する。以下では、このようにして表示コンテンツリストから取得して可視化したコンテンツを配置対象コンテンツという。
次に、表示コンテンツ配置部106aは、取得した配置対象コンテンツの関連度を取得する(ステップS903)。関連度は、表示コンテンツ選択処理内で算出されている。
次に、表示コンテンツ配置部106aは、第2メタデータ取得部103を用いて、配置対象コンテンツのメタデータのうちジャンルをコンテンツ記憶部121から取得する(ステップS904)。取得したジャンルは、後述するように配置対象コンテンツを配置する方向を決定するために用いる。なお、取得するメタデータはジャンルに限られるものではなく、1つ以上の任意のメタデータを取得して配置位置の決定に用いることができる。
次に、表示コンテンツ配置部106aは、関連度とジャンルとに従い、配置対象コンテンツの配置位置を算出する(ステップS905)。表示コンテンツ配置部106aは、具体的には以下のような手順により配置位置を算出する。
まず、図10に示すように、原点に配置された処理対象コンテンツの可視化コンテンツ202のxy平面上の方位方向を、ステップS904で取得したメタデータであるジャンルによって振り分ける。同図では、方位方向を、方位203a〜方位203hの8個に分割している。このように分割した8つの方位のそれぞれに、ジャンルの種類を予め割り振っておく。同図では、方位203bに「バラエティ」を、方位203fに「スポーツ」を割り振った例が示されている。
なお、同図のジャンルの割り振り方は一例であり、これに限定されるものではない。また、ジャンル以外のメタデータを各方位方向に割り当てることもできる。また、割り振りは固定的であるとは限らず、視聴状況等に応じて動的に変わるように構成してもよい。例えば、ユーザの過去の操作履歴を参照し、最も頻繁に視聴している番組のジャンルから視聴している順に方位203a、方位203b、・・・、方位203hを割り振るように構成することができる。また、ユーザ入力にしたがって割り振り方法を変更してもよい。さらに、複数のメタデータをそれぞれ別の方位方向に割り当ててもよい。例えば、方位203aと方位203bにはジャンル、方位203cには録画日時といったように、複数の種別のメタデータを同時に割り当ててもよい。
次に、表示コンテンツ配置部106aは、図11に示すような円錐台を仮想的に設定する。具体的には、表示コンテンツ配置部106aは、例えば円錐台の上底面204aに処理対象コンテンツの可視化コンテンツ202を配置し、上底面204aの半径を任意の定数r1とし、また、Z軸の特定の負値の位置に下底面204c(半径r2)を仮定した円錐台を設定する。なお、同図の面204bは、上底面204aと下底面204cとの中間の面を表している。
そして、表示コンテンツ配置部106aは、この円錐台の側面上に上記各方位に対応する軸を設定し、この軸上にz値が大きいほど関連度が大きく、小さいほど関連度が小さくなるように配置対象コンテンツの配置位置を決定する。
上底面204a、下底面204cのパラメータが決定され、関連度からz値への変換方法が定まっていれば、特定の関連度に対応する円錐台の側面の位置は、簡単な幾何式を解くだけで一意に決定することが可能である。円錐台のパラメータは、予め定めておいてもよいし、ユーザ履歴やユーザ入力などを用いて適宜変えるように構成してもよい。
関連度からz値への変換方法も予め定めておく。例えば、「z値=A×(関連度の最大値−配置対象コンテンツの関連度)」などの変換式により求めることが可能である。ここで、Aは任意の定数である。変換式はこれに限定されるものではなく、ある関連度から一意にz値が得られるような式であればあらゆる変換式を用いることが可能である。
なお、連続関数ではない変換式により、関連度からz値を求めるように構成することもできる。例えば、「z値=round(A×(関連度の最大値−配置対象コンテンツの関連度))」などの変換式を用いてもよい。ここで、roundは、小数点以下を四捨五入する関数である。この場合、いくつかの関連度に対して、同じz値が出力されることになる。また、以上のような変換式を、ユーザ履歴やユーザ入力などを用いて適宜変えることも可能である。
以上のような処理により、関連度によって円錐台の側面上の高さ(z値)が定まり、ジャンルにより、その高さでの方位方向が定まることになる。これにより、例えば関連度がv1であり、ジャンルがバラエティである配置対象コンテンツは、図10および図11の可視化コンテンツ201aに対応する配置位置が算出される。また、関連度がv2(<v1)であり、ジャンルがスポーツである配置対象コンテンツは、図10および図11の可視化コンテンツ201cに対応する配置位置が算出される。図10および図11では、このようにして配置された可視化コンテンツ201a〜201eの一例が示されている。
このようにして配置位置を算出することにより、図10のように、3次元空間を上から観察した場合は、可視化コンテンツ201aと可視化コンテンツ201cとはジャンルが異なるということを容易に識別することが可能となる。また、図11のように、3次元空間を横から観察した場合は、可視化コンテンツ201aの方が可視化コンテンツ201cよりも関連度が大きいということを容易に識別することができる。
図9に戻り、表示コンテンツ配置部106aは、表示コンテンツリストのすべてのコンテンツを処理したか否かを判断する(ステップS906)。すべてのコンテンツを処理していない場合は(ステップS906:NO)、表示コンテンツ配置部106aは、次の未処理のコンテンツを取得して処理を繰り返す(ステップS902)。
すべてのコンテンツを処理した場合(ステップS906:YES)、空間可視化部106bが、3次元空間上に配置された可視化コンテンツを所定の視点で可視化した出力情報を生成する(ステップS907)。
以上のような処理により、例えば、図10および図11の中心部に可視化された処理対象コンテンツ、および、処理対象コンテンツと関連度の高いコンテンツ記憶部121のコンテンツと、以前に処理対象コンテンツとなった履歴コンテンツとが中心部の周りに可視化されたコンテンツ群(図の201a〜201eなど)を、表示装置200の表示画面に表示することができる。
これにより、ある動画(処理対象コンテンツ)とデータベース(コンテンツ記憶部121)に記憶されている別のコンテンツ群との関連性が可視化される。そして、ユーザは、その動画と関連度の高いコンテンツ群の分布を知ることが可能となる。また、それと同時に、それまでユーザが選択してきた、いわゆる探索の履歴となるコンテンツ(履歴コンテンツと呼ぶ)が同一の画面上に一瞥できる形で配置されるため、必ず直前に選択した戻ることができるようになる。
なお、これまでは、図4に示すように、表示コンテンツをコンテンツ代表画像を含むような画像で3次元空間上に可視化した例を説明した。可視化する方法はこれに限られず、関連度が大きいコンテンツほど、処理対象コンテンツの近くに表示するように可視化するものであればあらゆる方法を適用できる。例えば、2次元空間上にコンテンツを可視化するように構成してもよい。また、タイトルなどのように表示コンテンツを識別可能な識別情報をリスト形式で出力するように構成してもよい。この場合、例えば、処理対象コンテンツを最上位に配置し、その下に関連度の高い順に関連するコンテンツを配置するようなリスト形式の出力情報を生成して出力する。
このように、第1の実施の形態にかかる画像処理装置では、選択されたコンテンツの履歴を記憶し、記憶された履歴を参照することにより、選択されたコンテンツに関連するコンテンツとして、過去に選択されたコンテンツを常に選択して表示する出力情報を生成することができる。これにより、ユーザは直前に選択したコンテンツに戻ることが可能となり、順次選択されるコンテンツに関連するコンテンツを適切に選択することが可能となる。
(変形例)
次に、第1の実施の形態の変形例について説明する。本変形例では、第1の実施の形態の空間可視化部106bに以下の機能が追加される。
すなわち、本変形例の空間可視化部は、履歴コンテンツに対応する可視化コンテンツに対して、それが履歴コンテンツであることをユーザに認識させるために、画像のエフェクト処理を行う機能がさらに追加される。また、本変形例の空間可視化部は、対象コンテンツ選択部101で選択された順序が理解できるように、履歴コンテンツ間を所定のCGオブジェクトで連結する処理がさらに追加される。
具体的には、本変形例の空間可視化部は、可視化コンテンツのうち、履歴コンテンツから生成された可視化コンテンツをレンダリングする際に、以前に処理対象コンテンツとなったことを認識させるためのCG処理を施す。例えば、本変形例の空間可視化部は、セピア調にすることにより古くなった写真のように色あせた風合いを出す画像処理を行う。なお、セピア調にするための画像処理の方法については従来から用いられているあらゆる方法を適用できる。
複数の履歴コンテンツが存在する場合は、セピア調に変換する際の色差(YCbCr表色系のCb、Cr)を、選択された順序が新しい順に、より色あせた風合いが強くなるように調整してもよい。また、適用される画像処理はこれに限られるものではない。その他の画像処理を組み合わせてもよいし、他の画像処理を単独で用いてもよい。例えば、以前に記憶された履歴コンテンツであるほどコントラストを高くするなどが考えられる。
また、本変形例の空間可視化部は、表示コンテンツ配置部106aによって生成および配置された可視化コンテンツのうち、履歴コンテンツである可視化コンテンツ間に直線、楕円、および鎖などのつながりを連想させるオブジェクトを生成して可視化する。具体的には、本変形例の空間可視化部は、最後に選択された履歴コンテンツから新しい順に、上記のようなオブジェクトを生成して連結していく。例えば、履歴コンテンツA、履歴コンテンツB、および履歴コンテンツCが、この順で選択履歴記憶部122に記憶されている場合、履歴コンテンツAと履歴コンテンツBとの間、および、履歴コンテンツBと履歴コンテンツCとの間にオブジェクトが生成される。本変形例の空間可視化部は、生成したオブジェクトを、他の可視化コンテンツとともにレンダリングする。
本変形例の空間可視化部は、例えば、各履歴コンテンツに対応する可視化コンテンツの重心をそれぞれ求め、選択履歴記憶部122に記憶されている順に順序が隣り合う2つの履歴コンテンツに対応する可視化コンテンツの重心間にオブジェクトを生成する。
オブジェクトとして直線を生成する場合には、直線の両端点が重心の位置と一致するように直線の位置を決定すればよい。また、オブジェクトとして楕円を生成する場合は、楕円の長軸の両端が重心の位置と一致するような楕円を生成すればよい。オブジェクトとして鎖を生成する場合は、鎖の両端の楕円の内側に重心が含まれるようにオブジェクトを生成すればよい。楕円に重心が含まれるか否かは、従来から用いられている一般的な方法で判定可能である。
また、可視化コンテンツを連結する位置は重心に限定するものではない。例えば、可視化コンテンツを表すCGモデルを構成する頂点のいずれかを連結してもよいし、CGモデルを構成する稜線上の任意の点を連結してもよい。また、生成するオブジェクトは直線、楕円、および鎖に限られるものではなく、コンテンツを接続する位置が一意に決定されるか、またはオブジェクトが囲む領域にコンテンツを接続する位置が含まれるか否かを判定できるものであればあらゆるオブジェクトを用いることができる。
次に、本変形例での出力情報生成処理の詳細について図12を用いて説明する。図12は、第1の実施の形態の変形例における出力情報生成処理の全体の流れを示すフローチャートである。なお、これ以外の処理の流れは、第1の実施の形態の図7および図8と同様であるため説明を省略する。
また、図12の出力情報生成処理では、ステップS1208のオブジェクト生成・可視化処理が追加された点が、第1の実施の形態の出力情報生成処理を示す図9と異なっている。それ以外のステップは図9と同じであるため説明を省略する。
ステップS1208では、本変形例の空間可視化部が、履歴コンテンツ間を接続する直線等のオブジェクトを生成し、生成したオブジェクトを可視化するための出力情報を生成する。
このように、本変形例によれば、現在の処理対象コンテンツと履歴コンテンツの関連性が一瞥してわかるようなエフェクト処理を加えることができる。このため、ユーザ自身が、例えばいずれのジャンルを主に探索したのか、または、いずれのジャンルを探索していないのか、などといったユーザ自身の探索領域を直観的に認識することが可能となる。また、履歴コンテンツが探索順序とは異なる基準(例えば関連度)で配置されていた場合でも、探索の順序を直観的に認識することが可能となる。
(第2の実施の形態)
第2の実施の形態にかかる画像処理装置は、表示装置上に表示されたコンテンツ群からユーザが所望のコンテンツを選択可能とし、選択されたコンテンツが過去に選択された履歴コンテンツである場合に、上記変形例のような履歴コンテンツ間を接続するオブジェクトを生成して可視化する。
図13は、第2の実施の形態にかかる画像処理装置1300の構成を示すブロック図である。図13に示すように、画像処理装置1300は、コンテンツ記憶部121と、選択履歴記憶部122と、対象コンテンツ選択部1301と、第1メタデータ取得部102と、第2メタデータ取得部103と、関連度算出部104と、表示コンテンツ選択部105と、出力情報生成部1306と、操作部1331と、受付部1308と、を備えている。
第2の実施の形態では、操作部1331および受付部1308を追加したことと、対象コンテンツ選択部1301および出力情報生成部1306内の空間可視化部1306bの機能と、が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる画像処理装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
操作部1331は、ユーザによって操作されるマウスやリモコンであり、表示装置200の表示画面上で指定された位置情報を出力する。以下では、操作部1331としてマウスを用いた例について説明する。ユーザは、例えば表示装置200上の画面に表示されたマウスカーソルを頼りとしてマウスを操作することができる。
受付部1308は、操作部1331から出力された位置情報を受け付ける。また、受付部1308は、受け付けた位置情報を空間可視化部1306bに送出し、空間可視化部1306bに対して当該位置情報に対応する位置にマウスカーソルを表示することを指示する。
また、受付部1308は、表示コンテンツ配置部106aから得られる可視化コンテンツ群の配置位置の情報、および、空間可視化部1306bから得られるレンダリングのための視点情報などを用いて、現在のマウス位置(マウスカーソル位置)の下に存在している可視化コンテンツを特定する。
具体的には、受付部1308は、マウスカーソル位置(画面空間上のマウス座標位置)から、可視化3次元空間の視点ベクトル方面にレイを飛ばし、このレイが交差する可視化コンテンツのうち、視点から観察した場合に最も手前に存在する可視化コンテンツを算出する。受付部1308は、3次元の直線と、可視化コンテンツとの3次元的な交点を視点から観察できる全ての可視化コンテンツに対し簡単な幾何演算を用いることにより、このような可視化コンテンツを算出することが可能である。
また、受付部1308は、空間可視化部1306bに対して、以上のようにして求めたマウスカーソル位置の下に存在する可視化コンテンツに異なった態様で可視化を行うように指示する。
さらに、ユーザがマウスの左クリックボタンの押下などの所定の決定操作を行った場合、受付部1308は、以上のようにして求めたマウスカーソル位置の下に存在する可視化コンテンツを新たな処理対象コンテンツとして選択することを、対象コンテンツ選択部1301に対して通知する。
対象コンテンツ選択部1301は、受付部1308によって通知されたコンテンツを処理対象コンテンツとして選択する点が、第1の実施の形態の対象コンテンツ選択部101と異なっている。
空間可視化部1306bは、受付部1308から通知された、マウス位置へマウスカーソルを表示する旨の指示に従い、可視化した結果の対応する位置にマウスカーソルを重畳して可視化する。
また、空間可視化部1306bは、受付部1308から通知された可視化コンテンツが履歴コンテンツであった場合に、履歴コンテンツ間のつながりを表すオブジェクトを生成して可視化する。オブジェクトの生成方法は、第1の実施の形態の変形例と同様である。
ただし、選択履歴記憶部122に記憶されている全ての履歴コンテンツ間にオブジェクトを生成する必要はない。例えば、受付部1308から通知された履歴コンテンツの前後に記憶されている履歴コンテンツとの間にオブジェクトを生成するように構成してもよい。また、受付部1308から通知された履歴コンテンツより以前の履歴コンテンツ間のみにオブジェクトを生成するように構成してもよい。また、受付部1308から通知された履歴コンテンツより新しく記憶された履歴コンテンツ間のみにオブジェクトを生成するように構成してもよい。
このように、第2の実施の形態にかかる画像処理装置では、ユーザが履歴コンテンツに注目した場合のみに履歴コンテンツ間のつながりが可視化されるため、探索順序とは異なる基準(例えば関連度)で配置されていた場合でも、表示結果の視認性を損なうことなく、探索の順序を直観的に認識することが可能となる。
次に、第1または第2の実施の形態にかかる画像処理装置のハードウェア構成について図14を用いて説明する。図14は、第1または第2の実施の形態にかかる画像処理装置のハードウェア構成を示す説明図である。
第1または第2の実施の形態にかかる画像処理装置は、CPU51などの制御装置と、ROM52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置と、各部を接続するバス61を備えており、通常のコンピュータを利用したハードウェア構成となっている。
第1または第2の実施の形態にかかる画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、第1または第2の実施の形態にかかる画像処理装置で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施の形態にかかる画像処理装置で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
また、第1または第2の実施の形態の画像処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1または第2の実施の形態にかかる画像処理装置で実行される画像処理プログラムは、上述した各部(対象コンテンツ選択部、第1メタデータ取得部、第2メタデータ取得部、関連度算出部、表示コンテンツ選択部、出力情報生成部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記記憶媒体から画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
第1の実施の形態にかかる画像処理装置の構成を示すブロック図である。 コンテンツ記憶部に記憶されるデータのデータ構造の一例を示す図である。 選択履歴記憶部に記憶される履歴情報のデータ構造の一例を示す図である。 可視化した表示コンテンツの一例を示す図である。 可視化コンテンツを3次元空間内に配置した例を示す図である。 図5と異なる視点から観察した場合の可視化コンテンツの配置例を示す図である。 第1の実施の形態における画像処理の全体の流れを示すフローチャートである。 第1の実施の形態における表示コンテンツ選択処理の全体の流れを示すフローチャートである。 第1の実施の形態における出力情報生成処理の全体の流れを示すフローチャートである。 3次元空間内の可視化コンテンツの配置例を示す模式図である。 3次元空間内の可視化コンテンツの配置例を示す模式図である。 第1の実施の形態の変形例における出力情報生成処理の全体の流れを示すフローチャートである。 第2の実施の形態にかかる画像処理装置の構成を示すブロック図である。 第1または第2の実施の形態にかかる画像処理装置のハードウェア構成を示す説明図である。
符号の説明
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100 画像処理装置
101 対象コンテンツ選択部
102 第1メタデータ取得部
103 第2メタデータ取得部
104 関連度算出部
105 表示コンテンツ選択部
106 出力情報生成部
106a 表示コンテンツ配置部
106b 空間可視化部
121 コンテンツ記憶部
122 選択履歴記憶部
200 表示装置
201a〜201e 可視化コンテンツ
202 可視化コンテンツ
203a〜203h 方位
204a 上底面
204b 面
204c 下底面
400 背景
401 コンテンツ代表画像
402 番組タイトル
403 録画日時
404 放送チャンネル名
1300 画像処理装置
1301 対象コンテンツ選択部
1306 出力情報生成部
1306b 空間可視化部
1308 受付部
1331 操作部

Claims (12)

  1. 複数の画像と、前記画像のメタデータとを記憶する画像記憶部と、
    前記画像記憶部に記憶された画像のうち、いずれかの画像を表す第1画像を順次選択する第1選択部と、
    前記第1選択部によって選択された画像と、画像が選択された順序とを特定可能な履歴情報を記憶する選択履歴記憶部と、
    前記第1画像のメタデータと、前記画像記憶部に記憶された画像のうち前記第1画像以外の画像のメタデータとに基づいて、前記第1画像と前記第1画像以外の画像とが関連する度合いを表す関連度を算出する関連度算出部と、
    前記履歴情報に基づいて、少なくとも前記第1画像の1つ前に選択された画像と、前記関連度に関する予め定められた第1選択条件を満たす画像と、を表す第2画像を選択する第2選択部と、
    前記第1画像を選択可能な第1選択情報と、選択された前記第2画像を選択可能な第2選択情報とを表示装置に表示するための情報であって、前記関連度が大きい前記第2画像の前記第2選択情報ほど、前記第1選択情報の近くに表示する出力情報を生成する生成部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記生成部は、前記第1画像を選択可能な画像である第1選択画像と、前記第2画像を選択可能な画像である第2選択画像とを前記表示装置に表示するための画像であって、前記関連度が大きい前記第2画像の前記第2選択画像ほど前記第1選択画像の近くに配置した出力画像を前記出力情報として生成すること、
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記生成部は、選択された前記第2画像のうち前記履歴情報に基づいて特定した前記第2画像の前記第2選択画像と、前記第1選択画像とを接続するオブジェクトの画像を含む前記出力画像を生成すること、
    を特徴とする請求項2に記載の画像処理装置。
  4. 前記表示装置に表示された前記第2選択画像のうち、ユーザにより選択された前記第2選択画像を受け付ける受付部をさらに備え、
    前記第1選択部は、さらに、受け付けられた前記第2選択画像に対応する前記第2画像を新たな前記第1画像として選択し、
    前記生成部は、選択された前記第1画像が、前記履歴情報で特定可能な画像であるか否かを判断し、特定可能な画像である場合に、前記オブジェクトの画像を含む前記出力画像を生成すること、
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記画像は複数の静止画像を含む動画像であり、
    前記生成部は、前記第1画像に含まれるいずれかの静止画像である前記第1選択画像と、る前記第2画像に含まれるいずれかの静止画像である前記第2選択画像とを前記表示装置に表示するための前記出力画像を生成すること、
    を特徴とする請求項2に記載の画像処理装置。
  6. 前記生成部は、前記履歴情報に基づいて特定した前記第2画像の前記第2選択情報を、前記履歴情報に基づいて特定した前記第2画像以外の前記第2画像の前記第2選択情報と異なる表示態様で表示する前記出力情報を生成すること、
    を特徴とする請求項1に記載の画像処理装置。
  7. 前記表示装置に表示された前記第2選択情報のうち、ユーザにより選択された前記第2選択情報を受け付ける受付部をさらに備え、
    前記第1選択部は、さらに、受け付けられた前記第2選択情報に対応する前記第2画像を新たな前記第1画像として選択すること、
    を特徴とする請求項1に記載の画像処理装置。
  8. 前記第1選択部は、前記画像記憶部に記憶された画像のうち、予め定められた第2選択条件に適合するメタデータを有する画像を前記第1画像として選択すること、
    を特徴とする請求項1に記載の画像処理装置。
  9. 前記関連度算出部は、前記画像記憶部に記憶された前記第1画像以外の画像のうち、予め定められた第3選択条件を満たす画像を対象として、前記第1画像と前記第1画像以外の画像との前記関連度を算出すること、
    を特徴とする請求項1に記載の画像処理装置。
  10. 前記メタデータは、前記画像を識別する識別情報を含み、
    前記生成部は、前記第1選択情報として前記第1画像の前記識別情報である第1識別情報と、前記第2選択情報として前記第2画像の前記識別情報である第2識別情報とを前記表示装置に表示するための情報であって、前記関連度が大きい前記第2画像の前記第2識別情報ほど前記第1識別情報の近くに表示する前記出力情報を生成すること、
    を特徴とする請求項1に記載の画像処理装置。
  11. 第1選択部が、複数の画像と前記画像のメタデータとを記憶する画像記憶部に記憶された画像のうち、いずれかの画像を表す第1画像を順次選択し、選択した画像と画像を選択した順序とを特定可能な履歴情報を選択履歴記憶部に記憶する第1選択ステップと、
    関連度算出部が、前記第1画像のメタデータと、前記画像記憶部に記憶された画像のうち前記第1画像以外の画像のメタデータとに基づいて、前記第1画像と前記第1画像以外の画像とが関連する度合いを表す関連度を算出する関連度算出ステップと、
    第2選択部が、前記履歴情報に基づいて、少なくとも前記第1画像の1つ前に選択された画像と、前記関連度に関する予め定められた第1選択条件を満たす画像と、を表す第2画像を選択する第2選択ステップと、
    生成部が、前記第1画像を選択可能な第1選択情報と、選択された前記第2画像を選択可能な第2選択情報とを表示装置に表示するための情報であって、前記関連度が大きい前記第2画像の前記第2選択情報ほど、前記第1選択情報の近くに表示する出力情報を生成する生成ステップと、
    を備えたことを特徴とする画像処理方法。
  12. コンピュータを、
    複数の画像と、前記画像のメタデータとを記憶する画像記憶部と、
    前記画像記憶部に記憶された画像のうち、いずれかの画像を表す第1画像を順次選択する第1選択部と、
    前記第1選択部によって選択された画像と、画像が選択された順序とを特定可能な履歴情報を記憶する選択履歴記憶部と、
    前記第1画像のメタデータと、前記画像記憶部に記憶された画像のうち前記第1画像以外の画像のメタデータとに基づいて、前記第1画像と前記第1画像以外の画像とが関連する度合いを表す関連度を算出する関連度算出部と、
    前記履歴情報に基づいて、少なくとも前記第1画像の1つ前に選択された画像と、前記関連度に関する予め定められた第1選択条件を満たす画像と、を表す第2画像を選択する第2選択部と、
    前記第1画像を選択可能な第1選択情報と、選択された前記第2画像を選択可能な第2選択情報とを表示装置に表示するための情報であって、前記関連度が大きい前記第2画像の前記第2選択情報ほど、前記第1選択情報の近くに表示する出力情報を生成する生成部と、
    として機能させるための画像処理プログラム。
JP2008220507A 2008-08-28 2008-08-28 画像を処理する装置、方法およびプログラム Abandoned JP2010055424A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008220507A JP2010055424A (ja) 2008-08-28 2008-08-28 画像を処理する装置、方法およびプログラム
US12/461,761 US20100057722A1 (en) 2008-08-28 2009-08-24 Image processing apparatus, method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008220507A JP2010055424A (ja) 2008-08-28 2008-08-28 画像を処理する装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2010055424A true JP2010055424A (ja) 2010-03-11

Family

ID=41726831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008220507A Abandoned JP2010055424A (ja) 2008-08-28 2008-08-28 画像を処理する装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US20100057722A1 (ja)
JP (1) JP2010055424A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533499A (ja) * 2010-05-04 2013-08-22 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 画像を変換する方法及び装置
JP2014006822A (ja) * 2012-06-27 2014-01-16 Jvc Kenwood Corp 情報選択装置、情報選択方法、端末装置およびコンピュータプログラム
JP2014021608A (ja) * 2012-07-13 2014-02-03 Sony Computer Entertainment Inc 処理装置
JP2015195063A (ja) * 2015-08-07 2015-11-05 株式会社Jvcケンウッド 情報選択装置、情報選択方法、端末装置およびコンピュータプログラム
JP2015537319A (ja) * 2012-12-14 2015-12-24 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド モバイルアプリケーションをプッシュする方法及びシステム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7886024B2 (en) * 2004-07-01 2011-02-08 Microsoft Corporation Sharing media objects in a network
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP5121367B2 (ja) * 2007-09-25 2013-01-16 株式会社東芝 映像を出力する装置、方法およびシステム
JP5060430B2 (ja) * 2008-08-28 2012-10-31 株式会社東芝 表示制御装置、及び方法
JP4700718B2 (ja) * 2008-09-19 2011-06-15 株式会社沖データ 画像処理装置
JP2010073126A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 情報可視化装置および情報可視化方法
JP5388631B2 (ja) * 2009-03-03 2014-01-15 株式会社東芝 コンテンツ提示装置、及び方法
JP4852119B2 (ja) * 2009-03-25 2012-01-11 株式会社東芝 データ表示装置、データ表示方法、データ表示プログラム
US20110270947A1 (en) * 2010-04-29 2011-11-03 Cok Ronald S Digital imaging method employing user personalization and image utilization profiles
US9055276B2 (en) 2011-07-29 2015-06-09 Apple Inc. Camera having processing customized for identified persons
US10478140B2 (en) 2013-06-28 2019-11-19 Koninklijke Philips N.V. Nearest available roadmap selection
US9948694B2 (en) * 2015-04-20 2018-04-17 International Business Machines Corporation Addressing application program interface format modifications to ensure client compatibility

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076267A (ja) * 1998-08-31 2000-03-14 Sharp Corp 情報検索方法、情報検索装置、及び情報検索プログラムを記録したコンピュータ読み取り可能な記録媒体
DE60016074T2 (de) * 1999-03-30 2005-11-24 Nec Corp. OFDM-Demodulator
US6853389B1 (en) * 1999-04-26 2005-02-08 Canon Kabushiki Kaisha Information searching apparatus, information searching method, and storage medium
JP4378837B2 (ja) * 2000-04-07 2009-12-09 ソニー株式会社 受信装置
JP3880358B2 (ja) * 2001-10-04 2007-02-14 シャープ株式会社 Ofdm復調回路及びこれを用いたofdm受信装置
US7245677B1 (en) * 2003-03-14 2007-07-17 Ralink Technology, Inc. Efficient method for multi-path resistant carrier and timing frequency offset detection
JP2005010854A (ja) * 2003-06-16 2005-01-13 Sony Computer Entertainment Inc 情報提示方法および装置
US7840892B2 (en) * 2003-08-29 2010-11-23 Nokia Corporation Organization and maintenance of images using metadata
KR100562904B1 (ko) * 2003-09-02 2006-03-21 삼성전자주식회사 미니맵을 이용한 epg 정보 표시 방법
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
JP4536637B2 (ja) * 2005-10-28 2010-09-01 株式会社スクウェア・エニックス 情報散策装置及び方法、プログラム並びに記録媒体
JP4536638B2 (ja) * 2005-10-28 2010-09-01 株式会社スクウェア・エニックス 表示情報選択装置及び方法、プログラム並びに記録媒体
US7421455B2 (en) * 2006-02-27 2008-09-02 Microsoft Corporation Video search and services
JP2008192055A (ja) * 2007-02-07 2008-08-21 Fujifilm Corp コンテンツ検索方法、およびコンテンツ検索装置
JP2008276410A (ja) * 2007-04-26 2008-11-13 Toshiba Corp 画像処理装置及び方法
US7941429B2 (en) * 2007-07-10 2011-05-10 Yahoo! Inc. Interface for visually searching and navigating objects
JP5121367B2 (ja) * 2007-09-25 2013-01-16 株式会社東芝 映像を出力する装置、方法およびシステム
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP2010055431A (ja) * 2008-08-28 2010-03-11 Toshiba Corp 表示処理装置および表示処理方法
US20100058388A1 (en) * 2008-08-28 2010-03-04 Kabushiki Kaisha Toshiba Display processing apparatus, display processing method, and computer program product
US20100058173A1 (en) * 2008-08-28 2010-03-04 Kabushiki Kaisha Toshiba Display processing apparatus, display processing method, and computer program product
JP5060430B2 (ja) * 2008-08-28 2012-10-31 株式会社東芝 表示制御装置、及び方法
JP4675995B2 (ja) * 2008-08-28 2011-04-27 株式会社東芝 表示処理装置、プログラムおよび表示処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533499A (ja) * 2010-05-04 2013-08-22 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 画像を変換する方法及び装置
KR101772251B1 (ko) 2010-05-04 2017-08-28 유니버셜 시티 스튜디오스 엘엘씨 이미지를 변환하는 방법 및 디바이스
JP2014006822A (ja) * 2012-06-27 2014-01-16 Jvc Kenwood Corp 情報選択装置、情報選択方法、端末装置およびコンピュータプログラム
JP2014021608A (ja) * 2012-07-13 2014-02-03 Sony Computer Entertainment Inc 処理装置
US9805096B2 (en) 2012-07-13 2017-10-31 Sony Interactive Entertainment Inc. Processing apparatus
JP2015537319A (ja) * 2012-12-14 2015-12-24 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド モバイルアプリケーションをプッシュする方法及びシステム
JP2015195063A (ja) * 2015-08-07 2015-11-05 株式会社Jvcケンウッド 情報選択装置、情報選択方法、端末装置およびコンピュータプログラム

Also Published As

Publication number Publication date
US20100057722A1 (en) 2010-03-04

Similar Documents

Publication Publication Date Title
JP2010055424A (ja) 画像を処理する装置、方法およびプログラム
US8174523B2 (en) Display controlling apparatus and display controlling method
US10031649B2 (en) Automated content detection, analysis, visual synthesis and repurposing
US8416332B2 (en) Information processing apparatus, information processing method, and program
EP2043047A2 (en) Image display apparatus and computer program product
JP5229744B2 (ja) 画像分類装置および画像分類プログラム
JP5739531B2 (ja) 3次元形状のファセット上の関連メディアセグメントの対話型の投影および再生
US8463777B2 (en) Contents display device and contents display method
JP4852119B2 (ja) データ表示装置、データ表示方法、データ表示プログラム
JP2009118060A (ja) 画像表示装置、画像表示方法、および画像表示システム
US20080232686A1 (en) Representative color extracting method and apparatus
WO2006064877A1 (ja) コンテンツ推薦装置
KR20130107366A (ko) 화상 처리 장치, 화상 처리 방법 및 제어 프로그램
US20110179003A1 (en) System for Sharing Emotion Data and Method of Sharing Emotion Data Using the Same
JP2003076718A (ja) 文書情報コンテンツ閲覧システム及び文書情報コンテンツ閲覧方法及びプログラム及び記録媒体
JP2006217046A (ja) 映像インデックス画像生成装置及び映像のインデックス画像を生成するプログラム
JP5906605B2 (ja) 情報処理装置
JP5627002B2 (ja) 類似映像出力方法、類似映像出力装置および類似映像出力プログラム
JP2001306579A (ja) 情報検索装置、情報検索方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4585597B1 (ja) 表示処理装置、プログラムおよび表示処理方法
JP2007102362A (ja) 分類カテゴリ自動形成装置及びデジタル画像コンテンツ自動分類装置並びにデジタル画像コンテンツ管理システム
KR20180088152A (ko) 대상물 속성에 기반한 검색 시스템 및 그 검색 방법
JP2009010848A (ja) 番組情報処理装置及び番組情報処理プログラム
JP2019110353A (ja) マルチメディア再生装置、及び、マルチメディア生成装置
JP2008211595A (ja) メディア編集サーバ装置、メディア編集システム、およびメディア編集プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20120319