JPWO2013084422A1 - 情報処理装置、通信端末、情報検索方法、及びプログラム - Google Patents

情報処理装置、通信端末、情報検索方法、及びプログラム Download PDF

Info

Publication number
JPWO2013084422A1
JPWO2013084422A1 JP2013548069A JP2013548069A JPWO2013084422A1 JP WO2013084422 A1 JPWO2013084422 A1 JP WO2013084422A1 JP 2013548069 A JP2013548069 A JP 2013548069A JP 2013548069 A JP2013548069 A JP 2013548069A JP WO2013084422 A1 JPWO2013084422 A1 JP WO2013084422A1
Authority
JP
Japan
Prior art keywords
image
target image
information
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013548069A
Other languages
English (en)
Inventor
光洋 渡邊
光洋 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013548069A priority Critical patent/JPWO2013084422A1/ja
Publication of JPWO2013084422A1 publication Critical patent/JPWO2013084422A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一実施形態では、情報処理装置(1)は、指定制御部(14)及び検索制御部(15)を含む。指定制御部(14)は、ディスプレイ(12)に表示されている動画に映った被写体の属性情報の検索のために、当該動画に含まれる対象画像の指定を利用者による入力デバイス(13)の操作によって受け付ける。検索制御部(15)は、対象画像又はその代替画像を検索システム(9)に送信するとともに、対象画像又は代替画像に基づいて検索された属性情報を検索システム(9)から受信する。さらに、指定制御部(14)は、利用者の操作の実行に要する遅延時間を補償するために、当該操作の完了時点よりも前にディスプレイ(12)に表示されていた画像を対象画像として決定する。

Description

本発明は、動画に表示されている被写体の関連情報を検索する技術に関する。
ある画像をもとに類似画像を検索し、さらに検索された類似画像に関連付けられた属性情報を取得する技術が知られている(例えば、特許文献1及び2を参照)。特許文献1は、夜空の撮影画像をもとに類似画像検索を行うことによって星座を特定し、特定された星座に関する情報を提供するシステムを開示している。また、特許文献2は、医療分野における診断画像をもとに類似画像の検索を行い、検索された類似画像に関連付けられた症例データを提供するシステムを開示している。
一方、特許文献3は、テレビジョン放送等の動画に表示されている被写体(e.g. 俳優が身に付いけている衣装)の属性情報(e.g. 販売者、価格)を検索する技術を開示している。より具体的に述べると、特許文献3に開示された検索システムは、視聴者が選択した被写体を特定するために、動画の識別情報(e.g. チャンネル番号および放送日時)と、画面内での選択位置及び範囲を示す情報を視聴者側の端末からサーバに送信する。そして、サーバは、動画の識別情報と選択位置及び範囲を示す情報に関連付けられた属性情報を検索し、得られた属性情報を端末に送信する。
特許文献1及び2に開示されている一般的な類似画像検索は、画像照合技術を利用している。すなわち、2つの画像の特徴量を比較することで類似度を評価する。これに対して、特許文献3は、動画の識別情報(e.g. チャンネル番号および放送日時)と画面内での選択位置及び範囲を示す情報をキーとして検索を行うものであって、いわゆる類似画像検索を行うものではない。
特開2005−174240号公報 特開2004−005364号公報 特開2002−334092号公報
視聴者が動画を閲覧している際に、その動画に表示されている被写体の属性情報を知りたいと思っても、それを即座に検索するためには問題が存在する。ここで、視聴者によって閲覧される動画は、例えば、テレビ放送、映画、又はスポーツ競技若しくはコンサート等を撮影したビデオなどである。また、この動画は、携帯通信端末(e.g. スマートフォン、タブレットコンピュータ、ノートPC(Personal Computer))に搭載されたカメラによる撮影画像を当該端末のディスプレイに実質的にリアルタイムに表示したものであってもよい。また、この動画は、記録媒体(e.g. 光ディスク、ハードディスク、フラッシュメモリ)や通信媒体から取得された符号化動画データ(e.g. MPEG-2データ、MPEG-4データ)の再生画像であってもよい。また、被写体は、例えば、人、動物、植物、製品、アニメキャラクターなどである。そして、被写体の属性情報は、例えば、名前、国籍、出身地、又は生年月日等の人物プロフィール、キャラクターの名称、製品名、製造者、発売日、価格、URL(Uniform Resource Locator)などである。
より具体的に述べると、動画に表示されている被写体の属性情報の検索に際して、視聴者は、検索を希望する被写体が映った対象画像を指定する操作を行う必要がある。しかしながら、動画の表示画面は刻々と変化するため、この対象画像の選択操作を行うことが難しいという問題がある。特許文献1〜3のいずれも、この問題の解決に寄与する技術について何ら開示していない。
本発明は、本件発明者による上述した知見および考察に基づいてなされたものであり、動画に表示されている被写体の属性情報の検索に際して、被写体が映った対象画像を動画中から指定する操作を容易化することが可能な情報処理装置、通信端末、情報検索方法、及びプログラムの提供を目的とする。
本発明の第1の態様は、情報処理装置を含む。当該情報処理装置は、指定制御部及び検索制御部を含む。前記指定制御部は、ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、前記動画に含まれる対象画像の指定を利用者による入力デバイスの操作によって受け付ける。前記検索制御部は、前記対象画像又はその代替画像を検索システムに送信するとともに、前記対象画像又は前記代替画像に基づいて検索された属性情報を前記検索システムから受信する。さらに、前記指定制御部は、前記操作の実行に要する遅延時間を補償するために、前記操作の完了時点以前である基準時点よりも前に前記ディスプレイに表示されていた画像を前記対象画像として決定する。
本発明の第2の態様は、通信端末を含む。当該通信端末は、上述した本発明の第1の態様に係る情報処理装置、ディスプレイ、入力デバイス、及び通信部を含む。当該通信部は、前記検索制御部による前記対象画像の送信、及び前記属性情報の受信のために使用される。
本発明の第3の態様は、情報処理装置による情報検索方法を含む。当該情報検索方法は、以下のステップ(a)〜(c)を含む。
(a)ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、前記動画に含まれる対象画像の指定を利用者による入力デバイスの操作によって受け付けること、
(b)前記対象画像又はその代替画像を検索システムに送信すること、及び
(c)前記対象画像又は前記代替画像に基づいて検索された属性情報を前記検索システムから受信すること。
さらに、(a)における前記受け付けることは、前記操作の実行に要する遅延時間を補償するために、前記操作の完了時点以前である基準時点よりも前に前記ディスプレイに表示されていた画像を前記対象画像として決定することを含む。
本発明の第3の態様は、上述した本発明の第3の態様に係る情報検索方法をコンピュータに行わせるためのプログラムを含む。
上述した本発明の各態様によれば、動画に表示されている被写体の属性情報の検索に際して、被写体が映った対象画像を動画中から指定する操作を容易化することが可能な情報処理装置、通信端末、情報検索方法、及びプログラムを提供できる。
本発明の実施の形態1に係る通信端末を含むネットワーク構成図である。 本発明の実施の形態1に係る通信端末の構成例を示すブロック図である。 本発明の実施の形態1に係る通信端末による情報検索方法の具体例を示すフローチャートである。 本発明の実施の形態1に係る通信端末における対象画像の指定操作を説明するための図である。 本発明の実施の形態1に係る通信端末における対象画像の指定操作を説明するための図である。 本発明の実施の形態1に係る通信端末における対象画像の指定操作を説明するための図である。 本発明の実施の形態1に係る通信端末における対象画像の指定操作を説明するための図である。 本発明の実施の形態1に係る通信端末における対象画像の指定操作を説明するための図である。 本発明の実施の形態1に係る通信端末の他の構成例を示すブロック図である。 本発明の実施の形態2に係る通信端末による情報検索方法の具体例を示すフローチャートである。 本発明の実施の形態3に係る通信端末による情報検索方法の具体例を示すフローチャートである。 本発明の実施の形態4に係る通信端末の構成例を示すブロック図である。 本発明の実施の形態4に係る通信端末による情報検索方法の具体例を示すフローチャートである。 発明の実施の形態4に係る通信端末による代替画像の指定方法の具体例を示すフローチャートである。 本発明の実施の形態5に係る通信端末の構成例を示すブロック図である。 本発明の実施の形態5に係る通信端末による情報検索方法の具体例を示すフローチャートである。
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
<発明の実施の形態1>
図1は、本実施の形態に係る通信端末を含むネットワーク構成を示す図である。通信端末1は、無線又は有線のトランシーバを有し、ネットワーク8を介して検索システム9と通信可能である。通信端末1の具体例は、携帯電話端末、スマートフォン、タブレットコンピュータ、ノートPC、デスクトップPC、通信機能を有するテレビ放送受信機を含む。ネットワーク8は、IP(Internet Protocol)ネットワーク等のデータ転送網である。ネットワーク8は、有線ネットワークでもよいし、無線ネットワークでもよいし、これらの組み合わせであってもよい。ネットワーク8は、例えば、通信事業者の無線アクセスネットワーク及びパケットコアネットワーク、IP専用線、公衆インターネットを含む。
通信端末1は、ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、視聴者によって動画中から選択された対象画像を検索システム9に送信する。対象画像は、1画面(1フレーム)分の画像でもよいし、画面内の一部に相当する部分画像であってもよい。通信端末1における対象画像の選択方法の詳細については後述する。
検索システム9は、通信端末1から受信した対象画像を用いて類似画像検索を行うことにより、対象画像に映されている被写体を特定する。さらに、検索システム9は、特定された被写体に関連する属性情報を通信端末1に送信する。被写体は、上述したように、例えば、人、動物、植物、製品、アニメキャラクターなどである。また、被写体の属性情報は、例えば、名前、国籍、出身地、又は生年月日等の人物プロフィール、キャラクターの名称、製品名、製造者、発売日、価格、URL(Uniform Resource Locator)などである。
検索システム9は、インターネット上に配置された汎用的な画像検索サーバであってもよい。また、検索システム9は、特定の動画に特化した検索システムであってもよい。例えば、検索システム9は、テレビ放送に表示される人物(出演者)の検索に特化したシステムであってもよい。この場合、検索システム9は、検索が行われる時間帯に放送されているテレビ番組の情報を利用することで、対象画像と優先的に照合すべき画像を決定してもよい。具体的には、検索システム9は、検索が行われる時間帯に放送されているテレビ番組の出演者の画像を優先的に対象画像と照合すればよい。
上述したように、通信端末1は、視聴者(i.e. 端末1の利用者)によって動画中から選択された対象画像を検索システム9に送る。そのために、視聴者は、検索を希望する被写体が映った対象画像を指定する操作を通信端末1に対して行う必要がある。しかしながら、視聴者が被写体の検索を決意してから視聴者がこの操作をし終えるまでに動画の表示内容が変化し、視聴者が検索しようとした被写体が画面内の別の位置に移動したり、画面内に存在しなくなったりすることが想定される。つまり、動画の表示画面は刻々と変化するため、この対象画像の選択操作を行うことが難しいという問題がある。
例えば、動画中の被写体を指定する方法の1つとして、通信端末のディスプレイに所望の被写体が表示されたタイミングにおいて、入力デバイス13としてのタッチパネルを視聴者が操作することが考えられる。例えば、その下のディスプレイに所望の被写体が表示されているタッチパネル上の範囲を視聴者が指で囲むように(e.g. 円を描くように)触ることによって、被写体の指定を行えばよい。しかしながら、動画の表示内容は時間の経過に従って変化する。このため、視聴者が被写体の検索を決意してからタッチパネルの操作を終えるまでに動画の表示内容が変化し、視聴者が検索しようとした被写体が画面内の別の位置に移動したり、画面内に存在しなくなったりすることが想定される。
この問題に対処するため、通信端末1は、この対象画像を指定する操作を支援する機能を有する。すなわち、通信端末1は、視聴者による操作の実行に要する遅延時間を補償するために、視聴者の操作に基づいて定まる基準時点より前にディスプレイに表示されていた画像を対象画像として決定するよう構成されている。ここで、基準時点は、視聴者の操作の完了時点以前である。以下では、通信端末1の構成例及び動作について詳細に説明する。
図2は、通信端末1の構成例を示すブロック図である。図2に示された通信端末1は、無線通信機能を有する。プロセッサ10は、端末1の制御、監視、情報処理を行う。プロセッサ10は、複数のコンピュータ(e.g. MPU(Micro Processing Unit)、マイクロコントローラ)の組み合わせであってもよい。より具体的に述べると、プロセッサ10は、動画に表示されている被写体の属性情報の検索を実現するために、ディスプレイ12への動画表示、対象画像を選択する操作の受付、検索システム9とのデータ送受信を行う。プロセッサ10は、指定制御部14及び検索制御部15を含む。指定制御部14及び検索制御部15の詳細については後述する。
無線通信部11は、基地局(又は無線アクセスポイント)を介して無線通信ネットワークに接続する。無線通信部11は、送信データに対する伝送路符号化、インタリービング、変調(送信シンボルマッピング)、周波数アップコンバージョン、信号増幅等の各処理を行って送信信号を生成する。また、無線通信部11は、アンテナによる受信信号に対して信号増幅、周波数ダウンコンバージョン、復調、誤り訂正復号等の各処理を行って受信データを生成する。無線通信部11には、公知のセルラ通信方式、例えば、UTRA(UMTS Terrestrial Radio Access)、E−UTRA(Evolved UTRA)、GSM(Global System for Mobile Communications)(登録商標)、無線LAN(Local Area Network)、WiMAX(Worldwide Interoperability for Microwave Access)等に準拠した送受信機を用いればよい。
ディスプレイ12は、視聴者(端末1の利用者)が視認できるように動画を含む画像の表示を行う。ディスプレイ12の具体例は、液晶ディスプレイ(LCD:Liquid Cristal Display)、EL(electroluminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイである。
ディスプレイ12に表示される動画は、通信端末1に搭載されたカメラ(不図示)によって撮影された映像であってもよい。また、この動画は、通信端末1に内蔵されたメモリ(e.g. 光ディスク、ハードディスク、フラッシュメモリ)又は無線通信部11を介してアクセス可能な外部装置から取得された符号化動画データ(e.g. MPEG-2データ、MPEG-4データ)の再生画像であってもよい。
入力デバイス13は、ユーザによる操作を受け付けるデバイスである。入力デバイス13は、視聴者(端末1の利用者)の手によって操作されるポインティングデバイス、視聴者の音声を集音するマイクロフォン、及び視聴者の視線によって操作されるポインティングデバイスのうち少なくとも1つを含む。また、視聴者の手によって操作されるポインティングデバイスの具体例は、タッチパネル、タッチパッド、及びマウスを含む。
指定制御部14は、ディスプレイ12に表示されている動画に映った被写体の属性情報の検索のために、この動画に含まれる対象画像の指定を視聴者による入力デバイス13の操作によって受け付ける。例えば、入力デバイス13がタッチパネルである場合、視聴者は、ディスプレイ12に所望の被写体が表示されているタイミングにおいて、被写体の表示範囲を指で囲むように(e.g. 円を描くように)タッチパネルを触ることによって、被写体の指定を行えばよい。また、視聴者は、被写体の指定のために、被写体の一点をタッチする操作を行なってもよい。この場合、指定制御部14は、視聴者によってタッチされた一点を含む領域に対して顔認識などの画像認識処理を行うことによって、被写体が含まれる画像領域を特定すればよい。
入力デバイス13がその他のポインティングデバイスである場合、視聴者は、被写体の表示範囲をポインタで囲むように(e.g. 円を描くように)、ポインティングデバイスを操作すればよい。また、視聴者は、被写体の指定のために、被写体の一点をポインタで指定する操作を行なってもよい。
また、入力デバイス13がマイクロフォンを含む場合、視聴者は被写体を特定するための単語又はフレーズ(e.g. 男性、女性、犬、猫、花、自動車など)をマイクロフォンに入力してもよい。この場合、後述する検索制御部15は、視聴者が単語又はフレーズを入力したタイミングによって対象画像を特定してもよいし、視聴者による他の入力デバイス(e.g. タッチパネル、マウス、操作ボタン等)の操作によって対象画像を特定してもよい。このとき、対象画像は、部分画像ではなく一画面全体の画面画像であってもよい。検索制御部15は、画面画像としての対象画像と、視聴者が入力した単語又はフレーズとを検索システム9に送信すればよい。検索システム9は、視聴者が入力した単語又はフレーズに対応する被写体を対象画像の中から認識し、この認識した被写体像を用いて類似画像検索を行えばよい。
さらに、指定制御部14は、視聴者による対象画像の指定操作の実行に要する遅延時間を補償するために、視聴者による操作に基づいて定まる基準時点より前にディスプレイ12に表示されていた画像を対象画像として決定する。ここで、基準時点は、視聴者による操作の完了時点以前である。言い換えると、指定制御部14は、少なくとも操作の完了時点より前にディスプレイ12に表示されていた画像を対象画像として決定する。基準時点は、例えば、対象画像の指定操作の完了時点、当該指定操作の開始時点、又は当該指定操作に要した期間の中央の時点とすればよい。
視聴者による操作の基準時点(e.g. 操作の完了時点)よりどの程度前の画像を対象画像とするかは、静的に定めてもよいし、視聴者に応じて又は動画に応じて変更してもよい。静的に定める場合には、人の平均的な反応速度を考慮して、基準時点から遡る期間(以下、シフト時間と呼ぶ)を決定すればよい。
一方、視聴者に応じてシフト時間を動的に定める場合には、視聴者の反応速度を測定するキャリブレーションを行なってもよい。具体的には、テスト用の動画を表示し、テスト用の動画に特定の被写体が映し出された後に視聴者がその被写体の表示範囲を選択する操作を完了するまでに要する時間を計測し、計測された時間の長さに応じてシフト時間を決定すればよい。また、人の平均的な反応速度に基づいたシフト時間の初期値を視聴者が自由に変更できるようにしてもよい。例えば、視聴者が端末1を操作することによって、シフト時間が長すぎること(過去に遡り過ぎであること)及びシフト時間が短すぎること(遡りが不十分であること)を補正できるようにしてもよい。視聴者が対象画像を指定する操作の完了までに要する時間は、視聴者の年齢などの影響によって個々に異なると想定される。したがって、シフト時間を視聴者に応じて変更することで、視聴者が意図した対象画像をより適切に特定することができる。
また、動画に応じてシフト時間を動的に定める場合には、動画に映った被写体の動きの速さに応じてシフト時間を変更するとよい。動画に応じてシフト時間を変更する具体例については、他の実施の形態(実施の形態3)において詳しく説明する。
検索制御部15は、指定制御部14により特定された対象画像又はその代替画像を、無線通信部11を介して検索システム9に送信する。そして、検索制御部15は、対象画像又はその代替画像に基づいて検索された属性情報を、無線通信部11を介して検索システム9から受信する。ここで代替画像は、指定制御部14により特定された対象画像と実質的に同一の被写体を含むが、対象画像よりも画質が優れる等の理由によって類似画像検索に適した画像である。代替画像を利用する例については、他の実施の形態(実施の形態4)において詳細に説明する。
図3は、本実施の形態に係る通信端末1による情報検索方法の具体例を示すフローチャートである。ステップS1では、通信端末1は、ディスプレイ12に動画を表示する。ステップS2では、通信端末1は、対象画像を指定するための視聴者による入力デバイス13の操作を受け付ける。ステップS3では、通信端末1は、視聴者による操作の基準時点より前に表示された画像、言い換えると、少なくとも視聴者による操作の完了時点より前にディスプレイ12に表示されていた画像、を対象画像として決定する。ステップS4では、通信端末1は、決定された対象画像又はその代替画像を検索システム9に送信する。最後に、ステップS5では、通信端末1は、検索システム9から属性情報を受信する。
続いて以下では、シフト時間を用いて対象画像の特定を行うことの利点について、図4A〜4D並びに図5を用いて説明する。なお、図4A〜4D並びに図5は、一例として、入力デバイス13がタッチパネルである場合について示している。視聴者は、被写体の表示範囲を指で囲むようにタッチパネルを指で触ることによって、部分画像としての対象画像を指定する。
図4A〜4Cの各々は、被写体401が映されたディスプレイ12の一画面の画像40を示している。ここでは、被写体401は、人物である。ディスプレイ12の表示は、時間の経過にそって、図4A、図4B、図4Cの順序で変化するものとする。つまり、図4A〜4Cにて白抜き矢印で示されているように、被写体401は、画面の右方向に移動する。
視聴者は、図4Aのタイミングにおいて被写体401の属性情報の検索を決意し、図4Bのタイミングにおいて被写体401の顔部分を囲むように選択する操作を開始する。図4Bの操作軌跡402は、視聴者が指で触った軌跡を示している。そして、図4Cの操作軌跡403は、視聴者が操作を完了した時点の操作軌跡を示している。しかしながら、動画の表示内容は刻々と変化する。したがって、図4Cの時点では、被写体401は、画面右方向に移動しており、視聴者による操作軌跡403によって囲まれた範囲内に所望の被写体401の像は存在していない。
このような視聴者の操作の実行に要する遅延時間を補償するため、本実施の形態に係る通信端末1は、例えば、操作の完了時点を基準時点とし、基準時点よりも予め定められたシフト時間(又は、視聴者若しくは動画に応じて決定されたシフト時間)だけ前の画像を対象画像として採用する。例えば、シフト時間によって操作の開始時点まで遡ることによって、図4Dに示す画像43のように、被写体401を正しく選択することが可能となる。
なお、図4A〜4Dの例は、視聴者が操作を開始してから操作を完了するまでの遅延時間の補償について説明した。しかしながら、視聴者が検索の実施を決意してから、そのための操作を開始するまでにも遅延時間が存在する。例えば、視聴者が動画中の被写体を検索しようとしてから実際に入力デバイス13を操作するまでの遅延時間の間に動画の表示内容が変化し、被写体が表示されなくなることが想定される。この問題に対処するためには、例えば、視聴者の操作の開始時点を基準時点とし、視聴者の操作の開始時点からシフト時間だけ前の表示画像を対象画像として選択すればよい。これにより、視聴者が検索の実施を決意した時点に近い表示画像を対象画像として選択することができる。
図4A〜4Dに示した対象画像の指定手順は一例に過ぎない。対象画像(被写体)の指定を容易にするため、又は対象画像(被写体)を指定する操作に要する遅延時間を短くするためには、対象画像(被写体)を指定する操作をより簡易化できるとよい。例えば、通信端末1(指定制御部14)は、動画中に表示された被写体を自動認識し、自動認識された被写体の中から選択対象とすべき被写体の指定を視聴者の操作によって受け付けてもよい。人物を特定する場合、図5に示すように、通信端末1は、被写体401が映されたディスプレイ12の一画面の画像40に対して顔認識処理を行い、検出された人物の顔を含む顔領域を示す枠404を画像40に重ねて表示してもよい。そして、通信端末1は、例えば、入力デバイス13を用いて、枠404を指定する視聴者の操作を受け付ければよい。例えば、入力デバイス13がタッチパネルである場合、視聴者が枠404又はその内側の領域をタッチする操作を、対象画像の指定操作として用いればよい。なお、画像40に複数の被写体(e.g. 複数の人物)が表示されている場合、通信端末1は、検出された複数の被写体領域(e.g. 顔領域)を枠404等によって表示すればよい。つまり、通信端末1が、被写体の自動認識機能を用いて対象画像の候補を提示することによって、対象画像(被写体)を指定する操作をより簡易化できるため、対象画像(被写体)を指定する操作に要する遅延時間を短くできる。
しかしながら、図5に示したような被写体の自動認識機能を用いることで、視聴者の操作に要する時間が短縮された場合であっても、視聴者が検索の実施を決意してから、そのための操作を行うまでの遅延時間は少なくとも存在する。したがって、視聴者の操作に関する基準時点(e.g. 操作の開始時点、中央時点、又は完了時点)からシフト時間だけ前の表示画像を対象画像として選択すればよい。ここでのシフト時間は、視聴者が検索の実施を決意してから、そのための操作を行うまでの遅延時間を考慮して決定すればよい。これにより、視聴者が検索の実施を決意した時点に近い表示画像を対象画像として選択することができる。
動画の表示画面が刻々と変化するために、動画中の被写体(対象画像)の選択操作を行うことが難しいという問題は、あらゆる動画に関して発生し得ることは勿論である。したがって、本実施の形態に係る通信端末1は、ディスプレイ12に表示される動画の種別に依らず有効である。しかしながら、動画中の被写体の指定に関する上述の問題は、視聴者がテレビ放送を見ている場合に特に影響が大きい。なぜなら、テレビ放送は、一般的に、視聴者自身の意思で自由に再生を一時停止したり、巻き戻したりすることができないためである。したがって、本実施の形態に係る通信端末1は、ディスプレイ12に表示されている動画がテレビ放送である場合に特に有効である。
ところで、本実施の形態で説明した指定制御部14及び検索制御部15により行われる処理は、ASIC(Application Specific Integrated Circuit)を含む半導体処理装置を用いて実現してもよい。また、これらの処理は、マイクロプロセッサ、DSP(Digital Signal Processor)等のコンピュータにプログラムを実行させることによって実現してもよい。図1〜4を用いて説明したアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを作成し、当該プログラムをコンピュータに供給すればよい。
このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
通信端末1がコンピュータシステムを用いて製造される場合の構成例を図6に示す。LCD121は、ディスプレイ12の具体例である。タッチパネル131及びマイク132は、入力デバイス13の具体例である。不揮発性記憶部102(例えばフラッシュメモリ、又はハードディスクドライブ)に格納されたオペレーティングシステム(OS:Operating System)103及び検索アプリケーションプログラム104は、RAM(Random Access Memory)101にロードされる。MPU(Micro Processing Unit)100がRAM101にロードされたOS103及び検索アプリケーションプログラム104を実行することにより、指定制御部14及び検索制御部15の機能が実現される。
<発明の実施の形態2>
本実施の形態では上述した発明の実施の形態1にかかる通信端末1の第1の変形例について説明する。本実施の形態では、通信端末1は、視聴者の操作に関する基準時点(e.g. 操作開始時点、又は操作完了時点)より前の第1の期間内における動画のシーン変化の有無を判定する。そして、端末1は、シーン変化があった場合に、シーン変化より前の画像を対象画像として決定する。なお、シーン変化の有無は、基準時点に係る画像と基準時点より前の画像を比較することによって判定すればよい。具体的に述べると、2つの画像間において、画素毎又は複数の画素を含む画素ブロック毎の画素値の変化の大きさを計算し、画素値の変化量が所定の基準を超える場合にシーン変化有りと判定すればよい。
動画内での被写体の動きが小さい場合、視聴者は比較的容易に被写体を指定することができる。しかしながら、テレビ放送や映画においては、シーンが不連続に切り替わることがある。したがって、視聴者が被写体の検索を決意してからそのための操作を開始するまでの間にちょうどシーン変化が発生すると、視聴者は、被写体を検索する機会を失ってしまうおそれがある。しかしながら、本実施の形態では、シーン変化の有無を判定し、シーン変化があった場合に、シーン変化より前の画像を対象画像として決定する。このため、視聴者が検索を求める対象画像を適切に選択することができる。
図7は、本実施の形態に係る通信端末1による情報検索方法の具体例を示すフローチャートである。図7中のステップS1、S2、S4、及びS5における処理は、図3に示された同一符号のステップとそれぞれ同様である。したがって、これらのステップに関する重複説明は省略する。
図7のステップS31〜S34は、図3のステップS3の変形例を示している。ステップS31では、通信端末1(指定制御部14)は、視聴者による操作の基準時点(e.g. 操作の開始時点)より前の所定期間内におけるシーン変化の有無を判定する。なお、発明の実施の形態1で述べたことから理解されるように、ステップS31の所定期間は、静的に決定されてもよいし、視聴者又は動画に応じて動的に決定されてもよい。シーン変化があった場合(ステップS32でYES)、通信端末1(指定制御部14)は、シーン変化の前の画像を対象画像として決定する(ステップS33)。一方、シーン変化が検出されなかった場合(ステップS32でNO)、通信端末1(指定制御部14)は、視聴者による操作の基準時点の画像を対象画像として選択してもよいし、それより前の画像を選択してもよい(ステップS34)。
<発明の実施の形態3>
本実施の形態では上述した発明の実施の形態1にかかる通信端末1の第2の変形例について説明する。本実施の形態では、通信端末1は、動画に含まれる被写体の動きの速さに応じて、シフト時間を変更する。言い換えると、本実施の形態に係る通信端末1は、動画に含まれる複数の画像の間における動きベクトルの大きさに応じて、シフト時間を変更する。
被写体の動きの速さを判定するためには、動画に含まれる複数の画像の間の動きベクトルを計算し、動きベクトルの大きさを求めればよい。例えば、動画に映った被写体の動きが早いほど、つまり動きベクトルが大きいほど、シフト時間が相対的に長くなるようにしてもよい。被写体の動きが早いほど、視聴者の操作に戸惑いが生じたり、正確に被写体を選択しようとするあまりに操作の完了まで時間を要したりすることが想定される。したがって、動画に映った被写体の動きが早いほど、つまり動きベクトルが大きいほど、シフト時間を大きくすることで、視聴者が意図した対象画像をより適切に特定することができる。
図8は、本実施の形態に係る通信端末1による情報検索方法の具体例を示すフローチャートである。図8中のステップS1、S2、S4、及びS5における処理は、図3に示された同一符号のステップとそれぞれ同様である。したがって、これらのステップに関する重複説明は省略する。
図8のステップS35〜S37は、図3のステップS3の変形例を示している。ステップS35では、通信端末1(指定制御部14)は、動画中の複数の画像間における動きベクトルを計算する。ステップS36では、通信端末1(指定制御部14)は、計算された動きベクトルの大きさに応じてシフト時間を決定する。ステップS37では、通信端末1(指定制御部14)は、視聴者による操作の基準時点よりシフト時間だけ前の表示画像を対象画像として決定する。
<発明の実施の形態4>
本実施の形態では上述した発明の実施の形態1にかかる通信端末1の第3の変形例について説明する。具体的には、本実施の形態は、指定制御部14により決定された対象画像に対応する代替画像を検索システム9に送信する例を示す。
図9は、本実施の形態に係る通信端末4の構成例を示すブロック図である。通信端末4は、外部のテレビ受信機等に表示されているテレビ放送の画面を、端末4に搭載されたカメラ161によって撮影することにより得られる映像をディスプレイ12に表示する。
指定制御部14は、上述した実施の形態1〜3に記載されたいずれかの方法に従って、ディスプレイ12に表示された動画(つまり、カメラ161によって撮影されたテレビ放送画面を含む映像)から対象画像を決定する。
検索制御部45は、指定制御部14により決定された対象画像に対応する代替画像を取得する。具体的に述べると、検索制御部45は、カメラ161で撮影された後にディスプレイ12に表示された対象画像と実質的に同一時刻におけるテレビ放送の画像を、端末1に搭載されたテレビチューナー162を用いることによって代替画像として取得する。
本実施の形態は、視聴者が一般的なテレビ放送受信機を用いてテレビ番組を視聴しているときに、その出演者の氏名などの属性情報を検索するケースを想定している。なお、カメラ161で撮影された後にディスプレイ12に表示された動画に対して、上述した実施の形態1〜3で述べたいずれかの情報検索方法を用いることによっても、視聴者は、所望の属性情報を取得できることは勿論である。しかしながら、カメラ161で撮影されたテレビ放送画面は、端末4に搭載されたテレビチューナー162によって得られる映像よりも画質が劣る場合がある。例えば、テレビ放送受信機の画面を遠方から撮影している場合、又は撮影時に手ぶれが生じた場合に画質が劣化する。本実施の形態では、テレビチューナー162によって得られた映像を代替画像として用いるため、対象画像よりも画質が優れている代替画像を類似画像検索のために使用できる利点がある。
なお、代替画像を決定するためには、カメラ161により撮影されたテレビ放送画面のチャンネルを識別する必要がある。例えば、検索制御部45は、カメラ161の画像とテレビチューナー162の画像とを比較することによって、若しくはマイクロフォン(不図示)によって取得された音声とテレビチューナー162の音声とを比較することによって、又はこれらの組み合わせによって、カメラ161により撮影されているテレビ放送画面とテレビチューナー162の映像とのチャンネルの一致を判定すればよい。また、検索制御部45は、カメラ161によって撮影されたテレビ放送画面に含まれているチャンネル情報を文字検出してもよい。さらにまた、これらの自動的なチャンネルの識別に代えて、視聴者が端末4を操作することによってチャンネルを指定してもよい。
図10は、本実施の形態に係る通信端末4による情報検索方法の具体例を示すフローチャートである。図10中のステップS2、S3、及びS5における処理は、図3に示された同一符号のステップとそれぞれ同様である。したがって、これらのステップに関する重複説明は省略する。
ステップS11では、通信端末4は、テレビ放送画面をカメラ161で撮影して得られる動画をディスプレイ12に表示する。ステップS41では、通信端末4は、ステップS3で決定された対象画像に関する代替画像を、テレビチューナー162によって得られる映像から取得する。ステップS42では、通信端末4は、代替画像を検索システム9に送信する。
さらに、視聴者がカメラ161を用いてテレビ放送画面を撮影する場合、テレビ放送画面をカメラ161の画枠にぴったりと合わせて撮影できるとよい。しかしながら、被写体検索のためにテレビ放送画面を急いで撮影する場合を考慮すると、テレビ放送画面をカメラ161の画枠にぴったりと合わせて撮影することは容易ではない。また、視聴者の利便性を考えると、テレビ放送画面の撮影をもっと容易に行えることが望ましい。したがって、通信端末4は、カメラ161による撮影画像に映ったテレビ放送画面を検出してもよい。テレビ放送画面の検出を行う具体例について図11を用いて説明する。
図11は、図10のステップS41の具体例を示すフローチャートである。ステップS411では、検索制御部45は、カメラ161による撮影画像の中からテレビ放送画面を検出する。具体的に述べると、検索制御部45は、カメラ161による撮影画像の中からテレビ放送受信機の四角形のフレームを検知すればよい。
ステップS412では、検索制御部45は、カメラ161による撮影画像内におけるテレビ放送画面の位置及び大きさに基づいて、視聴者(端末4の利用者)により選択された部分画像を特定する。
ステップS413では、検索制御部45は、視聴者により選択された部分画像に対応するテレビチューナー162による映像を代替画像として決定する。
<発明の実施の形態5>
本実施の形態では上述した発明の実施の形態1にかかる通信端末1の第4の変形例について説明する。図12は、本実施の形態に係る通信端末5の構成例を示すブロック図である。通信端末5は、録画制御部16を有する。録画制御部16は、テレビチューナー162を用いることにより、検索システム9から取得された属性情報に関連するテレビ放送番組を自動的に録画する。
図13は、本実施の形態に係る通信端末5による情報検索方法の具体例を示すフローチャートである。図13中のステップS1〜S5における処理は、図3に示された同一符号のステップとそれぞれ同様である。したがって、これらのステップに関する重複説明は省略する。
図13のステップS6では、通信端末5(録画制御部16)は、検索システム9から取得された属性情報に関連するテレビ放送番組を自動的に録画する。例えば、録画制御部16は、属性情報に含まれる被写体の人名に対応する人物が出演するテレビ番組を自動的に録画すれよい。録画制御部16は、テレビ番組表を取得したり、テレビ番組の出演者情報を保持するサーバ(例えば、World Wide Webサーバ)にアクセスしたりすることによって、属性情報に含まれる人名に対応する人物が出演するテレビ番組を決定すればよい。
本実施の形態によれば、通信端末5は、テレビ番組を視聴中の視聴者がその番組の出演者の画像を指定して画像検索を指示したことに応じて、その出演者が今後出演する他のテレビ番組を簡単に自動的に予約することができる。つまり、視聴者は、出演者の名前を知らない場合であっても、その出演者が出演する他の番組の録画予約を行うことができる。
<その他の実施の形態>
上述した発明の実施の形態1〜5では、ディスプレイ12、入力デバイス13、カメラ161、及びテレビチューナー162が、プロセッサ10と共に、通信端末1、4、及び5に搭載されている例について説明した。しかしながら、これらのデバイスは、プロセッサ10と結合されていればよく、一体の通信端末として構成される必要はない。例えば、これらのデバイス及びプロセッサ1は、無線LAN又はBluetooth(登録商標)などの無線通信機能、若しくは有線通信機能を用いて通信可能であればよい。
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
この出願は、2011年12月8日に出願された日本出願特願2011−268994を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、4、5 通信端末
10 プロセッサ
11 無線通信部
12 ディスプレイ
13 入力デバイス
14 指定制御部
15 検索制御部
16 録画制御部
40〜43 画像
45 検索制御部
8 ネットワーク
9 検索システム
100 MPU(Micro Processing Unit)
101 RAM(Random Access Memory)
102 不揮発性記憶部
103 オペレーティングシステム
104 検索アプリケーションプログラム
121 LCD(Liquid Crystal Display)
131 タッチパネル
132 マイク
161 カメラ
162 テレビチューナー
401 被写体
402、403 操作軌跡
404 顔領域を示す枠

Claims (38)

  1. ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、前記動画に含まれる対象画像の指定を利用者による入力デバイスの操作によって受け付ける指定制御手段と、
    前記対象画像又はその代替画像を検索システムに送信するとともに、前記対象画像又は前記代替画像に基づいて検索された属性情報を前記検索システムから受信する検索制御手段と、
    を備え、
    前記指定制御手段は、前記操作の実行に要する遅延時間を補償するために、前記操作の完了時点以前である前記操作の基準時点よりも前に前記ディスプレイに表示されていた画像を前記対象画像として決定する、
    情報処理装置。
  2. 前記指定制御手段は、前記基準時点より前の第1の期間内における前記動画のシーン変化の有無を判定するとともに、前記シーン変化があった場合に前記シーン変化より前の画像を前記対象画像として決定する、請求項1に記載の情報処理装置。
  3. 前記指定制御手段は、前記基準時点に係る画像と前記基準時点より前の画像を比較することによって、前記シーン変化の有無を判定する、請求項2に記載の情報処理装置。
  4. 前記指定制御手段は、前記基準時点より第1の期間だけ前に表示されていた画像を前記対象画像として決定する、請求項1に記載の情報処理装置。
  5. 前記指定制御手段は、前記第1の期間を変更可能である、請求項2〜4のいずれか1項に記載の情報処理装置。
  6. 前記指定制御手段は、前記利用者の反応時間を測定するためのキャリブレーションを実施し、前記反応時間に応じて前記第1の期間を決定する、請求項5に記載の情報処理装置。
  7. 前記指定制御手段は、前記動画に含まれる複数の画像の間における動きベクトルの大きさに応じて、前記第1の期間を決定する、請求項5に記載の情報処理装置。
  8. 前記指定制御手段は、前記動きベクトルの大きさが大きい程、前記第1の期間が相対的に長くなるように決定する、請求項7に記載の情報処理装置。
  9. 前記基準時点は、前記操作の完了時点、前記操作の開始時点、又は前記操作に要した期間の中央の時点である、請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記動画は、前記情報処理装置に結合されたカメラによって撮影される映像である、
    請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記動画は、テレビ放送の表示画面を前記カメラによって撮影することにより得られる映像である、請求項10に記載の情報処理装置。
  12. 前記検索制御手段は、
    前記カメラで撮影された後に前記ディスプレイに表示された前記対象画像と実質的に同一時刻におけるテレビ放送の画像を、前記情報処理装置に結合されたテレビチューナーを用いることにより前記代替画像として取得し、
    前記代替画像を前記検索システムに送信する、
    請求項11に記載の情報処理装置。
  13. 前記検索制御手段は、
    前記カメラによる撮影画像から前記テレビ放送の表示画面を検出し、
    前記撮影画像内における前記表示画面の大きさ及び位置に基づいて、前記テレビチューナーによる映像の中から前記代替画像を取得する、
    請求項12に記載の情報処理装置。
  14. 前記対象画像は、前記動画に含まれる一画面の画像の部分画像である、請求項1〜13のいずれか1項に記載の情報処理装置。
  15. 前記指定制御手段は、前記動画に含まれる画像から被写体を自動認識するとともに、認識された被写体を示す表示を前記ディスプレイに出力し、
    前記操作は、前記被写体を示す表示を指定することを含む、請求項14に記載の情報処理装置。
  16. 前記入力デバイスは、前記ディスプレイの前面に配置されたタッチパネルを含み、
    前記操作は、前記ディスプレイに所望の被写体が表示されている前記タッチパネル上の範囲を前記利用者が指で囲むように触ることを含む、
    請求項14に記載の情報処理装置。
  17. 前記入力デバイスは、前記利用者の音声を集音するマイクロフォンを含み、
    前記検索制御手段は、前記部分画像としての前記対象画像を含む前記一画面の画像と、前記マクロフォンによって入力された前記被写体を指定するための音声情報を前記検索システムに送信する、
    請求項14に記載の情報処理装置。
  18. 前記情報処理装置に結合されたテレビチューナーを用いることにより、前記検索システムから取得した前記属性情報に関連するテレビ放送番組を自動的に録画する録画制御手段をさらに備える、請求項1〜17のいずれか1項に記載の情報処理装置。
  19. 請求項1〜17のいずれか1項に記載の情報処理装置と、
    前記ディスプレイと、
    前記入力デバイスと、
    前記検索制御手段による前記対象画像の送信、及び前記属性情報の受信のために使用される通信手段と、
    を備える通信端末。
  20. 前記入力デバイスは、前記利用者の手によって操作されるポインティングデバイス、前記利用者の音声を集音するマイクロフォン、及び前記利用者の視線によって操作されるポインティングデバイスのうち少なくとも1つを含む、請求項19に記載の通信端末。
  21. 情報処理装置による情報検索方法であって、
    ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、前記動画に含まれる対象画像の指定を利用者による入力デバイスの操作によって受け付けること、
    前記対象画像又はその代替画像を検索システムに送信すること、及び
    前記対象画像又は前記代替画像に基づいて検索された属性情報を前記検索システムから受信すること、
    を備え、
    前記受け付けることは、前記操作の実行に要する遅延時間を補償するために、前記操作の完了時点以前である前記操作の基準時点よりも前に前記ディスプレイに表示されていた画像を前記対象画像として決定することを含む、
    情報検索方法。
  22. 前記対象画像として決定することは、前記基準時点より前の第1の期間内における前記動画のシーン変化の有無を判定するとともに、前記シーン変化があった場合に前記シーン変化より前の画像を前記対象画像として決定することを含む、請求項21に記載の情報検索方法。
  23. 前記対象画像として決定することは、前記基準時点に係る画像と前記基準時点より前の画像を比較することによって、前記シーン変化の有無を判定することを含む、請求項22に記載の情報検索方法。
  24. 前記対象画像として決定することは、前記基準時点より第1の期間だけ前に表示されていた画像を前記対象画像として決定することを含む、請求項21に記載の情報検索方法。
  25. 前記第1の期間を変更することをさらに備える、請求項22〜24のいずれか1項に記載の情報検索方法。
  26. 前記第1の期間を変更することは、前記利用者の反応時間を測定するためのキャリブレーションを実施し、前記反応時間に応じて前記第1の期間を決定することを含む、請求項25に記載の情報検索方法。
  27. 前記第1の期間を変更することは、前記動画に含まれる複数の画像の間における動きベクトルの大きさに応じて、前記第1の期間を決定することを含む、請求項25に記載の情報検索方法。
  28. 前記第1の期間は、前記動きベクトルの大きさが大きい程、相対的に長くなるように決定される、請求項27に記載の情報検索方法。
  29. 前記基準時点は、前記操作の完了時点、前記操作の開始時点、又は前記操作に要した期間の中央の時点である、請求項21〜28のいずれか1項に記載の情報検索方法。
  30. 前記動画は、前記情報処理装置に結合されたカメラによって撮影される映像である、
    請求項21〜29のいずれか1項に記載の情報検索方法。
  31. 前記動画は、テレビ放送の表示画面を前記カメラによって撮影することにより得られる映像である、請求項30に記載の情報検索方法。
  32. 前記送信することは、
    前記カメラで撮影された後に前記ディスプレイに表示された前記対象画像と実質的に同一時刻におけるテレビ放送の画像を、前記情報処理装置に結合されたテレビチューナーを用いることにより前記代替画像として取得すること、及び
    前記代替画像を前記検索システムに送信すること、
    を含む、請求項31に記載の情報検索方法。
  33. 前記取得することは、
    前記カメラによる撮影画像から前記テレビ放送の表示画面を検出すること、及び
    前記撮影画像内における前記表示画面の大きさ及び位置に基づいて、前記テレビチューナーによる映像の中から前記代替画像を取得すること、
    を含む、請求項32に記載の情報検索方法。
  34. 前記対象画像は、前記動画に含まれる一画面の画像の部分画像である、請求項21〜33のいずれか1項に記載の情報検索方法。
  35. 前記動画に含まれる画像から被写体を自動認識するとともに、認識された被写体を示す表示を前記ディスプレイに出力することをさらに備え、
    前記操作は、前記被写体を示す表示を指定することを含む、請求項34に記載の情報検索方法。
  36. 前記入力デバイスは、前記ディスプレイの前面に配置されたタッチパネルを含み、
    前記操作は、前記ディスプレイに所望の被写体が表示されている前記タッチパネル上の範囲を前記利用者が指で囲むように触ることを含む、
    請求項34に記載の情報検索方法。
  37. 前記情報処理装置に結合されたテレビチューナーを用いることにより、前記検索システムから取得した前記属性情報に関連するテレビ放送番組を自動的に録画することをさらに備える、請求項21〜36のいずれか1項に記載の情報検索方法。
  38. 情報検索方法をコンピュータに行わせるためのプログラムを格納した非一時的なコンピュータ可読媒体であって、
    前記方法は、
    ディスプレイに表示されている動画に映った被写体の属性情報の検索のために、前記動画に含まれる対象画像の指定を利用者による入力デバイスの操作によって受け付けること、
    前記対象画像又はその代替画像を検索システムに送信すること、及び
    前記対象画像又は前記代替画像に基づいて検索された属性情報を前記検索システムから受信すること、
    を含み、
    前記受け付けることは、前記操作の実行に要する遅延時間を補償するために、前記操作の完了時点以前である前記操作の基準時点よりも前に前記ディスプレイに表示されていた画像を前記対象画像として決定することを含む、
    非一時的なコンピュータ可読媒体。
JP2013548069A 2011-12-08 2012-11-15 情報処理装置、通信端末、情報検索方法、及びプログラム Pending JPWO2013084422A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013548069A JPWO2013084422A1 (ja) 2011-12-08 2012-11-15 情報処理装置、通信端末、情報検索方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011268994 2011-12-08
JP2011268994 2011-12-08
JP2013548069A JPWO2013084422A1 (ja) 2011-12-08 2012-11-15 情報処理装置、通信端末、情報検索方法、及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2013084422A1 true JPWO2013084422A1 (ja) 2015-04-27

Family

ID=48573815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548069A Pending JPWO2013084422A1 (ja) 2011-12-08 2012-11-15 情報処理装置、通信端末、情報検索方法、及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2013084422A1 (ja)
WO (1) WO2013084422A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056102A (ja) * 2013-09-13 2015-03-23 京セラ株式会社 携帯端末、画像検索プログラムおよび画像検索方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7230396B2 (ja) * 2018-09-25 2023-03-01 富士フイルムビジネスイノベーション株式会社 画像処理プログラムおよび画像処理装置、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3380937B2 (ja) * 1994-08-12 2003-02-24 日本電信電話株式会社 動画像内の物体の同定方法及び動画像内の物体の同定装置
JP3511278B2 (ja) * 1996-01-31 2004-03-29 三菱電機株式会社 動画アンカー設定装置
JP3773670B2 (ja) * 1998-09-30 2006-05-10 株式会社東芝 情報呈示方法および情報呈示装置および記録媒体
JP2000132563A (ja) * 1998-10-26 2000-05-12 Omron Corp 画像検索方法,画像処理方法,および情報検索方法、ならびにこれらの方法を実行するためのプログラムが記録された記録媒体,画像処理装置,および情報検索システム
JP2004054435A (ja) * 2002-07-17 2004-02-19 Toshiba Corp ハイパーメディア情報提示方法、ハイパーメディア情報提示プログラムおよびハイパーメディア情報提示装置
JP2008276340A (ja) * 2007-04-26 2008-11-13 Hitachi Ltd 検索装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056102A (ja) * 2013-09-13 2015-03-23 京セラ株式会社 携帯端末、画像検索プログラムおよび画像検索方法

Also Published As

Publication number Publication date
WO2013084422A1 (ja) 2013-06-13

Similar Documents

Publication Publication Date Title
KR101680714B1 (ko) 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체
US8955005B2 (en) Viewer behavior tracking using pattern matching and character recognition
CN106559712B (zh) 视频播放处理方法、装置及终端设备
JP2016538657A (ja) 複数のユーザコメントを検索してコンテンツにオーバーレイすることによるビデオのブラウジング
US20150341698A1 (en) Method and device for providing selection of video
CN110996121A (zh) 信息处理方法及装置、电子设备和存储介质
CN104202624B (zh) 传输图片的方法及装置
US20210090610A1 (en) Video processing method, video playing method, devices and storage medium
JP6385429B2 (ja) ストリーム・メディア・データを再生する方法および装置
CN109862380B (zh) 视频数据处理方法、装置及服务器、电子设备和存储介质
US10728583B2 (en) Multimedia information playing method and system, standardized server and live broadcast terminal
US20140157294A1 (en) Content providing apparatus, content providing method, image displaying apparatus, and computer-readable recording medium
US20230401030A1 (en) Selecting options by uttered speech
CN104272753A (zh) 显示装置、服务器及其控制方法
CN110719530A (zh) 一种视频播放方法、装置、电子设备及存储介质
US9936247B2 (en) Method and apparatus for requesting data, and method and apparatus for obtaining data
CN113542610A (zh) 拍摄方法、移动终端及存储介质
CN109618192B (zh) 播放视频的方法、装置、系统和存储介质
JP2017501598A5 (ja)
CN106254939B (zh) 信息提示方法及装置
CN114025242A (zh) 视频处理方法、视频处理装置和电子设备
JP2011223573A (ja) 表示装置、テレビジョン受像機、表示装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US20140036149A1 (en) Information processor and information processing method
WO2013084422A1 (ja) 情報処理装置、通信端末、情報検索方法、及び非一時的なコンピュータ可読媒体
US20140003656A1 (en) System of a data transmission and electrical apparatus