JP2014530390A - Identifying products using multimedia search - Google Patents

Identifying products using multimedia search Download PDF

Info

Publication number
JP2014530390A
JP2014530390A JP2014528820A JP2014528820A JP2014530390A JP 2014530390 A JP2014530390 A JP 2014530390A JP 2014528820 A JP2014528820 A JP 2014528820A JP 2014528820 A JP2014528820 A JP 2014528820A JP 2014530390 A JP2014530390 A JP 2014530390A
Authority
JP
Japan
Prior art keywords
signal
readable medium
transitory computer
instructions
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014528820A
Other languages
Japanese (ja)
Inventor
リ、ウェンロン
トーン、シァオフェン
ジャン、イミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Priority to JP2014528820A priority Critical patent/JP2014530390A/en
Publication of JP2014530390A publication Critical patent/JP2014530390A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • G06F17/30
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications

Abstract

テレビ送信から少なくとも1つのデコードされたフレームを抽出することによって、現在視聴されているテレビ番組内の製品を識別することができる。そのフレームは、画像探索を要求し、探索結果を受信するために別のモバイルデバイスに送信することができる。その探索結果を用いて製品を識別することができる。【選択図】図1By extracting at least one decoded frame from the television transmission, a product in the currently watched television program can be identified. The frame can request an image search and can be sent to another mobile device to receive the search results. The product can be identified using the search result. [Selection] Figure 1

Description

本発明は包括的にコンピュータに関し、詳細には、コンピュータ処理による画像解析に関する。   The present invention relates generally to computers, and more specifically to image analysis by computer processing.

アナログ信号又はデジタル信号の無線周波数送信を用いてテレビ番組を放送することによってテレビ映像を配信することができる。さらに、テレビ番組はケーブルシステム及び衛星放送システムを介して配信することもできる。最終的には、テレビ映像はストリーミングを用いてインターネットを介して配信することができる。本明細書において用いられるときに、「テレビ送信」という用語は、これらのテレビ映像配信形式の全てを含む。本明細書において用いられるときに、「テレビ映像」とは、コマーシャルの有無にかかわらず、番組コンテンツの配信を意味し、従来のテレビ番組、及びビデオゲームの配信の両方を含む。   Television images can be distributed by broadcasting television programs using radio frequency transmission of analog or digital signals. Furthermore, television programs can be distributed via cable systems and satellite broadcasting systems. Eventually, television images can be distributed over the Internet using streaming. As used herein, the term “television transmission” includes all of these television video distribution formats. As used herein, “television video” refers to the distribution of program content, with or without commercials, and includes both the distribution of traditional television programs and video games.

ユーザーがどの番組を視聴しているかを判断するシステムが既知である。例えば、IntoNowサービスは、視聴されているテレビ番組からの音声信号を携帯電話上に録音し、それらの信号を解析し、その情報を用いて、視聴者がどの番組を視聴しているかを判断する。音声解析が抱える1つの問題は、周囲雑音からの劣化を受けることである。当然、視聴環境における周囲雑音は共通であり、それゆえ、音声に基づくシステムは著しい制約を受ける。   Systems are known that determine which program a user is viewing. For example, the IntoNow service records audio signals from a TV program being viewed on a mobile phone, analyzes those signals, and uses the information to determine which program the viewer is viewing. . One problem with speech analysis is that it suffers from degradation from ambient noise. Of course, ambient noise in the viewing environment is common and therefore speech based systems are significantly constrained.

本発明の一実施形態のハイレベルアーキテクチャーを示す図である。FIG. 3 illustrates a high level architecture of one embodiment of the present invention. 本発明の一実施形態によるセットトップボックスのブロック図である。1 is a block diagram of a set top box according to an embodiment of the present invention. FIG. 本発明の一実施形態によるモバイルグラバーに関する流れ図である。5 is a flow diagram for a mobile grabber according to an embodiment of the present invention. 本発明の一実施形態によるマルチメディアグラバーに関する流れ図である。3 is a flow diagram for a multimedia grabber according to an embodiment of the invention. 本発明の一実施形態によるショッピングアプリケーションに関する流れ図である。5 is a flow diagram for a shopping application according to an embodiment of the present invention. 一実施形態によるテーブルを維持管理するシーケンスに関する流れ図である。It is a flowchart regarding the sequence which maintains and manages the table by one Embodiment.

幾つかの実施形態によれば、1人又は複数人の視聴者が能動的に選局し、現在視聴しているテレビチャネルから、ビデオフレーム若しくはビデオクリップ、メタデータ又は音声の持続時間限定の電子的表現のようなマルチメディアセグメントを捕捉することができる。一実施形態では、その後、このマルチメディアセグメントは、モバイルデバイスに送信されることができる。その後、そのモバイルデバイスは、テレビ番組内で表現される製品を識別するために、その情報を探索用サーバーに送信することができる。例えば、最終的には、画像探索を用いて、どの製品が表現されているかを判断することができる。製品が識別されると、視聴者に種々の他のショッピングサービスを提供することができる。これらのサービスは、その製品の他の販売元を識別すること、価格比較及び小売店位置特定サービスを含むことができる。   According to some embodiments, one or more viewers are actively tuned and from a currently watching television channel, a video frame or video clip, metadata or audio duration limited electronic A multimedia segment such as a static expression can be captured. In one embodiment, the multimedia segment can then be transmitted to the mobile device. The mobile device can then send the information to the search server to identify the product represented in the television program. For example, ultimately, an image search can be used to determine which product is represented. Once the product is identified, a variety of other shopping services can be provided to the viewer. These services can include identifying other vendors of the product, price comparison and retail location services.

図1を参照すると、テレビ画面20をプロセッサ利用デバイス14に結合することができ、そのデバイスは更にテレビ送信12に結合される。この送信は、アナログ信号又はデジタル信号の無線周波数放送、ケーブル配信、衛星放送配信を含む、インターネットを介して、又は放送電波を介して配信することができる。プロセッサ利用システム14はテレビ受信機とは別のスタンドアローンデバイスとすることができるか、又はテレビ受信機内に統合することができる。例えば、そのシステムは、従来のセットトップボックスの構成要素を含むことができ、実施形態によっては、受信されたテレビ送信をデコードする役割を担うこともできる。   With reference to FIG. 1, a television screen 20 can be coupled to a processor-based device 14 that is further coupled to a television transmission 12. This transmission can be delivered via the Internet or via broadcast radio waves, including analog or digital radio frequency broadcast, cable delivery, satellite broadcast delivery. The processor utilization system 14 can be a stand-alone device separate from the television receiver, or can be integrated within the television receiver. For example, the system can include conventional set-top box components and, in some embodiments, can be responsible for decoding received television transmissions.

一実施形態では、プロセッサ利用システム14は、受信機(一実施形態ではデバイス14の一部とすることができる)によって現在選局されているデコードされたテレビ送信から、ビデオフレーム若しくはビデオクリップ(すなわち、一連のフレーム)、メタデータ又は音声の電子的表現を捕捉するマルチメディアグラバー16を含む。プロセッサ利用システム14は有線又は無線インターフェース18も含むことができ、そのインターフェースによって、捕捉されたマルチメディアを外部制御デバイス24に送信できるようになる。この送信22は、テレビ受信機及びセットトップボックス内で広く利用可能である、ユニバーサルシリアルバス(USB)接続のような有線接続を介して、又は無線周波数信号を用いる送信媒体及び光信号を用いる送信媒体を含む、任意の利用可能な送信媒体を介して行うことができる。   In one embodiment, the processor-based system 14 may receive a video frame or video clip (ie, a video frame or video clip) from a decoded television transmission that is currently tuned by a receiver (which may be part of the device 14 in one embodiment). , A series of frames), a multimedia grabber 16 that captures an electronic representation of metadata or audio. The processor utilization system 14 may also include a wired or wireless interface 18 that allows captured multimedia to be transmitted to the external control device 24. This transmission 22 is widely available in television receivers and set-top boxes, via a wired connection such as a universal serial bus (USB) connection, or a transmission medium using radio frequency signals and transmission using optical signals. This can be done via any available transmission medium, including media.

他の実施形態では、デコードされていないコンテンツを捕捉し、その後、制御デバイス24又は他の場所でデコードすることができる。   In other embodiments, undecoded content can be captured and subsequently decoded at the control device 24 or elsewhere.

制御デバイス24は、数例を挙げると、携帯電話、ラップトップコンピュータ、タブレットコンピュータ、モバイルインターネットデバイス、又はテレビ受信機用のリモートコントロールを含む、モバイルデバイスとすることができる。デバイス24は、デスクトップコンピュータ又はエンタテインメントシステムのような、モバイル以外とすることもできる。一実施形態では、デバイス24及びシステム14は、無線ホームネットワークの一部とすることができる。一般的に、デバイス24は、テレビディスプレイ画面とは別に情報を表示できるように、自らの別のディスプレイを有する。デバイス24が自らのディスプレイを含まない実施形態では、ピクチャーインピクチャーディスプレイ等によって、テレビディスプレイ上にディスプレイを重ねて表示することができる。   The control device 24 can be a mobile device including a remote control for a mobile phone, laptop computer, tablet computer, mobile internet device, or television receiver, to name a few. Device 24 may be other than mobile, such as a desktop computer or an entertainment system. In one embodiment, device 24 and system 14 may be part of a wireless home network. In general, device 24 has its own separate display so that information can be displayed separately from the television display screen. In embodiments where the device 24 does not include its own display, the display can be displayed over the television display, such as by a picture-in-picture display.

一実施形態では、制御デバイス24はクラウド28と通信することができる。デバイス24が、例えば、携帯電話である場合、そのデバイスは携帯電話信号26によってクラウドと通信することができ、その信号は最終的にインターネットを介して搬送される。他の場合には、デバイス24は、ネットワーク接続のような有線接続を通してインターネットと通信することができる。更に別の例として、デバイス24は、テレビ送信をトランスポートしたのと同じトランスポート媒体を介して通信することができる。例えば、ケーブルシステムの場合、デバイス24は、ケーブルシステムを通してケーブルヘッドエンド又はサーバー11に信号を与えることができる。当然、実施形態によっては、これは、利用可能な送信帯域幅のうちの幾らかを消費する場合もある。したがって、実施形態によっては、デバイス24はモバイルデバイス以外とすることができ、更にはプロセッサ利用システム14の一部とすることもできる。   In one embodiment, the control device 24 can communicate with the cloud 28. If device 24 is, for example, a mobile phone, it can communicate with the cloud by mobile phone signal 26, which is ultimately carried over the Internet. In other cases, the device 24 can communicate with the Internet through a wired connection, such as a network connection. As yet another example, the device 24 may communicate via the same transport medium that transported the television transmission. For example, in the case of a cable system, the device 24 can provide signals to the cable head end or server 11 through the cable system. Of course, in some embodiments, this may consume some of the available transmission bandwidth. Thus, in some embodiments, the device 24 can be other than a mobile device and can also be part of the processor utilization system 14.

図2を参照すると、プロセッサ利用システム14の一実施形態が表されるが、数多くの他のアーキテクチャーも使用することができる。図2に表されるアーキテクチャーは、インテル社から市販されるCE4100プラットフォームに対応する。そのアーキテクチャーは、システムインターコネクト25に結合される中央処理ユニット24を含む。そのシステムインターコネクトはNANDコントローラー26、マルチフォーマットハードウェアデコーダー28、ディスプレイプロセッサ30、グラフィックスプロセッサ32及びビデオディスプレイコントローラー34に結合される。一実施形態では、デコーダー28と、プロセッサ30及び32とは、コントローラー22に結合される場合がある。   Referring to FIG. 2, one embodiment of a processor utilization system 14 is depicted, but many other architectures can be used. The architecture depicted in FIG. 2 corresponds to the CE4100 platform commercially available from Intel. The architecture includes a central processing unit 24 that is coupled to a system interconnect 25. The system interconnect is coupled to a NAND controller 26, a multi-format hardware decoder 28, a display processor 30, a graphics processor 32 and a video display controller 34. In one embodiment, decoder 28 and processors 30 and 32 may be coupled to controller 22.

システムインターコネクトは、トランスポートプロセッサ36、セキュリティプロセッサ38及びデュアル音声デジタルシグナルプロセッサ(DSP)40に結合される場合がある。デジタルシグナルプロセッサ40は、入力ビデオ送信をデコードする役割を担うことができる。汎用入力/出力(I/O)モジュール42は、例えば、WiFiアダプター18aのような無線アダプターに結合される場合がある。実施形態によっては、このアダプターによって、無線制御デバイス24に信号を送信できるようになる。また、システムインターコネクト25には音声及びビデオ入力/出力デバイス44も結合される。このデバイス44はデコードされたビデオ出力を与えることができ、実施形態によっては、音声若しくはビデオフレーム又は音声若しくはビデオクリップを出力するために用いることができる。   The system interconnect may be coupled to a transport processor 36, a security processor 38, and a dual audio digital signal processor (DSP) 40. Digital signal processor 40 may be responsible for decoding incoming video transmissions. The general purpose input / output (I / O) module 42 may be coupled to a wireless adapter such as, for example, the WiFi adapter 18a. In some embodiments, this adapter allows signals to be transmitted to the wireless control device 24. Also coupled to the system interconnect 25 are audio and video input / output devices 44. This device 44 can provide a decoded video output and, in some embodiments, can be used to output audio or video frames or audio or video clips.

幾つかの実施形態では、プロセッサ利用システム14は、特定の判定基準が満たされると、マルチメディアセグメントを出力するようにプログラミングすることができる。1つのそのような判定基準は、例えば、キーボード又はタッチ画面のような入力/出力デバイスを通して入力を与えることによるユーザー選択である。また、ビデオカメラがユーザーのジェスチャーを録画することができる。それらのジェスチャーを解析して、マルチメディアセグメントを取り込むコマンドを識別することができる。そのような場合に、コマンドに基づいて、ビデオマルチメディア信号が出力される。また、例えば、音声認識を用いて視聴者からの可聴コマンドを検出することを用いて、マルチメディアセグメントの取り込みをトリガーすることができる。別のオプションは、プロセッサ利用システム14が入力ビデオ送信内の種々の活動を検出して、マルチメディア捕捉をトリガーすることである。活動又はイベントの例は、コマーシャル開始の検出を含む。   In some embodiments, the processor utilization system 14 can be programmed to output a multimedia segment when certain criteria are met. One such criterion is user selection by providing input through an input / output device such as a keyboard or touch screen, for example. The video camera can also record user gestures. Those gestures can be analyzed to identify commands that capture multimedia segments. In such a case, a video multimedia signal is output based on the command. Also, for example, the detection of an audible command from the viewer using voice recognition can be used to trigger the capture of the multimedia segment. Another option is that the processor-based system 14 detects various activities in the incoming video transmission to trigger multimedia capture. Examples of activities or events include the detection of commercial starts.

図3は、制御デバイス24の一実施形態に関するシーケンスを示す。このシーケンスはソフトウェア、ハードウェア及び/又はファームウェアにおいて実現することができる。ソフトウェア又はファームウェアに基づく実施形態では、そのシーケンスは、光学、磁気又は半導体記憶デバイスのような非一時的コンピュータ可読媒体内に記憶されるコンピュータ実行可能命令によって実現することができる。例えば、ソフトウェア又はファームウェアシーケンスは制御デバイス24上の記憶装置50に記憶することができる。   FIG. 3 shows a sequence for one embodiment of the control device 24. This sequence can be implemented in software, hardware and / or firmware. In embodiments based on software or firmware, the sequence can be realized by computer-executable instructions stored in a non-transitory computer-readable medium such as an optical, magnetic or semiconductor storage device. For example, software or firmware sequences can be stored in the storage device 50 on the control device 24.

制御デバイス24がモバイルデバイスである実施形態が表されるが、モバイル以外の実施形態も考えられる。例えば、制御デバイス24はシステム14内に統合される場合がある。   Although embodiments are shown in which the control device 24 is a mobile device, embodiments other than mobile are also contemplated. For example, the control device 24 may be integrated within the system 14.

最初に、判断部52において示されるように、判断部52におけるチェックが、グラバー16がアクティベートされたか否かを判断する。幾つかの実施形態では、デバイス24の計算能力を消耗しないように、グラバー16は必ずしも動作しているとは限らない。例えば、ユーザーは、自分の携帯電話上でアプリケーションをアクティベートし、捕捉動作を開始することができ、そのような場合に、判断部52においてグラバー動作が検出される。   First, as shown in the determination unit 52, a check in the determination unit 52 determines whether the grabber 16 has been activated. In some embodiments, the grabber 16 is not necessarily operating so as not to exhaust the computing power of the device 24. For example, the user can activate the application on his / her mobile phone and start the capturing operation. In such a case, the determination unit 52 detects the grabber operation.

その後、ブロック54において、制御デバイス24からプロセッサ利用システム14に、マルチメディアセグメント16の電子的表現のマルチメディア捕捉を開始する信号を送信することができる。判断部56において検出されるように、制御デバイス24がマルチメディアセグメントを受信するとき、幾つかの実施形態では、表示又は表現されている製品を識別するために、制御デバイス24はマルチメディアセグメントを解析用クラウド28に送信することができる(ブロック58)。当然、他の実施形態では、マルチメディアセグメントを、ネットワークを介して任意のサーバーに送信することができる。また、別の例として、マルチメディアセグメントを、画像、テキスト又は音声解析のためにヘッドエンド11に送信することもできる。   Thereafter, at block 54, a signal may be transmitted from the control device 24 to the processor utilization system 14 to initiate multimedia capture of the electronic representation of the multimedia segment 16. As detected in the decision unit 56, when the control device 24 receives a multimedia segment, in some embodiments, the control device 24 selects the multimedia segment to identify the product being displayed or represented. It can be sent to the analytic cloud 28 (block 58). Of course, in other embodiments, the multimedia segment can be sent to any server over the network. As another example, multimedia segments can be sent to the headend 11 for image, text or audio analysis.

音声の電子的表現が取り込まれた場合には、取り込まれた音声表現を、例えば、制御デバイス24、システム14又はクラウド28においてテキストに変換することができる。その後、そのテキストを探索して、製品を識別することができる。   If an electronic representation of speech is captured, the captured speech representation can be converted to text, for example, at control device 24, system 14, or cloud 28. The text can then be searched to identify the product.

同様に、メタデータを解析して、製品を識別するテキスト探索において使用する情報を識別することができる。幾つかの実施形態では、音声、メタデータ、ビデオフレーム又はビデオクリップのうちの2つ以上をキーワードインターネット又はデータベース探索の入力として用いて、製品を識別することができる。さらに、ユーザーが、友人から製品情報を受信することを期待して、ソーシャルネットワークを介して友人に情報を転送する(push)ことができる。   Similarly, metadata can be analyzed to identify information for use in text searches that identify products. In some embodiments, two or more of audio, metadata, video frames, or video clips can be used as keywords internet or database search input to identify a product. In addition, the user can push information to a friend via a social network in the hope of receiving product information from the friend.

その後、解析エンジンが、マルチメディア探索を実行して、表現された製品を識別する。この探索は、簡単なインターネット又はデータベース探索とすることができるか、又は更に絞り込んだ探索とすることができる。例えば、ブロック58における送信は、ビデオ取込みの現在時刻と、制御デバイス24の場所とを含むことができる。特定の時刻又は特定の場所においてどの製品が表示されているかについての情報を用いて探索を絞り込むために、この情報を用いることができる。例えば、ウェブサイト上に、種々の時刻において種々の場所で入手可能なテレビ番組を相関させるデータベースを設けることができ、このデータベースを画像探索して、取り込まれたフレームと一致する画像を見つけて、番組を識別することができる。さらに、メタデータ又は広告コンテンツプロバイダが、自らが提供するコンテンツに関連して、場所又は連絡先情報を含むことができる。   The analysis engine then performs a multimedia search to identify the represented product. This search can be a simple internet or database search, or it can be a more refined search. For example, the transmission at block 58 may include the current time of video capture and the location of the control device 24. This information can be used to narrow the search using information about which products are displayed at a specific time or location. For example, a website can be provided with a database that correlates television programs available at various locations at various times, and this database can be image searched to find an image that matches the captured frame; The program can be identified. In addition, metadata or advertising content providers can include location or contact information in connection with the content they provide.

幾つかの実施形態では、ユーザーは注釈を追加して、取り込まれたセグメント内の対象特徴を識別することができる。一実施形態では、注釈は、制御デバイス24上で実行されるアプリケーションによって有効にすることができる。注釈を用いて、探索を絞り込むことができる。別のオプションとして、視線検出を用いて、ビデオフレーム又はビデオクリップ内の対象製品を識別することができる。   In some embodiments, the user can add annotations to identify target features in the captured segment. In one embodiment, the annotation can be enabled by an application running on the control device 24. Annotations can be used to narrow the search. As another option, gaze detection can be used to identify the target product within a video frame or video clip.

製品の識別は、視覚探索ツールを用いることによって行うことができる。画像フレーム又は画像クリップが、探索データベース内の既存のフレーム又はクリップと照合される。場合によっては一連の一致を識別することができ、そのような場合に、それらの一致を制御デバイス24に返送することができる。判断部60におけるチェックが、探索結果が制御デバイス24によって受信されたと判断するとき、ブロック62において示されるように、その探索結果をユーザーに対して表示することができる。その後、制御デバイス24は、視認された製品のような、ユーザーが望んだ情報に一致する探索結果のうちの1つのユーザー選択を受信する。その後、判断部64に示されるように、ユーザー選択が受信されると、その際、ブロック66において示されるように、選択された探索結果をクラウドに転送することができる。これにより、テレビによる製品識別を用いて、視聴者又は第三者に、製品についての付加情報の提供等の他のサービスを提供できるようになる。   The product can be identified by using a visual search tool. The image frame or image clip is matched with an existing frame or clip in the search database. In some cases, a series of matches can be identified, and in such cases, those matches can be returned to the control device 24. When the check at the decision unit 60 determines that the search results have been received by the control device 24, the search results can be displayed to the user, as shown at block 62. Thereafter, the control device 24 receives a user selection of one of the search results that matches the information desired by the user, such as a viewed product. Thereafter, as shown in the decision unit 64, when a user selection is received, the selected search results can then be transferred to the cloud, as shown in block 66. This makes it possible to provide other services such as provision of additional information about products to viewers or third parties using product identification on a television.

次に、図4を参照すると、プロセッサ利用システム14内でシーケンスを実施することができる。ここでもまた、そのシーケンスは、ファームウェア、ハードウェア又はソフトウェアにおいて実現することができる。ソフトウェア又はファームウェアの実施形態では、そのシーケンスは、1つ又は複数の非一時的コンピュータ可読媒体によって実施することができる。例えば、マルチメディアグラバーシーケンスは、マルチメディアグラバーデバイス16上の記憶装置70に記憶することができる。   Next, referring to FIG. 4, the sequence may be performed within the processor utilization system 14. Again, the sequence can be implemented in firmware, hardware or software. In a software or firmware embodiment, the sequence can be implemented by one or more non-transitory computer readable media. For example, the multimedia grabber sequence can be stored in the storage device 70 on the multimedia grabber device 16.

最初に、判断部72におけるチェックが、グラバー機構がアクティベートされたか否かを判断する。幾つかの実施形態では、ビデオコンテンツ解析を用いられる場合がある。例えば、ユーザーは、ラップトップコンピュータのような特定の製品に関するシステム画面、又はラップトップコンピュータに関する広告を要求する場合があるので、システムはビデオコンテンツ解析を用いて進行中のコンテンツを解析し、所望の製品の位置を特定することができ、その製品が表示又は表現されているマルチメディアセグメントを取り込むことができる。   Initially, a check at the decision unit 72 determines whether the grabber mechanism has been activated. In some embodiments, video content analysis may be used. For example, a user may request a system screen for a particular product, such as a laptop computer, or an advertisement for a laptop computer, so the system uses video content analysis to analyze the content in progress and The location of the product can be identified and the multimedia segment on which the product is displayed or represented can be captured.

判断部76において判断されるように、コマンドが受信される場合、ブロック78において示されるように、マルチメディアが捕捉され、制御デバイス24に送信される。   If a command is received, as determined at decision unit 76, the multimedia is captured and transmitted to control device 24, as indicated at block 78.

図5を参照すると、ショッピングアプリケーションがシーケンスによって示される。そのシーケンスは、ソフトウェア、ファームウェア及び/又はハードウェアにおいて実現することができる。ソフトウェア又はファームウェアに基づく実施形態では、そのシーケンスは、1つ又は複数の非一時的コンピュータ可読媒体によって実施することができる。例えば、図1に示されるサーバー30に関連付けられる記憶装置80上にコンピュータ可読命令を記憶することができる。   Referring to FIG. 5, the shopping application is shown by a sequence. The sequence can be implemented in software, firmware and / or hardware. In software or firmware based embodiments, the sequence can be implemented by one or more non-transitory computer readable media. For example, computer readable instructions may be stored on storage device 80 associated with server 30 shown in FIG.

クラウドを用いる実施形態が例示されるが、他の実施形態では、同じシーケンスは、任意の適切なネットワークを介して結合される任意のサーバーによって、制御デバイス24自体によって、プロセッサ利用システム14によって、又はヘッドエンド11によって実施される場合がある。   While embodiments using the cloud are illustrated, in other embodiments, the same sequence can be performed by any server coupled via any suitable network, by the control device 24 itself, by the processor utilization system 14, or May be implemented by the head end 11.

最初に、判断部82におけるチェックが、マルチメディアセグメントが受信されたか否かを判断する。受信された場合には、マルチメディアがビデオフレーム又はビデオクリップの電子的表現である場合、ブロック84において示されるように、視覚探索が実行される。音声クリップの場合、音声をテキストに変換して、探索することができる。マルチメディアセグメントがメタデータである場合には、探索可能なコンテンツを得るために、メタデータを構文解析することができる。その後、ブロック86において、探索結果が、例えば、制御デバイス24に返送される。制御デバイス24は、探索結果のうちのいずれが最も関連があるかについてのユーザー入力又はユーザー選択を受信することができる。システムはユーザーからの選択を待ち、判断部88において判断されるように、選択が受信されるとき、ブロック90において示されるように、識別された製品に基づいてタスクを実行することができる。例えば、同じ製品の他の供給元を識別するために探索を行うことができ、例えば、価格、場所及び購入可能性に基づいて、販売元比較を自動的に実施することができる。   Initially, a check at decision unit 82 determines whether a multimedia segment has been received. If received, if the multimedia is an electronic representation of a video frame or video clip, a visual search is performed, as indicated at block 84. In the case of an audio clip, the audio can be converted into text and searched. If the multimedia segment is metadata, the metadata can be parsed to obtain searchable content. Thereafter, at block 86, the search results are returned to the control device 24, for example. The control device 24 can receive user input or user selection as to which of the search results is most relevant. The system waits for a selection from the user and can perform a task based on the identified product as shown in block 90 when a selection is received, as determined at decision unit 88. For example, a search can be performed to identify other suppliers of the same product, and a vendor comparison can be automatically performed based on, for example, price, location, and purchaseability.

そのような探索を実施することができる1つの方法は、現在の画像をデータベース内又はインターネット上の画像と照合し、その後、インターネット又はデータベースに存在するそれらの画像に関連付けられるテキストを探索することである場合がある。異なる画像間の共通項を解析して、製品名を判断することができる。このようにして、画像探索を用いて、製品名を判断することができる。同様に、マルチメディアセグメント内の音声セグメントを探索して、製品名が実際に言及されたか否かを確認し、言及された場合には、その音声をテキストに変換し、その後、テキスト内の製品情報を探索することができる。   One way in which such a search can be performed is by matching the current image with images in a database or on the Internet, and then searching for text associated with those images that exist in the Internet or database. There may be. A common term between different images can be analyzed to determine the product name. In this way, the product name can be determined using the image search. Similarly, search the audio segment in the multimedia segment to see if the product name was actually mentioned, and if so, convert the audio to text and then the product in the text Information can be searched.

さらに、ユーザーは、ユーザーが特定の画像を選択した理由に関する手がかりを与える入力情報を与えることができる。これは、例として、テキスト入力欄、選択されたメッセージに対する注釈、又は別の通信を用いて果たすことができる。   In addition, the user can provide input information that provides a clue as to why the user has selected a particular image. This can be accomplished, for example, using a text entry field, annotations on selected messages, or another communication.

判断部102において、ユーザーに、その製品を今購入したいか否かを尋ねることができる。これは、例えば、テレビショッピングネットワークオプションを通して、又は探索において識別された販売元のうちの1つを通して、テレビ番組において示された製品を購入することを意味する場合がある。   In the determination unit 102, the user can be asked whether he or she wants to purchase the product now. This may mean, for example, purchasing the product indicated in the television program through a television shopping network option or through one of the vendors identified in the search.

ユーザーがその製品を今購入したい場合には、そのシステムは購入プロセスを支援することができる。例えば、発見的方法を用いて、ウェブ又はデータベース情報内から連絡先情報を識別することができる。この情報を用いて、ユーザーのクレジットカード情報及び住所情報を与え、オンラインフォームに書き込むことによって、購入取引を開始することができる。その後、その情報は販売元に搬送され、取引を自動的に開始することができる。代替的には、その探索において場所を特定されたインターネットウェブページのデータベース内の連絡先情報を識別することができ、ユーザーが販売元を選択するために、その情報をユーザーに与えることができる。   If the user wants to purchase the product now, the system can assist the purchase process. For example, heuristic methods can be used to identify contact information from within web or database information. Using this information, the purchase transaction can be initiated by providing the user's credit card information and address information and filling in an online form. The information can then be conveyed to the vendor and the transaction can be started automatically. Alternatively, contact information in a database of Internet web pages identified in the search can be identified and the information can be provided to the user for the user to select a vendor.

ユーザーが今購入しないと決定する場合には、ユーザーは、その製品を視認するために訪問したい場合がある特定の販売元を選択することができる。このようにして、ユーザーが特定の販売元に関するウェブページを選択する場合には、その販売元の場所又は連絡先情報をウェブページから自動的に構文解析することができる(ブロック104)。これは、アドレス情報のフォーマットをなす情報を認識することによって果たすことができ、その情報は、数字と、それに続くテキストとを含む場合があるか、又はその特定のフォーマットに基づいてウェブページ情報を識別することができる。同様に、電話番号又はファックス番号を同じようにして識別することもできる。場所又は連絡先情報が識別されると、ブロック106において示されるように、その場所が記録される。   If the user decides not to purchase now, the user can select a particular vendor that they may want to visit to view the product. In this way, if the user selects a web page for a particular merchant, the merchant location or contact information can be automatically parsed from the web page (block 104). This can be accomplished by recognizing information that is in the format of address information, which may include numbers followed by text, or web page information based on that particular format. Can be identified. Similarly, telephone numbers or fax numbers can be identified in the same way. Once the location or contact information is identified, the location is recorded as shown at block 106.

ユーザーは、この時点で、又は設定中に近接ファクターを指定することができる。例えば、ユーザーは、識別された販売元の所与の距離内にいるときに識別してもらいたい場合がある。判断部108におけるチェックが、近接判定基準が満たされたか否かを判断する。満たされた場合には、現在の場所と記録された場所とを比較することができ(ブロック110)、判断部112において判断されるように、それらの場所が一致する場合には、ユーザーは、114において、指示された販売元の指定された距離内にいることを通知される場合がある。このようにして、システムは、携帯電話又は他のモバイルデバイス内のグローバルポジショニングシステムセンサを用いてユーザーの位置を絶えず監視することができ、ユーザーがその販売元の近くにいるときにユーザーに単に知らせる。   The user can specify the proximity factor at this point or during setup. For example, a user may want to be identified when within a given distance of an identified merchant. The check in the determination unit 108 determines whether or not the proximity determination criterion is satisfied. If so, the current location and the recorded location can be compared (block 110), and if those locations match, as determined by the decision unit 112, the user can At 114, it may be notified that the instructed vendor is within a specified distance. In this way, the system can constantly monitor the user's location using a global positioning system sensor in a mobile phone or other mobile device, and simply inform the user when the user is near their merchant. .

このようにバックグラウンドにおいて場所を監視することは、大抵の場合に、ユーザーがその製品を直ちに見に行く必要性を小さくする。代わりに、ユーザーは自分の通常の活動をそのまま継続することができ、システムはユーザーの場所を監視することになる。ユーザーが識別された販売元の非常に近くにいるとき、通知を与えることができる。   This location monitoring in the background reduces the need for the user to see the product immediately in most cases. Instead, the user can continue with his normal activities and the system will monitor the user's location. Notifications can be given when the user is very close to the identified merchant.

他の方法で同様のサービスを実施することもできる。例えば、ユーザーは店内の製品の写真を撮影することができるか、或る識別情報を与えることができるか、又はシステムが自律的にその製品を識別することができ、同じ技法を用いて、同じ製品の他の販売元の場所を特定することができる。   Similar services can be implemented in other ways. For example, the user can take a picture of a product in the store, give some identification information, or the system can autonomously identify the product, using the same technique, the same The location of other vendors of the product can be identified.

さらに、テレビ番組又は写真を通して製品が識別されない場合でも、場所指示サービスが役に立つことがある。例えば、ユーザーは単に、販売元について言及している広告を見る場合があるか、又はユーザーがいつか訪れたい商店、レストラン、博物館又は任意の他の場所について聞く場合がある。ユーザーはその場所の指示、近接判定基準を与えることができ、その後、システムは継続的にユーザーの場所を監視し、別の理由でユーザーがその場所の近くに来るときを検出する。その際、近接していることをユーザーに通知し、選択された場合には、その販売元に行く方向を与えることもできる。これにより、その販売元にわざわざ行く必要がなくなるので、時間及び費用が節約される。   In addition, location-directed services may be useful even if a product is not identified through a television program or photo. For example, a user may simply see an advertisement that mentions a vendor, or may ask about a store, restaurant, museum, or any other location that the user wants to visit sometime. The user can provide an indication of the location, proximity criteria, and then the system continuously monitors the user's location to detect when the user is near the location for another reason. At that time, it is possible to notify the user that they are close to each other, and when selected, it is possible to give directions to the seller. This saves time and money because there is no need to go to the vendor.

幾つかの実施形態では、複数のユーザーが同じテレビ番組を視聴している場合がある。世帯によっては、複数のテレビが利用可能な場合がある。したがって、数多くの異なるユーザーが本明細書において記述されるサービスを同時に使用したい場合がある。このため、プロセッサ利用システム14は、制御デバイス24の識別子、テレビ識別子及び番組情報を識別するテーブルを保持することができる。これにより、そのような実施形態において、プロセッサ利用システム14が単に種々のテレビに適応し、全てのテレビがプロセッサ利用システム14の下流において信号を受信することによって、ユーザーが部屋を移動しても、本明細書において記述されるサービスを受信し続けることができるようになる。   In some embodiments, multiple users may be watching the same television program. Depending on the household, multiple TVs may be available. Accordingly, many different users may wish to use the services described herein simultaneously. For this reason, the processor utilization system 14 can hold a table for identifying the identifier of the control device 24, the television identifier, and the program information. Thus, in such an embodiment, the processor utilization system 14 simply adapts to various televisions, and all televisions receive signals downstream of the processor utilization system 14 so that a user can move from room to room. It will be possible to continue to receive the services described herein.

幾つかの実施形態では、テーブルはプロセッサ利用システム14に記憶することができるか、又はヘッドエンド11にアップロードすることができるか、又は場合によっては、制御デバイス24を通してクラウド28にアップロードすることもできる。   In some embodiments, the table can be stored in the processor utilization system 14, uploaded to the headend 11, or in some cases uploaded to the cloud 28 through the control device 24. .

したがって、図6を参照すると、幾つかの実施形態では、シーケンス92を用いて、制御デバイス24、テレビディスプレイ画面20及び選択されたチャネルを相関させるようにテーブルを維持管理することができる。その際、複数の異なるユーザーが同じテレビを通して、又は例えば、ホームエンターテイメントネットワーク内で同じプロセッサ利用システム14を通して全て接続される少なくとも2台以上のテレビにおいて、そのシステムを使用することができる。そのシーケンスは、ハードウェア、ソフトウェア及び/又はファームウェアとして実現することができる。ソフトウェア及びファームウェアの実施形態では、そのシーケンスは、磁気、半導体又は光学記憶装置のような1つ又は複数の非一時的コンピュータ可読媒体に記憶されるコンピュータ可読命令を用いて実現することができる。一実施形態では、記憶装置50を用いて、それらの命令を記憶することができる。   Thus, referring to FIG. 6, in some embodiments, the sequence 92 can be used to maintain the table to correlate the control device 24, the television display screen 20, and the selected channel. In that case, the system can be used on at least two or more televisions that are connected by different users through the same television or, for example, all through the same processor utilization system 14 within the home entertainment network. The sequence can be implemented as hardware, software and / or firmware. In software and firmware embodiments, the sequence can be implemented using computer readable instructions stored on one or more non-transitory computer readable media, such as magnetic, semiconductor, or optical storage devices. In one embodiment, the storage device 50 may be used to store those instructions.

最初に、ブロック94において示されるように、システム14は、そのシステムにコマンドを与える制御デバイスごとの識別子を受信し、記憶する。その後、ブロック96において示されるように、システム14を通して結合される種々のテレビを識別し、記録することができる。最後に、制御デバイス及びテレビ受信機を相関させるテーブルが設定される(ブロック100)。これにより、同じ制御デバイスに接続される複数のテレビを途切れることなく使用できるようになり、視聴者が部屋を移動しても、本明細書において記述されるサービスを受信し続けることができるようになる。さらに、複数の視聴者が同じテレビを視聴することができ、それぞれが独立して本明細書において記述されるサービスを受信することができる。   Initially, as shown at block 94, the system 14 receives and stores an identifier for each control device that provides commands to the system. Thereafter, as shown at block 96, the various televisions coupled through the system 14 can be identified and recorded. Finally, a table for correlating the control device and the television receiver is set (block 100). This allows multiple TVs connected to the same control device to be used without interruption, so that the viewer can continue to receive the services described herein even when the viewer moves from room to room. Become. Further, multiple viewers can watch the same television, and each can independently receive the services described herein.

本明細書を通して「一実施形態」又は「1つの実施形態」を参照することは、その実施形態に関連して記述される特定の特徴、構造又は特性が本発明に包含される少なくとも1つの実施態様に含まれることを意味する。したがって、「一実施形態」又は「1つの実施形態において」という言い回しが現れても、必ずしも同じ実施形態を参照しているとは限らない。さらに、特定の特徴、構造又は特性は、例示される特定の実施形態以外の他の適切な形態において実施することができ、全てのそのような形態を本明細書の特許請求の範囲に包含することができる。   Reference to “one embodiment” or “one embodiment” throughout this specification refers to at least one implementation in which the particular feature, structure or characteristic described in connection with that embodiment is included in the invention. It is meant to be included in the embodiment. Thus, the appearance of the phrase “in one embodiment” or “in one embodiment” does not necessarily refer to the same embodiment. Furthermore, the particular features, structures or characteristics may be implemented in other suitable forms other than the particular embodiments illustrated, and all such forms are encompassed by the claims herein. be able to.

本発明は限られた数の実施形態に関して記述されてきたが、当業者はそれらの実施形態から数多くの変更形態及び変形形態を理解されよう。添付の特許請求の範囲は、本発明の真の趣旨及び範囲内に入る全てのそのような変更形態及び変形形態を含むことを意図している。   Although the present invention has been described with respect to a limited number of embodiments, those skilled in the art will appreciate numerous modifications and variations from these embodiments. The appended claims are intended to cover all such modifications and variations that fall within the true spirit and scope of this invention.

本発明は限られた数の実施形態に関して記述されてきたが、当業者はそれらの実施形態から数多くの変更形態及び変形形態を理解されよう。添付の特許請求の範囲は、本発明の真の趣旨及び範囲内に入る全てのそのような変更形態及び変形形態を含むことを意図している。
[項目1]
イベントの発生を検出することと、
イベントを検出するのに応答して、テレビ番組から、電子通信のデコードされた信号を自動的に取り込むことと、
上記信号を用いて探索を実行して、上記テレビ番組において表現される製品の識別を容易にすることと、を含む、方法。
[項目2]
ビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現を含む信号を取り込むことを含む、項目1に記載の方法。
[項目3]
上記信号をモバイルデバイスに自動的に転送することを含む、項目1に記載の方法。
[項目4]
探索結果を上記モバイルデバイスに与えることを含む、項目3に記載の方法。
[項目5]
上記信号を遠隔サーバーに送信して、上記探索を実行することを含む、項目3に記載の方法。
[項目6]
複数のモバイルデバイスを追跡することと、上記複数のモバイルデバイスのそれぞれから要求を受信することと、上記複数のモバイルデバイスのそれぞれに応答を与えることとを含む、項目1に記載の方法。
[項目7]
モバイルデバイスと、テレビと、モバイルデバイスからの要求とを相関させるテーブルを維持管理することを含む、項目6に記載の方法。
[項目8]
上記製品の販売元についての情報を自動的に与えることを含む、項目1に記載の方法。
[項目9]
ユーザーが1つのモバイルデバイスを使用し、異なる時刻に2つの異なるテレビにアクセスできるようにすることを含む、項目1に記載の方法。
[項目10]
少なくとも1つの非一時的コンピュータ可読媒体であって、
コンピュータがイベントの発生を検出できるようにする命令と、
イベントの検出に応答して、上記コンピュータが自動的に画像を取り込むことができるようにする命令と、
上記コンピュータが上記画像を用いて探索を開始できるようにする命令であって、上記画像内に表現された製品の識別を容易にする命令と、を記憶する、少なくとも1つの非一時的コンピュータ可読媒体。
[項目11]
テレビ番組からのビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現の形で、電子通信のデコードされた信号を取り込む命令を更に記憶する、項目10に記載の媒体。
[項目12]
上記信号をモバイルデバイスに転送する命令を更に記憶する、項目10に記載の媒体。
[項目13]
探索結果を上記モバイルデバイスに与える命令を更に記憶する、項目12に記載の媒体。
[項目14]
上記信号を遠隔サーバーに送信して、上記探索を実行する命令を更に記憶する、項目12に記載の媒体。
[項目15]
複数のモバイルデバイスを追跡する命令と、上記複数のモバイルデバイスのそれぞれから要求を受信する命令と、各モバイルデバイスに応答を与える命令であって、異なる時刻に2つの異なるテレビを使用できるようにする命令とを更に記憶する、項目10に記載の媒体。
[項目16]
デバイス、テレビ、モバイルデバイスの要求を相関させるテーブルを維持管理する命令を更に記憶する、項目15に記載の媒体。
[項目17]
音声信号の電子的表現である信号を取り込む命令と、上記取り込まれた信号をテキストに変換する命令と、キーワード探索の入力として使用するように上記テキストを送信する命令とを更に記憶する、項目10に記載の媒体。
[項目18]
上記製品の販売元についての情報を与える命令を更に記憶する、項目10に記載の媒体。
[項目19]
イベントに応答してテレビ番組から電子通信の信号を自動的に取り込み、キーワード探索の入力として使用するように、デコードされた上記信号を送信して、上記信号内に表現される製品を識別するプロセッサと、
上記プロセッサに結合される記憶装置と、を備える、装置。
[項目20]
上記装置はモバイルデバイスである、項目19に記載の装置。
[項目21]
上記装置は携帯電話である、項目20に記載の装置。
[項目22]
上記装置はリモートコントロールである、項目20に記載の装置。
[項目23]
上記装置はテレビ受信機である、項目19に記載の装置。
[項目24]
上記装置は、テレビ受信システムに信号を送り、ビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現の形で、電子通信のデコードされた信号を取り込む、項目19に記載の装置。
[項目25]
上記装置は、テレビシステムから上記信号を受信し、上記信号を、データベース内で又はインターネットを介してキーワード探索を実行する遠隔デバイスに送信する、項目20に記載の装置。
[項目26]
少なくとも1つの非一時的コンピュータ可読媒体であって、
コンピュータが指定された場所を受信できるようにする命令と、
上記コンピュータがユーザーの現在の場所を監視できるようにする命令と、
上記コンピュータが、上記ユーザーが上記指定された場所から所定の距離内にいるときに上記ユーザーに知らせることができるようにする命令と、を記憶する、少なくとも1つの非一時的コンピュータ可読媒体。
[項目27]
製品の取り込まれた電子的表現を探索する命令と、画像探索を用いて上記製品を識別する命令とを更に記憶する、項目26に記載の媒体。
[項目28]
取り込まれた電子テレビ信号を探索する命令して上記製品を識別する命令を更に記憶する、項目27に記載の媒体。
[項目29]
上記製品に関連するインターネット探索結果から製品販売元の場所を導出する命令を更に記憶する、項目28に記載の媒体。
[項目30]
テレビ番組からの音声を解析して上記番組を識別する命令を更に記憶する、項目26に記載の媒体。
Although the present invention has been described with respect to a limited number of embodiments, those skilled in the art will appreciate numerous modifications and variations from these embodiments. The appended claims are intended to cover all such modifications and variations that fall within the true spirit and scope of this invention.
[Item 1]
Detecting the occurrence of an event,
In response to detecting an event, automatically capturing an electronically decoded signal from a television program;
Performing a search using the signal to facilitate identification of a product represented in the television program.
[Item 2]
The method of item 1, comprising capturing a signal comprising a video frame or video clip, audio or an electronic representation of metadata.
[Item 3]
The method of item 1, comprising automatically transferring the signal to a mobile device.
[Item 4]
4. The method of item 3, comprising providing a search result to the mobile device.
[Item 5]
4. The method of item 3, comprising sending the signal to a remote server and performing the search.
[Item 6]
The method of item 1, comprising tracking a plurality of mobile devices, receiving a request from each of the plurality of mobile devices, and providing a response to each of the plurality of mobile devices.
[Item 7]
7. The method of item 6, comprising maintaining a table that correlates mobile devices, televisions, and requests from mobile devices.
[Item 8]
A method according to item 1, comprising automatically providing information about a seller of the product.
[Item 9]
The method of item 1, comprising allowing a user to use one mobile device and access two different televisions at different times.
[Item 10]
At least one non-transitory computer readable medium comprising:
Instructions that allow the computer to detect the occurrence of the event;
Instructions that allow the computer to automatically capture an image in response to detecting an event;
At least one non-transitory computer-readable medium that stores instructions that allow the computer to initiate a search using the image and that facilitates identification of a product represented in the image .
[Item 11]
Item 11. The medium of item 10, further storing instructions for capturing a decoded signal of electronic communication in the form of an electronic representation of a video frame or video clip, audio or metadata from a television program.
[Item 12]
Item 11. The medium of item 10, further storing instructions for transferring the signal to a mobile device.
[Item 13]
Item 13. The medium according to Item 12, further storing instructions for providing a search result to the mobile device.
[Item 14]
Item 13. The medium of item 12, further storing instructions for transmitting the signal to a remote server to perform the search.
[Item 15]
Instructions for tracking a plurality of mobile devices, instructions for receiving a request from each of the plurality of mobile devices, and instructions for giving a response to each mobile device so that two different televisions can be used at different times Item 11. The medium according to Item 10, further storing instructions.
[Item 16]
Item 16. The medium of item 15, further storing instructions for maintaining a table correlating device, television, and mobile device requests.
[Item 17]
Item 10 further stores instructions for capturing a signal that is an electronic representation of a speech signal, instructions for converting the captured signal to text, and instructions for transmitting the text for use as a keyword search input. The medium described in 1.
[Item 18]
Item 11. The medium according to Item 10, further storing an instruction for giving information about a seller of the product.
[Item 19]
A processor that automatically captures an electronic communication signal from a television program in response to an event and transmits the decoded signal for use as an input for keyword search to identify the product represented in the signal When,
A storage device coupled to the processor.
[Item 20]
Item 20. The device of item 19, wherein the device is a mobile device.
[Item 21]
Item 21. The device according to Item 20, wherein the device is a mobile phone.
[Item 22]
Item 21. The device according to Item 20, wherein the device is a remote control.
[Item 23]
Item 20. The device according to Item 19, wherein the device is a television receiver.
[Item 24]
Item 20. The device of item 19, wherein the device sends a signal to a television receiving system and captures a decoded signal of electronic communication in the form of an electronic representation of a video frame or video clip, audio or metadata.
[Item 25]
Item 21. The apparatus of item 20, wherein the apparatus receives the signal from a television system and transmits the signal to a remote device that performs keyword searches in a database or via the Internet.
[Item 26]
At least one non-transitory computer readable medium comprising:
Instructions that allow the computer to receive the specified location;
Instructions that allow the computer to monitor the user's current location;
At least one non-transitory computer-readable medium that stores instructions that allow the computer to notify the user when the user is within a predetermined distance from the designated location.
[Item 27]
27. A medium according to item 26, further storing instructions for searching for a captured electronic representation of the product and instructions for identifying the product using an image search.
[Item 28]
28. A medium according to item 27, further storing an instruction for searching for the captured electronic television signal to identify the product.
[Item 29]
Item 29. The medium according to Item 28, further storing an instruction for deriving a location of a product seller from an Internet search result related to the product.
[Item 30]
27. A medium according to item 26, further storing instructions for analyzing audio from a television program and identifying the program.

Claims (30)

イベントの発生を検出することと、
イベントを検出するのに応答して、テレビ番組から、電子通信のデコードされた信号を自動的に取り込むことと、
前記信号を用いて探索を実行して、前記テレビ番組において表現される製品の識別を容易にすることと、を含む、方法。
Detecting the occurrence of an event,
In response to detecting an event, automatically capturing an electronically decoded signal from a television program;
Performing a search using the signal to facilitate identification of a product represented in the television program.
ビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現を含む信号を取り込むことを含む、請求項1に記載の方法。   The method of claim 1, comprising capturing a signal that includes an electronic representation of a video frame or video clip, audio or metadata. 前記信号をモバイルデバイスに自動的に転送することを含む、請求項1に記載の方法。   The method of claim 1, comprising automatically transferring the signal to a mobile device. 探索結果を前記モバイルデバイスに与えることを含む、請求項3に記載の方法。   4. The method of claim 3, comprising providing search results to the mobile device. 前記信号を遠隔サーバーに送信して、前記探索を実行することを含む、請求項3に記載の方法。   4. The method of claim 3, comprising sending the signal to a remote server to perform the search. 複数のモバイルデバイスを追跡することと、前記複数のモバイルデバイスのそれぞれから要求を受信することと、前記複数のモバイルデバイスのそれぞれに応答を与えることとを含む、請求項1に記載の方法。   The method of claim 1, comprising tracking a plurality of mobile devices, receiving a request from each of the plurality of mobile devices, and providing a response to each of the plurality of mobile devices. モバイルデバイスと、テレビと、モバイルデバイスからの要求とを相関させるテーブルを維持管理することを含む、請求項6に記載の方法。   7. The method of claim 6, comprising maintaining a table that correlates mobile devices, televisions, and requests from mobile devices. 前記製品の販売元についての情報を自動的に与えることを含む、請求項1に記載の方法。   The method of claim 1, comprising automatically providing information about a vendor of the product. ユーザーが1つのモバイルデバイスを使用し、異なる時刻に2つの異なるテレビにアクセスできるようにすることを含む、請求項1に記載の方法。   The method of claim 1, comprising allowing a user to use one mobile device to access two different televisions at different times. 少なくとも1つの非一時的コンピュータ可読媒体であって、
コンピュータがイベントの発生を検出できるようにする命令と、
イベントの検出に応答して、前記コンピュータが自動的に画像を取り込むことができるようにする命令と、
前記コンピュータが前記画像を用いて探索を開始できるようにする命令であって、前記画像内に表現された製品の識別を容易にする命令と、を記憶する、少なくとも1つの非一時的コンピュータ可読媒体。
At least one non-transitory computer readable medium comprising:
Instructions that allow the computer to detect the occurrence of the event;
Instructions that allow the computer to automatically capture an image in response to detecting an event;
At least one non-transitory computer-readable medium that stores instructions that allow the computer to initiate a search using the image and that facilitates identification of a product represented in the image .
テレビ番組からのビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現の形で、電子通信のデコードされた信号を取り込む命令を更に記憶する、請求項10に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 10, further storing instructions for capturing a decoded signal of electronic communication in the form of an electronic representation of a video frame or video clip, audio or metadata from a television program. 前記信号をモバイルデバイスに転送する命令を更に記憶する、請求項10に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 10, further storing instructions for transferring the signal to a mobile device. 探索結果を前記モバイルデバイスに与える命令を更に記憶する、請求項12に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 12, further storing instructions for providing search results to the mobile device. 前記信号を遠隔サーバーに送信して、前記探索を実行する命令を更に記憶する、請求項12に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 12, further storing instructions for sending the signal to a remote server to perform the search. 複数のモバイルデバイスを追跡する命令と、前記複数のモバイルデバイスのそれぞれから要求を受信する命令と、各モバイルデバイスに応答を与える命令であって、異なる時刻に2つの異なるテレビを使用できるようにする命令とを更に記憶する、請求項10に記載の非一時的コンピュータ可読媒体。   Instructions for tracking a plurality of mobile devices, instructions for receiving a request from each of the plurality of mobile devices, and instructions for giving a response to each mobile device so that two different televisions can be used at different times The non-transitory computer readable medium of claim 10, further storing instructions. デバイス、テレビ、モバイルデバイスの要求を相関させるテーブルを維持管理する命令を更に記憶する、請求項15に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 15, further storing instructions for maintaining a table that correlates device, television, and mobile device requests. 音声信号の電子的表現である信号を取り込む命令と、前記取り込まれた信号をテキストに変換する命令と、キーワード探索の入力として使用するように前記テキストを送信する命令とを更に記憶する、請求項10に記載の非一時的コンピュータ可読媒体。   An instruction for capturing a signal that is an electronic representation of an audio signal, an instruction for converting the captured signal to text, and an instruction for transmitting the text for use as an input for keyword search are further stored. A non-transitory computer readable medium according to claim 10. 前記製品の販売元についての情報を与える命令を更に記憶する、請求項10に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 10, further storing instructions that provide information about a vendor of the product. イベントに応答してテレビ番組から電子通信の信号を自動的に取り込み、キーワード探索の入力として使用するように、デコードされた前記信号を送信して、前記信号内に表現される製品を識別するプロセッサと、
前記プロセッサに結合される記憶装置と、を備える、装置。
A processor that automatically captures an electronic communication signal from a television program in response to an event and transmits the decoded signal to identify the product represented in the signal for use as a keyword search input When,
A storage device coupled to the processor.
前記装置はモバイルデバイスである、請求項19に記載の装置。   The apparatus of claim 19, wherein the apparatus is a mobile device. 前記装置は携帯電話である、請求項20に記載の装置。   21. The device of claim 20, wherein the device is a mobile phone. 前記装置はリモートコントロールである、請求項20に記載の装置。   21. The device of claim 20, wherein the device is a remote control. 前記装置はテレビ受信機である、請求項19に記載の装置。   The apparatus of claim 19, wherein the apparatus is a television receiver. 前記装置は、テレビ受信システムに信号を送り、ビデオフレーム若しくはビデオクリップ、音声又はメタデータの電子的表現の形で、電子通信のデコードされた信号を取り込む、請求項19に記載の装置。   21. The apparatus of claim 19, wherein the apparatus sends a signal to a television receiving system and captures an electronic communication decoded signal in the form of an electronic representation of a video frame or video clip, audio or metadata. 前記装置は、テレビシステムから前記信号を受信し、前記信号を、データベース内で又はインターネットを介してキーワード探索を実行する遠隔デバイスに送信する、請求項20に記載の装置。   21. The apparatus of claim 20, wherein the apparatus receives the signal from a television system and transmits the signal to a remote device that performs keyword searches in a database or over the Internet. 少なくとも1つの非一時的コンピュータ可読媒体であって、
コンピュータが指定された場所を受信できるようにする命令と、
前記コンピュータがユーザーの現在の場所を監視できるようにする命令と、
前記コンピュータが、前記ユーザーが前記指定された場所から所定の距離内にいるときに前記ユーザーに知らせることができるようにする命令と、を記憶する、少なくとも1つの非一時的コンピュータ可読媒体。
At least one non-transitory computer readable medium comprising:
Instructions that allow the computer to receive the specified location;
Instructions that allow the computer to monitor a user's current location;
At least one non-transitory computer-readable medium that stores instructions that allow the computer to notify the user when the user is within a predetermined distance from the designated location.
製品の取り込まれた電子的表現を探索する命令と、画像探索を用いて前記製品を識別する命令とを更に記憶する、請求項26に記載の非一時的コンピュータ可読媒体。   27. The non-transitory computer readable medium of claim 26, further storing instructions for searching for a captured electronic representation of a product and instructions for identifying the product using image search. 取り込まれた電子テレビ信号を探索する命令して前記製品を識別する命令を更に記憶する、請求項27に記載の非一時的コンピュータ可読媒体。   28. The non-transitory computer readable medium of claim 27, further storing instructions for searching for captured electronic television signals to identify the product. 前記製品に関連するインターネット探索結果から製品販売元の場所を導出する命令を更に記憶する、請求項28に記載の非一時的コンピュータ可読媒体。   30. The non-transitory computer readable medium of claim 28, further storing instructions for deriving a product vendor location from internet search results associated with the product. テレビ番組からの音声を解析して前記番組を識別する命令を更に記憶する、請求項26に記載の非一時的コンピュータ可読媒体。   27. The non-transitory computer readable medium of claim 26, further storing instructions for analyzing audio from a television program to identify the program.
JP2014528820A 2011-09-12 2011-09-12 Identifying products using multimedia search Pending JP2014530390A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014528820A JP2014530390A (en) 2011-09-12 2011-09-12 Identifying products using multimedia search

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014528820A JP2014530390A (en) 2011-09-12 2011-09-12 Identifying products using multimedia search

Publications (1)

Publication Number Publication Date
JP2014530390A true JP2014530390A (en) 2014-11-17

Family

ID=51942486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014528820A Pending JP2014530390A (en) 2011-09-12 2011-09-12 Identifying products using multimedia search

Country Status (1)

Country Link
JP (1) JP2014530390A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11436826B2 (en) * 2019-01-11 2022-09-06 Target Brands, Inc. Augmented reality experience for shopping
US11631119B2 (en) 2019-01-11 2023-04-18 Target Brands, Inc. Electronic product recognition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006511A (en) * 2001-06-20 2003-01-10 Toshiba Tec Corp Merchandise information providing system
JP2009159188A (en) * 2007-12-26 2009-07-16 Hitachi Ltd Server for displaying content
JP2009301288A (en) * 2008-06-12 2009-12-24 Yahoo Japan Corp Retrieval server, retrieval method, and program for preferentially displaying specific information
US20110082735A1 (en) * 2009-10-06 2011-04-07 Qualcomm Incorporated Systems and methods for merchandising transactions via image matching in a content delivery system
JP2013529325A (en) * 2010-04-01 2013-07-18 株式会社ソニー・コンピュータエンタテインメント Media fingerprint for determining and searching content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006511A (en) * 2001-06-20 2003-01-10 Toshiba Tec Corp Merchandise information providing system
JP2009159188A (en) * 2007-12-26 2009-07-16 Hitachi Ltd Server for displaying content
JP2009301288A (en) * 2008-06-12 2009-12-24 Yahoo Japan Corp Retrieval server, retrieval method, and program for preferentially displaying specific information
US20110082735A1 (en) * 2009-10-06 2011-04-07 Qualcomm Incorporated Systems and methods for merchandising transactions via image matching in a content delivery system
JP2013529325A (en) * 2010-04-01 2013-07-18 株式会社ソニー・コンピュータエンタテインメント Media fingerprint for determining and searching content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11436826B2 (en) * 2019-01-11 2022-09-06 Target Brands, Inc. Augmented reality experience for shopping
US11631119B2 (en) 2019-01-11 2023-04-18 Target Brands, Inc. Electronic product recognition

Similar Documents

Publication Publication Date Title
US11917242B2 (en) Identification and presentation of content associated with currently playing television programs
KR101764257B1 (en) Method, apparatus and computer readable medium for using multimedia search to identify products
JP5906515B2 (en) Capturing multimedia clips using gestures
US11797625B2 (en) Displaying information related to spoken dialogue in content playing on a device
JP5395813B2 (en) Content and metadata consumption techniques
JP5828501B2 (en) Presentation of mobile content based on program context
US20140177964A1 (en) Video image search
KR101615930B1 (en) Using multimedia search to identify what viewers are watching on television
US20150370864A1 (en) Displaying Information Related to Spoken Dialogue in Content Playing on a Device
CN111274449A (en) Video playing method and device, electronic equipment and storage medium
JP2014530390A (en) Identifying products using multimedia search
US10592950B2 (en) Systems and methods for on-line purchase of items displayed within video content
JP2019036837A (en) Object identification apparatus, object identification system, object identification method, and program
KR20100045724A (en) System for supplying a commodity-information

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150915