JP2015233182A - Moving image information acquisition system - Google Patents

Moving image information acquisition system Download PDF

Info

Publication number
JP2015233182A
JP2015233182A JP2014118576A JP2014118576A JP2015233182A JP 2015233182 A JP2015233182 A JP 2015233182A JP 2014118576 A JP2014118576 A JP 2014118576A JP 2014118576 A JP2014118576 A JP 2014118576A JP 2015233182 A JP2015233182 A JP 2015233182A
Authority
JP
Japan
Prior art keywords
moving image
server
data
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014118576A
Other languages
Japanese (ja)
Inventor
克彦 一ノ瀬
Katsuhiko Ichinose
克彦 一ノ瀬
広二郎 後藤
Kojiro Goto
広二郎 後藤
将人 飯野
Masahito Iino
将人 飯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NANT MOBILE KK
Original Assignee
NANT MOBILE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NANT MOBILE KK filed Critical NANT MOBILE KK
Priority to JP2014118576A priority Critical patent/JP2015233182A/en
Publication of JP2015233182A publication Critical patent/JP2015233182A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving image information acquisition system which can acquire information on a moving image under reproduction, only by capturing the moving image under reproduction.SOLUTION: A moving image information acquisition system includes a mobile terminal with a camera, a first server (a matching server 104), and a second server (a video server 106). Retrieval data is transmitted to the first server using one scene of a moving image which is acquired by capturing with the mobile terminal to make an inquiry (S608). The first server, on the basis of a retrieval result, makes an inquiry with the second server (S610) to acquire moving image data (S612), and transmits information on the moving image which was inquired from the mobile terminal (S613).

Description

本発明は、動画情報取得システムに関し、特に、動画の一場面から、その動画に関する情報を検索して取得する技術に関する。   The present invention relates to a moving image information acquisition system, and more particularly to a technique for searching and acquiring information related to a moving image from a scene of the moving image.

スマートフォンなどの携帯端末の普及に伴って、携帯端末に備えられたカメラを用いて画像等を取得することが一般的になってきている。このような機能を用いて、例えば従来から、カメラ等により撮影された画像を用いてその画像に関する情報を検索して取得し、利用する技術が知られている(特許文献1等)。   Accompanying the widespread use of mobile terminals such as smartphones, it has become common to acquire images and the like using a camera provided in the mobile terminal. Using such a function, for example, conventionally, there is known a technique of searching for, acquiring, and using information related to an image taken using a camera or the like (Patent Document 1 or the like).

特開2013−222406号公報JP 2013-222406 A

従来、再生されている動画に関する情報を取得したいという要求がある。動画の情報としては、例えば、動画がテレビ放送であれば、そのテレビ番組の情報や、放送内容に映っている物品や人物などの情報が挙げられる。   Conventionally, there is a request for acquiring information regarding a moving image being played back. As the information on the moving image, for example, if the moving image is a television broadcast, information on the television program, information on an article or a person reflected in the broadcast content, and the like can be given.

通常、このような情報を取得する場合には、インターネット検索などを利用して取得することが多く、その場合、ユーザが動画やその内容に関して把握している情報をPC(パーソナルコンピュータ)や携帯端末などに入力する必要がある。   Usually, when such information is acquired, it is often acquired using an Internet search or the like. In this case, information that the user knows about the moving image and its contents is a PC (personal computer) or a portable terminal. It is necessary to input to.

しかしながら、このような入力には手間がかかり、また生じる点や、ユーザが入力可能な情報を十分に把握していない場合には検索結果が十分でないものとなるといったなど問題が生じる。   However, such an input takes time and problems, and there arises a problem that the search result is not sufficient when the user does not sufficiently grasp information that can be input.

そこで本願発明では、再生中の動画を撮影するだけで、その再生中の動画に関する情報を取得可能にする技術を提供する。   In view of this, the present invention provides a technique that enables acquisition of information relating to a moving image that is being reproduced simply by shooting the moving image that is being reproduced.

上記課題を解決するために本願発明は以下の構成を有する。すなわち、カメラを備えた携帯端末、第一のサーバ、及び第二のサーバを含む動画情報取得システムであって、
前記携帯端末は、
前記カメラを介して、再生装置が再生中の動画を認識する認識手段と、
前記カメラを介して、前記認識した再生中の動画から画像を取得する取得手段と、
前記取得手段にて取得した画像を用いて検索用データを生成する第一の生成手段と、
前記第一の生成手段にて生成した検索用データを前記第一のサーバへ送信し、その応答として動画データを該第1のサーバから取得する手段と
を有し、
前記第一のサーバは、
前記再生装置が再生する動画と同じ動画を構成する画像を用いて検索用データを生成する第二の生成手段と、
前記第二の生成手段にて生成した検索用データと、当該検索用データの生成に用いた画像に関する情報とを対応付けて第一の記憶部に蓄積する検索用データ蓄積手段と、
前記携帯端末から検索用データを受信する受信手段と、
前記受信手段にて受信した検索用データに一致する検索用データを前記第一の記憶部から検索し、当該一致する検索用データに対応付けられた情報を取得する検索手段と、
前記検索手段にて取得した情報を用いて前記第二のサーバに問い合わせを行い、その応答として動画データを取得する取得手段と、
前記取得手段にて取得した動画データを前記携帯端末へ送信する送信手段と、
を有し、
前記第二のサーバは、
前記再生装置が再生する動画と同じ動画を取得し、第二の記憶部に蓄積する動画データ蓄積手段と、
前記第一のサーバから問い合わせを受信した際に、当該問い合わせにて指定された情報に対応する動画データを前記第二の記憶部から特定し、該特定した動画データを該問い合わせに対する応答として前記第一のサーバに対して送信する応答手段と
を有する。
In order to solve the above problems, the present invention has the following configuration. That is, a video information acquisition system including a mobile terminal equipped with a camera, a first server, and a second server,
The portable terminal is
Recognizing means for recognizing the moving image being played by the playback device via the camera;
An acquisition means for acquiring an image from the recognized moving image being reproduced via the camera;
First generation means for generating search data using the image acquired by the acquisition means;
Means for transmitting the search data generated by the first generation means to the first server, and acquiring moving image data from the first server as a response;
The first server is
Second generating means for generating search data using an image that constitutes the same moving image as the moving image to be played by the playback device;
Search data storage means for associating the search data generated by the second generation means with the information about the image used for generating the search data in the first storage unit;
Receiving means for receiving search data from the portable terminal;
Search means for searching search data matching the search data received by the receiving means from the first storage unit, and acquiring information associated with the matching search data;
Using the information acquired by the search means to make an inquiry to the second server, and acquiring the moving image data as a response;
Transmitting means for transmitting the moving image data acquired by the acquiring means to the mobile terminal;
Have
The second server is
Moving image data storage means for acquiring the same moving image as the moving image to be played back by the playback device and storing it in a second storage unit;
When an inquiry is received from the first server, moving image data corresponding to the information specified in the inquiry is specified from the second storage unit, and the specified moving image data is used as a response to the inquiry. Response means for transmitting to one server.

本発明によれば、再生中の動画に関する情報を容易に取得することができる。   According to the present invention, it is possible to easily acquire information relating to a moving image being reproduced.

第一の実施形態に係るシステムの全体構成の例を示す図。The figure which shows the example of the whole structure of the system which concerns on 1st embodiment. 携帯端末および各種サーバのハードウェア構成例を示す図。The figure which shows the hardware structural example of a portable terminal and various servers. 第一の実施形態に係る携帯端末および各種サーバのソフトウェア構成例を示す図。The figure which shows the software structural example of the portable terminal and various servers which concern on 1st embodiment. 本願発明に係る動画データを説明するための図。The figure for demonstrating the moving image data which concerns on this invention. 第一の実施形態に係る動画データの構成例を示す図。The figure which shows the structural example of the moving image data which concern on 1st embodiment. 第一の実施形態に係る処理シーケンスを示す図。The figure which shows the process sequence which concerns on 1st embodiment. 第一の実施形態に係る携帯端末における処理のフローチャート。The flowchart of the process in the portable terminal which concerns on 1st embodiment. 第一の実施形態に係る動画データを用いた処理のフローチャート。The flowchart of the process using the moving image data which concerns on 1st embodiment. 第二の実施形態に係るシステムの全体構成の例を示す図。The figure which shows the example of the whole structure of the system which concerns on 2nd embodiment. 第二の実施形態に係る各種サーバのソフトウェア構成例を示す図。The figure which shows the software structural example of the various servers which concern on 2nd embodiment. 第二の実施形態に係る処理シーケンスを示す図。The figure which shows the process sequence which concerns on 2nd embodiment.

<第一の実施形態>
以下、図面を用いて、本願発明に係る実施形態について説明する。なお、以下に示す構成は一例であり、これに限定するものではない。本実施形態では、再生中の動画として、テレビ放送とした例を用いて説明するが、動画としての対象はこれに限定するものではない。詳細については後述する。
<First embodiment>
Embodiments according to the present invention will be described below with reference to the drawings. In addition, the structure shown below is an example and is not limited to this. In the present embodiment, the moving image being reproduced will be described using an example of television broadcasting, but the object as a moving image is not limited to this. Details will be described later.

[システム構成]
図1は、本願発明に係る動画情報取得システムの全体構成の例を示す図である。本実施形態に係るシステムは、携帯端末101、テレビ102、放送局103、マッチングサーバ104、インデックスサーバ105、ビデオサーバ106、およびサービスサーバ107を含む。携帯端末101は、無線ネットワークを介して、インターネット108と接続し、これにより、該インターネット108に接続されている上記の各種サーバに通信可能に接続される。
[System configuration]
FIG. 1 is a diagram showing an example of the overall configuration of a moving picture information acquisition system according to the present invention. The system according to the present embodiment includes a mobile terminal 101, a television 102, a broadcast station 103, a matching server 104, an index server 105, a video server 106, and a service server 107. The portable terminal 101 is connected to the Internet 108 via a wireless network, and thereby connected to the various servers connected to the Internet 108 so as to be communicable.

携帯端末101は、例えば、カメラを備えたスマートフォンやタブレット端末が該当する。カメラは、携帯端末101のユーザによる操作指示により、静止画や動画像の撮像を可能にするものである。また、携帯端末101は、動画像の撮像を行っている最中に、該動画像を構成する1以上のフレームに対する認識処理を実行し、認識したフレームに固有の値を求める機能も有する。   The mobile terminal 101 corresponds to, for example, a smartphone or a tablet terminal provided with a camera. The camera is capable of capturing a still image or a moving image according to an operation instruction from the user of the mobile terminal 101. The mobile terminal 101 also has a function of executing recognition processing for one or more frames constituting the moving image while capturing a moving image, and obtaining a unique value for the recognized frame.

テレビ102は、放送局103から発信されるテレビ放送用の電波に応じた動画像を再生可能な装置である。なお、本実施形態では動画を再生する装置として、テレビ放送用の電波を受信し、再生するテレビ102を例にとって説明するが、これに限定するものではなく、例えば、インターネット108を介した動画配信や、DVD等に記録された映像を再生する機器を対象としてもよい。   The television 102 is a device that can reproduce a moving image according to a television broadcast radio wave transmitted from the broadcast station 103. In the present embodiment, a description will be given of a television 102 that receives and reproduces television broadcast radio waves as an example of a device that reproduces moving images. However, the present invention is not limited to this, and for example, moving image distribution via the Internet 108 Alternatively, it may be a device that plays back video recorded on a DVD or the like.

インターネット108は、有線/無線を問わず携帯端末101や各種サーバに接続され、装置間の通信経路となる。   The Internet 108 is connected to the mobile terminal 101 and various servers regardless of wired / wireless, and serves as a communication path between the devices.

なお、図1においては、携帯端末および各種サーバはそれぞれ1台のみを示しているが、更に多くの装置が通信可能に接続されていてもよい。また、各種サーバは、物理的に複数の情報処理装置により、処理を分散するようにしても構わないし、2以上のサーバの機能を1のサーバが担うようにしても構わない。   In FIG. 1, only one mobile terminal and various servers are shown, but more devices may be connected so as to communicate with each other. In addition, various servers may be physically distributed by a plurality of information processing devices, and one server may be responsible for the functions of two or more servers.

本実施形態では、テレビ放送を例に挙げて説明するため、放送局の数だけ放送のチャンネルがあるものとし、各放送局が発信する放送用電波をテレビ102(再生するのは1の放送局の電波に応じた動画像)、インデックスサーバ105、およびビデオサーバ106はそれぞれ受信しているものとする。   In the present embodiment, for example, television broadcasting is described. Therefore, it is assumed that there are as many broadcasting channels as the number of broadcasting stations, and broadcasting radio waves transmitted from each broadcasting station are transmitted to the television 102 (one broadcasting station is reproduced). It is assumed that the index server 105 and the video server 106 have received the moving image corresponding to the radio wave).

サービスサーバ107は、携帯端末101からの要求に応じて各種サービスを提供するものである。各種サーバの機能の詳細に関しては、処理フローと併せて後述する。   The service server 107 provides various services in response to requests from the mobile terminal 101. Details of the functions of the various servers will be described later together with the processing flow.

[ハードウェア構成]
図2は、本実施形態に係る携帯端末101および各種サーバのハードウェア構成の例を示した図である。なお、テレビ102については、従来のものを利用するものとし、ここでの説明は省略する。
[Hardware configuration]
FIG. 2 is a diagram illustrating an example of the hardware configuration of the mobile terminal 101 and various servers according to the present embodiment. Note that a conventional television 102 is used, and a description thereof is omitted here.

図2(a)は、本実施形態に係る携帯端末101のハードウェア構成の例を示す。CPU(Central Processing Unit)201は、携帯端末101における処理全体を制御する。例えば、記憶部であるROM(Read Only Memory)203やストレージ204等に記憶されたプログラムやデータを読み出して実行することにより、携帯端末101が行うものとして後述する各処理を実現する。RAM(Random Access Memory)202は、CPU201からアクセスされ、ROM203やストレージ204から読み出されたプログラムやデータ、実行中の処理で発生したデータなどの格納場所などとして利用される記憶部である。ROM203は、不揮発性の記憶部である。ストレージ204は、携帯端末101が行うものとして後述する各処理をCPU201に実行させるためのプログラムやデータ等を格納するための記憶部である。   FIG. 2A shows an example of the hardware configuration of the mobile terminal 101 according to the present embodiment. A CPU (Central Processing Unit) 201 controls the entire processing in the mobile terminal 101. For example, by reading and executing a program or data stored in a ROM (Read Only Memory) 203 or a storage 204 as a storage unit, each process described later as what the mobile terminal 101 performs is realized. A RAM (Random Access Memory) 202 is a storage unit that is accessed from the CPU 201 and is used as a storage location for programs and data read from the ROM 203 and the storage 204, and data generated in the process being executed. The ROM 203 is a nonvolatile storage unit. The storage 204 is a storage unit for storing a program, data, and the like for causing the CPU 201 to execute each process described later as performed by the mobile terminal 101.

表示部205は、撮影部206により撮影された撮影画像や、ユーザに対するUI(User Interface)を表示するための表示部である。表示部205は、例えば、タッチパネルなどにより構成され、ユーザからの指示を受け付け可能であるものとする。撮影部206は、例えばカメラなどで構成され、携帯端末101のユーザが、必要に応じて周りの環境の画像を撮影することができる。また、撮影部206を何らかのオブジェクト等に向けた際に、その撮影部206が向いている方向の画が、表示部205に表示される。送受信部207は、外部装置(例えば、各種サーバ)とのネットワーク(インターネット108)を介したデータの送受信を行う際に用いられる。これらの機能部は何れも共通のバス208に接続され、これにより、データのやり取りが可能となっている。   The display unit 205 is a display unit for displaying a captured image captured by the capturing unit 206 and a UI (User Interface) for the user. The display unit 205 is configured by, for example, a touch panel and can accept an instruction from the user. The imaging unit 206 is configured with, for example, a camera, and the user of the mobile terminal 101 can capture an image of the surrounding environment as necessary. In addition, when the photographing unit 206 is pointed at some object or the like, an image in a direction in which the photographing unit 206 faces is displayed on the display unit 205. The transmission / reception unit 207 is used when transmitting / receiving data to / from an external device (for example, various servers) via the network (Internet 108). These functional units are all connected to a common bus 208, thereby enabling data exchange.

図2(b)は、本実施形態に係る各種サーバ(情報処理装置)のハードウェア構成の例を示す。なお、本実施形態に係るマッチングサーバ104については、I/F221およびテレビ放送受信部223を含まない構成となる。CPU211は、情報処理装置における処理全体を制御する。例えば、記憶部であるROM213等に記憶された本願発明に係るプログラムやデータを読み出して実行することにより、各種サーバが行う本願発明に係る処理を実現する。RAM212は、CPU211からアクセスされ、ROM213から読み出されたプログラムやデータ、実行中の処理で発生したデータなどの一時的な処理の格納場所などとして利用される記憶部である。ROM213は、不揮発性の記憶部である。   FIG. 2B shows an example of the hardware configuration of various servers (information processing apparatuses) according to this embodiment. Note that the matching server 104 according to the present embodiment does not include the I / F 221 and the television broadcast receiving unit 223. The CPU 211 controls the entire processing in the information processing apparatus. For example, the processing according to the present invention performed by various servers is realized by reading out and executing the program and data according to the present invention stored in the ROM 213 or the like as the storage unit. The RAM 212 is a storage unit that is accessed by the CPU 211 and used as a storage location for temporary processes such as programs and data read from the ROM 213 and data generated during the process being executed. The ROM 213 is a nonvolatile storage unit.

入力I/F214は、入力デバイス215を制御するためのインターフェースである。入力デバイス215は、ユーザからの入力指示を受け付けるためのデバイスであり、マウスやキーボードなどが該当する。ディスプレイI/F216は、表示部217を制御するためのインターフェースである。表示部217は、ユーザへの各種情報を提示するためのディスプレイであり、CRTや液晶ディスプレイなどにより構成される。外部メモリI/F218は、外部メモリ219を制御するためのインターフェースである。外部メモリ219は、HDDなどの記憶部であり、各種データが格納されている。ネットワークI/F220は、外部装置との通信を行うために有線/無線のネットワーク(インターネット108)と接続するためのインターフェースである。   The input I / F 214 is an interface for controlling the input device 215. The input device 215 is a device for receiving an input instruction from a user, and corresponds to a mouse, a keyboard, or the like. The display I / F 216 is an interface for controlling the display unit 217. The display unit 217 is a display for presenting various types of information to the user, and includes a CRT, a liquid crystal display, or the like. The external memory I / F 218 is an interface for controlling the external memory 219. The external memory 219 is a storage unit such as an HDD and stores various data. The network I / F 220 is an interface for connecting to a wired / wireless network (Internet 108) in order to communicate with an external device.

I/F221は、テレビ放送受信部223からのテレビ放送に関するデータを受信する。テレビ放送受信部223は、放送局103から送信されたテレビ放送に関する電波やデータを受信し、所定のデータ形式に変換の上、サーバに提供する。テレビ放送受信部223の機能は、テレビ102が備える機能と同等のものとし、例えば、チューナーや変換器などを含み、放送電波から映像信号(NTSCなど)への変換や、MP4などへの動画データへの変換などを行う。さらには、RTSP(Real Time Streaming Protocol)などのプロトコルを用いて、動画データをサーバに配信するようにしてもよい。ここでは、公知の方式を用いるものとし、詳細な説明は省略する。サーバを構成する各要素は、システムバス222により接続され、サーバ内で、データのやり取りが可能となっている。   The I / F 221 receives data related to the television broadcast from the television broadcast receiver 223. The television broadcast receiving unit 223 receives radio waves and data related to television broadcasts transmitted from the broadcast station 103, converts them into a predetermined data format, and provides them to the server. The function of the TV broadcast receiving unit 223 is equivalent to the function of the TV 102, and includes, for example, a tuner, a converter, and the like. Conversion from broadcast radio waves to video signals (NTSC, etc.), and moving image data to MP4, etc. Conversion to etc. Furthermore, the moving image data may be distributed to the server using a protocol such as RTSP (Real Time Streaming Protocol). Here, a known method is used, and detailed description thereof is omitted. Each element constituting the server is connected by a system bus 222, and data can be exchanged within the server.

なお、携帯端末およびサーバの内部構造はこれに限定するものではなく、必要に応じて、他の構成要素を含んでいてもよい。   The internal structures of the mobile terminal and the server are not limited to this, and may include other components as necessary.

[ソフトウェア構成]
図3は、本願発明に係る携帯端末101および各種サーバのソフトウェア構成の例を示す図である。なお、以下に示すソフトウェア構成は一例であり、その他の構成要素を含んでいてもよい。
Software configuration
FIG. 3 is a diagram showing examples of software configurations of the mobile terminal 101 and various servers according to the present invention. Note that the software configuration shown below is an example, and may include other components.

図3(a)は、携帯端末101のソフトウェア構成の例を示す。携帯端末101では、OS(Operating System)301の制御下で、アプリケーション(以下、単に「アプリ」と称す)302が動作し、このアプリ302により本実施形態に係る携帯端末101の処理が行われるものとする。なお、携帯端末101においては他の機能を有するアプリが更に含まれていても良く、各種アプリは任意にインストール/アンインストールが可能であるものとする。   FIG. 3A shows an example of the software configuration of the mobile terminal 101. In the mobile terminal 101, an application (hereinafter simply referred to as “app”) 302 operates under the control of an OS (Operating System) 301, and processing of the mobile terminal 101 according to the present embodiment is performed by the application 302. And Note that the mobile terminal 101 may further include apps having other functions, and various apps can be arbitrarily installed / uninstalled.

アプリ302は、動画認識部303、画像抽出部304、検索用データ生成部305、データ送受信部306、およびデータ処理部307を備える。動画認識部303は、携帯端末101が備える撮影部206であるカメラを、動画(ここではテレビ放送)が再生されているテレビ102にかざした際に、動画が再生されていることを認識し、その再生している動画の複数の画像をカメラを介して取得する。画像抽出部304は、動画認識部303が取得した画像の中から、1または複数の画像を抽出する。ここで抽出する画像は、所定のフレームレートで複数取得しても良いし、単一の画像を取得するようにしてもよい。なお、ここで所定のフレームレートを用いる場合には、後述するビデオサーバ106の処理との関係に基づいて、フレームレートが決定されるものとする。   The application 302 includes a moving image recognition unit 303, an image extraction unit 304, a search data generation unit 305, a data transmission / reception unit 306, and a data processing unit 307. The moving image recognition unit 303 recognizes that a moving image is being played when the camera, which is the photographing unit 206 included in the mobile terminal 101, is held over the television 102 on which the moving image (here, TV broadcast) is played, A plurality of images of the moving image being reproduced are acquired via the camera. The image extraction unit 304 extracts one or a plurality of images from the images acquired by the moving image recognition unit 303. A plurality of images to be extracted here may be acquired at a predetermined frame rate, or a single image may be acquired. When a predetermined frame rate is used here, the frame rate is determined based on the relationship with the processing of the video server 106 described later.

検索用データ生成部305は、画像抽出部304にて抽出された画像を用いて、動画情報の検索用のデータ(以下、「検索用データ」と称す)を生成する。本実施形態においては、検索用データとして、ハッシュ関数により生成するFingerPrintを用いるものとするが、画像抽出部304にて抽出された画像に一意の値をFingerPrintとして求める方法であれば、ハッシュ関数を用いた方法に限定するものではない。また、ハッシュ関数の方式は特に限定しない。データ送受信部306は、各種データを目的に応じて各種サーバに送信し、その応答を受信する。本実施形態では、データ送受信部306は、検索用データ生成部305にて生成した検索用データをマッチングサーバ104に送信し、その応答として動画データを取得する。データ処理部307は、各種サーバから受信したデータを用いて処理を行う。ここでの処理の例については、フローチャートを用いて後述する。   The search data generation unit 305 uses the image extracted by the image extraction unit 304 to generate video information search data (hereinafter referred to as “search data”). In this embodiment, FingerPrint generated by a hash function is used as the search data. However, if the method is to obtain a unique value for the image extracted by the image extraction unit 304 as FingerPrint, a hash function is used. It is not limited to the method used. Further, the hash function method is not particularly limited. The data transmission / reception unit 306 transmits various data to various servers according to the purpose, and receives the response. In the present embodiment, the data transmission / reception unit 306 transmits the search data generated by the search data generation unit 305 to the matching server 104 and acquires moving image data as a response. The data processing unit 307 performs processing using data received from various servers. An example of the processing here will be described later using a flowchart.

図3(b)は、マッチングサーバ104のソフトウェア構成の例を示す。データ送受信部311は、携帯端末101等からの要求を受信し、その応答を返す。具体的には、検索用データを含む要求を受信し、その検索用データを用いて検索された動画データを返信する。マッチング処理部312は、携帯端末101からの要求に含まれる検索用データを用いて、検索用データ格納部313がデータベース(例えば外部メモリ219)に蓄積しているデータの中から該当するデータを検索する。そして、マッチング処理部312は、その検索結果を動画データ問合せ部314へと送信する。   FIG. 3B shows an example of the software configuration of the matching server 104. The data transmission / reception unit 311 receives a request from the mobile terminal 101 and returns a response. Specifically, a request including search data is received, and moving image data searched using the search data is returned. The matching processing unit 312 uses the search data included in the request from the mobile terminal 101 to search for the corresponding data from the data stored in the database (for example, the external memory 219) by the search data storage unit 313. To do. Then, the matching processing unit 312 transmits the search result to the moving image data inquiry unit 314.

検索用データ格納部313は、インデックスサーバ105が、テレビ放送の動画から抽出した画像を用いて生成した検索用データを逐次受信し、データベースへと格納、蓄積する。動画データ問合せ部314は、マッチング処理部312から取得した検索結果を用いて、その検索結果に対応する動画データをビデオサーバ106へ問い合わせる。そして、動画データ問合せ部314は、その応答として動画データを取得する。その後、動画データ問合せ部314は、取得した動画データをデータ送受信部311へ送信し、要求元の携帯端末101へ送信させる。   The search data storage unit 313 sequentially receives search data generated by the index server 105 using an image extracted from a moving image of a television broadcast, and stores and accumulates the data in a database. The moving image data inquiry unit 314 uses the search result acquired from the matching processing unit 312 to inquire the video server 106 about moving image data corresponding to the search result. Then, the moving image data inquiry unit 314 acquires moving image data as the response. Thereafter, the moving image data inquiry unit 314 transmits the acquired moving image data to the data transmission / reception unit 311 and causes the requesting mobile terminal 101 to transmit the acquired moving image data.

図3(c)は、インデックスサーバ105のソフトウェア構成の例を示す。動画データ受信部321は、放送局103から送信され、テレビ放送受信部223にて受信した動画データ(テレビ放送のデータ)を受信する。このとき、図1に示すように放送局が複数ある場合、動画データ受信部321は、データを配信した放送局を一意に示す情報と動画データを関連付けて受信する。本実施形態に係る動画データの構成例については、図5を用いて後述する。そして、動画データ受信部321は、受信した各種データを画像抽出部322へ送信する。   FIG. 3C shows an example of the software configuration of the index server 105. The moving image data receiving unit 321 receives moving image data (television broadcast data) transmitted from the broadcasting station 103 and received by the television broadcast receiving unit 223. At this time, when there are a plurality of broadcasting stations as shown in FIG. 1, the moving image data receiving unit 321 receives the information uniquely indicating the broadcasting station that has distributed the data and moving image data. A configuration example of the moving image data according to the present embodiment will be described later with reference to FIG. Then, the moving image data reception unit 321 transmits the received various data to the image extraction unit 322.

画像抽出部322は、動画データ受信部321が取得した動画データの中から、フレーム(画像)を抽出する。ここで抽出するフレームは、所定のフレームレート(所定の時間間隔)で複数取得するものとする。なお、ここでの所定のフレームレートは、携帯端末101側で複数の画像を抽出する場合のフレームレートよりも高い値であることを前提とする。そして、画像抽出部322は、抽出したフレームと、そのフレームに対応する動画データ受信部321から取得した情報と対応付けて検索用データ生成部323へ送信する。   The image extraction unit 322 extracts a frame (image) from the moving image data acquired by the moving image data reception unit 321. A plurality of frames to be extracted here are acquired at a predetermined frame rate (predetermined time interval). Here, it is assumed that the predetermined frame rate is higher than the frame rate when a plurality of images are extracted on the mobile terminal 101 side. Then, the image extraction unit 322 transmits the extracted frame to the search data generation unit 323 in association with the information acquired from the moving image data reception unit 321 corresponding to the extracted frame.

検索用データ生成部323は、画像抽出部322にて抽出された画像を用いて、検索用データを生成する。ここでの生成処理は、携帯端末101の検索用データ生成部305と同じ方式を用いるものとする。なお、検索用データ生成部232においても、画像抽出部322にて抽出された画像に一意の値をFingerPrintとして求める方法であれば、ハッシュ関数を用いた方法に限定するものではない。そして、検索用データ生成部323は、生成した検索用データと画像抽出部322から受信した画像に対応する情報とを対応付けて、検索用データ提供部324へ送信する。検索用データ提供部324は、検索用データ生成部323から受信した情報をマッチングサーバ104へ逐次送信する。ここで送信された情報は、マッチングサーバ104の検索用データ格納部313によってデータベースへ格納されることとなる。   The search data generation unit 323 generates search data using the image extracted by the image extraction unit 322. The generation process here uses the same method as the search data generation unit 305 of the mobile terminal 101. Note that the search data generation unit 232 is not limited to the method using the hash function as long as it is a method for obtaining a unique value as FingerPrint for the image extracted by the image extraction unit 322. Then, the search data generation unit 323 associates the generated search data with information corresponding to the image received from the image extraction unit 322, and transmits the data to the search data providing unit 324. The search data providing unit 324 sequentially transmits the information received from the search data generation unit 323 to the matching server 104. The information transmitted here is stored in the database by the search data storage unit 313 of the matching server 104.

図3(d)は、ビデオサーバ106のソフトウェア構成の例を示す。動画データ受信部331は、放送局103から送信され、テレビ放送受信部223にて受信した動画データ(テレビ放送のデータ)を受信する。このとき、図1に示すように放送局が複数ある場合、動画データ受信部331は、データを配信した放送局を一意に示す情報と動画データを関連付けて受信する。本実施形態においては、インデックスサーバ105の動画データ受信部321の構成と同様であるものとする。そして、動画データ受信部331は、受信した各種データを動画データ格納部332へ送信する。   FIG. 3D shows an example of the software configuration of the video server 106. The moving image data receiving unit 331 receives moving image data (television broadcast data) transmitted from the broadcasting station 103 and received by the television broadcast receiving unit 223. At this time, when there are a plurality of broadcast stations as shown in FIG. 1, the moving image data receiving unit 331 receives information uniquely indicating the broadcast station that distributed the data and moving image data. In this embodiment, it is assumed that the configuration is the same as that of the moving image data receiving unit 321 of the index server 105. Then, the moving image data reception unit 331 transmits the received various data to the moving image data storage unit 332.

動画データ格納部332は、動画データ受信部331から送信されてきたデータを逐次データベースへ格納する。動画データ提供部333は、マッチングサーバ104からの要求に応じて、データベースに蓄積した動画データの中から対応する動画データを特定し、返信する。ここでの具体的な処理の流れは、後述する。   The moving image data storage unit 332 sequentially stores the data transmitted from the moving image data receiving unit 331 in the database. In response to a request from the matching server 104, the moving image data providing unit 333 identifies corresponding moving image data from the moving image data stored in the database and sends back the corresponding moving image data. A specific processing flow here will be described later.

なお、マッチングサーバ104の検索用データ格納部313およびビデオサーバ106の動画データ格納部332は、所定の時間が経過した後に、データベースに蓄積したデータを削除するようにしても構わない。この場合、それぞれのデータベースにおいて対応する情報(例えば、同じ時間帯に放送されたデータ)の整合性がとれるように(一方のデータのみが残らないように)削除する。また、放送局ごとに蓄積するデータ量を変動させてもよい。また、各サーバがデータを格納するデータベースは、サーバ内の記憶部に限定するものではなく、別途記憶装置を設け、そこに格納、蓄積するようにしてもよい。この場合、各サーバは、他のサーバに問い合わせる代わりに、記憶装置から対象のデータを直接、検索、取得するように構成してもよい。   Note that the search data storage unit 313 of the matching server 104 and the moving image data storage unit 332 of the video server 106 may delete the data accumulated in the database after a predetermined time has elapsed. In this case, the corresponding information in each database (for example, data broadcast in the same time zone) is deleted so as to be consistent (so that only one data does not remain). Further, the amount of data stored for each broadcasting station may be varied. The database in which each server stores data is not limited to the storage unit in the server, and a separate storage device may be provided and stored and accumulated therein. In this case, each server may be configured to directly retrieve and acquire target data from the storage device instead of inquiring of other servers.

[処理の流れ]
本実施形態に係る処理の流れについて説明する。
[Process flow]
A processing flow according to the present embodiment will be described.

(動画データの説明)
まず、本実施形態にて扱う動画データについて説明する。図4は、本実施形態に係る動画データの概念を示したものである。図4において、横軸を時間として示し、ある時間における動画データの画像(フレーム)の並びを示している。図4の(a)は、放送局103から配信される動画を構成する連続するフレームである。例えば、地上波デジタル放送においては、29.97fps(frame per second)となる。
(Description of video data)
First, moving image data handled in this embodiment will be described. FIG. 4 shows the concept of moving image data according to the present embodiment. In FIG. 4, the horizontal axis indicates time, and the arrangement of moving image data images (frames) at a certain time is shown. FIG. 4A shows continuous frames constituting a moving image distributed from the broadcast station 103. For example, in terrestrial digital broadcasting, it becomes 29.97 fps (frame per second).

図4の(b)は、ビデオサーバ106のテレビ放送受信部223が、放送局103から配信される動画を受信し取得する、連続するフレームである。本実施形態においては、放送データを全て取得し、保持するものとして、図4の(a)と同じ構成とする。また、放送局103が複数ある場合には、同じ時間帯において各放送局に対応したデータが受信した(もしくは、配信された)時間および放送局を一意に示す情報と共に保持される。   FIG. 4B is a series of frames in which the television broadcast receiving unit 223 of the video server 106 receives and acquires a moving image distributed from the broadcast station 103. In the present embodiment, all the broadcast data is acquired and held, and the same configuration as in FIG. When there are a plurality of broadcasting stations 103, data corresponding to each broadcasting station in the same time zone is held together with information indicating the time at which the broadcasting station was received (or distributed) and the broadcasting station.

図4の(c)は、インデックスサーバ105のテレビ放送受信部223が、放送局103から配信される動画を受信した後、画像抽出部322にて抽出するフレームを示す。ここで抽出されるフレームの抽出間隔(fps)は、動画の検出の精度や検索の精度、もしくは処理負荷とのバランス等により決定される。ここでは、元のデータに対し、3分の1の割合でフレームを取得している例を示している。   FIG. 4C shows a frame that is extracted by the image extraction unit 322 after the television broadcast reception unit 223 of the index server 105 receives the moving image distributed from the broadcast station 103. The frame extraction interval (fps) extracted here is determined by the accuracy of moving image detection, the accuracy of search, the balance with the processing load, or the like. Here, an example is shown in which frames are acquired at a rate of one third of the original data.

図4の(d)は、携帯端末101のアプリ302(画像抽出部304)が、動画が再生されているテレビ102にカメラをかざすことで認識し、抽出される画像を示す。ここでは、1つのみの画像が取得されている。なお、上述したように、所定の抽出間隔で複数の画像を抽出してもよい。この場合には、図4の(c)に示すインデックスサーバ105側の抽出間隔よりも長いことを前提とする。これにより、マッチングサーバ104側での検索精度の低下を抑制する。   FIG. 4D shows an image that is recognized and extracted by the application 302 (image extraction unit 304) of the mobile terminal 101 by holding the camera over the television 102 on which a moving image is played. Here, only one image is acquired. As described above, a plurality of images may be extracted at a predetermined extraction interval. In this case, it is assumed that the interval is longer than the extraction interval on the index server 105 side shown in FIG. This suppresses a decrease in search accuracy on the matching server 104 side.

なお、図4の(a)〜(c)においては、各サーバが直接放送局から配信されたデータを受信しているため、画像に加え、これに対応付けられた動画情報も取得される。一方、携帯端末101側では、再生されている動画を認識して画像を取得しているため、画像のデータのみが取得されることとなる。   In (a) to (c) of FIG. 4, since each server receives data distributed directly from a broadcasting station, in addition to images, moving image information associated therewith is also acquired. On the other hand, since the mobile terminal 101 recognizes the reproduced moving image and acquires the image, only the image data is acquired.

(データ構成)
図5は、本実施形態に係るデータ構成の例を示す図である。本実施形態に係る動画データは所定のフレームレートにて定義される複数の画像と動画情報から構成される。本実施形態に係る動画情報は、テレビ放送を行う放送局(チャンネル)を一意に識別するためのチャンネルID、チャンネル名、および動画のコンテンツ名を有する。なお、動画情報に含まれる情報はこれに限定するものではなく、例えば、番組の出演者、スポンサーなどのコンテンツに関する情報を更に含んでもよい。動画データに含まれる画像(フレーム)はそれぞれ時刻情報(タイムスタンプ)を有する。本実施形態のようなテレビ放送の例では、放送された時刻を示す。また、映画などを対象とした場合には、映画の開始からの時間を示してもよい。また、画像ごとの情報はタイムスタンプに限定するものではなく、例えば、画像のまとまりを示すキャプションなどの情報を更に含んでいても良い。
(Data structure)
FIG. 5 is a diagram illustrating an example of a data configuration according to the present embodiment. The moving image data according to the present embodiment includes a plurality of images and moving image information defined at a predetermined frame rate. The moving image information according to the present embodiment has a channel ID, a channel name, and a moving image content name for uniquely identifying a broadcasting station (channel) that performs television broadcasting. Note that the information included in the moving image information is not limited to this, and may include information related to content such as performers and sponsors of the program, for example. Each image (frame) included in the moving image data has time information (time stamp). In the example of the television broadcast as in the present embodiment, the broadcast time is shown. In the case of a movie or the like, the time from the start of the movie may be indicated. Further, the information for each image is not limited to the time stamp, and for example, it may further include information such as a caption indicating a group of images.

(処理シーケンス)
図6は、本実施形態に係る各装置間の処理シーケンスを示す。本処理シーケンスに係る処理は、各処理主体のCPUがROM等の記憶部に記憶された本実施形態に係るプログラムを読み出して実行することにより実現される。
(Processing sequence)
FIG. 6 shows a processing sequence between the apparatuses according to the present embodiment. The processing according to this processing sequence is realized by the CPU of each processing subject reading and executing the program according to the present embodiment stored in the storage unit such as the ROM.

S601にて、ビデオサーバ106は、放送局103から配信された動画データを受信し、データベースへ記録する。ここで取得される動画データは、図4に示したように、画像の他、動画情報を含む。   In S601, the video server 106 receives the moving image data distributed from the broadcast station 103 and records it in the database. The moving image data acquired here includes moving image information in addition to images as shown in FIG.

S602にて、インデックスサーバ105は、放送局103から配信された動画データを受信する。ここで受信される動画データは、S601にてビデオサーバ106が受信したものと同等のものである。   In S <b> 602, the index server 105 receives the moving image data distributed from the broadcast station 103. The moving image data received here is the same as that received by the video server 106 in S601.

S603にて、インデックスサーバ105は、受信した動画データの中から、所定の時間間隔で画像を抽出する。そして、インデックスサーバ105は、抽出した画像に対し、所定のハッシュ関数を用いて検索用データ(FingerPrint)を生成する。本実施形態にて一例として用いるFingerPrintに関する生成方法は、従来の技術を適用できるものとし、ここでの詳細な説明は省略する。   In S603, the index server 105 extracts images at predetermined time intervals from the received moving image data. Then, the index server 105 generates search data (FingerPrint) for the extracted image using a predetermined hash function. The generation method related to FingerPrint used as an example in the present embodiment can be applied with a conventional technique, and detailed description thereof is omitted here.

S604にて、インデックスサーバ105は、生成したFingerPrintとそのFingerPrintの基となった画像に対応する動画情報とをマッチングサーバ104へ送信する。   In step S <b> 604, the index server 105 transmits the generated FingerPrint and moving image information corresponding to the image that is the basis of the FingerPrint to the matching server 104.

S605にて、マッチングサーバ104は、インデックスサーバ105から受信したFingerPrintと対応する動画情報とを関連付けて、データベースに逐次蓄積する。   In S605, matching server 104 associates FingerPrint received from index server 105 with the corresponding moving image information, and sequentially accumulates them in the database.

一方、携帯端末101側では、ユーザがアプリ302を起動し、撮影部206であるカメラをテレビ102にかざす。これにより、S606にて、携帯端末101は、テレビ102にて再生(放送)されている動画を認識する。ここでテレビが再生している動画は、ビデオサーバ106やインデックスサーバ105がS601やS602にて受信した動画データと同等のものである。   On the other hand, on the mobile terminal 101 side, the user activates the application 302 and holds the camera as the photographing unit 206 over the television 102. As a result, in S606, the mobile terminal 101 recognizes the moving image being played back (broadcast) on the television 102. Here, the moving image being reproduced by the television is the same as the moving image data received by the video server 106 or the index server 105 in S601 or S602.

S607にて、携帯端末101は、認識した動画から画像を抽出する。ここで抽出する画像は、図4にて示したように1つであっても良いし、所定間隔ごとに複数枚取得してもよい。そして、携帯端末101は、抽出した画像に対し、所定のハッシュ関数を用いて検索用データ(FingerPrint)を生成する。   In step S607, the mobile terminal 101 extracts an image from the recognized moving image. The number of images extracted here may be one as shown in FIG. 4, or a plurality of images may be acquired at predetermined intervals. Then, the portable terminal 101 generates search data (FingerPrint) for the extracted image using a predetermined hash function.

S608にて、携帯端末101は、生成したFingerPrintをマッチングサーバ104へ送信する。   In step S <b> 608, the mobile terminal 101 transmits the generated FingerPrint to the matching server 104.

S609にて、マッチングサーバ104は、携帯端末101から受信したFingerPrintと一致するFingerPrintを、S605にて蓄積したFingerPrintの中から検索する。ここで一致するFingerPrintがマッチングサーバ104に保持されている場合、該一致するFingerPrintと関連づけてデータベースに蓄積されている動画情報を取得する。ここでの動画情報は、例えば、本実施形態のような放送局から配信されたテレビ番組である場合、放送局103を一意に示すチャンネルID(識別子)、画像(フレーム)が配信された時間(タイムスタンプ)が含まれる。なお、動画情報は、他の情報を含んでいてもよい。   In S609, the matching server 104 searches for a FingerPrint that matches the FingerPrint received from the mobile terminal 101 from among the FingerPrints accumulated in S605. If the matching FingerPrint is held in the matching server 104, the moving image information stored in the database in association with the matching FingerPrint is acquired. For example, in the case where the video information is a television program distributed from a broadcasting station as in the present embodiment, the channel ID (identifier) uniquely indicating the broadcasting station 103 and the time when the image (frame) is distributed ( Time stamp). Note that the moving image information may include other information.

S610にて、マッチングサーバ104は、特定した動画情報を用いて、ビデオサーバ106に対し、問い合わせを行う。   In S610, matching server 104 makes an inquiry to video server 106 using the specified moving image information.

S611にて、ビデオサーバ106は、マッチングサーバ104からの問い合わせに含まれるチャンネルIDおよびタイムスタンプに基づいて、蓄積している動画の中から対応する動画データを特定する。例えば、マッチングサーバ104からの問い合わせに含まれるチャンネルIDおよびタイムスタンプがそれぞれ“X”、“T”である場合には、チャンネルID“X”が示す放送局が時刻Tの時点に配信したフレームが特定される。そして、ビデオサーバ106は、特定したフレームから所定の時間だけさかのぼった分の動画データ(連続するフレーム)を特定し、該特定したフレームと該特定した動画データとを含むデータを、マッチングサーバ104からの問い合わせに対する動画データとして決定する。ここで返信対象とする動画データは、ビデオサーバ106がデータベースに蓄積したデータのうち、マッチングサーバ104からの問い合わせに応じた時間帯の動画データ全てであっても良いし、マッチングサーバ104からの問い合わせに応じた時間帯のフレーム群のうちの所定のフレームレートで一部を抽出して対象としてもよい。なお、「所定の時間」については予め定義されているものとし、例えば、特定した時間から、1分間さかのぼった間の動画データとすることができる。   In S611, the video server 106 identifies corresponding moving image data from the accumulated moving images based on the channel ID and the time stamp included in the inquiry from the matching server 104. For example, if the channel ID and time stamp included in the inquiry from the matching server 104 are “X” and “T”, respectively, the frame delivered by the broadcast station indicated by the channel ID “X” at the time T is shown. Identified. Then, the video server 106 specifies moving image data (consecutive frames) for a predetermined time from the specified frame, and receives data including the specified frame and the specified moving image data from the matching server 104. It is determined as the video data for the inquiry. Here, the moving image data to be returned may be all moving image data in the time period corresponding to the inquiry from the matching server 104 among the data accumulated in the database by the video server 106 or the inquiry from the matching server 104. It is possible to extract a part of a frame group in a time zone according to the predetermined frame rate as a target. Note that the “predetermined time” is defined in advance, and for example, it may be moving image data that goes back one minute from the specified time.

S612にて、ビデオサーバ106は、S611にて特定した動画データをマッチングサーバ104へ返信する。   In S612, the video server 106 returns the moving image data specified in S611 to the matching server 104.

S613にて、マッチングサーバ104は、S608で携帯端末101から送信された要求(FingerPrint)に対する応答として、ビデオサーバ106から受信した動画データを送信する。   In S613, the matching server 104 transmits the moving image data received from the video server 106 as a response to the request (FingerPrint) transmitted from the mobile terminal 101 in S608.

S614にて、携帯端末101は、S613にてマッチングサーバ104から送信された動画データを受信し、該受信した動画データを用いて処理を行う。ここでの処理の例については後述する。そして、本処理フローを終了する。   In S614, the mobile terminal 101 receives the moving image data transmitted from the matching server 104 in S613, and performs processing using the received moving image data. An example of the processing here will be described later. Then, this processing flow ends.

[携帯端末の処理]
図7は、本実施形態に係る携帯端末101にて行われる処理のフローチャートを示す。本フローは、図6に示した携帯端末101の処理に対応する。また、本処理フローは、CPU201が、記憶部であるストレージ204等に格納されたプログラムを読み出して実行することにより、実現される。
[Handling of mobile devices]
FIG. 7 shows a flowchart of processing performed in the mobile terminal 101 according to the present embodiment. This flow corresponds to the processing of the mobile terminal 101 shown in FIG. This processing flow is realized by the CPU 201 reading and executing a program stored in the storage 204 or the like that is a storage unit.

S701にて、携帯端末101は、アプリ302を起動の上、ユーザにより動画を再生中のテレビ102にカメラを向けられることで、再生中の動画(本例では、放送局103により配信されているテレビ番組)を認識する。   In step S <b> 701, the mobile terminal 101 activates the application 302 and directs the camera to the television 102 that is reproducing the moving image by the user, so that the moving image being reproduced (distributed by the broadcasting station 103 in this example). TV program).

S702にて、携帯端末101は、認識した動画から任意のタイミングで画像を抽出する。S703にて、携帯端末101は、所定の方式を用いて、抽出した画像から検索用データ(FingerPrint)を生成する。S704にて、携帯端末101は、生成したFingerPrintをマッチングサーバ104へ送信する。   In S702, the mobile terminal 101 extracts an image from the recognized moving image at an arbitrary timing. In S703, the mobile terminal 101 generates search data (FingerPrint) from the extracted image using a predetermined method. In step S <b> 704, the mobile terminal 101 transmits the generated FingerPrint to the matching server 104.

S705にて、携帯端末101は、S704の応答として、動画データを受信する。S706にて、携帯端末101は、受信した動画データを用いた処理を行う。動画データを用いた処理はどのようなものであってもよく、例えば、携帯端末101が有する他のアプリの機能にて用いられてもよい。本実施形態では、ここでの処理の一例について、図8を用いて説明する。そして、本処理フローを終了する。   In S705, the mobile terminal 101 receives moving image data as a response in S704. In step S706, the mobile terminal 101 performs processing using the received moving image data. Any processing using moving image data may be used, and for example, it may be used in a function of another application included in the mobile terminal 101. In the present embodiment, an example of the processing here will be described with reference to FIG. Then, this processing flow ends.

[動画データの利用例]
以下に、動画データを取得した携帯端末101における処理の一例について説明する。本実施形態では、携帯端末101が、サービスサーバ107と連携して、取得した動画データを利用する例について述べる。
[Usage example of video data]
Below, an example of the process in the portable terminal 101 which acquired moving image data is demonstrated. In the present embodiment, an example in which the mobile terminal 101 uses the acquired moving image data in cooperation with the service server 107 will be described.

図8は、本実施形態に係る携帯端末101にて行われる処理のフローチャートを示す。本フローは、図6のS614における処理の一例である。また、本処理フローは、CPU201が、記憶部であるストレージ204等に格納されたプログラムを読み出して実行することにより、実現される。   FIG. 8 shows a flowchart of processing performed in the mobile terminal 101 according to the present embodiment. This flow is an example of the process in S614 of FIG. This processing flow is realized by the CPU 201 reading and executing a program stored in the storage 204 or the like that is a storage unit.

S801にて、携帯端末101は、S613にてマッチングサーバ104から送信された動画データ(連続する複数のフレーム)を取得する。S802にて、携帯端末101は、該取得した動画データから1または複数の画像(フレーム)を抽出する。S803にて、携帯端末101は、抽出した1または複数の画像を表示部205にて、ユーザが選択可能に表示させる。ここでの表示方法は、例えば、アプリの機能に依存して表示してよい。   In S801, the mobile terminal 101 acquires moving image data (a plurality of continuous frames) transmitted from the matching server 104 in S613. In S802, the mobile terminal 101 extracts one or a plurality of images (frames) from the acquired moving image data. In step S803, the mobile terminal 101 causes the display unit 205 to display the extracted image or images on the display unit 205 so that the user can select them. The display method here may be displayed depending on the function of the application, for example.

S804にて、携帯端末101は、ユーザから画像の選択を受け付け、選択された画像に関連付けられた情報を、S801にて取得した動画データから取得する。ここで関連付けられた情報とは上記に述べた動画情報が該当し、例えば、動画データのチャンネルIDや放送時間、番組名などが挙げられる。これらの情報は、図6のS613にて、マッチングサーバ104から受信しているものに相当する。   In S804, the mobile terminal 101 receives a selection of an image from the user, and acquires information associated with the selected image from the moving image data acquired in S801. The information associated here corresponds to the moving image information described above, and includes, for example, the channel ID, broadcasting time, program name, and the like of the moving image data. These pieces of information correspond to the information received from the matching server 104 in S613 of FIG.

S805にて、携帯端末101は、S804にて選択された画像と、S804にて取得した情報とをサービスサーバ107へ送信する。ここで、サービスサーバ107は、例えば、画像投稿サービスを提供するサーバであっても良いし、ストレージサービスを提供するサーバであっても良く、そのサービス内容を限定するものではない。また、画像を送信する前に、例えば、携帯端末101が有するアプリの一機能として画像編集機能を備えている場合には、その機能を用いて該選択した画像に対する編集を行った上で送信できるようにしてもよい。   In step S805, the mobile terminal 101 transmits the image selected in step S804 and the information acquired in step S804 to the service server 107. Here, the service server 107 may be, for example, a server that provides an image posting service or a server that provides a storage service, and the service content is not limited. In addition, before transmitting an image, for example, when an image editing function is provided as a function of an application included in the mobile terminal 101, the image can be transmitted after editing the selected image using the function. You may do it.

サービスサーバ107側では、携帯端末101から受信した画像及び情報を用いて、任意のサービス処理を実行する。例えば、受信した画像及び情報を電子掲示板のような第三者がアクセス可能なWebページに掲載して公開する処理であっても良いし、受信した画像及び情報を特定の若しくは指定された転送先に対して転送する処理であっても良い。そしてサービスサーバ107は、サービス処理の結果を携帯端末101へ返信する。   On the service server 107 side, arbitrary service processing is executed using the image and information received from the mobile terminal 101. For example, the received image and information may be published on a web page accessible by a third party such as an electronic bulletin board, or the received image and information may be transferred to a specific or designated transfer destination. The process of transferring to Then, the service server 107 returns the result of the service process to the mobile terminal 101.

S807にて、携帯端末101は、S806にてサービスサーバ107へ送信した画像及び情報に対する応答、即ちサービスサーバ107が該画像及び情報を用いて行ったサービス処理の結果を受信する。携帯端末101は、受信した応答の内容を、表示部205に表示するようにしてもよい。そして、本処理フローを終了する。   In step S807, the mobile terminal 101 receives a response to the image and information transmitted to the service server 107 in step S806, that is, the result of service processing performed by the service server 107 using the image and information. The mobile terminal 101 may display the content of the received response on the display unit 205. Then, this processing flow ends.

以上、本実施形態により、ユーザは、テレビなどの再生装置にて再生されている動画を、携帯端末で認識させるだけで、その動画の部分動画や関連情報を容易に取得することができる。   As described above, according to the present embodiment, the user can easily acquire the partial moving image and related information of the moving image by simply recognizing the moving image being played back on the playback device such as the television with the mobile terminal.

<第二の実施形態>
本実施形態では、第一の実施形態とは異なる構成にて、動画のデータや関連情報を取得する構成について説明する。
<Second Embodiment>
In the present embodiment, a configuration for acquiring moving image data and related information with a configuration different from that of the first embodiment will be described.

[システム構成]
図9に本実施形態に係るシステム構成の例を示す。本実施形態では、ビデオサーバ106の代わりにプロキシサーバ901を備える。プロキシサーバ901のハードウェア構成はマッチングサーバ104と同様であり、動画データの受信は行わない。一方、インデックスサーバ105は、検索用データ(FingerPrint)を生成する際に動画データから抽出した画像とそれに対応する動画情報をデータベース(不図示)に保持するものとする。
[System configuration]
FIG. 9 shows an example of a system configuration according to this embodiment. In this embodiment, a proxy server 901 is provided instead of the video server 106. The hardware configuration of the proxy server 901 is the same as that of the matching server 104, and does not receive moving image data. On the other hand, the index server 105 holds an image extracted from moving image data and moving image information corresponding thereto in a database (not shown) when generating search data (FingerPrint).

[ソフトウェア構成]
図10は、本実施形態に係るインデックスサーバ105とプロキシサーバ901のソフトウェア構成の例を示す図である。なお、重複する部位については、説明を省略する。また、携帯端末101、マッチングサーバ104、およびサービスサーバ107の構成は第一の実施形態と同様とし、ここでの説明は省略する。
Software configuration
FIG. 10 is a diagram illustrating an example of the software configuration of the index server 105 and the proxy server 901 according to the present embodiment. Note that description of overlapping parts is omitted. The configurations of the mobile terminal 101, the matching server 104, and the service server 107 are the same as those in the first embodiment, and a description thereof is omitted here.

図10(a)は、本実施形態に係るインデックスサーバ105のソフトウェア構成の例を示す。図3(c)の構成に画像データ記録部1001および画像データ提供部1002が追加されている。画像データ記録部1001は、画像抽出部322が、動画データから画像を抽出した際に、抽出した画像とその画像に対応する動画情報とを対応付けてデータベースに記録する。画像データ提供部1002は、プロキシサーバ901から動画情報を受信した際に、その応答として、画像データ記録部1001が記録した画像データのうち動画情報に対応する画像データをプロキシサーバ901へ返す。   FIG. 10A shows an example of the software configuration of the index server 105 according to the present embodiment. An image data recording unit 1001 and an image data providing unit 1002 are added to the configuration of FIG. When the image extraction unit 322 extracts an image from moving image data, the image data recording unit 1001 records the extracted image and moving image information corresponding to the extracted image in a database in association with each other. When receiving the moving image information from the proxy server 901, the image data providing unit 1002 returns image data corresponding to the moving image information among the image data recorded by the image data recording unit 1001 to the proxy server 901 as a response.

図10(b)は、本実施形態に係るプロキシサーバ901のソフトウェア構成の例を示す。問合せ受付部1011は、携帯端末101からの動画情報を含む問い合わせを受け付ける。問合せ受付部1011は、問い合わせを受け付けると、その問い合わせに含まれる動画情報を画像データ取得部1012に送信する。画像データ取得部1012は、問合せ受付部1011から動画情報を受信すると、その動画情報を用いてインデックスサーバ105から画像データを取得する。ここで取得される画像データは、インデックスサーバ105の画像データ記録部1001にて記録された画像データに相当する。つまり、インデックスサーバ105の画像データ提供部1002が、プロキシサーバ901からの要求に応じて画像データを返す。画像データ応答部1013は、インデックスサーバ105から画像データを取得した際に、携帯端末101への応答としてその画像データを返す。ここで、画像データ応答部1013は、1の画像データのみならず、その画像データから所定時間遡った分の複数の連続した画像データを返すものとする。ここでの所定時間は、第一の実施形態と同様に、予め決定されているものとする。   FIG. 10B shows an example of the software configuration of the proxy server 901 according to this embodiment. The inquiry reception unit 1011 receives an inquiry including moving image information from the mobile terminal 101. When the inquiry reception unit 1011 receives the inquiry, the inquiry reception unit 1011 transmits the moving image information included in the inquiry to the image data acquisition unit 1012. When receiving the moving image information from the inquiry receiving unit 1011, the image data acquiring unit 1012 acquires image data from the index server 105 using the moving image information. The image data acquired here corresponds to the image data recorded by the image data recording unit 1001 of the index server 105. That is, the image data providing unit 1002 of the index server 105 returns image data in response to a request from the proxy server 901. When the image data response unit 1013 acquires image data from the index server 105, the image data response unit 1013 returns the image data as a response to the mobile terminal 101. Here, it is assumed that the image data response unit 1013 returns not only one image data but also a plurality of continuous image data for a predetermined time back from the image data. The predetermined time here is determined in advance as in the first embodiment.

[処理シーケンス]
図11は、本実施形態に係る各装置間の処理シーケンスを示す。本処理シーケンスに係る処理は、各処理主体のCPUがROM等の記憶部に記憶された本実施形態に係るプログラムを読み出して実行することにより実現される。
[Processing sequence]
FIG. 11 shows a processing sequence between the apparatuses according to the present embodiment. The processing according to this processing sequence is realized by the CPU of each processing subject reading and executing the program according to the present embodiment stored in the storage unit such as the ROM.

S1101にて、インデックスサーバ105は、放送局103から配信された動画データを受信する。S1102にて、インデックスサーバ105は、受信した動画データの中から、所定の時間間隔で画像を抽出する。更に、インデックスサーバ105は、抽出した画像データをデータベース(外部メモリ219など)に記録する。また、インデックスサーバ105は、抽出した画像データに対し、所定のハッシュ関数を用いて検索用データ(FingerPrint)を生成する。本実施形態にて一例として用いるFingerPrintに関する生成方法は、第一の実施形態と同様、従来の技術を適用できるものとし、ここでの詳細な説明は省略する。   In S1101, the index server 105 receives the moving image data distributed from the broadcast station 103. In S1102, the index server 105 extracts images at predetermined time intervals from the received moving image data. Further, the index server 105 records the extracted image data in a database (external memory 219 or the like). Further, the index server 105 generates search data (FingerPrint) for the extracted image data using a predetermined hash function. As in the first embodiment, the generation method related to FingerPrint used as an example in the present embodiment can be applied with the conventional technique, and detailed description thereof is omitted here.

S1103にて、インデックスサーバ105は、生成したFingerPrintとそのFingerPrintの基となった画像に対応する動画情報とをマッチングサーバ104へ送信する。   In step S <b> 1103, the index server 105 transmits the generated FingerPrint and moving image information corresponding to the image that is the basis of the FingerPrint to the matching server 104.

S1104にて、マッチングサーバ104は、インデックスサーバ105から受信したFingerPrintと、そのFingerPrintに対応する動画情報とを関連付けて、データベースに逐次蓄積する。   In S1104, matching server 104 associates FingerPrint received from index server 105 and moving image information corresponding to the FingerPrint, and sequentially accumulates them in the database.

一方、携帯端末101側では、ユーザがアプリ302を起動し、カメラをテレビ102にかざす。これにより、S1105にて、携帯端末101は、テレビ102にて再生されている動画を認識する。ここでテレビ102が再生(放送)している動画は、インデックスサーバ105がS1101にて受信した動画データと同等のものである。   On the other hand, on the mobile terminal 101 side, the user activates the application 302 and holds the camera over the television 102. Thereby, in S1105, the mobile terminal 101 recognizes the moving image being reproduced on the television 102. Here, the moving image being reproduced (broadcast) by the television 102 is equivalent to the moving image data received by the index server 105 in S1101.

S1106にて、携帯端末101は、認識した動画から画像を抽出する。ここで抽出する画像は、図4にて示したように1つであっても良いし、所定間隔ごとに複数枚取得してもよい。そして、携帯端末101は、抽出した画像に対し、所定のハッシュ関数を用いて検索用データ(FingerPrint)を生成する。S1107にて、携帯端末101は、生成したFingerPrintをマッチングサーバ104へ送信する。   In step S1106, the mobile terminal 101 extracts an image from the recognized moving image. The number of images extracted here may be one as shown in FIG. 4, or a plurality of images may be acquired at predetermined intervals. Then, the portable terminal 101 generates search data (FingerPrint) for the extracted image using a predetermined hash function. In step S <b> 1107, the mobile terminal 101 transmits the generated FingerPrint to the matching server 104.

S1108にて、マッチングサーバ104は、携帯端末101から受信したFingerPrintと一致するFingerPrintを、S1104にて蓄積したFIngerPrintの中から検索する。ここで一致するFingerPrintがマッチングサーバ104に保持されている場合、該一致するFingerPrintと関連付けてデータベースに蓄積されている動画情報を取得する。ここでの動画情報は、例えば、本実施形態のような放送局から配信されたテレビ番組である場合、放送局103を一意に示すチャンネルID(識別子)、画像(フレーム)が配信された時間(タイムスタンプ)が含まれる。なお、動画情報は、他の情報を含んでいてもよい。   In S1108, the matching server 104 searches for a FingerPrint that matches the FingerPrint received from the mobile terminal 101, from the FingerPrint stored in S1104. If the matching FingerPrint is held in the matching server 104, the moving image information stored in the database in association with the matching FingerPrint is acquired. For example, in the case where the video information is a television program distributed from a broadcasting station as in the present embodiment, the channel ID (identifier) uniquely indicating the broadcasting station 103 and the time when the image (frame) is distributed ( Time stamp). Note that the moving image information may include other information.

S1109にて、マッチングサーバ104は、特定した動画情報を携帯端末101へ送信する。   In S1109, matching server 104 transmits the specified moving image information to portable terminal 101.

S1110にて、携帯端末101は、マッチングサーバ104から受信した動画情報を用いて、プロキシサーバ901に問い合わせを行う。   In step S1110, the mobile terminal 101 makes an inquiry to the proxy server 901 using the moving image information received from the matching server 104.

S1111にて、プロキシサーバ901は、携帯端末101からの問い合わせに含まれる動画情報を用いて、インデックスサーバ105へ問い合わせを行う。   In S1111, the proxy server 901 makes an inquiry to the index server 105 using the moving image information included in the inquiry from the mobile terminal 101.

S1112にて、インデックスサーバ105は、プロキシサーバ901からの問い合わせに含まれる動画情報に一致する画像データを、S1102にて画像データを蓄積していたデータベースから検索する。   In S1112, the index server 105 searches the database that has stored the image data in S1102 for image data that matches the moving image information included in the inquiry from the proxy server 901.

S1113にて、プロキシサーバ901は、検出の結果、得られた画像データをプロキシサーバ901へ応答として返す。   In step S1113, the proxy server 901 returns the image data obtained as a result of the detection to the proxy server 901 as a response.

S1114にて、プロキシサーバ901は、インデックスサーバ105からの検索結果としての画像データを受信し、その受信した画像データを携帯端末101へ送信する。   In S <b> 1114, the proxy server 901 receives image data as a search result from the index server 105 and transmits the received image data to the mobile terminal 101.

S1115にて、携帯端末101は、取得した動画データを用いて処理を行う。ここでの処理の例については第一の実施形態にて図8を用いて述べた例などが該当する。そして、本処理フローを終了する。   In step S1115, the mobile terminal 101 performs processing using the acquired moving image data. An example of the processing here corresponds to the example described with reference to FIG. 8 in the first embodiment. Then, this processing flow ends.

以上、本実施形態により、ユーザは、テレビなどの再生装置にて再生されている動画を、携帯端末で認識させるだけで、その動画の画像データや関連情報を容易に取得することができる。   As described above, according to the present embodiment, the user can easily acquire the image data and related information of the moving image simply by causing the mobile terminal to recognize the moving image being played back on the playback device such as a television.

<その他の実施形態>
上記の実施形態においては、テレビ放送を対象に動画を検出する例を挙げたがこれに限定するものではない。例えば、映画や短編動画を対象にして、サーバ側に動画データを保持しておき、その映画等が再生されていることを携帯端末にて認識させることで上記の実施形態と同様の処理を行うことが可能である。
<Other embodiments>
In the above-described embodiment, an example in which a moving image is detected for television broadcasting has been described. However, the present invention is not limited to this. For example, for a movie or a short movie, the video data is held on the server side, and the mobile terminal recognizes that the movie or the like is being played, thereby performing the same processing as in the above embodiment. It is possible.

また、上記の実施形態では、所定間隔ごとに動画データから画像を抽出していたが、これに限定するものではなく、画像の内容が大きく変わった時点でも取得するようにしてもよい。   In the above embodiment, the image is extracted from the moving image data at predetermined intervals. However, the present invention is not limited to this, and the image may be acquired even when the content of the image changes significantly.

また、画像の時間を特定した時点から所定の時間分だけ遡って画像を取得していたが、この取得する時間をユーザが指定できるようにしてもよい。   Further, although the image is acquired by a predetermined time from the time when the image time is specified, the user may be allowed to specify the acquisition time.

また、本願発明は、上述した実施形態の機能を実現するソフトウェアプログラムを、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはそのコンピュータに含まれるCPUやMPU等)がプログラムを読み出して実行することによって実現されてもよい。さらには、上述した各実施形態における各装置が実施する方法も本願発明の範疇に含まれる。   The present invention also supplies a software program that implements the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and a computer (or CPU or MPU included in the computer) of the system or apparatus. Etc.) may be realized by reading and executing the program. Furthermore, the method which each apparatus in each embodiment mentioned above implements is also included under the category of the present invention.

携帯端末 101
テレビ 102
放送局 103
マッチングサーバ 104
インデックスサーバ 105
ビデオサーバ 106
サービスサーバ 107
プロキシサーバ 901
Portable terminal 101
TV 102
Broadcasting station 103
Matching server 104
Index server 105
Video server 106
Service server 107
Proxy server 901

Claims (3)

カメラを備えた携帯端末、第一のサーバ、及び第二のサーバを含む動画情報取得システムであって、
前記携帯端末は、
前記カメラを介して、再生装置が再生中の動画を認識する認識手段と、
前記カメラを介して、前記認識した再生中の動画から画像を取得する取得手段と、
前記取得手段にて取得した画像を用いて検索用データを生成する第一の生成手段と、
前記第一の生成手段にて生成した検索用データを前記第一のサーバへ送信し、その応答として動画データを該第1のサーバから取得する手段と
を有し、
前記第一のサーバは、
前記再生装置が再生する動画と同じ動画を構成する画像を用いて検索用データを生成する第二の生成手段と、
前記第二の生成手段にて生成した検索用データと、当該検索用データの生成に用いた画像に関する情報とを対応付けて第一の記憶部に蓄積する検索用データ蓄積手段と、
前記携帯端末から検索用データを受信する受信手段と、
前記受信手段にて受信した検索用データに一致する検索用データを前記第一の記憶部から検索し、当該一致する検索用データに対応付けられた情報を取得する検索手段と、
前記検索手段にて取得した情報を用いて前記第二のサーバに問い合わせを行い、その応答として動画データを取得する取得手段と、
前記取得手段にて取得した動画データを前記携帯端末へ送信する送信手段と、
を有し、
前記第二のサーバは、
前記再生装置が再生する動画と同じ動画を取得し、第二の記憶部に蓄積する動画データ蓄積手段と、
前記第一のサーバから問い合わせを受信した際に、当該問い合わせにて指定された情報に対応する動画データを前記第二の記憶部から特定し、該特定した動画データを該問い合わせに対する応答として前記第一のサーバに対して送信する応答手段と
を有することを特徴とする動画情報取得システム。
A video information acquisition system including a mobile terminal equipped with a camera, a first server, and a second server,
The portable terminal is
Recognizing means for recognizing the moving image being played by the playback device via the camera;
An acquisition means for acquiring an image from the recognized moving image being reproduced via the camera;
First generation means for generating search data using the image acquired by the acquisition means;
Means for transmitting the search data generated by the first generation means to the first server, and acquiring moving image data from the first server as a response;
The first server is
Second generating means for generating search data using an image that constitutes the same moving image as the moving image to be played by the playback device;
Search data storage means for associating the search data generated by the second generation means with the information about the image used for generating the search data in the first storage unit;
Receiving means for receiving search data from the portable terminal;
Search means for searching search data matching the search data received by the receiving means from the first storage unit, and acquiring information associated with the matching search data;
Using the information acquired by the search means to make an inquiry to the second server, and acquiring the moving image data as a response;
Transmitting means for transmitting the moving image data acquired by the acquiring means to the mobile terminal;
Have
The second server is
Moving image data storage means for acquiring the same moving image as the moving image to be played back by the playback device and storing it in a second storage unit;
When an inquiry is received from the first server, moving image data corresponding to the information specified in the inquiry is specified from the second storage unit, and the specified moving image data is used as a response to the inquiry. A moving image information acquisition system comprising: response means for transmitting to one server.
前記再生装置はテレビであって、
前記再生装置が再生する動画は、テレビ放送として配信される動画であることを特徴とする請求項1に記載の動画情報取得システム。
The playback device is a television set;
The moving image information acquisition system according to claim 1, wherein the moving image played by the playback device is a moving image distributed as a television broadcast.
カメラを備えた携帯端末、第一のサーバ、および第二のサーバを含む動画情報取得システムであって、
前記携帯端末は、
前記カメラを介して、再生装置が再生中の動画を認識する認識手段と、
前記カメラを介して、前記認識した再生中の動画から画像を取得する取得手段と、
前記取得手段にて取得した画像を用いて検索用データを生成する第一の生成手段と、
前記第一の検索手段にて生成した検索用データを前記第一のサーバへ送信し、その応答として前記取得手段にて取得した画像に関する情報を取得する取得手段と、
前記取得手段にて取得した情報を用いて、前記第二のサーバに問い合わせを行い、その応答として動画データを取得する手段と
を有し、
前記第一のサーバは、
前記再生装置が再生する動画と同じ動画から複数の画像を抽出し、当該抽出した複数の画像それぞれを用いて複数の検索用データを生成する第二の生成手段と、
前記第二の生成手段にて生成した複数の検索用データと、当該複数の検索用データの生成に用いた複数の画像データに関する情報とを対応付けて記憶部に蓄積する蓄積手段と、
前記携帯端末から検索用データを受信する受信手段と、
前記受信手段にて受信した検索用データに一致する検索用データを前記記憶部から検索し、当該一致する検索用データに対応付けられた情報を取得する検索手段と、
前記検索手段にて検索した情報を前記携帯端末へ送信する手段と、
を有し、
前記第二のサーバは、
前記携帯端末から問い合わせを受信した際に、当該問い合わせにて指定された情報に一致する画像データと当該一致する画像データに連続する画像データとを前記記憶部から特定し、動画データとして前記携帯端末に返信する手段と
を有することを特徴とする動画情報取得システム。
A video information acquisition system including a mobile terminal equipped with a camera, a first server, and a second server,
The portable terminal is
Recognizing means for recognizing the moving image being played by the playback device via the camera;
An acquisition means for acquiring an image from the recognized moving image being reproduced via the camera;
First generation means for generating search data using the image acquired by the acquisition means;
An acquisition unit that transmits the search data generated by the first search unit to the first server, and acquires information about the image acquired by the acquisition unit as a response;
Using the information obtained by the obtaining means, inquiring the second server, and obtaining moving image data as a response;
The first server is
Second generating means for extracting a plurality of images from the same moving image as the moving image to be reproduced by the reproducing apparatus, and generating a plurality of search data using each of the extracted plurality of images;
Storage means for associating a plurality of search data generated by the second generation means with information related to a plurality of image data used for generating the search data in a storage unit;
Receiving means for receiving search data from the portable terminal;
Search means for searching for search data matching the search data received by the receiving means from the storage unit, and acquiring information associated with the matching search data;
Means for transmitting information searched by the search means to the portable terminal;
Have
The second server is
When an inquiry is received from the portable terminal, image data that matches the information specified in the inquiry and image data that continues to the matching image data are identified from the storage unit, and the portable terminal is used as moving image data. A moving image information acquisition system comprising:
JP2014118576A 2014-06-09 2014-06-09 Moving image information acquisition system Pending JP2015233182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014118576A JP2015233182A (en) 2014-06-09 2014-06-09 Moving image information acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014118576A JP2015233182A (en) 2014-06-09 2014-06-09 Moving image information acquisition system

Publications (1)

Publication Number Publication Date
JP2015233182A true JP2015233182A (en) 2015-12-24

Family

ID=54934420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118576A Pending JP2015233182A (en) 2014-06-09 2014-06-09 Moving image information acquisition system

Country Status (1)

Country Link
JP (1) JP2015233182A (en)

Similar Documents

Publication Publication Date Title
JP5965708B2 (en) Wireless communication device, memory device, wireless communication system, wireless communication method, and program
US10575126B2 (en) Apparatus and method for determining audio and/or visual time shift
US8510784B2 (en) Information processing apparatus, content reproduction apparatus, information providing apparatus, device control apparatus, cooperative processing system, and program
KR101942211B1 (en) Cooperative provision of personalized user functions using shared and personal devices
JP6385429B2 (en) Method and apparatus for reproducing stream media data
JP6465541B2 (en) COMMUNICATION DEVICE, REPRODUCTION DEVICE, ITS METHOD, AND PROGRAM
CN102413359A (en) A method for providing media-content related information, and a device and a server for executing the method
JP2017501598A5 (en)
US11297482B2 (en) Peripheral video presence detection
KR101490506B1 (en) Method and apparatus for editing moving picture contents
JP5836574B2 (en) Data request method and apparatus, and data acquisition method and apparatus
JP2012114710A (en) Program recommendation apparatus
US9712480B2 (en) Apparatus and method for requesting and transferring contents
KR101659420B1 (en) Personalized video content consumption using shared video device and personal device
US10042938B2 (en) Information processing apparatus and information processing method to provide content on demand
WO2014063528A1 (en) Content switching method and apparatus
JP2015233182A (en) Moving image information acquisition system
KR101805618B1 (en) Method and Apparatus for sharing comments of content
WO2015110005A1 (en) Television program image frame capturing device, television program image frame obtaining device, system and method
KR101759563B1 (en) Apparatus and method for requesting contents and apparatus and method for transferring contents
KR101673020B1 (en) Method and apparatus for requesting of data, method and apparatus for obtaining of data
JP5004168B2 (en) Cooperation processing system, terminal device, and cooperation processing method
JP5035837B2 (en) Data generation apparatus, data processing system, and data generation method
JP4987568B2 (en) Communication terminal device and cooperative processing method
JP2014017599A (en) Communication terminal, content processing device, content processing program, and content processing method