JP2016019171A - Content contact situation detector and detection system and method and program, terminal - Google Patents
Content contact situation detector and detection system and method and program, terminal Download PDFInfo
- Publication number
- JP2016019171A JP2016019171A JP2014141338A JP2014141338A JP2016019171A JP 2016019171 A JP2016019171 A JP 2016019171A JP 2014141338 A JP2014141338 A JP 2014141338A JP 2014141338 A JP2014141338 A JP 2014141338A JP 2016019171 A JP2016019171 A JP 2016019171A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- character
- image
- contact
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 227
- 238000000034 method Methods 0.000 title abstract description 22
- 238000013500 data storage Methods 0.000 claims abstract description 33
- 238000006243 chemical reaction Methods 0.000 claims description 66
- 238000012545 processing Methods 0.000 claims description 24
- 238000005259 measurement Methods 0.000 claims description 23
- 230000009471 action Effects 0.000 claims description 8
- 230000002776 aggregation Effects 0.000 description 20
- 238000004220 aggregation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 230000004913 activation Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、コンテンツ接触状況検出装置及びシステム及び方法及びプログラム、端末に係り、特に、スマートホン、スマートテレビ、タブレット、パソコン(PC)等の端末による、各種メディア・番組等のコンテンツの接触状況(コンテンツ接触データ・接触率等)をスクリーンショットにより検出するためのコンテンツ接触状況検出装置及びシステム及び方法及びプログラム、コンテンツ接触状況検出部を有する端末に関する。 The present invention relates to a content contact status detection apparatus, system, method, program, and terminal, and in particular, contact status of content such as various media and programs by terminals such as a smart phone, a smart TV, a tablet, and a personal computer (PC) ( The present invention relates to a content contact state detection apparatus, system and method, and program for detecting content contact data, contact rate, etc.) by a screen shot, and a terminal having a content contact state detection unit.
特許文献1には、放送局特定装置、放送局特定方法及び放送局特定プログラムにおいて、「放送局特定装置は、パーソナルコンピュータでデジタルテレビ放送を受信している放送局名を特定する。」こと、及び、放送局特定装置における「放送表示領域判定手段は、パーソナルコンピュータの画面を周期的に取得し、その時間差分で得られた画像と、あらかじめ記憶したウィンドウ特徴量との照合をおこない、取得した映像信号の中から放送表示部の領域を判定する。放送局識別手段は、あらかじめ所定の放送局毎に記憶した特定画像群との照合をおこなう。」(要約参照)という技術が記載されている。
In
特許文献1において、パーソナルコンピュータの視聴放送局測定は、特に映像出力端子を介して取得した画像から、パターンマッチングで行うものであったが、映像出力端子のないスマートフォンや、タブレット端末等の端末での画像取得は、通常は困難であり、例え映像出力端子があった場合でも有線での取得となりモバイル性が損なわれてしまうことが想定される。
ほかにも、視聴放送局測定には、音声マッチング方式やログ取得方式などもあるが、付加装置が必要であったり、アプリケーションごとの対応が必要であったりと、利便性、汎用性に乏しいことが想定される。
In
In addition, there are audio matching methods and log acquisition methods, etc. for viewing and broadcasting station measurement, but there is a lack of convenience and versatility because additional devices are required or correspondence for each application is required. Is assumed.
本発明は、以上の点に鑑み、端末のスクリーンショットによる画像からコンテンツの接触状況に関する情報を取得することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to acquire information related to a contact state of content from an image obtained by a screen shot of a terminal.
本発明の第1の解決手段によると、
コンテンツ接触状況検出装置であって、
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルと、
日時、アプリケーション名、検出結果を含むコンテンツ接触データを記憶する接触データ蓄積部と、
制御部と、
を備え、
前記制御部は、
端末による起動アプリケーションのスクリーンショットを取得し、
前記判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを前記接触データ蓄積部に保存する
コンテンツ接触状況検出装置が提供される。
According to the first solution of the present invention,
A content contact status detection device,
A determination table that stores in advance determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information;
A contact data storage unit for storing content contact data including date and time, application name, and detection result;
A control unit;
With
The controller is
Take a screenshot of the application launched by the device,
With reference to each determination data of the determination table, when the character or image recognized in the first detection area as the screen shot is detected as a detection character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
There is provided a content contact state detection device that stores content contact data including date and time, an application name of the determination data, and the detection result in the contact data storage unit.
本発明の第2の解決手段によると、
上述のようなコンテンツ接触状況検出装置を有するセンター装置と、
動画コンテンツ又は静止画コンテンツの視聴を可能としたアプリケーションにおいて、ユーザアクション又は予め定められたタイミングで、スクリーンショットを取得し、前記スクリーンショットを前記コンテンツ接触状況検出装置へ送信する端末と、
を備えたコンテンツ接触状況検出システムが提供される。
According to the second solution of the present invention,
A center device having the content contact state detection device as described above;
In an application that enables viewing of video content or still image content, a terminal that acquires a screen shot at a user action or a predetermined timing, and transmits the screen shot to the content contact state detection device;
Is provided.
本発明の第3の解決手段によると、
端末であって、
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルと、
日時、アプリケーション名、検出結果を含むコンテンツ接触データを記憶する接触データ蓄積部と、
制御部と、
を備え、
前記制御部は、
端末による起動アプリケーションのスクリーンショットを取得し、
前記判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とする端末が提供される。
According to the third solution of the present invention,
A terminal,
A determination table that stores in advance determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information;
A contact data storage unit for storing content contact data including date and time, application name, and detection result;
A control unit;
With
The controller is
Take a screenshot of the application launched by the device,
With reference to each determination data of the determination table, when the character or image recognized in the first detection area as the screen shot is detected as a detection character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
A terminal is provided that stores content contact data including date and time, an application name of the determination data, and the detection result in the contact data storage unit.
本発明の第4の解決手段によると、
上述のような端末と、
前記コンテンツ接触状況検出部から集めたコンテンツ接触データを集計し、接触率データ又は他の接触情報を計算し、契約者/顧客装置に対してコンテンツ接触データ又は接触率データ又は他の接触情報を提供するセンター装置と、
を備えたコンテンツ接触状況検出システムが提供される。
According to the fourth solution of the present invention,
A terminal as described above,
The content contact data collected from the content contact status detection unit is aggregated, contact rate data or other contact information is calculated, and the content contact data or contact rate data or other contact information is provided to the contractor / customer device. A center device to
Is provided.
本発明の第5の解決手段によると、
接触状況検出方法であって、
端末による起動アプリケーションのスクリーンショットを取得し、
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを接触データ蓄積部に保存する
ことを特徴とする接触状況検出方法が提供される。
According to the fifth solution of the present invention,
A contact state detection method,
Take a screenshot of the application launched by the device,
The screen shot is recognized in the first detection area with reference to each determination data in a determination table in which determination data including an application name, a first detection area, a detection character or image, a second detection area, and detection identification information is stored in advance. When a character or image is detected as a detected character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
A contact state detection method is provided, wherein content contact data including date and time, an application name of the determination data, and the detection result is stored in a contact data storage unit.
本発明の第6の解決手段によると、
接触状況検出プログラムであって、
処理部が、端末による起動アプリケーションのスクリーンショットを取得するステップと、
前記処理部が、アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルの各判定データを参照するステップと、
前記処理部が、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記処理部が、前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とするステップと、
前記処理部が、日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを接触データ蓄積部に保存するステップと
をコンピュータに実行させるための接触状況検出プログラムが提供される。
According to the sixth solution of the present invention,
A contact state detection program,
A processing unit acquiring a screenshot of a startup application by a terminal;
The processing unit refers to each determination data in a determination table in which determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information is stored in advance.
When the processing unit detects the character or image recognized in the first detection area as the screen shot as a detected character or image of the determination data,
In accordance with the detection identification information of the determination data, the processing unit uses a detection character or a code corresponding to the image recognized in the second detection area as a detection result, or the screen shot is detected in the second detection area. A step of using a character or image recognized or extracted in
There is provided a contact state detection program for causing the processing unit to execute a step of storing the date and time, the application name of the determination data, and the content contact data including the detection result in the contact data storage unit.
本発明によると、端末のスクリーンショットによる画像からコンテンツの接触状況に関する情報を取得することができる。 According to the present invention, it is possible to acquire information related to the contact state of content from an image of a terminal screen shot.
A.第1の実施の形態
1.システム及び装置
図1に、本発明の第1の実施の形態によるシステム構成図の例を示す。
本システムは、調査世帯1、集計・配信センター2、契約社/顧客装置3を備える。調査世帯1と集計・配信センター2との間、集計・配信センター2と契約社/顧客装置3との間は、携帯電話回線、ブロードバンド回線、インターネット等の有線又は無線のネットワーク4で接続される。調査世帯1は、スマートホン、スマートテレビ、タブレット、PC等の端末10をひとつ又は複数有することができ、調査世帯1内に限らず、その内外において携帯・移動可能とすることができる。
A. First embodiment
1. System and Device FIG. 1 shows an example of a system configuration diagram according to the first embodiment of the present invention.
This system includes a
本実施の形態の概要は、次の通りである。
端末10は、スクリーンショット機能を有するアプリケーション(以下、アプリという場合がある。)をバックグラウンド等で動作させ、任意のタイミング(測定対象アプリ起動中、タップ等のユーザアクション時等)で手動又は自動により、スクリーンショットを取得する。端末10は、手動により、又は、定期的又は予め定められたタイミング等の自動により、スクリーンショットを送る。端末10は、例えば、Android、iOS、PC、スマートテレビ等のデバイスでの、ワンセグ、フルセグ、DLNA(タイムシフト、放送転送、リモートアクセス)、VOD、YouTube(登録商標)等の動画投稿サイト等の視聴コンテンツ測定が可能である。
The outline of the present embodiment is as follows.
The terminal 10 operates an application having a screen shot function (hereinafter also referred to as an application) in the background or the like, and is manually or automatically at an arbitrary timing (when a measurement target application is activated, a user action such as a tap). To get a screenshot. The terminal 10 sends the screen shot manually or automatically such as periodically or at a predetermined timing. The terminal 10 is, for example, a video posting site such as One Seg, Full Seg, DLNA (Time Shift, Broadcast Transfer, Remote Access), VOD, YouTube (registered trademark), etc., on devices such as Android, iOS, PC, smart TV, etc. Viewing content can be measured.
本実施の形態では、集計・配信センター2が、処理部21、蓄積部22、コンテンツ接触状況検出部100を備える。
コンテンツ接触状況検出部100は、例えば、ワンセグ、WEBブラウザ、動画プレーヤーでの端末10による接触ページ(URL)を検出可能とする。コンテンツ接触状況検出部100は、また、WEBブラウザ等からの文字認識や画像認識により、接触文字の収集が可能とする。さらに、コンテンツ接触状況検出部100は、顔認識を用いて、タレント、俳優等の人物の特定や接触測定を可能とすることができる。
コンテンツ接触状況検出部100は、コンテンツ接触データを、接触データ蓄積部に保存する(詳細は後述)。また、コンテンツ接触状況検出部100は、手動、又は、定期的又は予め定められたタイミング等で自動で、接触データ蓄積部からコンテンツ接触データを読み出し、表示部に表示する、出力部に出力する、及び/又は、契約者/顧客装置3等の他の装置に出力する。
In the present embodiment, the aggregation /
The content contact
The content contact
集計・配信センター2において、処理部21は、コンテンツ接触状況検出部100が作成及び蓄積したコンテンツ接触データを接触データ蓄積部から読み出し、コンテンツ接触データを集計し、接触率データ又は他の接触情報を計算し、蓄積部22に、コンテンツ接触データ、接触率データ及び/又は他の接触情報を保存する。また、処理部21は、コンテンツ接触データ、接触率データ及び/又は他の接触情報を蓄積部22から読み出し、契約者/顧客装置3に対して提供する。
集計・配信センター2は、視聴者コードに対応して視聴者のプロフィール情報を予め記憶したプロフィール情報DBを備えてもよい。そして、集計・配信センター2は、コンテンツ接触データを作成した端末の識別情報に対する視聴者コードに対応したプロフィール情報を、さらに契約者/顧客装置3に提供するようにしてもよい。なお、端末10は、端末の識別情報を、例えば、コンテンツ接触データを送る際に送信元識別情報としてヘッダ等に付加したり、コンテンツ接触データ自体に付加することができる。
なお、契約者/顧客装置3は、自装置側から、集計・配信センター2にアクセスしてコンテンツ接触データを読み出して、取得するようにしてもよい。
In the aggregation /
The aggregation /
Note that the contractor / customer device 3 may access and acquire the content contact data from the own device side by accessing the aggregation /
図2に、コンテンツ接触状況検出部100の概略ブロック図を示す。
コンテンツ接触状況検出部100は、制御部(処理部)101、スクリーンショット取得部102、識別用DB103、接触データ蓄積部104、通信部/出力部105、を備え、各部はバス106で接続されている。
制御部101は、例えば、CPU、プログラムメモリー、ワークメモリー等を備え、コンテンツ接触状況検出部100の処理・動作を制御している。制御部101は、文字認識、画像認識、顔認識等の認識処理を含む処理を実行する。
スクリーンショット取得部102は、端末10からのスクリーンショットを取得し、適宜の内部メモリに記憶する。この内部メモリは、スクリーンショット取得部102、制御部101、識別用DB103、接触データ蓄積部104又は他のメモリ内に適宜設けることができる。
識別用DB103は、文字辞書、画像DB、顔DB等の各種DBが予め記憶される(詳細は後述)。
接触データ蓄積部104には、コンテンツ接触データが記憶される。コンテンツ接触データとしては、例えば、視聴放送局、WEB URL、タレント接触、ワード接触等の各種接触状況に関する情報を含めることができる(詳細は後述)。
通信部/出力部105は、制御部101により、コンテンツ接触データ又は他のDBの情報やデータ等を、契約者/顧客装置3又は他の外部に出力する。
FIG. 2 shows a schematic block diagram of the content contact
The content contact
The
The screen shot
The
The contact
The communication unit /
図3に、識別用DB103の説明図を示す。
識別用DB103は、判定テーブル110、TVプレーヤー(放送局)変換コードテーブル111、WEBブラウザ(接触文字)変換コードテーブル112等の文字DB、WEBブラウザ(人物)変換コードテーブル113等の画像DBを含む。
FIG. 3 is an explanatory diagram of the
The
図4に、端末10の画面の例を示す。
ここでは、TVプレーヤー(ワンセグ等)、WEBブラウザ、動画プレーヤーの各画面を示すが、これに限られない。
TVプレーヤーでは、起動アプリ識別の検出エリア「座標(X1,Y1)、範囲H1及びW1」と検出文字・画像「テレビ視聴」、測定対象識別の検出エリア「座標(X2,Y2)、範囲H2及びW2」と検出文字・画像「MHK」が、それぞれ図示されている。
WEBブラウザでは、起動アプリ識別の検出エリア「座標(X1,Y1)、範囲H1及びW1」と検出文字・画像「WEB」、測定対象識別の検出エリア「座標(X2,Y2)、範囲H2及びW2」と検出文字・画像「http://www.abcd.com」が、それぞれ図示されている。
動画プレーヤーでは、起動アプリ識別の検出エリア「座標(X1,Y1)、範囲H1及びW1」と検出文字・画像「動画ビューワ」、測定対象識別の検出エリア「座標(X2,Y2)範囲H2及びW2」と検出文字・画像「おもしろ投稿動画 その1」が、それそれぞれ図示されている。
なお、検出エリアは、この例ではエリア左上座標と範囲により定めているが、これに限らず適宜の定め方を用いることができる。
FIG. 4 shows an example of the screen of the terminal 10.
Here, each screen of a TV player (such as One Seg), a WEB browser, and a video player is shown, but the present invention is not limited to this.
In the TV player, the detection area “coordinates (X1, Y1), ranges H1 and W1” for activation application identification and the detected characters / images “TV viewing”, the detection area “coordinates (X2, Y2) for measurement object, the ranges H2 and “W2” and the detected character / image “MHK” are illustrated.
In the WEB browser, the detection area “coordinates (X1, Y1), ranges H1 and W1” and the detected characters / images “WEB” and the detection area “coordinates (X2, Y2), ranges H2 and W2 for identifying the measurement object ”And a detected character / image“ http://www.abcd.com ”are respectively illustrated.
In the moving image player, the detection area “coordinate (X1, Y1), range H1 and W1” for activation application identification and the detected character / image “moving image viewer”, the detection area “coordinate (X2, Y2) range H2 and W2 for measurement target identification ”And detected characters / images“ interesting moving
In this example, the detection area is determined by the upper left coordinates and the range of the area. However, the detection area is not limited to this, and an appropriate determination method can be used.
図5に、判定テーブルの説明図を示す。
判定テーブル110は、起動アプリケーションのアプリ名、測定対象、起動アプリ識別(検出エリアと検出文字・画像)、測定対象識別(検出エリアと検出識別情報)を含む。
この例では、アプリ名として、TVプレーヤー、WEBブラウザ、動画プレーヤー等が記載されている。測定対象として、放送局、URL、コンテンツ名、接触文字、人物が記載されている。起動アプリ識別の検出文字・画像として、テレビ視聴、WEB、動画ビューワが記載されている。また、測定対象識別の検出識別情報として、変換コードテーブルの識別情報、検出文字・画像すべてを示す識別情報(又は、予め定められた数・量の検出文字・画像を示す識別情報)が記載されている。
FIG. 5 is an explanatory diagram of the determination table.
The determination table 110 includes an application name of a start application, a measurement target, a start application identification (detection area and detection characters / images), and a measurement target identification (detection area and detection identification information).
In this example, a TV player, a WEB browser, a moving image player, and the like are described as application names. As a measurement object, a broadcast station, URL, content name, contact character, and person are described. TV detection, WEB, and moving image viewer are described as the detected characters / images for identifying the activated application. Further, as detection identification information for measurement object identification, identification information of a conversion code table, identification information indicating all detected characters / images (or identification information indicating a predetermined number / amount of detected characters / images) are described. ing.
図6に、変換コードテーブルの説明図を示す。
図6(A)に、TVプレーヤー(放送局)変換コードテーブルを示す。
TVプレーヤー(放送局)変換コードテーブル111は、検出文字・画像に対して、放送局コードを予め記憶する。
図6(B)に、WEBブラウザ(接触文字)変換コードテーブルを示す。
WEBブラウザ(接触文字)変換コードテーブル112は、検出文字・画像に対して、接触文字コードを予め記憶する。
図6(C)に、WEBブラウザ(人物)変換コードテーブルを示す。
WEBブラウザ(人物)変換コードテーブル113は、検出画像に対して、人物コードを予め記憶する。
FIG. 6 is an explanatory diagram of the conversion code table.
FIG. 6A shows a TV player (broadcast station) conversion code table.
The TV player (broadcast station) conversion code table 111 stores broadcast station codes in advance for detected characters and images.
FIG. 6B shows a WEB browser (contact character) conversion code table.
The WEB browser (contact character) conversion code table 112 stores a contact character code in advance for the detected character / image.
FIG. 6C shows a WEB browser (person) conversion code table.
The WEB browser (person) conversion code table 113 stores a person code in advance for the detected image.
なお、変換コードテーブルは、アプリ名毎に識別されてもよいし、アプリ名及び測定対象の組み合わせ毎など、適宜の識別情報により識別・特定されてもよい。また、検出画像としては、放送局、商品、メーカー等を示すロゴを用いてもよい。 The conversion code table may be identified for each application name, or may be identified and specified by appropriate identification information such as each combination of the application name and the measurement target. Moreover, you may use the logo which shows a broadcasting station, goods, a manufacturer, etc. as a detected image.
図7に、コンテンツ接触データ接触データの説明図を示す。
コンテンツ接触データ121は、接触データ蓄積部104に記憶される。コンテンツ接触データ121は、日時に対して、起動アプリケーションのアプリ名、検出結果を記憶する。
FIG. 7 is an explanatory diagram of content contact data contact data.
The
なお、判定テーブル110の起動アプリ識別の「検出文字・画像」、及び/又は、各変換コードテーブル111〜113の「検出文字・画像」は、文字又は画像又は文字と画像の組合せのいずれかを用いることができる。本明細書中「文字・画像」という記載は、文字又は画像又は文字と画像の組合せのいずれかを意味することができる。
また、「日時」として、スクリーンショットの取得時刻又は内部時計による時刻等の適宜の日時を用いることができる。
The “detected character / image” of the activation application identification in the determination table 110 and / or the “detected character / image” of each of the conversion code tables 111 to 113 is either a character, an image, or a combination of a character and an image. Can be used. In the present specification, the description “character / image” may mean either a character, an image, or a combination of a character and an image.
Also, as the “date and time”, an appropriate date and time such as a screen shot acquisition time or a time by an internal clock can be used.
2.動作
図8に、第1の実施の形態のシーケンス図を示す。
端末10は、手動操作で、又は、定期的又は予め定められたタイミング等の自動で、スクリーンショットを取得し、適宜のタイミングでスクリーンショットを集計・配信センター2に送信する(811)。
集計・配信センター2は、コンテンツ接触状況検出部100のスクリーンショット取得部102によりスクリーンショットを受信して、メモリに記憶する(812)。コンテンツ接触状況検出部100は、取得したスクリーンショットによりコンテンツ接触状況検出処理を実行し、コンテンツ接触データを作成して、接触データ蓄積部104に記憶する(813)。コンテンツ接触状況検出部100は、手動操作で、又は、定期的又は予め定められたタイミング等の自動で、又は、契約者/顧客装置3からの要求により、接触データ蓄積部104からコンテンツ接触データを読み出して、契約者/顧客装置3に送信する(814)。
2. Action
FIG. 8 shows a sequence diagram of the first embodiment.
The terminal 10 acquires a screen shot by manual operation, or periodically or automatically such as a predetermined timing, and transmits the screen shot to the aggregation /
The aggregation /
図9に、コンテンツ接触状況検出処理のフローチャートを示す。
処理が開始されると、制御部101は、判定テーブル110の全行数(j行)を取得し(S101)、検索行位置を1に初期化する(i=1)(S103)。
つぎに、制御部101は、スクリーンショット取得する(S105)。制御部101は、判定テーブル110を参照し、i行目のレコードの起動アプリ識別の検出エリアでスクリーンショットの文字・画像を認識する(S107)。制御部101は、認識した文字・画像がi行目のレコードの起動アプリ識別の検出文字・画像と一致するか判定する(S109)。
ステップS109で、一致しない場合、制御部101は、iをカウントアップ(i=i+1)し(S111)、すべての行を検索したか(i>j)判定する(S113)。制御部101は、判定テーブル110のすべての行を検索してなければステップS107に移行し、判定テーブル110のすべての行を検索したら予め定められた一定時間待ち、ステップS103に移行する(S115)。
FIG. 9 shows a flowchart of the content contact status detection process.
When the process is started, the
Next, the
If they do not match in step S109, the
一方、ステップS109で、認識した文字・画像がi行目のレコードの検出文字・画像と一致する場合、制御部101は、i行目のレコードの測定対象識別の検出文字・画像が「変換コードテーブルの識別情報」か否かを判定する(S121)。「変換コードテーブルの識別情報」でないと判定した場合(又は、すべての検出文字(又は予め定められた数・量の検出文字・画像)を示す識別情報である場合等)、制御部101は、測定対象識別の検出エリアでスクリーンショットのすべての検出文字(又は予め定められた数・量の検出文字・画像)を認識又は検出文字・画像を抽出しステップS131に移行する(S123)。一方、ステップS121で、「変換コードテーブルの識別情報」であると判定した場合、制御部101は、i行目のレコードの測定対象識別の検出エリアでスクリーンショットの文字・画像を認識する(S125)。制御部101は、i行目のレコードのアプリの変換コードテーブルの識別情報により変換コードテーブルを選択し、認識した文字・画像が、選択した変換コードテーブルで一致する検出文字・画像があるか判定する(S127)。一致する検出文字・画像がある場合、制御部101は、変換コードテーブルにより検出文字・画像をコード(放送局コード、接触文字コード、人物コード等)に変換する(S129)。
ステップS129又はS123の後、制御部101は、コード又は検出文字・画像に、起動アプリ、タイムスタンプを付加してコンテンツ接触データを作成して、メモリ保存する(S131)。
On the other hand, when the recognized character / image matches the detected character / image of the i-th record in step S109, the
After step S129 or S123, the
次に、判定テーブル100に記憶された各アプリ名についての動作を説明する。
まず、TVプレーヤーの処理(変換コードテーブル)を説明する。
図5に示すように、判定テーブル110は、アプリ名として放送を視聴するテレビプレーヤー、測定対象として放送局を表す文字、起動アプリ識別情報の検出文字又は画像としてテレビ視聴を表す文字、検出識別情報として変換コードテーブルの識別情報、を含む。制御部101は、検出識別情報により特定される変換コードテーブル111を参照し、検出文字又は画像を放送局コードに変換する(S121、S125〜S129)。制御部101は、日時と、起動アプリとしてテレビプレーヤーと、検出結果として放送局コードと、を含むコンテンツ接触データを接触データ蓄積部121に保存する(S131)。
Next, the operation for each application name stored in the determination table 100 will be described.
First, the TV player process (conversion code table) will be described.
As shown in FIG. 5, the determination table 110 includes a television player that watches a broadcast as an application name, characters that represent a broadcasting station as a measurement target, detection characters in activation application identification information or characters that represent television viewing as an image, and detection identification information. As identification information of the conversion code table. The
つぎに、WEBブラウザの処理(変換コードテーブル)を説明する。
図5に示すように、判定テーブル110は、アプリケーション名と測定対象の組として、WEBブラウザと接触文字の組又はWEBブラウザと人物の組、起動アプリ識別情報の検出文字又は画像としてWEBを表す文字又は画像、検出識別情報として変換コードテーブル112又は113の識別情報、をそれぞれを含む。制御部101は、検出識別情報により特定される変換コードテーブル112又は113を参照し、検出文字又は画像を接触文字コード又は人物コードに変換する(S121、S125〜S129)。制御部101は、日時と、起動アプリとしてWEBブラウザと、検出結果として接触文字コード又は人物コードと、を含むコンテンツ接触データを接触データ蓄積部121に保存する(S131)。
Next, the processing (conversion code table) of the WEB browser will be described.
As shown in FIG. 5, the determination table 110 includes a combination of a WEB browser and a contact character or a combination of a WEB browser and a person as a set of an application name and a measurement target, and a character representing WEB as a detection character or an image of an activated application identification information. Alternatively, the image includes the identification information of the conversion code table 112 or 113 as detection identification information. The
つぎに、WEBブラウザ/動画プレーヤーの処理(検出文字)を説明する。
図5に示すように、判定テーブル110は、アプリケーション名と測定対象の組として、WEBブラウザとURL又は動画プレーヤーとコンテンツ名、起動アプリ識別情報の検出文字・画像としてWEBを表す文字・画像又は動画ビューワを表す文字・画像、検出識別情報として全ての文字・画像又は予め定められた数・量の文字・画像を示す識別情報、をそれぞれを含む。制御部101は、日時と、起動アプリとしてWEBブラウザ又は動画プレーヤーと、検出結果として第2検出エリアで認識又は抽出した全ての文字・画像又は予め定められた数・量の文字・画像と、を含むコンテンツ接触データを接触データ蓄積部121に保存する(S121、S123、S131)。
Next, processing (detected characters) of the WEB browser / moving picture player will be described.
As shown in FIG. 5, the determination table 110 includes a combination of an application name and a measurement target, a WEB browser and a URL or a moving image player and a content name, and a character / image or moving image that represents WEB as a detected character / image of the startup application identification information Characters / images representing viewers, and identification information indicating all characters / images or a predetermined number / amount of characters / images as detection identification information are included. The
B.第2の実施の形態
第2の実施の形態は、端末10’側で、コンテンツ接触状況検出処理を実行するものである。
図10に、本発明の第2の実施の形態によるシステム構成図の例を示す。
本実施の形態では、端末10’が、コンテンツ接触状況検出部100を備える。各部の構成、及び、コンテンツ接触状況検出処理の動作は、以下に示すようにシーケンスが異なる他は、第1の実施の形態と同様である。
端末10’は、判定テーブル110又は変換コードテーブル111,112,113のいずれか又は一部若しくは全部を、集計・配信センター2’又は他のサーバから予めダウンロ−ドすることができる。
B. Second embodiment
In the second embodiment, content contact status detection processing is executed on the terminal 10 ′ side.
FIG. 10 shows an example of a system configuration diagram according to the second embodiment of the present invention.
In the present embodiment, the terminal 10 ′ includes a content contact
The terminal 10 ′ can download in advance either one or a part or all of the determination table 110 or the conversion code tables 111, 112, and 113 from the aggregation /
図11に、第2の実施の形態のシーケンス図を示す。
端末10’は、ユーザアクションによる手動操作で、又は、定期的又は予め定められたタイミング等の自動で、スクリーンショットを取得する(821)。コンテンツ接触状況検出部100は、取得したスクリーンショットをスクリーンショット取得部102のメモリ又は他の適宜のメモリに記憶し、取得したスクリーンショットによりコンテンツ接触状況検出処理(第1の実施の形態、図9)を実行し、コンテンツ接触データを作成して、接触データ蓄積部104に記憶する(822)。コンテンツ接触状況検出部100は、ユーザアクションによる手動操作で、又は、定期的又は予め定められたタイミング等の自動で、又は、集計・配信センター2’からの要求により、接触データ蓄積部104からコンテンツ接触データを読み出して、集計・配信センター2’に送信する(823)。
集計・配信センター2’において、処理部21は、端末10’のコンテンツ接触状況検出部100が作成及び蓄積したコンテンツ接触データを接触データ蓄積部104から読み出し、コンテンツ接触データを集計し、接触率データ又は他の接触情報を計算し、蓄積部22に、コンテンツ接触データ、接触率データ及び/又は他の接触情報を保存する。また、処理部21は、コンテンツ接触データ、接触率データ及び/又は他の接触情報を蓄積部22から読み出し、契約者/顧客装置3に対して提供する(824)。
FIG. 11 shows a sequence diagram of the second embodiment.
The terminal 10 ′ acquires a screen shot by manual operation by a user action, or automatically at regular or predetermined timing (821). The content contact
In the aggregation /
C.第3の実施の形態
第3の実施の形態は、端末10’’側で、コンテンツ接触状況検出処理を実行するものであり、且つ、特に顔DB・人物DB、WEBブラウザ(人物)変換コードテーブル113等の容量の大きい識別用DBや使用頻度の低い識別用DBなど、適宜の識別用DBを、必要に応じて、集計・配信センター2’’又はサーバや他の装置から端末10’’にダウンロ−ドするようにしたものである。
C. Third embodiment
In the third embodiment, content contact state detection processing is executed on the terminal 10 ″ side, and in particular, the capacity of the face DB / person DB, WEB browser (person) conversion code table 113, etc. is large. Appropriate identification DBs, such as identification DBs and identification DBs with low frequency of use, are downloaded to the terminal 10 '' from the aggregation / distribution center 2 '' or server or other device as necessary. It is a thing.
図12に、本発明の第3の実施の形態によるシステム構成図の例を示す。
本実施の形態では、端末10’’が、コンテンツ接触状況検出部100を備える。集計・配信センター2’’は、判定テーブル110又は変換コードテーブル111,112,113のいずれか又は一部若しくは全部を記憶した識別用DB103’を備える。ここでは、一例として、WEBブラウザ(人物)変換コードテーブル113を備える場合について説明する。また、その他の各部の構成、及び、コンテンツ接触状況検出処理の動作は、以下に示すようにシーケンスが異なる他は、第1及び/又は第2の実施の形態と同様である。
端末10’’のコンテンツ接触状況検出部100の制御部101は、判定テーブル110又は変換コードテーブル111,112,113のいずれか又は一部若しくは全部(例、WEBブラウザ(人物)変換コードテーブル113)を、集計・配信センター2’’又は他のサーバのサーバに要求して、ダウンロ−ドすることができる。ダウンロードするタイミングは、アプリ起動時、起動以降の予め定められたタイミング、コンテンツ接触状況検出処理の実行中、測定対象識別等に伴って変換コードテーブルが必要となった時など、適宜のタイミングとすることができる。なお、ダウンロードした変換コードテーブルは、コード変換処理後の予め定められたタイミングで、適宜削除してもよい。
FIG. 12 shows an example of a system configuration diagram according to the third embodiment of the present invention.
In the present embodiment, the terminal 10 ″ includes the content contact
The
図13に、第3の実施の形態のシーケンスを示す。
なお、ステップ821、823、824は、第2の実施の形態(図11)と同様なので、説明を省略する。
ステップ822’のコンテンツ接触状況検出処理(図9)において、端末10’’の制御部101は、例えば、コンテンツ接触状況検出処理(第1の実施の形態、図9参照)のステップS125等で、「変換コードテーブルの識別情報」に従い、識別用DB103を検索し、該当する変換コードテーブルが記憶されていないと判定すると、集計・配信センター2’’にその識別情報で特定される変換コードテーブル(例、WEBブラウザ(人物)変換コードテーブル113)を取得するためのDB要求を送る(831)。このDB要求は、例えば、自端末の識別情報、変換コードテーブルの識別情報を含む。集計・配信センター2’’は、そのDB要求に応答して、要求された変換コードテーブルの情報(例、WEBブラウザ(人物)変換コードテーブル113)を選択して返送する。制御部101は、受信した変換コードテーブルの情報を識別用DB103(例、WEBブラウザ(人物)変換コードテーブル113)に記憶し、それを参照することで、ステップS127における検出文字・画像の一致判定及びステップS129におけるコード変換を含む処理を実行する。
FIG. 13 shows a sequence according to the third embodiment.
In the content contact status detection process (FIG. 9) in
なお、端末10’の制御部101は、変換コードテーブルの識別情報と、測定対象識別の検出エリアでの検出文字・画像とを含むDB要求を集計・配信センター2に送り、集計・配信センター2が該当する変換コードテーブルによりその検出文字・画像に対応するコードを検索し、検索されたコードを返送するようにしてもよい。そして、端末10’の制御部101は、返送されたコードを用いて、ステップS131のコンテンツ接触データの作成及び保存を実行することができる。
The
D.実施の形態の効果
以上のように、本実施の形態によれば、映像出力端子を用いずに、端末のソフトウェアによるスクリーンショット画像から、文字認識及び/又は画像認識を行い、視聴放送局やWEB接触データ、コンテンツ接触データ等のコンテンツ接触状況に関する情報を取得することができる。
D. Effects of the embodiment
As described above, according to this embodiment, character recognition and / or image recognition is performed from a screen shot image by terminal software without using a video output terminal, and a viewing broadcast station, WEB contact data, content contact is performed. Information about the content contact status such as data can be acquired.
本発明のコンテンツ接触状況検出方法及びコンテンツ接触状況検出システムは、その各手順をコンピュータに実行させるためのコンテンツ接触状況検出プログラム、コンテンツ接触状況検出プログラムを記録したコンピュータ読み取り可能な記録媒体、コンテンツ接触状況検出プログラムを含みコンピュータの内部メモリにロード可能なプログラム製品、そのプログラムを含むサーバ等のコンピュータ、等により提供されることができる。 A content contact status detection method and a content contact status detection system according to the present invention include a content contact status detection program for causing a computer to execute each procedure, a computer-readable recording medium storing the content contact status detection program, and a content contact status It can be provided by a program product that includes the detection program and can be loaded into the internal memory of the computer, a computer such as a server that includes the program, and the like.
1 調査世帯
10 端末
2 集計・配信センター
3 契約社/顧客装置
4 ネットワーク
100 コンテンツ接触状況検出部(装置)
101 制御部
102 スクリーンショット取得部
103 識別用DB
104 接触データ蓄積部
105 通信部/出力部
106 バス
1
104 Contact
Claims (16)
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルと、
日時、アプリケーション名、検出結果を含むコンテンツ接触データを記憶する接触データ蓄積部と、
制御部と、
を備え、
前記制御部は、
端末による起動アプリケーションのスクリーンショットを取得し、
前記判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを前記接触データ蓄積部に保存する
コンテンツ接触状況検出装置。
A content contact status detection device,
A determination table that stores in advance determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information;
A contact data storage unit for storing content contact data including date and time, application name, and detection result;
A control unit;
With
The controller is
Take a screenshot of the application launched by the device,
With reference to each determination data of the determination table, when the character or image recognized in the first detection area as the screen shot is detected as a detection character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
A content contact state detection apparatus that stores content contact data including date and time, an application name of the determination data, and the detection result in the contact data storage unit.
識別情報毎に、検出文字又は画像に対するコードを記憶するひとつ又は複数の変換コードテーブルを、さらに備え、
前記制御部は、
前記判定テーブルの各判定データを参照し、第1検出エリアで前記スクリーンショットの文字又は画像を認識し、第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出された場合、
前記判定データの検出識別情報が変換コードテーブルの識別情報である場合、第2検出エリアで前記スクリーンショットの文字又は画像を認識し、前記識別情報により特定される前記変換コードテーブルに従い第2検出エリアで認識した検出文字又は画像をコードに変換して検出結果とし、
前記判定データに記憶された検出識別情報が変換コードテーブルの識別情報でない場合、第2検出エリアで認識又は抽出した前記スクリーンショットの文字又は画像を検出結果とし、
日時と、前記判定データのアプリケーション名と、前記検出結果とを含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 1,
One or more conversion code tables for storing codes for detected characters or images for each identification information, further comprising:
The controller is
With reference to each determination data of the determination table, the character or image of the screenshot is recognized in the first detection area, and the character or image recognized in the first detection area is detected as the detection character or image of the determination data. If
When the detection identification information of the determination data is identification information of a conversion code table, the second detection area is recognized in accordance with the conversion code table identified by the identification information by recognizing the character or image of the screenshot in the second detection area. The detection character or image recognized in step 1 is converted into a code and used as the detection result.
When the detection identification information stored in the determination data is not the identification information of the conversion code table, the character or image of the screenshot recognized or extracted in the second detection area is used as the detection result,
A content contact status detection apparatus, wherein content contact data including a date and time, an application name of the determination data, and the detection result is stored in the contact data storage unit.
前記制御部は、前記コンテンツ接触データに含まれる前記日時として、スクリーンショットの取得時刻又は内部時計による時刻を設定することを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 1 or 2,
The content contact state detection apparatus, wherein the control unit sets a screen shot acquisition time or an internal clock time as the date and time included in the content contact data.
前記制御部は、前記接触データ蓄積部から、コンテンツ接触データを読み出し、ユーザアクション又は予め定められたタイミングで、出力部及び/又は他の装置にコンテンツ接触データを出力又は表示することを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to any one of claims 1 to 3,
The control unit reads content contact data from the contact data storage unit, and outputs or displays the content contact data on an output unit and / or another device at a user action or a predetermined timing. Content contact status detection device.
前記判定テーブルの各判定データは、アプリケーション名に対して測定対象をさらに含み、
前記変換コードテーブルは、アプリケーション名及び測定対象により識別される
ことを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 2,
Each determination data of the determination table further includes a measurement object for the application name,
The content contact state detection apparatus, wherein the conversion code table is identified by an application name and a measurement target.
前記判定テーブルは、アプリケーション名として放送を視聴するテレビプレーヤー、測定対象として放送局を表す文字、検出文字又は画像としてテレビ視聴を表す文字、検出識別情報として第1の変換コードテーブルの識別情報、を含み、
前記検出識別情報により特定される前記第1の変換コードテーブルは、放送局を表す文字又は画像に対して、放送局コードを予め記憶し、
前記制御部は、前記第1の変換コードテーブルを参照し、検出文字又は画像を放送局コードに変換し、
前記制御部は、日時と、起動アプリケーションとしてテレビプレーヤーと、検出結果として放送局コードと、を含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 5,
The determination table includes a television player that watches a broadcast as an application name, characters representing a broadcasting station as a measurement target, characters representing television viewing as a detection character or image, and identification information of the first conversion code table as detection identification information. Including
The first conversion code table specified by the detection identification information stores a broadcast station code in advance for characters or images representing a broadcast station,
The control unit refers to the first conversion code table, converts the detected character or image into a broadcast station code,
The said control part preserve | saves the content contact data containing a date and time, a television player as a starting application, and a broadcast station code as a detection result in the said contact data storage part, The content contact condition detection apparatus characterized by the above-mentioned.
前記判定テーブルは、アプリケーション名と測定対象の組としてWEBブラウザと接触文字の組又はWEBブラウザと人物の組、検出文字又は画像としてWEBを表す文字又は画像、検出識別情報として第2又は第3の変換コードテーブルの識別情報、をそれぞれを含み、
前記検出識別情報により特定される前記第2又は第3の変換コードテーブルは、接触文字又は人物を表す文字又は画像に対して、接触文字コード又は人物コードを予め記憶し、
前記制御部は、前記第2又は第3の変換コードテーブルを参照し、検出文字又は画像を接触文字コード又は人物コードに変換し、
前記制御部は、日時と、起動アプリケーションとしてWEBブラウザと、検出結果として接触文字コード又は人物コードと、を含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 5,
The determination table includes a combination of a WEB browser and a contact character or a combination of a WEB browser and a person as a set of an application name and a measurement target, a character or an image representing WEB as a detection character or an image, and a second or third as detection identification information. Including identification information of conversion code table,
The second or third conversion code table specified by the detection identification information stores a contact character code or a person code in advance for a character or an image representing a contact character or a person,
The control unit refers to the second or third conversion code table, converts the detected character or image into a contact character code or a person code,
The control unit stores content contact data including date and time, a WEB browser as a startup application, and a contact character code or a person code as a detection result in the contact data storage unit. .
前記判定テーブルは、アプリケーション名と測定対象の組としてWEBブラウザとURL又は動画プレーヤーとコンテンツ名、検出文字又は画像としてWEBを表す文字若しくは画像又は動画ビューワを表す文字若しくは画像、検出識別情報として全て若しくは予め定められた数・量の文字又は画像を示す識別情報、をそれぞれ含み、
前記制御部は、日時と、起動アプリケーションとしてWEBブラウザ又は動画プレーヤーと、検出結果として第2検出エリアで認識又は抽出した全て又は予め定められた数・量の文字又は画像と、を含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とするコンテンツ接触状況検出装置。
The content contact state detection device according to claim 5,
The determination table includes a web browser and URL or a video player and content name as a set of application name and measurement target, a character or image representing WEB as a detected character or image or a character or image representing a video viewer, or all as detection identification information Including identification information indicating a predetermined number / amount of characters or images,
The control unit includes content contact data including date and time, a WEB browser or a video player as a startup application, and all or a predetermined number or amount of characters or images recognized or extracted in the second detection area as a detection result. Is stored in the contact data storage unit.
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルと、
日時、アプリケーション名、検出結果を含むコンテンツ接触データを記憶する接触データ蓄積部と、
制御部と、
を備え、
前記制御部は、
端末による起動アプリケーションのスクリーンショットを取得し、
前記判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを前記接触データ蓄積部に保存する
ことを特徴とする端末。
A terminal,
A determination table that stores in advance determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information;
A contact data storage unit for storing content contact data including date and time, application name, and detection result;
A control unit;
With
The controller is
Take a screenshot of the application launched by the device,
With reference to each determination data of the determination table, when the character or image recognized in the first detection area as the screen shot is detected as a detection character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
A terminal that stores date and time, an application name of the determination data, and content contact data including the detection result in the contact data storage unit.
前記制御部は、
前記検出識別情報により変換コードテーブルが特定される場合、前記変換コードテーブルを取得するための要求をセンター装置に送信し、
前記センター装置から前記変換コードテーブルの情報を受信し、
前記変換コードテーブルに従い、第2検出エリアで認識した検出文字又は画像を前記コードに変換する
ことを特徴とする端末。
The terminal according to claim 9, wherein
The controller is
When the conversion code table is specified by the detection identification information, a request for acquiring the conversion code table is transmitted to the center device,
Receiving the conversion code table information from the center device;
A terminal that converts a detected character or image recognized in a second detection area into the code according to the conversion code table.
前記制御部は、
前記検出識別情報により変換コードテーブルが特定される場合、前記変換コードテーブルの識別情報と、第2検出エリアで認識した検出文字又は画像を含む要求をセンター装置に送信し、
前記センターが、前記識別情報により特定される前記変換コードテーブルにより検索した前記コードを受信する
ことを特徴とする端末。
The terminal according to claim 9, wherein
The controller is
When the conversion code table is specified by the detection identification information, the request including the identification information of the conversion code table and the detected character or image recognized in the second detection area is transmitted to the center device,
The terminal, wherein the center receives the code searched by the conversion code table specified by the identification information.
動画コンテンツ又は静止画コンテンツの視聴を可能としたアプリケーションにおいて、ユーザアクション又は予め定められたタイミングで、スクリーンショットを取得し、前記スクリーンショットを前記コンテンツ接触状況検出装置へ送信する端末と、
を備え、
前記センター装置は、前記コンテンツ接触状況検出部から集めたコンテンツ接触データを集計し、接触率データ又は他の接触情報を計算し、契約者/顧客装置に対してコンテンツ接触データ又は接触率データ又は他の接触情報を提供することを特徴とするコンテンツ接触状況検出システム。
A center device having the content contact state detection device according to any one of claims 1 to 8,
In an application that enables viewing of video content or still image content, a terminal that acquires a screen shot at a user action or a predetermined timing, and transmits the screen shot to the content contact state detection device;
With
The center device aggregates the content contact data collected from the content contact status detection unit, calculates contact rate data or other contact information, and provides the content contact data or contact rate data or others to the contractor / customer device. Content contact status detection system characterized by providing contact information of
前記コンテンツ接触状況検出部から集めたコンテンツ接触データを集計し、接触率データ又は他の接触情報を計算し、契約者/顧客装置に対してコンテンツ接触データ又は接触率データ又は他の接触情報を提供するセンター装置と、
を備え、
前記端末は、動画コンテンツ又は静止画コンテンツの視聴を可能とした前記アプリケーションにおいて、ユーザアクション又は予め定められたタイミングで、コンテンツ接触データを作成し、前記コンテンツ接触データを前記センター装置へ送信することを特徴とするコンテンツ接触状況検出システム。
A terminal according to any one of claims 9 to 11,
The content contact data collected from the content contact status detection unit is aggregated, contact rate data or other contact information is calculated, and the content contact data or contact rate data or other contact information is provided to the contractor / customer device. A center device to
With
In the application that enables viewing of moving image content or still image content, the terminal creates content contact data at a user action or at a predetermined timing, and transmits the content contact data to the center device. Feature content contact status detection system.
前記センター装置は、
視聴者コードに対応して視聴者のプロフィール情報を予め記憶したプロフィール情報DBを備え、
前記コンテンツ接触データを作成した端末の識別情報に対する視聴者コードに対応したプロフィール情報を、さらに契約者/顧客装置又は他の装置に提供することを特徴とするコンテンツ接触状況検出システム。
The content contact state detection system according to claim 12 or 13,
The center device is
A profile information DB that stores viewer profile information in advance corresponding to the viewer code is provided,
A content contact status detection system, further comprising providing profile information corresponding to a viewer code for identification information of a terminal that has created the content contact data to a contractor / customer device or another device.
端末による起動アプリケーションのスクリーンショットを取得し、
アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルの各判定データを参照し、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とし、
日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを接触データ蓄積部に保存する
ことを特徴とする接触状況検出方法。
A contact state detection method,
Take a screenshot of the application launched by the device,
The screen shot is recognized in the first detection area with reference to each determination data in a determination table in which determination data including an application name, a first detection area, a detection character or image, a second detection area, and detection identification information is stored in advance. When a character or image is detected as a detected character or image of the determination data,
According to the detection identification information of the determination data, the code corresponding to the detected character or image in which the screen shot is recognized in the second detection area is set as a detection result, or the screen shot is recognized or extracted in the second detection area. Use text or images as detection results,
A contact state detection method, wherein content contact data including a date and time, an application name of the determination data, and the detection result is stored in a contact data storage unit.
処理部が、端末による起動アプリケーションのスクリーンショットを取得するステップと、
前記処理部が、アプリケーション名、第1検出エリア、検出文字又は画像、第2検出エリア、検出識別情報を含む判定データを予め記憶した判定テーブルの各判定データを参照するステップと、
前記処理部が、前記スクリーンショットを第1検出エリアで認識した文字又は画像が前記判定データの検出文字又は画像として検出した場合、
前記処理部が、前記判定データの検出識別情報に応じて、前記スクリーンショットを第2検出エリアで認識した検出文字又は画像に対応するコードを検出結果とし、又は、前記スクリーンショットを第2検出エリアで認識又は抽出した文字又は画像を検出結果とするステップと、
前記処理部が、日時、前記判定データのアプリケーション名、前記検出結果を含むコンテンツ接触データを接触データ蓄積部に保存するステップと
をコンピュータに実行させるための接触状況検出プログラム。 A contact state detection program,
A processing unit acquiring a screenshot of a startup application by a terminal;
The processing unit refers to each determination data in a determination table in which determination data including an application name, a first detection area, a detected character or image, a second detection area, and detection identification information is stored in advance.
When the processing unit detects the character or image recognized in the first detection area as the screen shot as a detected character or image of the determination data,
In accordance with the detection identification information of the determination data, the processing unit uses a detection character or a code corresponding to the image recognized in the second detection area as a detection result, or the screen shot is detected in the second detection area. A step of using a character or image recognized or extracted in step 1 as a detection result;
A contact state detection program for causing the processing unit to execute a step of storing content contact data including date and time, an application name of the determination data, and the detection result in a contact data storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141338A JP6467151B2 (en) | 2014-07-09 | 2014-07-09 | Content contact status detection device, system, method, program, and terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141338A JP6467151B2 (en) | 2014-07-09 | 2014-07-09 | Content contact status detection device, system, method, program, and terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016019171A true JP2016019171A (en) | 2016-02-01 |
JP6467151B2 JP6467151B2 (en) | 2019-02-06 |
Family
ID=55234085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141338A Active JP6467151B2 (en) | 2014-07-09 | 2014-07-09 | Content contact status detection device, system, method, program, and terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6467151B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427952A (en) * | 2017-02-14 | 2018-08-21 | 株式会社Pfu | Date recognition device, date recognition method and computer readable storage medium |
CN108710880A (en) * | 2018-05-16 | 2018-10-26 | 深圳市众信电子商务交易保障促进中心 | A kind of data grab method and terminal |
CN116662206A (en) * | 2023-07-24 | 2023-08-29 | 泰山学院 | Computer software online real-time visual debugging method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194592A (en) * | 2008-02-14 | 2009-08-27 | Video Research:Kk | Broadcasting station specifying device, broadcasting station specifying method, and broadcasting station specification program |
JP2012074947A (en) * | 2010-09-29 | 2012-04-12 | Jvc Kenwood Corp | Remote operation device, information output device, information collection system, information collection method, and program |
JP2014120032A (en) * | 2012-12-18 | 2014-06-30 | Fujitsu Ltd | Character recognition device, character recognition method and character recognition program |
-
2014
- 2014-07-09 JP JP2014141338A patent/JP6467151B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009194592A (en) * | 2008-02-14 | 2009-08-27 | Video Research:Kk | Broadcasting station specifying device, broadcasting station specifying method, and broadcasting station specification program |
JP2012074947A (en) * | 2010-09-29 | 2012-04-12 | Jvc Kenwood Corp | Remote operation device, information output device, information collection system, information collection method, and program |
JP2014120032A (en) * | 2012-12-18 | 2014-06-30 | Fujitsu Ltd | Character recognition device, character recognition method and character recognition program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427952A (en) * | 2017-02-14 | 2018-08-21 | 株式会社Pfu | Date recognition device, date recognition method and computer readable storage medium |
CN108710880A (en) * | 2018-05-16 | 2018-10-26 | 深圳市众信电子商务交易保障促进中心 | A kind of data grab method and terminal |
CN116662206A (en) * | 2023-07-24 | 2023-08-29 | 泰山学院 | Computer software online real-time visual debugging method and device |
CN116662206B (en) * | 2023-07-24 | 2024-02-13 | 泰山学院 | Computer software online real-time visual debugging method and device |
Also Published As
Publication number | Publication date |
---|---|
JP6467151B2 (en) | 2019-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423437B2 (en) | Methods and apparatus to detect advertisements embedded in online media | |
EP2950551B1 (en) | Method for recommending multimedia resource and apparatus thereof | |
US20220103428A1 (en) | Automatic determination of display device functionality | |
US10019058B2 (en) | Information processing device and information processing method | |
WO2015090095A1 (en) | Information pushing method, device, and system | |
JP6467151B2 (en) | Content contact status detection device, system, method, program, and terminal | |
US20120331514A1 (en) | Method and apparatus for providing image-associated information | |
US20180144494A1 (en) | Information processing device, information processing method, and program | |
TW201421396A (en) | System and method for advertisement service | |
US10448107B2 (en) | Display device | |
TW201525739A (en) | Presenting information based on a video | |
US20190349638A1 (en) | Electronic apparatus and controlling method thereof | |
US20220400298A1 (en) | Methods and apparatus of identification of streaming activity and source for cached media on streaming devices | |
EP3148203A1 (en) | Display device and operating method of a display device | |
KR20160073375A (en) | Multicast of stream selection from portable device | |
CN103763480A (en) | Method and equipment for obtaining video dubbing | |
CN114286185B (en) | Apparatus, method, and storage medium for detecting media device presenting media | |
US20130132996A1 (en) | System and method for displaying product information about advertisement on digital television, and recording medium thereof | |
US9357333B2 (en) | Mobile terminal, application selection server, application installation method, and mobile terminal program | |
US10503776B2 (en) | Image display apparatus and information providing method thereof | |
JP2017228278A5 (en) | ||
CN107820133B (en) | Method, television and system for providing virtual reality video on television | |
CN110764676B (en) | Information resource display method and device, electronic equipment and storage medium | |
WO2015110005A1 (en) | Television program image frame capturing device, television program image frame obtaining device, system and method | |
JP6186292B2 (en) | Device setting providing server, portable terminal, device setting providing method, device setting providing server program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6467151 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |