JP2006154976A - Animation frame analyzer - Google Patents

Animation frame analyzer Download PDF

Info

Publication number
JP2006154976A
JP2006154976A JP2004341293A JP2004341293A JP2006154976A JP 2006154976 A JP2006154976 A JP 2006154976A JP 2004341293 A JP2004341293 A JP 2004341293A JP 2004341293 A JP2004341293 A JP 2004341293A JP 2006154976 A JP2006154976 A JP 2006154976A
Authority
JP
Japan
Prior art keywords
information
moving
frame information
pattern
pattern information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004341293A
Other languages
Japanese (ja)
Inventor
Tadahiko Munakata
忠彦 棟方
Tsutomu Iwata
勉 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004341293A priority Critical patent/JP2006154976A/en
Publication of JP2006154976A publication Critical patent/JP2006154976A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To resolve a problem when extracting necessary information such as an address of a postcard from a displayed image plane of a program or the like, that since signboards and logotype information on clothes of the cast that are not too necessary are included in the image plane, it is difficult to extract a particular the necessary information from the image, and it is difficult to operate the designation of an extraction area or the like of information by a portable apparatus or the like. <P>SOLUTION: In an animation frame information analyzer, an area with little movement in a plurality of frames of animation is detected, and pattern information such as character information in the area (an immobile area) with little movement is extracted. Since information necessary for a viewer is frequently displayed in a form of a telop or the like, it can be conceived that its amount of movement is small unlike an amount of the movement of characters of a signboard or characters on clothes that are moved by the movement of a camera or the like. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

動画内に表示される電子メールアドレスなどの情報を取得する技術に関する。   The present invention relates to a technique for acquiring information such as an e-mail address displayed in a moving image.

現在、テレビ番組やビデオソフトの映像中に、例えば苦情や意見の連絡先、あるいはプレゼント応募用の住所や電子メールアドレスなどが表示されることが良くある。視聴者は、これら映像中に表示される情報を書き留めるなどし、書き留めた連絡先や宛先に対して電話をしたり葉書や電子メールを送信したりする。また、特許文献1では、情報を書き留める手間を省くために、表示画面から電子メールアドレスなどの文字情報を含む画像を取得し、画像からそのアドレス情報などを抽出し、例えば電子メールソフトでそのアドレスに対し電子メールを送信する、という技術が開示されている。
特開2001−167026号公報
Currently, for example, a complaint or opinion contact address, a present application address or an e-mail address is often displayed in a television program or video software. The viewer writes down the information displayed in the video and makes a call or sends a postcard or an e-mail to the written contact or destination. In Patent Document 1, in order to save the trouble of writing down information, an image including character information such as an e-mail address is acquired from a display screen, and the address information is extracted from the image. Has disclosed a technique of sending an e-mail.
JP 2001-167026 A

しかし、上記従来技術では画像内で電子メールアドレスなど文字情報が含まれる領域をユーザーなどが指定する必要があり、視聴者の手を煩わせる、あるいは携帯機器などでは指定する操作が困難である、という課題がある。また指定無しに文字情報などを抽出する場合、番組などの表示画面上には、例えば看板や出演者の衣服上の文字情報など通常は視聴者にあまり関係のない文字情報も含まれており、表示画面の画像から特定の文字情報などを抽出することが困難である、という課題もある。   However, in the above prior art, it is necessary for a user or the like to specify an area including character information such as an e-mail address in the image, which is troublesome for the viewer or is difficult to specify on a portable device. There is a problem. In addition, when extracting character information without designation, character information that is not usually related to the viewer is included on the display screen of the program, for example, character information on the clothes of the signboard or performers, There is also a problem that it is difficult to extract specific character information from the image on the display screen.

以上の課題を解決するために、本発明は、動画の複数のフレーム内で動きの少ない領域を判定し、その動きの少ない領域(不動領域)内にある文字情報などのパターン情報を抽出する動画フレーム情報解析装置を提供する。これは、視聴者に必要な、例えば住所や電子メールアドレスなどの情報はテロップなどの形態で表示されることが多く、したがって、カメラの移動などで動く看板の文字や服装の文字などの動き量とは違い、その動き量も少ないと考えられるからである。   In order to solve the above-described problems, the present invention determines a region with less motion in a plurality of frames of a motion image and extracts pattern information such as character information in the region with less motion (non-moving region). A frame information analysis apparatus is provided. This is because information such as addresses and e-mail addresses that are necessary for viewers is often displayed in the form of telops, etc. Therefore, the amount of movement such as characters on signboards and characters on clothes that move when the camera moves This is because the amount of movement is considered to be small.

具体的には、動画フレーム情報を複数取得する動画フレーム情報取得部と、前記複数の動画フレーム情報のなかで不動領域を検出する不動領域検出部と、前記不動領域検出部により検出された不動領域に示される映像情報からパターン情報を抽出するパターン情報抽出部と、を有する動画フレーム情報解析装置を提供する。   Specifically, a moving image frame information acquisition unit that acquires a plurality of moving image frame information, a fixed region detection unit that detects a fixed region in the plurality of moving image frame information, and a fixed region detected by the fixed region detection unit A moving picture frame information analyzing apparatus having a pattern information extracting unit that extracts pattern information from the video information shown in FIG.

以上のような構成をとる本発明によって、視聴者は画像領域の指定などの特段の操作をすること無しに、電子メールアドレスなどの各種情報を簡単に取得することができる。これは、領域指定の困難な、例えば携帯電話などの小型機器における動画内の情報抽出において特に効果を奏する。   According to the present invention configured as described above, the viewer can easily acquire various information such as an e-mail address without performing a special operation such as designation of an image area. This is particularly effective in extracting information in a moving image in a small device such as a mobile phone in which region designation is difficult.

以下に、図を用いて本発明の実施の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。なお、実施例1は主に請求項1,5,6,7,8について説明する。また、実施例2は主に請求項2,9について説明する。また、実施例3は主に請求項3について説明する。また、実施例4は主に請求項4について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to these embodiments, and can be implemented in various modes without departing from the spirit of the present invention. The first embodiment will mainly describe claims 1, 5, 6, 7, and 8. In the second embodiment, claims 2 and 9 will be mainly described. In the third embodiment, claim 3 will be mainly described. In the fourth embodiment, claim 4 will be mainly described.

≪実施例1≫ <実施例1の概念> 図1に示すのは、本実施例における動画フレーム解析装置の概念の一例を説明するための図である。この図にあるように、まず、ある音楽番組のあるシーンにおいて司会者によるトークの模様とともに「リクエストのあて先」が表示される。本実施例の動画フレーム解析装置は、この音楽番組の動画フレームを解析することにより「リクエストのあて先」の情報のみを抽出することができる。したがって、本実施例の動画フレーム情報解析装置にて簡単に情報を抽出することができるので、「リクエストのあて先」などの情報をいちいち紙に書き留めるなどの手間を省くことなどが可能になる。   First Embodiment <Concept of First Embodiment> FIG. 1 is a diagram for explaining an example of a concept of a moving image frame analyzing apparatus in the present embodiment. As shown in this figure, first, a “request destination” is displayed together with a talk pattern by the presenter in a certain scene of a certain music program. The moving picture frame analysis apparatus of the present embodiment can extract only the information of “request destination” by analyzing the moving picture frame of the music program. Therefore, since the information can be easily extracted by the moving picture frame information analysis apparatus of the present embodiment, it is possible to save the trouble of writing down information such as “destination of request” on paper one by one.

<実施例1の構成> 図2に示すのは、本実施例の動画フレーム解析装置における機能ブロックの一例を表す図である。この図にあるように、本実施例の「動画フレーム解析装置」(0200)は、「動画フレーム情報取得部」(0201)と、「不動領域検出部」(0202)と、「パターン情報抽出部」(0203)と、を有する。なお、以下に記載する本システムの機能ブロックは、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方として実現され得る。具体的には、コンピュータを利用するものであれば、CPUやメモリ、バス、ハードディスクドライブ、CD−ROMやDVD−ROMなどの読取ドライブ、各種通信用の送受信ポート、インターフェース、その他の周辺装置などのハードウェア構成部や、それらハードウェアを制御するためのドライバプログラムやその他アプリケーションプログラムなどが挙げられる。具体的には、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インターフェースを介して入力されるデータの加工、蓄積、出力などにより各部の機能が実現される。また、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、このような発明の一部をソフトウェアとして構成することができることもできる。さらに、そのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品、及び同製品を記録媒体に固定した記録媒体も、当然にこの発明の技術的な範囲に含まれる(本明細書の全体を通じて同様である)。     <Configuration of Embodiment 1> FIG. 2 is a diagram illustrating an example of functional blocks in the moving image frame analysis apparatus of the present embodiment. As shown in this figure, the “moving picture frame analyzing apparatus” (0200) of the present embodiment includes a “moving picture frame information acquiring unit” (0201), a “non-moving region detecting unit” (0202), and a “pattern information extracting unit”. (0203). Note that the functional blocks of the system described below can be realized as hardware, software, or both hardware and software. Specifically, if a computer is used, such as a CPU, a memory, a bus, a hard disk drive, a reading drive such as a CD-ROM or a DVD-ROM, a transmission / reception port for various communications, an interface, and other peripheral devices. Examples include a hardware configuration unit, a driver program for controlling the hardware, and other application programs. Specifically, the functions of the respective units are realized by sequentially executing the programs developed on the memory, by processing, storing, and outputting data on the memory and data input through the interface. Further, the present invention can be realized not only as an apparatus or a system but also as a method. In addition, a part of the invention can be configured as software. Furthermore, a software product used for causing a computer to execute such software and a recording medium in which the product is fixed to a recording medium are naturally included in the technical scope of the present invention (the same applies throughout the present specification). Is).

「動画フレーム情報取得部」(0201)は、動画フレーム情報を複数取得する機能を有する。「動画フレーム情報」とは、動画を構成する1フレーム(1コマ)を表示するための情報をいい、この動画フレーム情報によるフレームが複数連続で出力されることで一連の動画として再生することができる。図3に示すのは、動画フレーム情報によって表示されるフレームの一例を説明するための図である。この図にあるように、3つの動画フレーム情報によって表示される3つのフレームがある。そして、この3つのフレームを、例えば0.1秒の間に第1、第2、第3の順に表示することで、人の目に動画として認識させることができる。この動画フレーム情報によって構成される動画は、「リクエストのあて先」が画面右下に表示されながら、「music soul」というロゴの入った衣装を着た番組の司会者が左から右に移動した後、真中に戻ってくる、という動画である。   The “video frame information acquisition unit” (0201) has a function of acquiring a plurality of video frame information. “Movie frame information” refers to information for displaying one frame (one frame) constituting a movie, and a plurality of frames based on this movie frame information are output in succession to be reproduced as a series of movies. it can. FIG. 3 is a diagram for explaining an example of a frame displayed by moving image frame information. As shown in this figure, there are three frames displayed by three moving image frame information. Then, by displaying these three frames in the order of first, second, and third within 0.1 seconds, for example, it can be recognized as a moving image by human eyes. The video composed of this video frame information is displayed after the host of the program wearing a costume with the logo “music soul” moves from left to right while “request destination” is displayed at the bottom right of the screen. It ’s a video that comes back to the middle.

なお、このそれぞれの動画フレーム情報は、独立して1フレームを表示可能な情報であってもいいし、圧縮形式の動画であれば前後の動画フレーム情報を参照して1フレームを表示可能な情報であっても良い。また、「複数取得する」とは、フレームの表示順が連続している動画フレーム情報を複数取得する形態でも良いし、それぞれの動画フレーム情報が独立の情報であるならば(非圧縮形式の動画であるならば)、非連続の動画フレーム情報を複数取得する形態でも良い。また、この動画フレーム情報はインターレース、あるいはノンインターレースの動画方式のいずれの動画フレーム情報も含む概念である。その場合、インターレース動画における奇数行のフレームと偶数行のフレームをそれぞれ異なった動画フレーム情報として処理してもよいし、両者を合わせて(ノンインターレース処理を施して)1つの動画フレーム情報として処理しても良い。   Each piece of moving picture frame information may be information capable of displaying one frame independently, or in the case of a compressed moving picture, information that can display one frame with reference to the preceding and following moving picture frame information. It may be. “Acquiring a plurality” may be a form of acquiring a plurality of pieces of moving picture frame information in which the display order of frames is continuous. If each piece of moving picture frame information is independent information (uncompressed moving picture information). If this is the case, a plurality of pieces of discontinuous video frame information may be acquired. The moving picture frame information is a concept including moving picture frame information of either interlaced or non-interlaced moving picture format. In that case, the odd-numbered frame and the even-numbered frame in the interlaced video may be processed as different video frame information, or both are processed as a single video frame information (with non-interlace processing). May be.

また、この動画フレーム情報取得部で取得される動画フレーム情報は、例えばDVDやビデオなどの記録媒体から再生される動画の動画フレーム情報であっても良いし、テレビ放送受信やケーブル受信のようにチューナーを介して取得した動画の動画フレーム情報であっても良いし、あるいはインターネット上のストリーミングまたはダウンロードによって配信されている動画の動画フレーム情報であっても良い。なお、この動画フレーム情報はアナログデータである場合、後述する不動領域の検出やパターン情報の抽出のためにA/D(アナログ・デジタル)変換器によってデジタルデータに変換される必要がある。   In addition, the moving image frame information acquired by the moving image frame information acquisition unit may be moving image frame information of a moving image reproduced from a recording medium such as a DVD or a video, or may be television broadcast reception or cable reception. It may be moving image frame information of a moving image acquired via a tuner, or moving image frame information of a moving image distributed by streaming or downloading on the Internet. When the moving image frame information is analog data, it needs to be converted into digital data by an A / D (analog / digital) converter in order to detect a non-moving area and extract pattern information described later.

「不動領域検出部」(0202)は、不動領域を検出する機能を有する。「不動領域」とは、前記複数の動画フレーム情報のなかで動きの少ない領域をいう。例えば、図3に示す3つの動画フレーム情報においては、「リクエストあて先」が表示されている領域が画面右下の位置からほとんど動いておらず、不動領域と言える。一方、同様に図3のその他の部分は、画面内で司会者が動き回っており不動領域では無いと言える。   The “non-moving region detection unit” (0202) has a function of detecting a non-moving region. The “non-moving region” refers to a region with little movement among the plurality of moving image frame information. For example, in the three pieces of moving image frame information shown in FIG. 3, the area where “request destination” is displayed hardly moves from the lower right position of the screen and can be said to be a non-moving area. On the other hand, it can be said that the other parts in FIG. 3 are not in a non-moving area because the presenter is moving around in the screen.

図4に示すのは、この不動領域検出部における不動領域の検出の一例を説明するための図である。この図にあるように、第一と第二の動画フレーム情報で示される2つのフレーム(a)とフレーム(b)を4×4など所定の領域で区分する。そしてそれぞれの領域において、例えば構成する色情報(RGB、YUVなど)の割合や領域内における輝度の積分値などが同じ、または近似しているかの判断を行う。あるいは、圧縮動画であればそれぞれの領域における動きの差分情報からその領域の動き量を判断しても良い。例えば、図4のフレーム(a)内の領域403A、及びその後のフレーム(b)内の対応する領域403Bでは、前者には人の顔の一部を表示するための情報が含まれている。しかし後者にはそれが含まれておらず、代わりにその人物の背景に隠れていた番組マスコットなどを表示するための情報が含まれる。したがって403Aと403Bを示す情報は大きく異なっているので、この領域403は不動領域ではないと判断する。一方、401Aと401Bにおいては、両者とも「リクエストのあて先」や「〒110−××××」を表示するための情報が含まれている。したがって、401Aと401Bを示す情報は近似しており、この領域は不動領域であると判断できる。そしてこの判断を領域ごとに行い、不動領域であると判断された領域の検出を行う。   FIG. 4 is a diagram for explaining an example of detection of a non-moving area in the non-moving area detecting unit. As shown in this figure, the two frames (a) and (b) indicated by the first and second moving image frame information are divided into predetermined areas such as 4 × 4. Then, in each region, for example, it is determined whether the ratio of the color information (RGB, YUV, etc.) constituting the same, the integral value of the luminance in the region, and the like are the same or approximate. Or if it is a compression moving image, you may judge the motion amount of the area | region from the difference information of the motion in each area | region. For example, in the area 403A in the frame (a) in FIG. 4 and the corresponding area 403B in the subsequent frame (b), the former includes information for displaying a part of the human face. However, it is not included in the latter, but instead includes information for displaying a program mascot or the like hidden in the background of the person. Therefore, since the information indicating 403A and 403B is greatly different, it is determined that this area 403 is not a non-moving area. On the other hand, both 401A and 401B include information for displaying “destination of request” and “〒 110-xxxx”. Therefore, the information indicating 401A and 401B is approximate, and it can be determined that this area is a non-moving area. This determination is performed for each region, and the region determined to be a non-moving region is detected.

また、不動領域から抽出したいパターン情報(詳細は後述)が、電子メールアドレスや郵便の宛先住所など文字からなる情報であるならば、その文字を含む領域の映像情報の特徴としてエッジ成分が強いことが挙げられる。したがって、オートフォーカスの山登り制御などの技術を利用して領域内のエッジ成分量を算出し閾値以上の領域には文字が含まれていると判断して不動領域として検出しても良い。   If the pattern information (details will be described later) to be extracted from the non-moving area is information consisting of characters such as an e-mail address or a postal address, the edge component is strong as a feature of the video information of the area including the characters. Is mentioned. Accordingly, the edge component amount in the area may be calculated using a technique such as hill climbing control of autofocus, and it may be determined that the area above the threshold includes characters and detected as a non-moving area.

このように不動領域の検出を行うことで、画面内で例えばテロップなどの文字情報などが表示されている領域を特定することができる。そして不動領域として検出されない司会者のいる領域にある「music soul」というシャツのロゴは後述するパターン情報として抽出されずにすむ。   By detecting the immovable area in this way, it is possible to specify an area in which character information such as a telop is displayed on the screen. The shirt logo “music soul” in the area where the presenter is not detected as the immovable area does not have to be extracted as pattern information to be described later.

「パターン情報抽出部」(0203)は、不動領域検出部(0202)により検出された不動領域に示される映像情報からパターン情報を抽出する機能を有する。「パターン情報」とは、所定のパターンによって抽出可能な情報をいい、例えば、テロップなどとして不動領域に含まれるプレゼントや意見などの連絡先やホームページ、電子メールアドレス、時報、ニュース速報、クイズ問題、またはパスワードなどのテキスト情報が挙げられる。その他にもバーコード情報、所定の画像情報なども挙げられる。なお、「所定のパターン」とは、例えば50音や漢字、アルファベット、数字、絵文字、顔文字、所定の画像などからなり、後述するようにこの所定のパターンと比較、参照して抽出された例えば「今」「日」「は」という画像中の文字がテキスト情報に変換され「今日は」と組み合わされることでパターン情報が生成される。   The “pattern information extraction unit” (0203) has a function of extracting pattern information from the video information indicated in the non-moving area detected by the non-moving area detection unit (0202). “Pattern information” refers to information that can be extracted according to a predetermined pattern, for example, contact information such as presents and opinions included in the immobile area as a telop, homepage, e-mail address, hourly report, breaking news, quiz problem, Or text information such as passwords. Other examples include bar code information and predetermined image information. The “predetermined pattern” includes, for example, 50 sounds, kanji, alphabets, numbers, pictograms, emoticons, predetermined images, etc., and is extracted by comparing with and referring to the predetermined pattern as will be described later. Characters in the images “now”, “day”, and “ha” are converted into text information and combined with “today” to generate pattern information.

このパターン情報の抽出には、テキスト情報であるならば例えば光学式文字読取装置(Optical Character Reader)などのアルゴリズムを利用する方法が挙げられる。図5に示すのは、光学式文字読取装置のアルゴリズムを利用したパターン情報の抽出の一例を説明するための図である。この図にあるように、動画フレーム情報から抽出された不動領域は基本的に映像情報である。したがって、この映像情報に含まれる画像である例えば文字をテキスト情報として抽出する場合、予め保持している50音や漢字、カタカナ、アルファベット、数字などの文字抽出用の各パターンと比較、照合する。そして両者の画像のドットの分布状態の重なりなどからどの抽出用のパターンと近似しているか否か判断する。この文字抽出用のパターンには、それぞれ対応するテキスト情報が関連付けて蓄積されており、それによりテキストデータに変換する。このようにして映像情報に含まれる画像である複数の文字などをテキスト情報として抽出することができる。そして、抽出されたそれら各文字を組み合わせてパターン情報として抽出する。もちろん、上記文字抽出用のパターンを顔文字や絵文字、バーコードや所定の画像のパターンを示す情報とすることで、それらをパターン情報として抽出しても良い。また、バーコード情報や画像情報が二次元バーコードや電子メールアドレスなどの情報が埋め込まれたものであるならば、これらバーコード情報や画像情報から電子メールアドレスなどの情報に変換したものをパターン情報として抽出する処理を行っても良い。   The extraction of the pattern information includes a method using an algorithm such as an optical character reader if it is text information. FIG. 5 is a diagram for explaining an example of pattern information extraction using the algorithm of the optical character reader. As shown in this figure, the non-moving area extracted from the moving picture frame information is basically video information. Therefore, when, for example, characters, which are images included in the video information, are extracted as text information, they are compared and collated with previously stored patterns for extracting characters such as 50 sounds, kanji, katakana, alphabet, and numbers. Then, it is determined which pattern for extraction is approximate from the overlap of the distribution states of the dots in both images. In the character extraction pattern, corresponding text information is stored in association with each other, and converted into text data. In this way, a plurality of characters that are images included in the video information can be extracted as text information. Then, the extracted characters are combined and extracted as pattern information. Of course, the character extraction patterns may be extracted as pattern information by using emoticons, pictograms, barcodes, or information indicating patterns of predetermined images. If the barcode information or image information is embedded with information such as a two-dimensional barcode or an email address, the barcode information or image information converted into information such as an email address is used as a pattern. You may perform the process extracted as information.

また、このように抽出したテキスト情報を、アットマーク(@)を含むテキストであるかを判断することでパターン情報が電子メールアドレスであることを判断したり、抽出したテキスト情報の中からさらに電子メールアドレスのみなど特定のパターン情報のみ抽出する機能を備えていても良い。図6に示すのは、パターン情報として電子メールアドレスのみを抽出する際の一例を説明するための図である。この図にあるように、照合用パターンとしてさらに「×××@××.××」(×の個数は不特定)という情報が保持されており、この照合用パターンを上記と同様の方法により不動領域から抽出したテキスト情報と比較、照合する。それにより電子メールアドレス以外の必要が無いメッセージなどを除いたパターン情報を抽出することができる。もちろん、照合用のパターンとして、その他に「http」でホームページアドレスを抽出したり、郵便番号(〒)で住所などを抽出したりしても良い。   In addition, by determining whether the text information extracted in this way is a text including an at sign (@), it is determined that the pattern information is an e-mail address, or more electronic information is extracted from the extracted text information. A function of extracting only specific pattern information such as only an e-mail address may be provided. FIG. 6 is a diagram for explaining an example when extracting only an e-mail address as pattern information. As shown in this figure, the information “xxx@xxx.xxx” (the number of x is not specified) is further retained as a matching pattern. Compare and collate with text information extracted from the immobile area. As a result, it is possible to extract pattern information excluding unnecessary messages other than e-mail addresses. Of course, as a pattern for collation, a homepage address may be extracted by “http”, or an address or the like may be extracted by a zip code (〒).

このように、ユーザーが特別の指定などすること無しに、簡単に動画の動きの少ない部分に含まれる郵便のあて先などのパターン情報を抽出することができる。   In this way, it is possible to easily extract pattern information such as a mail address included in a portion where the motion of the moving image is small without special designation by the user.

<実施例1の処理の流れ> 図7の(a)と(b)に示すのは、本実施例の動画フレーム解析装置における処理の流れの一例を表すフローチャートである。この図の(a)にあるように、まず、処理の開始命令があったか否かの判定を行う(ステップS0701a)。開始命令があった場合、動画フレーム情報を取得し、所定数動画フレーム情報をしたか判断する(ステップS0702a)。ここで所定数取得していなかった場合、再び動画フレーム情報の取得処理を行う。一方、所定数の動画フレーム情報を取得したと判断された場合、取得した複数の動画フレーム情報のなかで不動領域を検出する(ステップS0703a)。最後に、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS0704a)。     <Processing Flow of First Embodiment> FIGS. 7A and 7B are flowcharts showing an example of a processing flow in the moving picture frame analysis apparatus of the present embodiment. As shown in (a) of this figure, first, it is determined whether or not there is a processing start command (step S0701a). If there is a start command, moving image frame information is acquired, and it is determined whether a predetermined number of moving image frame information has been obtained (step S0702a). If the predetermined number has not been acquired, the moving image frame information acquisition process is performed again. On the other hand, when it is determined that a predetermined number of moving image frame information has been acquired, a non-moving region is detected from the acquired plurality of moving image frame information (step S0703a). Finally, pattern information is extracted from the video information indicated in the detected immovable area (step S0704a).

あるいはその他の処理の流れの一例として、図7の(b)に示すように、まず、処理の開始命令があったか否かの判定を行う(ステップS0701b)。開始命令があった場合、動画フレーム情報を複数取得する(ステップS0702b)。つづいて、取得した複数の動画フレーム情報のなかで不動領域が検出されたか否か判断する(ステップS0703b)。ここで、前記ステップS0703bにて不動領域が検出されたと判断された場合、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS0704b)。一方、前記ステップS0703bにて不動領域が検出されなかったと判断された場合、再びステップS0702bの動画フレーム情報の複数取得を開始する。   Alternatively, as an example of the flow of other processing, as shown in FIG. 7B, it is first determined whether or not there is a processing start command (step S0701b). If there is a start command, a plurality of pieces of moving picture frame information are acquired (step S0702b). Subsequently, it is determined whether or not a non-moving area is detected in the acquired plurality of moving image frame information (step S0703b). If it is determined in step S0703b that a non-moving area has been detected, pattern information is extracted from the video information indicated in the detected non-moving area (step S0704b). On the other hand, if it is determined in step S0703b that a non-moving region has not been detected, a plurality of moving image frame information acquisitions in step S0702b are started again.

<実施例1の効果の簡単な説明> 以上のように、本実施例の動画フレーム解析装置により、ユーザーによる特別な操作など無くとも、不動領域に含まれテロップなどで表示されるテキスト情報などを簡単に抽出することができる。     <Simple explanation of the effect of the first embodiment> As described above, the moving picture frame analysis device of the present embodiment can display text information included in a non-moving area and displayed as a telop without any special operation by the user. It can be extracted easily.

≪実施例2≫ <実施例2の概念> 図8に示すのは、本実施例における動画フレーム解析装置の概念の一例を説明するための図である。この図にあるように、まず、本実施例の動画フレーム解析装置は、実施例1の動画フレーム解析装置を基本として、動画の映像の中から、例えばリクエストのあて先などのパターン情報を抽出する。そして、そのパターン情報が電子メールアドレスを示す情報であるならば、メーラーを起動する処理を行う。また、さらに、前記リクエストのあて先の電子メールアドレスが入力された状態の電子メール入力フォームを起動させる、という具合である。このように、この動画フレーム情報解析装置によって、パターン情報に合わせてアプリケーションなどを起動させることができる。   Embodiment 2 <Concept of Embodiment 2> FIG. 8 is a diagram for explaining an example of a concept of a moving image frame analysis apparatus according to the present embodiment. As shown in this figure, first, the moving picture frame analysis apparatus of the present embodiment extracts pattern information such as a destination of a request from a moving picture based on the moving picture frame analysis apparatus of the first embodiment. If the pattern information is information indicating an electronic mail address, a process of starting a mailer is performed. Furthermore, an e-mail input form in which the e-mail address of the destination of the request is input is activated. As described above, the moving image frame information analyzing apparatus can activate an application or the like in accordance with the pattern information.

<実施例2の構成> 図9に示すのは、本実施例の動画フレーム解析装置における機能ブロックの一例を表す図である。この図にあるように、本実施例の「動画フレーム解析装置」(0900)は、実施例1を基本として、「動画フレーム情報取得部」(0901)と、「不動領域検出部」(0902)と、「パターン情報抽出部」(0903)と、を有する。そして本実施例の動画フレーム解析装置は、特徴点として、「パターン別実行処理識別子保持部」(0904)と、「実行処理識別子取得部」(0905)と、をさらに有する。なお、「動画フレーム情報取得部」と「不動領域検出部」と「パターン情報抽出部」は、実施例1での説明においてすでに説明済みであるので、ここでの説明は省略する。     <Configuration of Second Embodiment> FIG. 9 is a diagram illustrating an example of functional blocks in the moving image frame analyzing apparatus according to the present embodiment. As shown in this figure, the “moving picture frame analysis device” (0900) of the present embodiment is based on the first embodiment, and “moving picture frame information acquisition unit” (0901) and “non-moving area detection unit” (0902). And a “pattern information extraction unit” (0903). The moving image frame analysis apparatus according to the present embodiment further includes a “per-pattern execution process identifier holding unit” (0904) and an “execution process identifier acquisition unit” (0905) as feature points. Note that the “moving image frame information acquisition unit”, “non-moving region detection unit”, and “pattern information extraction unit” have already been described in the description of the first embodiment, and thus description thereof is omitted here.

「パターン別実行処理識別子保持部」(0904)は、所定のパターン情報と、実行処理識別子とを関連付けて保持する機能を有する。図10に示すのは、パターン情報と、実行処理識別子との関連付けを説明するための図である。この図にあるように、例えばパターン情報である「*@*.*」(*は不特定)という文字列を含むテキスト情報と、実行処理識別子である「電子メーラー」を識別する情報とが関連付けられている。あるいは、「http://*」というパターン情報と「Webブラウザ」の実行処理識別子、「郵便番号(〒)」というパターン情報と「はがき(宛名)作成ソフト」の実行処理識別子、または「050−*−*」というパターン情報と「IPフォンアプリケーション」、という具合にそれぞれ関連付けられている。また、パターン情報に対して、複数の実行処理識別子を関連付けてもよい。例えば、「郵便番号(〒)」というパターン情報に「はがき(宛名)作成ソフト」のほか、「電子地図」の実行処理識別子を関連付け、実行するときにいずれかを選択するようにしてもよい。あるいは図示以外の関連付けとして、「地震」という文字列のパターン情報と「地震速報サイトへのアクセス」という実行処理識別子なども挙げられる。   The “per-pattern execution process identifier holding unit” (0904) has a function of holding predetermined pattern information and an execution process identifier in association with each other. FIG. 10 is a diagram for explaining the association between pattern information and an execution process identifier. As shown in this figure, for example, text information including a character string “*@*.*” (* is unspecified) as pattern information is associated with information for identifying “electronic mailer” as an execution processing identifier. It has been. Alternatively, the pattern information “http: // *” and the execution processing identifier of “Web browser”, the pattern information “zip code (〒)” and the execution processing identifier of “postcard (address) creation software”, or “050- The pattern information “*-*” and the “IP phone application” are associated with each other. A plurality of execution process identifiers may be associated with the pattern information. For example, in addition to “postcard (address) creation software” and “postal code (〒)” pattern information, an execution processing identifier of “electronic map” may be associated and selected when executing. Alternatively, as associations other than those shown in the figure, pattern information of a character string “earthquake” and an execution process identifier “access to earthquake early warning site” may be used.

「実行処理識別子取得部」(0905)は、パターン情報抽出部(0903)で抽出されたパターン情報に関連付けられている実行処理識別子をパターン別実行処理識別子保持部(0904)から取得する機能を有する。このようにして、例えばパターン情報として「*@*.*」(*は不特定)という文字列を含むテキスト情報が抽出されると、「電子メーラー」を識別する識別子が取得される。そしてそれに応じて電子メーラーの起動や、あるいは予め抽出されたパターン情報である電子メールアドレスが入力された電子メール入力フォームを起動することができる。   The “execution process identifier acquisition unit” (0905) has a function of acquiring the execution process identifier associated with the pattern information extracted by the pattern information extraction unit (0903) from the pattern-specific execution process identifier holding unit (0904). . Thus, for example, when text information including a character string “*@*.*” (* is unspecified) is extracted as pattern information, an identifier for identifying “electronic mailer” is acquired. Accordingly, it is possible to start an electronic mailer or an electronic mail input form in which an electronic mail address that is pattern information extracted in advance is input.

したがって、いちいちメモなどを取ったりせずとも、例えば番組へのリクエストやプレゼントの応募、公式ホームページへのアクセスなどを行うための実行処理が自動で行われるので便利である。   Therefore, it is convenient because execution processing for automatically requesting a program, applying for a present, accessing an official homepage, etc. is automatically performed without taking notes one by one.

<実施例2の処理の流れ> 図11の(a)と(b)に示すのは、本実施例の動画フレーム解析装置における処理の流れの一例を表すフローチャートである。この図の(a)にあるように、まず、処理の開始命令があったか否かの判定を行う(ステップS1101a)。開始命令があった場合、動画フレーム情報を取得し、所定数動画フレーム情報をしたか判断する(ステップS1102a)。ここで所定数取得していなかった場合、再び動画フレーム情報の取得処理を行う。一方、所定数の動画フレーム情報を取得したと判断された場合、取得した複数の動画フレーム情報のなかで不動領域を検出する(ステップS1103a)。次に、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS1104a)。そして最後に、予め所定のパターン情報と関連付けて保持されている実行処理識別子から、前記ステップS1104aで抽出されたパターン情報に関連付けられている実行処理識別子を取得する(ステップS1105a)。     <Processing Flow of Second Embodiment> FIGS. 11A and 11B are flowcharts showing an example of a processing flow in the moving picture frame analysis apparatus of the present embodiment. As shown in (a) of this figure, first, it is determined whether or not there is a processing start command (step S1101a). If there is a start command, moving image frame information is acquired, and it is determined whether a predetermined number of moving image frame information has been obtained (step S1102a). If the predetermined number has not been acquired, the moving image frame information acquisition process is performed again. On the other hand, when it is determined that a predetermined number of moving image frame information has been acquired, a non-moving region is detected from the acquired plurality of moving image frame information (step S1103a). Next, pattern information is extracted from the video information indicated in the detected immovable area (step S1104a). Finally, the execution process identifier associated with the pattern information extracted in step S1104a is acquired from the execution process identifier stored in advance in association with predetermined pattern information (step S1105a).

あるいはその他の処理の流れの一例として、図11の(b)に示すように、まず、処理の開始命令があったか否かの判定を行う(ステップS1101b)。開始命令があった場合、動画フレーム情報を複数取得する(ステップS1102b)。つづいて、取得した複数の動画フレーム情報のなかで不動領域が検出されたか否か判断する(ステップS1103b)。ここで、前記ステップS1103bにて不動領域が検出されたと判断された場合、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS1104b)。そして最後に、予め所定のパターン情報と関連付けて保持されている実行処理識別子から、前記ステップS1104bで抽出されたパターン情報に関連付けられている実行処理識別子を取得する(ステップS1105b)。一方、前記ステップS1103bにて不動領域が検出されなかったと判断された場合、再びステップS1102bの動画フレーム情報の複数取得を開始する。   Alternatively, as an example of another processing flow, as shown in FIG. 11B, first, it is determined whether or not there is a processing start command (step S1101b). If there is a start command, a plurality of pieces of moving picture frame information are acquired (step S1102b). Subsequently, it is determined whether or not a non-moving area is detected in the acquired plurality of moving picture frame information (step S1103b). If it is determined in step S1103b that a non-moving area has been detected, pattern information is extracted from the video information indicated in the detected non-moving area (step S1104b). Finally, the execution process identifier associated with the pattern information extracted in step S1104b is acquired from the execution process identifier previously stored in association with predetermined pattern information (step S1105b). On the other hand, if it is determined in step S1103b that a non-moving region has not been detected, a plurality of moving image frame information acquisitions in step S1102b is started again.

<実施例2の効果の簡単な説明> 以上のように、本実施例の動画フレーム解析装置により、不動領域に含まれテロップなどで表示されるテキスト情報などに基づいて、例えば電子メールアドレスならば電子メーラーの起動、ホームページアドレスならばWebブラウザの起動、あるいは住所ならば宛名作成ソフトや印刷装置の起動を、ユーザーの手を煩わせることなく自動的に処理することが可能になる。     <Simple Explanation of Effect of Second Embodiment> As described above, based on text information included in a non-moving area and displayed in a telop or the like by the moving picture frame analysis apparatus of the present embodiment, for example, an e-mail address It is possible to automatically process the activation of the electronic mailer, the activation of the Web browser if it is a homepage address, or the activation of address creation software or a printing apparatus if it is an address, without bothering the user.

≪実施例3≫ <実施例3の概念> 図12に示すのは、本実施例における動画フレーム解析装置の概念の一例を説明するための図である。この図にあるように、まず、本実施例の動画フレーム解析装置は、実施例1や実施例2の動画フレーム解析装置を基本として、動画の映像の中から、例えば番組ホームページのアドレスやパスワードなどのパターン情報を抽出する。その際に本実施例の動画フレーム解析装置は、特徴点としてパターン情報を抽出する際の動画フレーム情報に、図にあるように番組ホームページのアドレスとパスワードとが例えば時間的にずれて表示される場合でも一つのパターン情報として抽出することができる。   << Embodiment 3 >> <Concept of Embodiment 3> FIG. 12 is a diagram for explaining an example of a concept of a moving picture frame analysis apparatus according to the present embodiment. As shown in this figure, first, the moving picture frame analyzing apparatus according to the present embodiment is based on the moving picture frame analyzing apparatus according to the first embodiment or the second embodiment. Pattern information is extracted. At that time, the moving picture frame analyzing apparatus of the present embodiment displays the address of the program homepage and the password, for example, with a time lag as shown in the moving picture frame information when extracting pattern information as feature points. Even in this case, it can be extracted as one pattern information.

<実施例3の構成> 図13に示すのは、本実施例の動画フレーム解析装置における機能ブロックの一例を表す図である。この図にあるように、本実施例の「動画フレーム解析装置」(1300)は、実施例1を基本として、「動画フレーム情報取得部」(1301)と、「不動領域検出部」(1302)と、「パターン情報抽出部」(1303)と、を有する。もちろん、実施例2を基本として「パターン別実行処理識別子保持部」と「実行処理識別子取得部」(図示せず)と、をさらに有していても良い。そして本実施例の動画フレーム解析装置は、特徴点として、「パターン情報抽出部」(1303)が、「複数領域パターン情報取得手段」(1304)と、をさらに有する。なお、「動画フレーム情報取得部」と「不動領域検出部」と「パターン情報抽出部」は、実施例1での説明においてすでに説明済みであるので、ここでの説明は省略する。     <Configuration of Third Embodiment> FIG. 13 is a diagram illustrating an example of functional blocks in the moving image frame analyzing apparatus according to the present embodiment. As shown in this figure, the “moving picture frame analysis device” (1300) of the present embodiment is based on the first embodiment, and includes a “moving picture frame information acquisition unit” (1301) and a “non-moving region detection unit” (1302). And a “pattern information extraction unit” (1303). Of course, on the basis of the second embodiment, a “pattern-specific execution process identifier holding unit” and an “execution process identifier acquisition unit” (not shown) may be further included. In the moving image frame analysis apparatus according to the present embodiment, the “pattern information extraction unit” (1303) further includes “multi-region pattern information acquisition unit” (1304) as feature points. Note that the “moving image frame information acquisition unit”, “non-moving region detection unit”, and “pattern information extraction unit” have already been described in the description of the first embodiment, and thus description thereof is omitted here.

「複数領域パターン情報取得手段」(1304)は、不動領域検出部(1302)で検出した不動領域が複数である場合には、それぞれの不動領域からパターン情報を抽出して、それらの一以上の組み合わせによるパターン情報を取得する機能を有する。「不動領域が複数」とは、時間的あるいは空間的に複数であることを意味する。図14に示すのは、時間的に不動領域が複数ある場合のパターン情報の取得の一例を説明するための図である。この図にあるように、時間mから時間nまでのある不動領域A1の映像情報から、パターン情報として「http://×××.com」が抽出された。そして時間nよりも後の時間oから時間pまでの同じ不動領域A2の映像情報から、今度は「パスワード:123××456」という、前記ホームページアドレスのホームページにログインするためのパスワードを示す情報がパターン情報として抽出された。このような場合、この両者を組み合わせて「http://×××.com パスワード:123××456」というパターン情報を取得する、という具合である。   When there are a plurality of immovable areas detected by the immovable area detection unit (1302), the “multiple area pattern information acquisition unit” (1304) extracts pattern information from each immovable area, and extracts one or more of them. It has a function of acquiring pattern information by combination. “A plurality of immovable regions” means a plurality of temporally or spatially. FIG. 14 is a diagram for explaining an example of acquisition of pattern information when there are a plurality of immovable areas in terms of time. As shown in this figure, “http://xxx.com” is extracted as pattern information from the video information of a certain immobile area A1 from time m to time n. Then, from the video information in the same immovable area A2 from time o to time p after time n, information indicating a password for logging in to the homepage of the homepage address, which is “password: 123xx456”, is now obtained. Extracted as pattern information. In such a case, the pattern information of “http://xxx.com password: 123xxx456” is acquired by combining both of them.

なお、この複数の不動領域から抽出された複数のパターン情報を組み合わせる際には、組み合わせの組を予め定めて保持しているデータベースなどを利用すると良い。図21に示すのは複数のパターン情報の一以上の組み合わせの判断の一例を説明するための図である。この図にあるように、不動領域A1と不動領域A2からそれぞれ「http://×××.com」、「パスワード:123××456」というパターン情報を抽出した。ここで、上記データベースを参照することで「http」の文字列と「パスワード」という文字列は組み合わせの対象となるパターン情報だと判断される、と言う具合である。一方、不動領域A1と不動領域A2からそれぞれ「ホームページアドレス」と「郵便番号」という文字列が抽出された場合、これらは上記データベースから組み合わせの対象ではないと判断されるので組み合わされることはない。   When combining a plurality of pattern information extracted from the plurality of immovable areas, it is preferable to use a database or the like that holds a combination set in advance. FIG. 21 is a diagram for explaining an example of determination of one or more combinations of a plurality of pattern information. As shown in this figure, pattern information of “http://xxx.com” and “password: 123xxx456” was extracted from the stationary area A1 and the stationary area A2, respectively. Here, by referring to the database, it is determined that the character string “http” and the character string “password” are determined as pattern information to be combined. On the other hand, when the character strings “homepage address” and “zip code” are extracted from the non-moving area A1 and the non-moving area A2, respectively, they are determined not to be combined from the database, and thus are not combined.

図15に示すのは、空間的に不動領域が複数ある場合のパターン情報の取得の一例を説明するための図である。この図にあるように、ある動画フレーム情報で抽出された不動領域Aと不動領域Bとでそれぞれパターン情報として「〒111−××××」と「住所:東京都○×区××4−5」というテキスト情報が抽出された。ここで、図21のデータベースからその両者のパターン情報を組み合わせる、と判断できる。したがって、両者を組み合わせ「〒111−×××× 住所:東京都○×区××4−5」というパターン情報を取得することができる、という具合である。もちろん、時間的と空間的の両者の異なる不動領域から抽出されたパターン情報の組み合わせを行っても構わない。   FIG. 15 is a diagram for explaining an example of pattern information acquisition when there are a plurality of spatially immovable regions. As shown in this figure, the pattern information for the immovable area A and the immovable area B extracted with certain moving image frame information is “〒 111-xxx” and “address: Tokyo ○ × ward ×× 4−4”. The text information “5” was extracted. Here, it can be determined from the database of FIG. Therefore, it is possible to obtain pattern information such as “〒 〒 111-xxx address: Tokyo xx ward xx4-5” by combining both. Of course, a combination of pattern information extracted from different immovable regions in both time and space may be performed.

<実施例3の処理の流れ> 図16の(a)と(b)に示すのは、本実施例の動画フレーム解析装置における処理の流れの一例を表すフローチャートである。この図の(a)にあるように、まず、処理の開始命令があったか否かの判定を行う(ステップS1601a)。開始命令があった場合、動画フレーム情報を取得し、所定数動画フレーム情報をしたか判断する(ステップS1602a)。ここで所定数取得していなかった場合、再び動画フレーム情報の取得処理を行う。一方、所定数の動画フレーム情報を取得したと判断された場合、取得した複数の動画フレーム情報のなかで複数の不動領域を検出する(ステップS1603a)。つづいて、検出されたそれぞれの不動領域に示される映像情報からパターン情報を複数抽出する(ステップS1604a)。そして最後に、複数のパターン情報の一以上の組み合わせによるパターン情報を取得する(ステップS1605a)。     <Processing Flow of Third Embodiment> FIGS. 16A and 16B are flowcharts showing an example of a processing flow in the moving picture frame analysis apparatus of the present embodiment. As shown in (a) of this figure, it is first determined whether or not there has been a process start command (step S1601a). If there is a start command, moving image frame information is acquired, and it is determined whether a predetermined number of moving image frame information has been obtained (step S1602a). If the predetermined number has not been acquired, the moving image frame information acquisition process is performed again. On the other hand, if it is determined that a predetermined number of moving image frame information has been acquired, a plurality of immovable areas are detected from the acquired plurality of moving image frame information (step S1603a). Subsequently, a plurality of pattern information is extracted from the video information indicated in each detected immovable region (step S1604a). Finally, pattern information based on one or more combinations of the plurality of pattern information is acquired (step S1605a).

あるいはその他の処理の流れの一例として、図16の(b)に示すように、まず、処理の開始命令があったか否かの判定を行う(ステップS1601b)。開始命令があった場合、動画フレーム情報を複数取得する(ステップS1602b)。つづいて、取得した複数の動画フレーム情報のなかで複数の不動領域が検出されたか否か判断する(ステップS1603b)。ここで、前記ステップS1603bにて不動領域が複数検出されたと判断された場合、検出されたそれぞれの不動領域に示される映像情報からパターン情報を複数抽出する(ステップS1604b)。そして最後に、複数のパターン情報の一以上の組み合わせによるパターン情報を取得する(ステップS1605b)。一方、前記ステップS1603bにて不動領域が検出されなかったと判断された場合、再びステップS1602bの動画フレーム情報の複数取得を開始する。   Alternatively, as an example of another processing flow, as shown in FIG. 16B, first, it is determined whether or not there is a processing start command (step S1601b). If there is a start command, a plurality of pieces of moving picture frame information are acquired (step S1602b). Subsequently, it is determined whether or not a plurality of immovable areas are detected in the obtained plurality of moving image frame information (step S1603b). If it is determined in step S1603b that a plurality of immovable areas are detected, a plurality of pattern information is extracted from the video information indicated in each detected immovable area (step S1604b). Finally, pattern information obtained by one or more combinations of a plurality of pattern information is acquired (step S1605b). On the other hand, if it is determined in step S1603b that a non-moving area has not been detected, a plurality of pieces of moving image frame information acquisition in step S1602b are started again.

<実施例3の効果の簡単な説明> 以上のように、本実施例の動画フレーム解析装置により、時間的または/及び空間的に複数の不動領域に含まれるパターン情報を組み合わせて抽出することが可能になる。     <Simple Explanation of Effects of Third Embodiment> As described above, the moving picture frame analyzing apparatus according to the present embodiment can extract pattern information included in a plurality of immovable regions in time or / and space in combination. It becomes possible.

≪実施例4≫ <実施例4の概念> 図17に示すのは、本実施例における動画フレーム解析装置の概念の一例を説明するための図である。この図にあるように、まず、本実施例の動画フレーム解析装置は、実施例2の動画フレーム解析装置を基本として、動画の映像の中からパターン情報である地震速報の情報を抽出する。その際に本実施例の動画フレーム解析装置は、特徴点としてデジタル放送波である動画フレーム情報に含まれる例えば時刻の情報を取得し、番組表情報などを参照しその時刻にニュースを放送している放送局の電波受信にチューナーを合わせる制御を行うことができる。このように本実施例の動画フレーム情報解析装置は、動画フレーム情報に含まれる例えば時刻情報などのデジタルデータも加味して実行処理を行うことが可能である。   << Embodiment 4 >> <Concept of Embodiment 4> FIG. 17 is a diagram for explaining an example of a concept of a moving picture frame analysis apparatus according to the present embodiment. As shown in this figure, first, the moving picture frame analysis device of the present embodiment extracts the information of the earthquake early warning as the pattern information from the moving picture image based on the moving picture frame analysis device of the second embodiment. At that time, the moving picture frame analysis apparatus according to the present embodiment acquires, for example, time information included in moving picture frame information that is a digital broadcast wave as a feature point, and broadcasts news at that time with reference to program guide information and the like. It is possible to control the tuner to match the radio reception of the broadcasting station. As described above, the moving image frame information analysis apparatus according to the present embodiment can perform the execution process in consideration of digital data such as time information included in the moving image frame information.

<実施例4の構成> 図18に示すのは、本実施例の動画フレーム解析装置における機能ブロックの一例を表す図である。この図にあるように、本実施例の「動画フレーム解析装置」(1800)は、実施例2を基本として、「動画フレーム情報取得部」(1801)と、「不動領域検出部」(1802)と、「パターン情報抽出部」(1803)と、「パターン別実行処理識別子保持部」(1804)と「実行処理識別子取得部」(1805)と、を有する。そして本実施例の動画フレーム解析装置は、特徴点として、「デジタルデータ取得部」(1806)と、「第二実行処理識別子保持部」(1807)と、をさらに有する。なお、「動画フレーム情報取得部」と「不動領域検出部」と「パターン情報抽出部」と「パターン別実行処理識別子保持部」と「実行処理識別子取得部」は、実施例1および2での説明においてすでに説明済みであるので、ここでの説明は省略する。     <Configuration of Embodiment 4> FIG. 18 is a diagram illustrating an example of functional blocks in the moving picture frame analysis apparatus of the present embodiment. As shown in this figure, the “moving picture frame analyzing apparatus” (1800) of the present embodiment is based on the second embodiment, and includes a “moving picture frame information acquiring unit” (1801) and a “non-moving region detecting unit” (1802). A “pattern information extraction unit” (1803), a “pattern-specific execution process identifier holding unit” (1804), and an “execution process identifier acquisition unit” (1805). The moving picture frame analysis apparatus according to the present embodiment further includes a “digital data acquisition unit” (1806) and a “second execution process identifier holding unit” (1807) as feature points. The “moving frame information acquisition unit”, “non-moving region detection unit”, “pattern information extraction unit”, “per-pattern execution processing identifier holding unit”, and “execution processing identifier acquisition unit” are the same as those in the first and second embodiments. Since it has already been explained in the explanation, explanation here is omitted.

「デジタルデータ取得部」(1806)は、デジタルデータを取得する機能を有する。「デジタルデータ」とは、動画フレーム情報が放送により得られる情報である場合にこの放送に含まれる情報であり、例えば時刻を示す情報や、データ放送として含まれている動画の説明情報などが挙げられる。   The “digital data acquisition unit” (1806) has a function of acquiring digital data. “Digital data” is information included in the broadcast when the video frame information is information obtained by broadcasting. For example, information indicating the time, explanation information of the moving image included as the data broadcast, and the like can be given. It is done.

「第二実行処理識別子保持部」(1807)は、デジタルデータ取得部(1806)が取得したデジタルデータと、実行処理識別子取得部(1805)が取得した実行処理識別子とを関連付けて実行すべき第二実行処理識別子を保持する機能を有する。図20に示すのは、デジタルデータ及び実行処理識別子と、第二実行処理識別子との関連付けの一例を説明するための図である。この図にあるように、例えば、デジタルデータである時刻情報と実行処理識別子であるTV受信ソフトの起動の識別子と、それに応じて実行するための処理としてニュース番組へのチャンネル合わせを示す第二実行処理識別子が関連付けられている。これにより、例えばパターン情報として地震速報などを抽出しテレビが自動起動した場合に、そのチャンネルも自動的にニュース番組に合わせることが可能になる。あるいは、第二実行処理識別子での実行処理がチャンネル合わせではなく、該当チャンネルにチューニングされたサブ画面の立ち上げなどであっても良い。   The “second execution process identifier holding unit” (1807) associates the digital data acquired by the digital data acquisition unit (1806) with the execution process identifier acquired by the execution process identifier acquisition unit (1805). It has a function of holding a second execution process identifier. FIG. 20 is a diagram for explaining an example of the association of digital data, an execution process identifier, and a second execution process identifier. As shown in this figure, for example, the second execution indicating the time information as digital data and the TV reception software activation identifier as the execution process identifier, and the channel adjustment to the news program as the process to be executed accordingly. A process identifier is associated. Thereby, for example, when earthquake early warning is extracted as pattern information and the television is automatically started, the channel can be automatically adjusted to the news program. Alternatively, the execution process with the second execution process identifier may not be channel matching, but may be a startup of a sub-screen tuned to the corresponding channel.

あるいは、放送されている番組が温泉宿情報であり、その動画フレーム情報からパターン情報としてその温泉宿の宿泊予約用のホームページのアドレスが抽出された。すると、デジタルデータである温泉宿情報とその宿泊予約ページをWebブラウザで表示するという実行処理識別子と関連付けて、第二実行処理識別子として路線検索を行う処理識別子が保持されている。これによって自動で路線検索を行うことも可能になる。   Alternatively, the program being broadcast is hot spring inn information, and the address of the homepage for reservation of the hot spring inn is extracted as pattern information from the video frame information. Then, the processing identifier for performing a route search is held as the second execution processing identifier in association with the execution processing identifier for displaying the hot spring inn information, which is digital data, and the accommodation reservation page on the Web browser. This also makes it possible to perform route search automatically.

<実施例4の処理の流れ>図19の(a)と(b)に示すのは、本実施例の動画フレーム解析装置における処理の流れの一例を表すフローチャートである。この図の(a)にあるように、まず、処理の開始命令があったか否かの判定を行う(ステップS1901a)。開始命令があった場合、動画フレーム情報を取得し、所定数動画フレーム情報をしたか判断する(ステップS1902a)。ここで所定数取得していなかった場合、再び動画フレーム情報の取得処理を行う。一方、所定数の動画フレーム情報を取得したと判断された場合、取得した複数の動画フレーム情報のなかで不動領域を検出する(ステップS1903a)次に、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS1904a)。つづいて、予め所定のパターン情報と関連付けて保持されている実行処理識別子から、前記ステップS1904aで抽出されたパターン情報に関連付けられている実行処理識別子を取得する(ステップS1905a)。また、デジタルデータを取得する(ステップS1906a)。そして最後に、予めデジタルデータ及び実行処理識別子と関連付けて保持されている第二実行処理識別子から、前記ステップS1905aで取得された実行処理識別子及び前記ステップS1906aで取得されたデジタルデータに関連付けられている第二実行処理識別子を取得する(ステップS1907a)。     <Process Flow of Embodiment 4> FIGS. 19A and 19B are flowcharts showing an example of the process flow in the moving picture frame analyzing apparatus of the present embodiment. As shown in (a) of this figure, first, it is determined whether or not there is a processing start command (step S1901a). If there is a start command, moving image frame information is acquired, and it is determined whether a predetermined number of moving image frame information has been obtained (step S1902a). If the predetermined number has not been acquired, the moving image frame information acquisition process is performed again. On the other hand, if it is determined that a predetermined number of moving picture frame information has been acquired, a non-moving area is detected from the acquired moving picture frame information (step S1903a). Next, from the video information indicated in the detected non-moving area. Pattern information is extracted (step S1904a). Subsequently, the execution process identifier associated with the pattern information extracted in step S1904a is acquired from the execution process identifier previously stored in association with predetermined pattern information (step S1905a). Also, digital data is acquired (step S1906a). Finally, the second execution process identifier stored in advance in association with the digital data and the execution process identifier is associated with the execution process identifier acquired in step S1905a and the digital data acquired in step S1906a. A second execution process identifier is acquired (step S1907a).

あるいはその他の処理の流れの一例として、図19の(b)に示すように、まず、処理の開始命令があったか否かの判定を行う(ステップS1901b)。開始命令があった場合、動画フレーム情報を複数取得する(ステップS1902b)。つづいて、取得した複数の動画フレーム情報のなかで不動領域が検出されたか否か判断する(ステップS1903b)。ここで、前記ステップS1903bにて不動領域が検出されたと判断された場合、検出された不動領域に示される映像情報からパターン情報を抽出する(ステップS1904b)。次に、予め所定のパターン情報と関連付けて保持されている実行処理識別子から、前記ステップS1904bで抽出されたパターン情報に関連付けられている実行処理識別子を取得する(ステップS1905b)。一方、前記ステップS1103bにて不動領域が検出されなかったと判断された場合、再びステップS1102bの動画フレーム情報の複数取得を開始する。また、デジタルデータを取得する(ステップS1906b)。そして最後に、予めデジタルデータ及び実行処理識別子と関連付けて保持されている第二実行処理識別子から、前記ステップS1905bで取得された実行処理識別子及び前記ステップS1906bで取得されたデジタルデータに関連付けられている第二実行処理識別子を取得する(ステップS1907b)。   Alternatively, as an example of the flow of other processing, as shown in FIG. 19B, it is first determined whether or not there is a processing start command (step S1901b). If there is a start command, a plurality of pieces of moving picture frame information are acquired (step S1902b). Subsequently, it is determined whether or not a non-moving area is detected in the acquired plurality of moving image frame information (step S1903b). If it is determined in step S1903b that a non-moving area has been detected, pattern information is extracted from the video information indicated in the detected non-moving area (step S1904b). Next, the execution process identifier associated with the pattern information extracted in step S1904b is acquired from the execution process identifier stored in advance in association with predetermined pattern information (step S1905b). On the other hand, if it is determined in step S1103b that a non-moving region has not been detected, a plurality of moving image frame information acquisitions in step S1102b is started again. Also, digital data is acquired (step S1906b). Finally, the second execution process identifier stored in advance in association with the digital data and the execution process identifier is associated with the execution process identifier acquired in step S1905b and the digital data acquired in step S1906b. A second execution process identifier is acquired (step S1907b).

<実施例4の効果の簡単な説明> 以上のように、本実施例の動画フレーム解析装置により、デジタル放送波に含まれるデジタルデータも加味してアプリケーションの起動などの処理を自動的に行うことが可能になる。     <Simple Explanation of Effects of Embodiment 4> As described above, the moving image frame analysis apparatus of the present embodiment automatically performs processing such as application activation in consideration of digital data included in the digital broadcast wave. Is possible.

実施例1における動画フレーム解析装置の概念の一例を説明するための図The figure for demonstrating an example of the concept of the moving image frame analyzer in Example 1. FIG. 実施例1の動画フレーム情報解析装置における機能ブロックの一例を表す図The figure showing an example of the functional block in the moving image frame information analysis apparatus of Example 1. 実施例1の動画フレーム情報解析装置の動画フレーム情報取得部で取得される動画フレーム情報によって表示されるフレームの一例を説明するための図The figure for demonstrating an example of the flame | frame displayed by the moving image frame information acquired in the moving image frame information acquisition part of the moving image frame information analysis apparatus of Example 1. FIG. 実施例1の動画フレーム情報解析装置の不動領域検出部における不動領域の検出の一例を説明するための図The figure for demonstrating an example of the detection of the fixed area | region in the fixed area | region detection part of the moving image frame information analysis apparatus of Example 1. FIG. 実施例1の動画フレーム情報解析装置のパターン情報抽出部において光学式文字読取装置のアルゴリズムを利用したパターン情報の抽出の一例を説明するための図The figure for demonstrating an example of the extraction of the pattern information using the algorithm of an optical character reader in the pattern information extraction part of the moving image frame information analysis apparatus of Example 1 実施例1の動画フレーム情報解析装置のパターン情報抽出部でのパターン情報の抽出の別の一例を説明するための図The figure for demonstrating another example of the extraction of the pattern information in the pattern information extraction part of the moving image frame information analysis apparatus of Example 1 実施例1の動画フレーム情報解析装置における処理の流れの一例を表すフローチャート7 is a flowchart illustrating an example of a process flow in the moving image frame information analysis apparatus according to the first embodiment. 実施例2における動画フレーム解析装置の概念の一例を説明するための図The figure for demonstrating an example of the concept of the moving image frame analyzer in Example 2. FIG. 実施例2の動画フレーム情報解析装置における機能ブロックの一例を表す図The figure showing an example of the functional block in the moving image frame information analysis apparatus of Example 2. 実施例2の動画フレーム情報解析装置のパターン別実行処理識別子保持部でのパターン情報と、実行処理識別子との関連付けを説明するための図The figure for demonstrating the correlation with the pattern information in the execution process identifier holding part classified by pattern of the moving image frame information analysis apparatus of Example 2, and an execution process identifier 実施例2の動画フレーム情報解析装置における処理の流れの一例を表すフローチャート7 is a flowchart illustrating an example of a processing flow in the moving image frame information analysis apparatus according to the second embodiment. 実施例3における動画フレーム解析装置の概念の一例を説明するための図The figure for demonstrating an example of the concept of the moving image frame analyzer in Example 3. FIG. 実施例3の動画フレーム情報解析装置における機能ブロックの一例を表す図The figure showing an example of the functional block in the moving image frame information analysis apparatus of Example 3. 実施例3の動画フレーム情報解析装置の複数領域パターン情報取得手段での時間的に不動領域が複数ある場合のパターン情報の取得の一例を説明するための図The figure for demonstrating an example of acquisition of the pattern information in case the multiple area | region pattern information acquisition means of the moving image frame information analysis apparatus of Example 3 has a plurality of non-moving areas in time. 実施例3の動画フレーム情報解析装置の複数領域パターン情報取得手段での空間的に不動領域が複数ある場合のパターン情報の取得の一例を説明するための図The figure for demonstrating an example of acquisition of the pattern information in case the multiple area | region pattern information acquisition means of the moving image frame information analysis apparatus of Example 3 has two or more immovable area | regions spatially. 実施例3の動画フレーム情報解析装置における処理の流れの一例を表すフローチャート10 is a flowchart illustrating an example of a processing flow in the moving image frame information analysis apparatus according to the third embodiment. 実施例4における動画フレーム解析装置の概念の一例を説明するための図The figure for demonstrating an example of the concept of the moving image frame analyzer in Example 4. FIG. 実施例4の動画フレーム情報解析装置における機能ブロックの一例を表す図The figure showing an example of the functional block in the moving image frame information analysis apparatus of Example 4. 実施例4の動画フレーム情報解析装置における処理の流れの一例を表すフローチャート10 is a flowchart illustrating an example of a processing flow in the moving image frame information analysis apparatus according to the fourth embodiment. 実施例4の動画フレーム情報解析装置の第二実行処理識別子保持部でのデジタルデータ及び実行処理識別子と、第二実行処理識別子との関連付けの一例を説明するための図The figure for demonstrating an example of correlation with the 2nd execution process identifier and the digital data and the execution process identifier in the 2nd execution process identifier holding | maintenance part of the moving image frame information analysis apparatus of Example 4 実施例3の動画フレーム情報解析装置の複数領域パターン情報取得手段における組み合わせの判断の一例を説明するための図The figure for demonstrating an example of the judgment of the combination in the multiple area | region pattern information acquisition means of the moving image frame information analysis apparatus of Example 3. FIG.

符号の説明Explanation of symbols

0200 動画フレーム情報解析装置
0201 動画フレーム情報取得部
0202 不動領域検出部
0203 パターン情報抽出部
0904 パターン別実行処理識別子保持部
0905 実行処理識別子取得部
1806 デジタルデータ取得部
1807 第二実行処理識別子保持部
0200 Moving picture frame information analysis device 0201 Moving picture frame information acquisition unit 0202 Non-moving region detection unit 0203 Pattern information extraction unit 0904 Execution processing identifier holding unit by pattern 0905 Execution processing identifier acquisition unit 1806 Digital data acquisition unit 1807 Second execution processing identifier holding unit

Claims (9)

動画フレーム情報を複数取得する動画フレーム情報取得部と、
前記複数の動画フレーム情報のなかで動きの少ない領域である不動領域を検出する不動領域検出部と、
前記不動領域検出部により検出された不動領域に示される映像情報からパターン情報を抽出するパターン情報抽出部と、
を有する動画フレーム情報解析装置。
A video frame information acquisition unit for acquiring a plurality of video frame information;
A non-moving region detection unit that detects a non-moving region that is a region with less movement among the plurality of moving image frame information;
A pattern information extracting unit that extracts pattern information from video information indicated in the immovable region detected by the immovable region detecting unit;
A moving picture frame information analyzing apparatus.
所定のパターン情報と、実行処理識別子とを関連付けて保持するパターン別実行処理識別子保持部と、
前記パターン情報抽出部で抽出されたパターン情報に関連付けられている実行処理識別子を前記パターン別実行処理識別子保持部から取得する実行処理識別子取得部と、
を有する請求項1に記載の動画フレーム情報解析装置。
A pattern-specific execution process identifier holding unit that holds predetermined pattern information and an execution process identifier in association with each other;
An execution process identifier acquisition unit that acquires an execution process identifier associated with the pattern information extracted by the pattern information extraction unit from the pattern-specific execution process identifier holding unit;
The moving picture frame information analysis apparatus according to claim 1, comprising:
前記パターン情報抽出部は、前記不動領域検出部にて検出された不動領域が複数である場合には、それぞれの不動領域からパターン情報を抽出して、それらの一以上の組み合わせによるパターン情報を取得する複数領域パターン情報取得手段を有する請求項1又は2に記載の動画フレーム情報解析装置。   When there are a plurality of immovable areas detected by the immovable area detecting section, the pattern information extracting unit extracts pattern information from each immovable area and obtains pattern information based on one or more combinations thereof. The moving image frame information analysis apparatus according to claim 1, further comprising a plurality of area pattern information acquisition means. 前記動画フレーム情報は、放送により得られる情報であり、さらにこの放送に付属するデジタルデータ情報が含まれている場合に、前記デジタルデータを取得するデジタルデータ取得部を有し、
前記デジタルデータ取得部が取得したデジタルデータと、前記実行処理識別子取得部が取得した実行処理識別子とを、関連付けて実行すべき処理を識別する第二実行処理識別子を保持する第二実行処理識別子保持部を有する請求項2に記載の動画フレーム情報解析装置。
The video frame information is information obtained by broadcasting, and further includes a digital data acquisition unit that acquires the digital data when digital data information attached to the broadcasting is included,
Second execution process identifier holding for holding a second execution process identifier for identifying a process to be executed in association with the digital data acquired by the digital data acquisition unit and the execution process identifier acquired by the execution process identifier acquisition unit The moving image frame information analysis device according to claim 2, further comprising a unit.
前記パターン情報は、テキスト情報であることを特徴とする請求項1から4のいずれか一に記載の動画フレーム情報解析装置。   5. The moving picture frame information analysis apparatus according to claim 1, wherein the pattern information is text information. 前記パターン情報は、バーコード情報であることを特徴とする請求項1から4のいずれか一に記載の動画フレーム情報解析装置。   5. The moving image frame information analysis apparatus according to claim 1, wherein the pattern information is barcode information. 前記パターン情報は、画像情報であることを特徴とする請求項1から4のいずれか一に記載の動画フレーム情報解析装置。   5. The moving image frame information analysis apparatus according to claim 1, wherein the pattern information is image information. 動画フレーム情報を複数取得する動画フレーム情報取得ステップと、
前記動画フレーム情報取得ステップにて取得した複数の動画フレーム情報のなかで動きの少ない領域である不動領域を検出する不動領域検出ステップと、
前記不動領域検出ステップにより検出された不動領域に示される映像情報からパターン情報を抽出するパターン情報抽出ステップと、
を有する動画フレーム情報解析方法。
A video frame information acquisition step for acquiring a plurality of video frame information;
A non-moving region detecting step for detecting a non-moving region that is a region with less motion among the plurality of moving image frame information acquired in the moving image frame information acquiring step;
A pattern information extracting step for extracting pattern information from the video information shown in the immovable area detected by the immovable area detecting step;
A method for analyzing moving picture frame information.
動画フレーム情報を複数取得する動画フレーム情報取得ステップと、
前記動画フレーム情報取得ステップにて取得した複数の動画フレーム情報のなかで動きの少ない領域である不動領域を検出する不動領域検出ステップと、
前記不動領域検出ステップにより検出された不動領域に示される映像情報からパターン情報を抽出するパターン情報抽出ステップと、
予め所定のパターン情報と関連付けて保持されている実行処理識別子から、前記パターン情報抽出ステップで抽出されたパターン情報に関連付けられている実行処理識別子を取得する実行処理識別子取得ステップと、
を有する動画フレーム情報解析方法。
A video frame information acquisition step for acquiring a plurality of video frame information;
A non-moving region detecting step for detecting a non-moving region that is a region with less motion among the plurality of moving image frame information acquired in the moving image frame information acquiring step;
A pattern information extracting step for extracting pattern information from the video information shown in the immovable area detected by the immovable area detecting step;
An execution process identifier acquiring step for acquiring an execution process identifier associated with the pattern information extracted in the pattern information extraction step from an execution process identifier stored in advance in association with predetermined pattern information;
A method for analyzing moving picture frame information.
JP2004341293A 2004-11-25 2004-11-25 Animation frame analyzer Pending JP2006154976A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004341293A JP2006154976A (en) 2004-11-25 2004-11-25 Animation frame analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004341293A JP2006154976A (en) 2004-11-25 2004-11-25 Animation frame analyzer

Publications (1)

Publication Number Publication Date
JP2006154976A true JP2006154976A (en) 2006-06-15

Family

ID=36633243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004341293A Pending JP2006154976A (en) 2004-11-25 2004-11-25 Animation frame analyzer

Country Status (1)

Country Link
JP (1) JP2006154976A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044658A (en) * 2007-08-10 2009-02-26 Fujitsu Ltd Keyword extraction method
JP2012244200A (en) * 2011-05-16 2012-12-10 Mitsubishi Electric Corp Content reproduction processor and content reproduction system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2575582B2 (en) * 1992-04-23 1997-01-29 インターナショナル・ビジネス・マシーンズ・コーポレイション Method and system for establishing communication utilizing visually recognizable data in a broadcast video signal
JP2000182053A (en) * 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
JP2001167026A (en) * 1999-12-07 2001-06-22 Sharp Corp Broadcasting receiver
JP2001285716A (en) * 2000-01-24 2001-10-12 Toshiba Corp Telop information processor and telop information display device
JP2002230478A (en) * 2001-02-07 2002-08-16 Toyo Commun Equip Co Ltd Method and device for reading url
JP2002279433A (en) * 2001-03-22 2002-09-27 Hitachi Ltd Method and device for retrieving character in video
JP3504874B2 (en) * 1998-12-22 2004-03-08 日本電信電話株式会社 Character area determination method and apparatus, and recording medium
JP2004234646A (en) * 2003-01-06 2004-08-19 Hiroshi Sato Content relevant information providing device, content relevant information providing method, content relevant information providing system, portable terminal and information processing system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2575582B2 (en) * 1992-04-23 1997-01-29 インターナショナル・ビジネス・マシーンズ・コーポレイション Method and system for establishing communication utilizing visually recognizable data in a broadcast video signal
JP2000182053A (en) * 1998-12-15 2000-06-30 Toshiba Corp Method and device for processing video and recording medium in which a video processing procedure is recorded
JP3504874B2 (en) * 1998-12-22 2004-03-08 日本電信電話株式会社 Character area determination method and apparatus, and recording medium
JP2001167026A (en) * 1999-12-07 2001-06-22 Sharp Corp Broadcasting receiver
JP2001285716A (en) * 2000-01-24 2001-10-12 Toshiba Corp Telop information processor and telop information display device
JP2002230478A (en) * 2001-02-07 2002-08-16 Toyo Commun Equip Co Ltd Method and device for reading url
JP2002279433A (en) * 2001-03-22 2002-09-27 Hitachi Ltd Method and device for retrieving character in video
JP2004234646A (en) * 2003-01-06 2004-08-19 Hiroshi Sato Content relevant information providing device, content relevant information providing method, content relevant information providing system, portable terminal and information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044658A (en) * 2007-08-10 2009-02-26 Fujitsu Ltd Keyword extraction method
JP2012244200A (en) * 2011-05-16 2012-12-10 Mitsubishi Electric Corp Content reproduction processor and content reproduction system

Similar Documents

Publication Publication Date Title
EP2109313B1 (en) Television receiver and method
US8255825B2 (en) Content aware adaptive display
CN111078070B (en) PPT video barrage play control method, device, terminal and medium
US20120133650A1 (en) Method and apparatus for providing dictionary function in portable terminal
US8416264B2 (en) Method and device for optimizing an image displayed on a screen
WO2012050029A1 (en) Electronic equipment and method for determining language to be displayed thereon
US20240048796A1 (en) Integrating overlaid digital content into displayed data via graphics processing circuitry
JP2009295016A (en) Control method for information display, display control program and information display
JP2005354333A (en) Image reproducer and program
US20220351425A1 (en) Integrating overlaid digital content into data via processing circuitry using an audio buffer
TWI223161B (en) Locally enhancing display information
JP2006041884A (en) Information processing apparatus and method therefor, recording medium and program
JP2009295012A (en) Control method for information display, display control program and information display
JP2006154976A (en) Animation frame analyzer
US11481933B1 (en) Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
JP2016119552A (en) Video contents processing device, video contents processing method and program
US20060062552A1 (en) System and method of adapting sub-picture data for being displayed on mini-screens
JP2005080020A (en) Mobile information device
AU2011338800B2 (en) Video stream presentation system and protocol
US20170201710A1 (en) Display apparatus and operating method thereof
US20220343571A1 (en) Information processing system, information processing apparatus, and method of processing information
US20230073093A1 (en) Image processing apparatus, image processing method, and program
Ostkamp et al. Using mobile devices to enable visual multiplexing on public displays: three approaches compared
CN111079051B (en) Method and device for playing display content
AU2005287456B9 (en) System and method of adapting sub-picture data for being displayed on mini-screens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100615