JP2004363729A - Image information recording apparatus and method, and image information searching apparatus and method - Google Patents

Image information recording apparatus and method, and image information searching apparatus and method Download PDF

Info

Publication number
JP2004363729A
JP2004363729A JP2003157192A JP2003157192A JP2004363729A JP 2004363729 A JP2004363729 A JP 2004363729A JP 2003157192 A JP2003157192 A JP 2003157192A JP 2003157192 A JP2003157192 A JP 2003157192A JP 2004363729 A JP2004363729 A JP 2004363729A
Authority
JP
Japan
Prior art keywords
information
search
time
unit
recording medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003157192A
Other languages
Japanese (ja)
Other versions
JP2004363729A5 (en
Inventor
Osamu Goto
修 後藤
Masaki Kitahashi
昌樹 北橋
Miki Shimizu
美樹 清水
Satoshi Yabuta
聡 藪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003157192A priority Critical patent/JP2004363729A/en
Publication of JP2004363729A publication Critical patent/JP2004363729A/en
Publication of JP2004363729A5 publication Critical patent/JP2004363729A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily search a desired part of a video signal recorded by using character information. <P>SOLUTION: A designated searching character storage section 0101 stores a searching character cha 1 designated externally (by a user). Then, a character information detection section 0102 detects character information cha 2 multiplexed on a television signal. When the searching character cha 1 is coincident with the character information cha 2 through the comparison by a character information comparison section 0103, a recording medium 0105 (DVD-ROM) records an entry point (character EP) used for character searching. A detection section 0106 detects the character EP from the recording medium 0105. A reproduction section 0107 reproduces the recorded television signal on the basis of a time denoted by the character EP. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は画像情報記録装置・方法ならびに画像情報検索装置・方法に関し、さらに詳しくは、記録媒体に記録されたデータを再生するときに所望の部分から再生を行うことを可能とする装置および方法に関する。
【0002】
【従来の技術】
耳の不自由なものが放送番組やビデオなどを楽しめるように、俳優のせりふやナレーション、効果音などをそのまま字幕として表示するクローズドキャプション(以降 CCと記述)と呼ばれる字幕表示技術が存在する。この技術は字幕表示のための文字を映像信号に重畳することにより、映像に同期した字幕を表示することを可能とする。また、この文字情報は、映像信号垂直帰線期間の21ラインに重畳している。これらの文字情報を画面上に表示させるためには、映像信号に多重させる文字情報をデコードし、画面上に表示させるデコーダが必要であり、文字を表示するか否かは視聴者の選択に任されている。
【0003】
このような映像信号に多重された文字情報を用いて、所望の映像信号を記録する、もしくは記録媒体に記録した映像信号の中から所望の部分を検索する技術が構築されている。
【0004】
【特許文献1】特開平7−79423号公報
【0005】
【発明が解決しようとする課題】
ところが、以上のような技術を実現する場合、特許文献1の図1のように、コンピュータ、外部記憶装置、キーボード、マウス等を用いた大規模なシステムを用いて、記録装置に記録されたデータの管理情報を構築する必要がある。さらに、そのような装置を用いた場合、検索したい文字がマッチした場面(検索したい文字と映像信号に多重されている文字が一致する場面)からユーザが見たい場面を探すときに、ユーザは1つ1つ場面を確かめなければならないので検索に手間がかかる。また、文字がマッチした位置はユーザの見たい頭だしのポイントになっているとは限らない。
【0006】
そこで、この発明の目的は、DVD−VR規格にてユーザの設定した文字により記録媒体に記録したデータの中から所望の部分の検索を可能とする画像情報記録装置および方法ならびに画像情報検索装置および方法を提供することである。
【0007】
また、この画像情報記録装置および方法ならびに画像情報検索装置および方法は、ユーザの設定した文字が複数箇所マッチした場合に検索個所に優先度を付けるための助けとなる情報を付加し、さらにはマッチした位置を見るために適当な切れ目から再生を開始することができる。
【0008】
【課題を解決するための手段】
この発明の1つの局面に従うと、画像情報記録装置は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する装置である。上記装置は、文字情報検出部と、文字情報比較部と、検索情報書き込み部とを備える。文字情報検出部は、映像信号に含まれている文字情報を検出する。文字情報比較部は、文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータ(あらかじめユーザから指定された文字情報など)とが一致するか否かを判断する。検索情報書き込み部は、文字情報比較部で一致すると判断されたとき記録媒体に検索情報を書き込む。検索情報は、記録媒体に記録された映像信号における所定の時刻を示す。所定の時刻とは、文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータ(あらかじめユーザから指定された文字情報など)とが一致する時刻のことである。
【0009】
上記画像情報記録装置では、文字情報比較部は、あらかじめ検索パラメータ(ユーザより指定された文字情報など)が設定されている。文字情報比較部は、検索パラメータと映像信号に含まれる文字情報とが一致したときに検索情報を記録媒体に記録する。検索情報は、文字情報が一致したときの時刻が格納されている。これにより、データ検索の際に、検索情報を検索すれば検索情報に含まれた時刻を参照して記録媒体に記録された映像信号の中からユーザに指定された文字情報を含む部分を検索することができる。つまり、ユーザが設定した文字によってデータの検索を行うことが可能となる。また、所定の規格(例えばDVD−VR規格など)に基づいて記録することによって、従来の技術のような大規模なシステムを用いて管理情報を構築する必要がなく、容易に検索時に用いる情報を付加することができる。
【0010】
この発明のもう1つの局面に従うと、画像情報検索装置は、上記画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記装置は、検出部と、データ検索部とを備える。検出部は、記録媒体に記録されたデータの中から検索情報を検出する。データ検索部は、記録媒体に記録された映像信号の中から検出部で検出された検索情報が示す時刻に対応する部分を検索する。
【0011】
上記画像情報検索装置では、データ検索部は、記録された映像信号の中から検索情報に含まれる時刻に対応する部分を検索する。検索情報に含まれる時刻は、上記文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータ(あらかじめユーザから指定された文字情報など)とが一致する時刻を示す。これにより、検索情報を検索することによって記録媒体に記録された映像信号の中からユーザに指定された文字情報を含む部分を検索することができる。つまり、ユーザが設定した文字によってデータの検索を行うことが可能となる。また、所定の規格(例えばDVD−VR規格など)に基づいて記録媒体にデータが記録されているので、従来の技術のような大規模なシステムを用いて管理情報を構築する必要がなく、記録されたデータの中から所望の部分を容易に検索することができる。
【0012】
好ましくは、上記画像情報検索装置は、上記画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記装置は、検出部と、サムネイル作成部と、データ検索部とを備える。検出部は、記録媒体に記録されたデータの中から検索情報を検出する。サムネイル作成部は、記録媒体に記録された映像信号より検出部で検出された検索情報に対応するサムネイルを作成する。データ検索部は、記録媒体に記録された映像信号の中から検出部で検出された検索情報に対応する部分を検索する。
【0013】
上記画像情報検索装置では、サムネイル作成部は、記録媒体に記録された映像信号より検索情報に対応するサムネイルを作成する。これにより、サムネイルを参照すれば、検索情報が含まれている画像を知ることができその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0014】
好ましくは、上記画像情報検索装置は、上記画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記装置は、検出部と、発生頻度作成部と、データ検出部とを備える。検出部は、記録媒体に記録されたデータの中から検索情報を検出する。発生頻度作成部は、所定の時間内に上記文字情報比較部で一致すると判断された回数(発生頻度)を求める。データ検索部は、記録媒体に記録された映像信号の中から検出部で検出された検索情報が示す時刻に対応する部分を検索する。
【0015】
上記画像情報検索装置では、発生頻度作成部は、所定の時間内に文字情報比較部で一致すると判断された回数(発生頻度)を求める。これにより、発生頻度を参照すれば、検索情報がどのように存在するのか知ることができその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0016】
好ましくは、上記発生頻度作成部は、時間間隔作成部を、最大間隔選択部と、発生回数作成部とを含む。時間間隔作成部は、上記検索情報が示す時刻を参照して文字情報比較部で一致すると判断された時刻の時間間隔を求める。例えば、1回目に一致したときの時刻と2回目に一致したときの時刻との時間間隔を求める。最大間隔選択部は、時間間隔作成部で求められた時間間隔の中で最大の時間間隔を選択する。発生回数作成部は、最大間隔選択部で選択された最大の時間間隔内に存在する上記検索情報の数を求める。
【0017】
上記画像情報検索装置では、検索情報は、文字情報比較部で一致すると判断されたときに記録媒体に記録される。つまり、検索情報の数は、文字情報比較部で一致した回数を示す。上記発生頻度作成部は、まず文字情報比較部で一致すると判断された時刻の時間間隔を求め、次にその最大の時間間隔内に存在する検索情報の数を求める。このように、上記発生頻度作成部は、所定の時間内に文字情報比較部で一致すると判断された回数(発生頻度)を求める。これにより、発生頻度を参照すれば、検索情報がどのように存在するのか知ることができその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0018】
好ましくは、上記発生頻度作成部は、上記発生頻度の時間的分布を求める。
【0019】
上記画像情報検索装置では、発生頻度作成部は、検索情報が時間的にどのように分布して発生しているのかを求める。検索情報が存在する場所は、文字情報比較部で文字情報が一致した場所である。これにより、発生頻度の時間的分布を参照すればどの時間帯に文字情報の一致が頻繁に発生しているのかがわかりその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0020】
好ましくは、上記画像情報記録装置は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する装置である。上記装置は、文章終端検出部と、文字情報記憶部と、文章情報書き込み部とをさらに備える。文章終端検出部は、文字情報検出部で検出された文字情報より文章の終端を検出する。文字情報記憶部は、文章終端検出部で文章の終端が検出されるまで文字情報検出部で検出された文字情報を記憶する。文章情報書き込み部は、文字情報比較部で一致すると判断されたとき文字情報記憶部で記憶された文字情報を記録媒体に記録する。上記検索情報書き込み部は、文章情報書き込み部で記録媒体に記録された文字情報が格納されている領域にリンクするための情報(リンク情報)を検索情報に書き込み、その検索情報を記録媒体に記録する。
【0021】
上記画像情報記録装置では、文字情報記録部は、文章終端検出部で文章の終端を検出されるまで文字情報検出部で検出された文字情報を記憶する。つまり、この文字情報は、文字情報検出部で検出された文字情報を含んだ文章である。また、検索情報は、文字情報比較部で文字情報が一致したときの時刻とリンク情報とが書き込まれている。よって、検索情報を参照すれば文字情報(文章)が格納されている領域にリンクすることができる。また、記録媒体に記録された文字情報(文章)より、OSDを作成することができる。これにより、データ検索のときOSDを参照すれば、文字情報がどのように含まれているか知ることができその検索情報に優先度(その文字情報が含まれる部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0022】
好ましくは、上記画像情報検索装置は、上記画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報,文字情報)を処理する装置である。上記装置は、検出部と、OSD作成部と、データ検索部とを備える。検出部は、記録媒体に記録されたデータの中から検索情報を検出する。OSD作成部は、検出部で検出された検索データに書き込まれたリンク情報を参照して記録媒体に記録された文字情報よりOSDを作成する。データ検索部は、記録媒体に記録された映像信号の中から検出部で検出された検索情報が示す時刻に対応する部分を検索する。
【0023】
上記画像情報検索装置では、OSD作成部は、記録媒体に記録された文字情報より検索情報に対応したOSDを作成する。この文字情報は、文字情報検出部で検出された文字情報を含む文章である。これにより、OSDを参照すれば、文字情報がどのように含まれているか知ることができその検索情報に優先度(その文字情報が含まれる部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0024】
好ましくは、上記画像情報記録装置は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する装置である。上記装置は、輝度比較部と、カウント部と、シーン変化判断部と、時刻記憶部と、シーン変化時刻書き込み部とをさらに備える。輝度比較部は、映像信号の時間的に前後する2つのフレーム間における各輝度データの時間的変化を求める。カウント部は、輝度比較部で求めた輝度データの時間的変化が第1の値よりも大きいと示された画素の数をカウントする。シーン変化判断部は、カウント部でカウントした画素の数が第2の値よりも多いか否かを判断する。時刻記憶部は、シーン変化判断部で第2の値よりも多いと判断されたときの時刻を記憶する。シーン時刻書き込み部は、文字情報比較部で一致すると判断されたときに時刻記憶部に記憶された時刻を記録媒体に記録する。上記検索情報書き込み部は、シーン変化時刻書き込み部で記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を上記検索情報に書き込む。
【0025】
上記画像情報記録装置では、データ検索のとき検索情報に書き込まれたリンク情報を参照すればその検索情報に対応したシーン変化の時刻を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中からシーン変化(輝度データが時間的に大きく変化した画素の数が多い場合)の時刻に対応する部分を検索してその部分から再生することで、適当な映像の切れ目から再生を開始することができる。
【0026】
好ましくは、上記画像情報記録装置は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する装置である。上記映像信号は音声信号を含む。上記装置は、レベル検出部と、レベル比較部と、無音期間計測部と、話題変化判断部と、時刻記憶部と、話題変化時刻書き込み部とを備える。レベル検出部は、映像信号より音声のレベルを検出する。レベル比較部は、レベル検出部で検出された音声のレベルが第1の値よりも大きいか否かを判断する。無音期間計測部は、レベル比較部によって検出された音声のレベルが第1の値以下である時間を計測する。話題変化判断部は、無音期間計測部で計測した時間が第2の値よりも長いか否かを判断する。時刻記憶部は、話題変化判断部で第2の値よりも長いと判断されたときレベル比較部で第1の値よりも大きいと判断された時刻を記憶する。話題変化時刻書き込み部は、文字情報比較部で一致すると判断されたとき時刻記憶部で記憶された時刻を記録媒体に記録する。上記検索情報書き込み部は、話題変化時刻書き込み部で記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を上記検索情報に書き込む。
【0027】
上記画像情報記録装置では、データ検索のとき検索情報に書き込まれたリンク情報を参照すればその検索情報に対応した話題変化の時刻を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中から話題変化(無音と判断される期間が長い場合)の時刻に対応する部分を検索してその部分から再生することで、適当な音声の切れ目から再生を開始することができる。
【0028】
好ましくは、上記画像情報検索装置は、上記画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報,時刻)を処理する。上記装置は、検出部と、時刻検出部と、データ検索部とを備える。検出部は、記録媒体に記録されたデータの中から検索情報を検出する。時刻検索部は、検索部で検索された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する記録媒体に記録された時刻を検索する。データ検索部は、記録媒体に記録された映像信号の中から時刻検索部で検索された時刻に対応する部分を検索する。
【0029】
上記画像情報検索装置では、検索情報に書き込まれたリンク情報を参照することによっその検索情報に対応したシーン変化の時刻(または話題変化の時刻)を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中からシーン変化の時刻(または話題変化の時刻)に対応する部分を検索してその部分から再生することで、適当な映像(または音声)の切れ目から再生を開始することができる。
【0030】
好ましくは、上記画像情報検索装置はさらに、時間間隔判断部を備える。上記検出部は、記録媒体に記録されたデータの中から検索情報を検出する。上記時刻検索部は、検索部で検索された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する記録媒体に記録された時刻を検索する。時間間隔判断部は、検出部で検出された検索情報が示す時刻と時刻検索部で検索された時刻との時間間隔が所定の値よりも長いか否かを判断する。上記データ検索部は、時間間隔判断部で所定の値よりも長いと判断されたとき記録媒体に記録された映像信号の中から検出部で検出された時刻に対応する部分を検索する。
【0031】
上述のように、上記時刻検索部で検出された時刻に対応する部分を検索してその部分から再生をすれば適当な映像(または音声)の切れ目から再生を開始することができる。しかし、検索情報が示す時刻と時刻検索部で検索された時刻との時間間隔があまりにも長すぎると、本来所望する部分より離れた部分から再生することになる。
【0032】
上記画像情報検索装置では、データ検索部は、検出部で検出された検索情報が示す時刻と時刻検索部で検索された時刻との時間間隔が所定の値よりも長いとき、記録媒体に記録された映像信号の中から検出部で検出された時刻に対応する部分を検索する。これにより、上述の問題が解決され本来所望する部分から再生を開始することができる。
【0033】
好ましくは、上記検索情報書き込み部は、検索情報に文字検索のために記録したを示すデータを書き込む。つまり、検索情報書き込み部は、「この検索情報は文字検索のために記録されたものである」というデータを含む検索情報を記録媒体に記録する。
【0034】
検索情報は、文字検索のために用いるだけでなく他の用途(ユーザ操作によるもの,CMカットのための音声属性の切り替わり)に用いられるものが存在する。この場合、他の用途に用いる検索情報を検出部によって検出され、データ検索の際に利用されてると、本来所望する部分を検索することが困難になる。
【0035】
上記画像情報記録装置では、検索情報書き込み部は、検索情報に文字検索のために記録したことを示すデータを書き込む。これにより、データ検索のときこのデータを参照することによって、文字検索のために用いる検索情報を識別することができユーザが設定した文字によってデータを検索を行うことが可能となる。
【0036】
好ましくは、上記検出部は、記録媒体に記録されたデータの中から検索情報を検出するときその検索情報が文字検索のための検索情報であるか否かを判断する。
【0037】
上記画像情報検索装置では、検出部は、検索情報に書き込まれたデータ(文字検索のために記録されたことを示すデータ)を参照して検索情報が文字検索のための検索情報であるか否かを判断する。検出部は、文字検索のための検索情報であると判断したとき検出された検索情報をデータ検索部(または時刻検索部)へ出力する。これにより、検索情報に書き込まれたデータを参照することによって、文字検索のために用いる検索情報を識別することができユーザが設定した文字によってデータの検索を行うことが可能となる。
【0038】
この発明のさらにもう1つの局面に従うと、画像情報記録方法は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する方法である。上記方法は、文字情報検出ステップと、文字情報比較ステップと、検索情報書き込みステップとを備える。文字情報検出ステップは、映像信号に含まれている文字情報を検出する。文字情報比較ステップは、文字情報検出ステップで検出された文字情報とあらかじめ設定された検索パラメータ(ユーザから指定された文字情報など)とが一致するか否かを判断する。検索情報書き込みステップは、文字情報比較ステップで一致すると判断されたとき記録媒体に検索情報を書き込む。検索情報は、記録媒体に記録された映像信号における所定の時刻を示す。所定の時刻とは、文字情報検出ステップで検出された文字情報とあらかじめ設定された検索パラメータ(あらかじめユーザから指定された文字情報など)とが一致する時刻のことである。
【0039】
上記画像情報記録方法では、文字情報比較ステップは、あらかじめ検索パラメータ(ユーザから指定された文字情報など)が設定されている。文字情報比較ステップは、検索パラメータと映像信号に含まれる文字情報とが一致したときに検索情報を記録媒体に記録する。検索情報は、文字情報が一致したときの時刻が格納されている。これにより、データ検索の際に、検索情報を検索すれば記録媒体に記録された映像信号の中からユーザが指定する文字情報を含む部分を検索することができる。つまり、ユーザが設定した文字によってデータの検索を行うことが可能となる。
【0040】
この発明のさらにもう1つの局面に従うと、画像情報検索方法は、上記画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記方法は、検出ステップと、データ検索ステップとを備える。検出ステップは、記録媒体に記録されたデータの中から検索情報を検出する。データ検索ステップは、記録媒体に記録された映像信号の中から検出ステップで検出された検索情報が示す時刻に対応する部分を検索する。
【0041】
上記画像情報検索方法では、データ検索ステップは、記録された映像信号の中から検索情報に含まれる時刻に対応する部分を検索する。検索情報に含まれる時刻は、上記文字情報検出ステップで検出された文字情報とあらかじめ設定された検索パラメータ(ユーザから指定された文字情報など)とが一致する時刻を示す。これにより、検索情報を検索することによって記録媒体に記録された映像信号の中からユーザに指定された文字情報を含む部分を検索することができる。つまり、ユーザが設定した文字によってデータの検索を行うことが可能となる。
【0042】
好ましくは、上記画像情報検索方法は、上記画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記方法は、検出ステップと、サムネイル作成ステップと、サムネイル表示ステップと、データ検索ステップとを備える。検出ステップは、記録媒体に記録されたデータの中から検索情報を検出する。サムネイル作成ステップは、記録媒体に記録された映像信号より検出ステップで検出された検索情報に対応するサムネイルを作成する。サムネイル表示ステップは、サムネイル作成ステップで作成されたサムネイルを表示装置に表示する。データ検索ステップは、記録媒体に記録された映像信号の中から検出ステップで検出された検索情報に対応する部分を検索する。
【0043】
上記画像情報検索方法では、サムネイル表示ステップは、記録媒体に記録された映像信号より検索情報に対応するサムネイルを表示する。これにより、ユーザは、表示装置に表示されたサムネイルを参照すれば、検索情報が含まれている画像を知ることができその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0044】
好ましくは、上記画像情報検索方法は、上記画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する。上記方法は、検出ステップと、発生頻度作成ステップと、発生頻度表示ステップと、データ検出ステップとを備える。検出ステップは、記録媒体に記録されたデータの中から検索情報を検出する。発生頻度作成ステップは、所定の時間内に上記文字情報比較ステップで一致すると判断された回数(発生頻度)を求める。発生頻度表示ステップは、発生頻度作成ステップで作成された発生頻度を表示装置に表示する。データ検索ステップは、記録媒体に記録された映像信号の中から検出ステップで検出された検索情報が示す時刻に対応する部分を検索する。
【0045】
上記画像検索方法では、発生頻度表示ステップは、所定の時間内に文字情報比較ステップで一致すると判断された回数(発生頻度)を表示する。これにより、ユーザは、表示装置に表示された発生頻度を参照すれば、検索情報がどのように存在するのか知ることができその検索情報に優先度(その検索情報が示す部分がユーザが所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0046】
好ましくは、上記発生頻度作成ステップは、時間間隔作成ステップを、最大間隔選択ステップと、発生回数作成ステップとを含む。時間間隔作成ステップは、上記検索情報が示す時刻を参照して文字情報比較ステップで一致すると判断された時刻の時間間隔を求める。例えば、1回目に一致したときの時刻と2回目に一致したときの時刻との時間間隔を求める。最大間隔選択ステップは、時間間隔作成ステップで求められた時間間隔の中で最大の時間間隔を選択する。発生回数作成ステップは、最大間隔選択ステップで選択された最大の時間間隔内に存在する上記検索情報の数を求める。
【0047】
上記画像情報検索方法では、検索情報は、文字情報比較ステップで一致すると判断されたときに記録媒体に記録される。つまり、検索情報の数は、文字情報比較ステップで一致した回数を示す。発生頻度作成ステップは、まず文字情報比較ステップで一致すると判断された時刻の時間間隔を求め、次に、その最大の時間間隔内に存在する検索情報の数を求める。このように、上記発生頻度作成ステップは、所定の時間内に文字情報比較ステップで一致すると判断された回数(発生頻度)を求める。次に、発生頻度表示ステップは、発生頻度作成ステップで作成された発生頻度を表示装置に表示する。これにより、ユーザは表示装置に表示された発生頻度を参照すれば、検索情報がどのように存在するのか知ることができその検索情報に優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0048】
好ましくは、上記発生頻度作成ステップは、上記発生頻度の時間的分布を求める。上記発生頻度表示ステップは、発生頻度作成ステップで作成された発生頻度の時間的分布を表示する。
【0049】
上記画像情報検索方法では、発生頻度表示ステップは、検索情報が時間的にどのように分布して発生しているのかを表示する。検索情報が存在する場所は、文字情報比較ステップで文字情報が一致した場所である。これにより、表示装置に表示された発生頻度の時間的分布を参照すればどの時間帯に文字情報の一致が頻繁に発生しているのかがわかりその検索情報に優先度(その検索情報が示す部分がユーザが所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0050】
好ましくは、上記画像情報記録方法は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する方法である。上記方法は、文章終端検出ステップと、文字情報記憶ステップと、文章情報書き込みステップとをさらに備える。文章終端検出ステップは、文字情報検出ステップで検出された文字情報より文章の終端を検出する。文字情報記憶ステップは、文章終端検出ステップで文章の終端が検出されるまで文字情報検出ステップで検出された文字情報を記憶する。文章情報書き込みステップは、文字情報比較ステップで一致すると判断されたとき文字情報記憶ステップで記憶された文字情報を記録媒体に記録する。上記検索情報書き込みステップは、文章情報書き込みステップで記録媒体に記録された文字情報が格納されている領域にリンクするための情報(リンク情報)を検索情報に書き込み、その検索情報を記録媒体に記録する。
【0051】
上記画像情報記録方法では、文字情報記録ステップは、文章終端検出ステップで文章の終端を検出されるまで文字情報検出ステップで検出された文字情報を記憶する。つまり、この文字情報は、文字情報検出ステップで検出された文字情報を含んだ文章である。また、検索情報は、文字情報比較ステップで文字情報が一致したときの時刻とリンク情報とが書き込まれている。よって、検索情報を参照すれば文字情報(文章)が格納されている領域にリンクすることができる。また、記録媒体に記録された文字情報(文章)より、OSDを作成することができる。これにより、データ検索のときOSDを参照すれば、文字情報がどのように含まれているか知ることができその検索情報に優先度(その文字情報が含まれる部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0052】
好ましくは、上記画像情報検索方法は、上記画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報,文字情報)を処理する方法である。上記方法は、検出ステップと、OSD作成ステップと、OSD表示ステップと、データ検索ステップとを備える。検索ステップは、記録媒体に記録されたデータの中から検索情報を検出する。OSD作成ステップは、検出ステップで検出された検索データに書き込まれたリンク情報を参照して記録媒体に記録された文字情報よりOSDを作成する。OSD表示ステップは、OSD作成ステップで作成されたOSDを表示装置に表示する。データ検索ステップは、記録媒体に記録された映像信号の中から検出ステップで検出された検索情報が示す時刻に対応する部分を検索する。
【0053】
上記画像情報検索方法では、OSD表示ステップは、検索情報に書き込まれたリンク情報を参照して記録媒体に記録された文字情報よりその検索情報に対応したOSDを表示装置に表示する。この文字情報は、上記文字情報検出ステップで検出された文字情報を含んだ文章である。これにより、ユーザは表示装置に表示されたOSDを参照すれば、文字情報がどのように含まれているか知ることができその検索情報に優先度(その文字情報が含まれる部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができる。
【0054】
好ましくは、上記画像情報記録方法は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する方法である。上記方法は、輝度比較ステップと、カウントステップと、シーン変化判断ステップと、時刻記憶ステップと、シーン変化時刻書き込みステップとをさらに備える。輝度比較ステップは、映像信号の時間的に前後する2つのフレーム間における各輝度データの時間的変化を求める。カウントステップは、輝度比較ステップで求めた輝度データの時間的変化が第1の値よりも大きいと示された画素の数をカウントする。シーン変化判断ステップは、カウントステップでカウントした画素の数が第2の値よりも多いか否かを判断する。時刻記憶ステップは、シーン変化判断ステップで第2の値よりも多いと判断されたときの時刻を記憶する。シーン時刻書き込みステップは、文字情報比較ステップで一致すると判断されたときに時刻記憶ステップに記憶された時刻を記録媒体に記録する。上記検索情報書き込みステップは、シーン変化時刻書き込みステップで記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を上記検索情報に書き込む。
【0055】
上記画像情報記録方法では、データ検索のとき検索情報に書き込まれたリンク情報を参照すればその検索情報に対応したシーン変化の時刻を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中からシーン変化(輝度データが時間的に大きく変化した画素の数が多い場合)の時刻に対応する部分を検索してその部分から再生することで、適当な映像の切れ目から再生を開始することができる。
【0056】
好ましくは、上記画像情報記録方法は、文字情報が含まれた映像信号を所定の規格(例えばDVD−VR規格など)に基づいて記録する方法である。上記映像信号は音声信号を含む。上記方法は、レベル検出ステップと、レベル比較ステップと、無音期間計測ステップと、話題変化判断ステップと、時刻記憶ステップと、話題変化時刻書き込みステップとを備える。レベル検出ステップは、映像信号より音声のレベルを検出する。レベル比較ステップは、レベル検出ステップで検出された音声のレベルが第1の値よりも大きいか否かを判断する。無音期間計測ステップは、レベル比較ステップによって検出された音声のレベルが第1の値以下である時間を計測する。話題変化判断ステップは、無音期間計測ステップで計測した時間が第2の値よりも長いか否かを判断する。時刻記憶ステップは、話題変化判断ステップで第2の値よりも長いと判断されたときレベル比較ステップで第1の値よりも大きいと判断された時刻を記憶する。話題変化時刻書き込みステップは、文字情報比較ステップで一致すると判断されたとき時刻記憶ステップで記憶された時刻を記録媒体に記録する。上記検索情報書き込みステップは、話題変化時刻書き込みステップで記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を上記検索情報に書き込む。
【0057】
上記画像情報記録方法では、データ検索のとき検索情報に書き込まれたリンク情報を参照すればその検索情報に対応した話題変化の時刻を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中から話題変化(無音と判断される期間が長い場合)の時刻に対応する部分を検索してその部分から再生することで、適当な音声の切れ目から再生を開始することができる。
【0058】
好ましくは、上記画像情報検索方法は、上記画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報,時刻)を処理する。上記方法は、検出ステップと、時刻検出ステップと、データ検索ステップとを備える。検出ステップは、記録媒体に記録されたデータの中から検索情報を検出する。時刻検索ステップは、検索ステップで検索された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する記録媒体に記録された時刻を検索する。データ検索ステップは、記録媒体に記録された映像信号の中から時刻検索ステップで検索された時刻に対応する部分を検索する。
【0059】
上記画像情報検索方法では、検索情報を検索することによっその検索情報に対応したシーン変化の時刻(または話題変化の時刻)を検索することができる。これにより、文字情報を検索すれば、映像信号におけるユーザが所望する文字情報が含まれた部分を検索することができ、かつ記録媒体に記録された映像信号の中からシーン変化の時刻(または話題変化の時刻)に対応する部分を検索してその部分から再生することで、適当な映像(または音声)の切れ目から再生を開始することができる。
【0060】
好ましくは、上記画像情報検索方法はさらに、時間間隔判断ステップを備える。上記検出ステップは、記録媒体に記録されたデータの中から検索情報を検出する。上記時刻検索ステップは、検索ステップで検索された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する記録媒体に記録された時刻を検索する。時間間隔判断ステップは、検出ステップで検出された検索情報が示す時刻と時刻検索ステップで検索された時刻との時間間隔が所定の値よりも長いか否かを判断する。上記データ検索ステップは、時間間隔判断ステップで所定の値よりも長いと判断されたとき記録媒体に記録された映像信号の中から検出ステップで検出された時刻に対応する部分を検索する。
【0061】
上述のように、上記時刻検索ステップで検出された時刻に対応する部分を検索してその部分から再生をすれば適当な映像(または音声)の切れ目から再生を開始することができる。しかし、検索情報が示す時刻と時刻検索ステップで検索された時刻との時間間隔があまりにも長すぎると、本来所望する部分から離れた部分から再生することになる。
【0062】
上記画像情報検索方法では、データ検索ステップは、検出ステップで検出された検索情報が示す時刻と時刻検索ステップで検索された時刻との時間間隔が所定の値よりも長いとき、記録媒体に記録された映像信号の中から検出ステップで検出された時刻に対応する部分を検索する。これにより、上述の問題が解決され本来所望する部分から再生を開始することができる。
【0063】
好ましくは、上記検索情報書き込みステップは、検索情報に文字検索のために記録したを示すデータを書き込む。つまり、検索情報書き込みステップは、「この検索情報は文字検索のために記録されたものである」というデータを検索情報に書き込んでその検索情報を記録媒体に記録する。
【0064】
検索情報は、文字検索のために用いるだけでなく他の用途(ユーザ操作によるもの,CMカットのための音声属性の切り替わり)に用いられるものが存在する。この場合、他の用途に用いる検索情報を検出ステップによって検出され、データ検索の際に利用されてると、本来所望とする部分を検索することが困難になる。
【0065】
上記画像情報記録方法では、検索情報書き込みステップは、検索情報に文字検索のために記録したことを示すデータを書き込む。これにより、データ検索のときこのデータを参照することによって、文字検索のために用いる検索情報を識別することができユーザが設定した文字によってデータを検索を行うことが可能となる。
【0066】
好ましくは、上記検出ステップは、記録媒体に記録されたデータの中から検索情報を検出するときその検索情報が文字検索のための検索情報であるか否かを判断する。
【0067】
上記画像情報検索方法では、検出ステップは、検索情報に書き込まれたデータ(文字検索のために記録されたことを示すデータ)を参照して検索情報が文字検索のための検索情報であるか否かを判断する。検出ステップは、文字検索のための検索情報であると判断したとき検出された検索情報をデータ検索ステップ(または時刻検索ステップ)へ出力する。これにより、このデータを参照することによって、文字検索のために用いる検索情報を識別することができユーザが設定した文字によってデータを検索を行うことが可能となる。
【0068】
【発明の実施の形態】
以下、この発明の実施の形態を図面を参照して詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。
【0069】
(第1の実施形態)
この発明の第1の実施形態による画像情報処理装置1の全体構成を図1に示す。この装置は、映像信号記録部0100と、指定検索文字情報記憶部0101と、文字情報検出部0102と、文字情報比較部0103と、エントリポイント書き込み部0104と、検索部0106と、再生部0107とを備える。映像情報記録部0100は、受信したテレビ信号をDVD−VR規格に基づいて順次記録媒体0105(DVD−ROM)に記録する。指定検索文字情報記憶部0101は、外部(ユーザ)から入力された検索文字cha1をアスキーコードとして記憶する。文字情報検出部0102は、テレビ信号に重畳する文字情報cha2をアスキーコードとして検出する。文字情報cha2は、クローズドキャプション(字幕表示技術)の場合にテレビ信号のLINE21上に重畳している。文字情報比較部0103は、検索文字cha1と文字情報cha2とが一致するか否かを判断する。エントリポイント書き込み部0104は、文字情報比較部0103で検索文字cha1と文字情報cha2とが一致すると判断されたときにVR規格に基づいてエントリポイントを記録媒体105に記録する。検索部0106は、エントリポイントを参照して記録媒体0105に記録されたデータの中からユーザが所望する部分を検索する。再生部0107は、検索部0106で検索された部分より記録媒体0105に記録されたデータを再生する。
【0070】
まず、DVD−VR規格について図2および図3を参照しつつ説明する。
【0071】
図2は、DVD規格における管理情報の管理単位、およびビデオオブジェクトのデータ単位を示す。
【0072】
ビデオファイルは、階層構造になっており、1つのファイルは、1つまたは複数のビデオオブジェクト(VOB)で構成される。1つのビデオオブジェクト(VOB)は、1つまたは複数のビデオオブジェクトユニット(VOBU)で構成される。1つのビデオオブジェクトユニット(VOBU)は、RDIパック(RDI)やビデオパック(V)やオーディオパック(A)等から構成される。RDIパックは、これが属するビデオオブジェクトユニット(VOBU)の最初のフィールドが再生される開始時間を示す情報や当該ビデオオブジェクトユニット(VOBU)の記録時間を示す情報などを含む。ビデオパック(V)は、パックヘッダ・パケットヘッダ・ビデオデータ部で構成される。オーディオパック(A)は、パックヘッダ・パケットヘッダ・オーディオデータ部で構成される。
【0073】
管理情報は、ビデオマネージャー(VMG)と称される。ビデオマネージャー(VMG)にはプログラムチェーン(PGC)が定義されている。プログラムチェーン(PGC)は、データ再生順序を管理し、タイトルまたはメニューの全体あるいは一部を再生する論理単位である。プログラムチェーン(PGC)には、再生されるコンテンツの基本単位であるセル(Cell)の再生順番が定義されている。プログラムチェーン(PGC)の具体的な情報を記録してある部分は、プログラムチェーン情報(PGCI)部分である。
【0074】
図3は、DVD−VR規格における管理情報(ビデオマネージャーVMG)に定義されているプログラムチェーン(PGC)の具体的な情報を記録してあるプログラムチェーン情報(PGCI)のデータ構造を示す。プログラムチェーン情報(PGCI)は、プログラムチェーン一般情報(PGC_GI)とプログラム情報(PGI)と、セル情報(CI)を含む。プログラムチェーン一般情報(PGC_GI)は、プログラムチェーン(PGC)により再生されるプログラムが幾つ存在するかを示すプログラム数(PG_Ns)、セルサーチポインタが幾つ存在するかを示すセルサーチポインタ数(C_SRP_Ns)が記述されている。プログラム情報(PGI)には、プログラムタイプ(PG_TY)と、このプログラムのセル数(C_Ns)と、このプログラムの代表画像情報(REP_PICTI)が含まれる。代表画像情報(REP_PICTI)には、代表画像のセル番号、およびこのセルの中のピクチャーポイントをプレゼンテーションタイムPTMで記述されている。セル情報(CI)は、セル一般情報(M_C_GI)と、ムービーセルエントリーポイント情報(M_C_EPI)が記述されている。セル一般情報(M_C_GI)には、ムービーであるかスチルであるかを示すセルタイプ(C_TY)、このセルで特定されるビデオオブジェクトVOBを指示するための情報(M_VOBI_SRPN)と、セルエントリーポイント情報が幾つあるかを示すセルエントリーポイント情報数(C_EPI_Ns)が記述されている。上記のムービーセルエントリーポイント情報(M_C_EPI)に、エントリーポイントのタイプ(EP_TY)、およびエントリーポイントのプレゼンテーションタイム(EP_PTM)が記述されている。エントリポイントには、TYPEAとTYPEBが存在し、TYPEBでは128byteをTEXT領域として使用できる。
【0075】
以上がDVD−VR規格についての説明である。
【0076】
以下に、図1に示した画像情報処理装置1における記録処理時の動作について、図4を参照しつつ説明する。
【0077】
〔記録処理〕
〔ステップST101〕
まず、指定検索文字情報記憶部0101は、外部(ユーザ)から入力された検索文字cha1をアスキーコードとして記憶する。また、映像信号記録部0110は、受信したテレビ信号をDVD−VR規格に基づいて順次記録媒体0105に記録する。
【0078】
〔ステップST102〕
次に、文字情報検出部0102は、テレビ信号の映像信号垂直帰線期間の21ラインに重畳する文字情報cha2をアスキーコードとして検出する。
【0079】
〔ステップST103〕
次に、文字情報比較部0103は、検索文字cha1と文字情報cha2とが一致するか否かを判断する。一致する場合にはステップST104へ進む。そうでない場合にはステップST102へ進む。
【0080】
〔ステップST104〕
次に、エントリポイント書き込み部0104は、DVD−VR規格に基づいてエントリポイントを記録媒体105に記録する。つまり、エントリポイント書き込み部0104は、エントリポイントをプログラム情報(PGI)に書き込む。このとき、エントリポイントは他の用途のもの(ユーザ操作によるものや、CMカットのための音声属性の切り替わりによるものなど)と区別するためにエントリポイントの領域PRM_TXTI(図3参照)に文字検索のためのエントリポイントであることを示すIDを書き込む。また、エントリポイントの領域EP_PTM(図3参照)には、検索文字cha1と文字情報cha2とが一致した時刻が格納される。
【0081】
〔ステップST105〕
次に、記録処理を終了するか否かを判断する。所望のテレビ信号を全て記録するかユーザから記録処理の終了が指示された場合には記録処理を終了する。そうでない場合にはステップST102へ進む。
【0082】
以下に、図1に示した画像情報処理装置1による再生処理時の動作について図5を参照しつつ説明する。
【0083】
〔再生処理〕
〔ステップST111〕
まず、検索部0106は、記録媒体0105に記録されたデータの中からエントリポイントを検索する。
【0084】
〔ステップST112〕
次に、検索部0106は、検索したエントリポイントが文字検索のためのエントリポイント(文字EP)であるか否かをエントリポイントの領域PRM_TXTI(図3参照)に書き込まれたIDを参照して判断する。文字EPであると判断した場合にはステップST113へ進み、そうでない場合にはステップST111へ進む。
【0085】
〔ステップST113〕
次に、再生部0107は、検索部0106で検索した文字EPの領域EP_PTM(図3参照)が示す時刻より記録媒体0105に記録されたデータを再生する。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0086】
以上のように、ユーザから入力された文字(cha1)とテレビ信号に重畳する文字情報(cha2)とが一致した場合に記録媒体0105に書き込むことによって、ユーザが設定した文字で再生時に所望の部分を検索することが可能となる。これにより、文字検索のためのエントリポイントを検索し、それが示す時刻に対応する部分よりデータを再生することによって、ユーザの文字検索を可能とする。
【0087】
なお、ステップST101において文字情報記憶部0101が記憶する文字情報cha1は、1つでも複数でもかまわない。複数の文字情報cha1が記憶されている場合には、文字情報検出部0102で検出された文字情報cha2と記憶された文字情報cha1とを1つずつ比較すればいい。
【0088】
なお、テレビ信号はNTSC信号のようなアナログ放送を用いて説明したが、デジタル放送を用いてもよい。デジタル放送の場合には、文字情報は音声や画像などとは別のパケットに格納されている。文字情報検出部0101は、文字情報が格納されたパケットを検出することで文字情報を検出することができる。
【0089】
なお、記録処理において、ユーザが所望の画像が現れたときにエントリーポイントの設定キーを操作するなどして、新たにエントリポイントを追加することが可能である。
【0090】
なお、画像情報処理装置1は画像情報記録装置と画像情報再生装置とに分けて使用することも可能である。2つに分けて使用する場合、画像情報記録装置は、指定検索文字情報記憶部0101、文字情報検出部0102、文字情報比較部0103、エントリポイント書き込み部0104を備え、画像情報再生装置は、検索部0106および再生部0107を備える。つまり、記録処理を行う部分を画像情報記録装置とし、再生処理を行う部分を画像情報再生装置としてもかまわない。
【0091】
(第2の実施形態)
この発明の第2の実施形態による画像情報処理装置2の全体構成を図6に示す。この装置は、図1に示した画像情報処理装置1において、文字情報記憶部0201と、文章切れ目検出部0202と、文章情報書き込み部0203と、サムネイル作成部0204と、OSD作成部0205とをさらに備える。文字情報記憶部0201は、文字情報検出部0102で検出された文字情報を記憶する。文章切れ目検出部0202は、文章の切れ目となるEOTの制御コードを検出する。検出時には文字情報記憶部0201は記憶した文字情報を消去する。文章情報書き込み部0203は、文字情報比較部0103で一致すると判断されたとき文字情報記憶部0201で記憶された文字情報を記録媒体0105に書き込む。検索部0106は、さらにエントリポイントの発生頻度を求める。OSD作成部0205は、記録媒体0105に書き込まれたデータを検索する際にエントリポイントを参照して記録媒体0105に記録した文章データを読み出しOSDを作成する。サムネイル作成部0204は、エントリポイントが含まれるプログラム情報PGIより代表画像を取得してサムネイルを作成する。
【0092】
以下に、図6に示した画像情報処理装置2による記録処理時の動作について、図7を参照しつつ説明する。記録処理時にはステップST101からステップST105における処理(エントリポイント書き込み処理)と並行して以下のように処理が行われる。
【0093】
〔記録処理〕
まず、ステップST101,ステップST102における処理が行われ、指定検索文字情報記憶部0101は検索文字cha1が記録し、文字情報検出部0102は文字情報cha2を検出する。
【0094】
〔ステップS202〕
次に、文字情報記憶部0201は、文字情報検出部0102で検出された文字情報を記憶する。
【0095】
〔ステップST203〕
次に、文章切れ目検出部0202は、文字情報検出部0102で検出された文字情報より文章の切れ目を示すEOTの制御コードを検出する。文章切れ目検出部0202がEOTの制御コードを検出された場合には文字情報記憶部0201はステップST207へ進む。そうでない場合にはステップST103へ進む。
【0096】
〔ステップST103〕
次に、文字情報比較部0103は、検索文字cha1と文字情報cha2とが一致するか否かを判断する。一致する場合にはステップST103へ進む。一致しない場合にはステップST102へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、一致する場合にはステップST104へ進み、一致しない場合にはステップST102へ進む。
【0097】
〔ステップST205〕
次に、文章書き込み部0203は、文字情報比較部0103で文字情報cha1と文字情報cha2とが一致すると判断された場合、文字情報記憶部0201で記憶された文字情報を記録媒体0105に記録する。記録媒体0105への記録は文章切れ目検出部0202でEOTの制御コードが検出されるまで続く。つまり、文字情報cha2が含まれる1つの文章を記録媒体に記録する。また、並行して行われるステップST104における処理で、エントリポイント書き込み部0104は、エントリポイントを書き込む際、文字検索のためのエントリポイント(文字EP)であることを示すID、および文字情報を書き込んだ領域を示すポインタとこの文字EPとのリンク情報をエントリポイントの領域PRM_TXTI(図3参照)に書き込む。
【0098】
〔ステップST105〕
次に、記録処理を終了するか否かを判断する。所望のテレビ信号を全て記録するかユーザより記録処理の終了が指示された場合には記録処理を終了する。そうでない場合にはステップST102へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、記録処理を終了しない場合にはステップST102へ進む。
【0099】
〔ステップST207〕
一方、ステップST203でEOTの制御コードが検出された場合、文字情報記憶部0202は記憶した文字情報を全て消去する。次に、ステップST102へ進む。
【0100】
以下に、図6に示した画像情報処理装置2による再生処理時の動作について図8を参照しつつ説明する。
【0101】
〔再生処理〕
〔ステップST211〕
まず、検索部0106は、ステップST111における処理を行いエントリポイントを検索する。
【0102】
〔ステップST212〕
次に、検索部0106は、検索したエントリポイントの領域PRM_TXTI(図3参照)を参照して文字EPであるか否かを判断する。文字EPである場合にはステップST213へ進み、そうでない場合にはステップST211へ進む。
【0103】
〔ステップST213〕
次に、検索部は、文字EPの領域EP_PTM(図3参照)が示す時刻を参照して1つの番組内における文字EPの時間間隔を求める。つまり、図9のように、文字EPを時間軸上に並べたときに隣接する文字EPの間隔を求める。また、番組の識別は、管理情報であるビデオマネージャー(VMG)を参照して行うことができる。
【0104】
〔ステップST214〕
次に、検索部0106は、求めた文字EPの時間間隔の中から最大の時間間隔Twを選択する。図9の場合、先頭から4番目の文字EP(EP4)と先頭から5番目の文字EP(EP5)との間隔になる。
【0105】
〔ステップST215〕
次に、検索部0106は、1つの番組内に存在する全ての文字EPに対して、各文字EPの時刻から時間間隔Tw後までに存在する文字EPの数をカウントする。そのカウント数を発生回数とし、各文字EPにおける時間間隔Tw内の発生回数(発生頻度)を求める。図9の場合、先頭の文字EP(EP1)の発生回数は2回となり、先頭から4番目の文字EP(EP4)の発生回数は1回となる。
【0106】
〔ステップST216〕
次に、OSD作成部0205は、1つの番組内に存在する最初の文字EP(図9の場合には先頭の文字EP(EP1))に対して、記録媒体0105に記録された文字EPの領域PRM_TXTI(図3参照)に書き込まれたリンク情報を参照して記録媒体0105に記録された文字情報より文字EP対応したOSDを作成する。
【0107】
〔ステップST217〕
また、サムネイル作成部0204は、1つの番組内で存在する最初の文字EP(図9の場合には先頭の文字EP(EP1))に対して、その文字EPが書き込まれているプログラム情報PGIの代表画像情報REP_PICTI(図3参照)を参照して記録媒体0105に記録されたテレビ信号(画像情報)よりその文字EPに対応したサムネイルを作成する。
【0108】
〔ステップST218〕
次に、検索部0106,OSD作成部0205,サムネイル作成部0204はそれぞれ、OSD・サムネイル・発生頻度が全ての番組に対して作成されたか否かを判断する。全ての番組に対してこの組が作成された場合には、ステップST219へ進む。そうでない場合には、ステップST211へ進む。
【0109】
〔ステップST219〕
次に、検索部0106,OSD作成部0205,サムネイル作成部0204はそれぞれ、最初の文字EP(図9の場合には先頭の文字EP(EP1))に対応する作成されたOSD・サムネイル・発生頻度を選択画面として表示装置に表示する(図10参照)。つまり、番組の数だけ文字EPに対応するOSD・サムネイル・発生頻度を表示する。
【0110】
以下に、選択画面について図10を参照しつつ説明する。図中の向かって左側の画像は、各番組中に存在する最初の文字EPに対応するサムネイルである。図中中央の数字は、各番組中に存在する最初の文字EPに対応する発生頻度である。詳しくいえば、左の回数は発生回数を示し右の時間は最大の時間間隔Twを示す。図中向かって右側の文章は、各番組中に存在する最初の文字EPに対応するOSDである。OSDでの文章中の下線部は、検索文字cha1と一致すると判断された文字情報cha2を示す。図10においてOSDは、番組中に登場した人物が会話した内容や効果音を英語によって示している。つまり、図10の場合、テレビ信号に多重されている文字情報は英語で表記されており、検索文字cha1も英語で入力されている。これらのサムネイル,発生頻度,OSDは、横一列で一組なっている。つまり、横一列に一組のサムネイル,発生頻度,OSDは、1つの番組を示す。図10の場合、この画面は、3つの番組を示している。
【0111】
以上のような選択画面よりユーザは所望の文字EPを選択する。例えば、ユーザは表示装置に表示された選択画面より所望のサムネイルをカーソル選択する。
【0112】
〔ステップST220〕
次に、再生部0107は、ユーザが選択した文字EPの領域EP_PTM(図3参照)が示す時刻より記録媒体0105に記録されたデータを再生する。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。例えば、再生部0107は、ユーザによってカーソル選択されたサムネイルに対応する文字EPの領域EP_PTM(図3参照)が示す時刻から記録されたデータを再生する。
【0113】
以上のように、文字EPに対応した文章を併せて記録媒体0105に記録することによって、文字EPによるシーン検索を行う際に、文字EPに対応する画像,文章,および発生頻度を参照しつつ文字EPを選択することができる。これにより、文字EPに対応する画像,文章,および発生頻度を参照すれば各文字EPに優先度(その検索情報が示す部分がユーザの所望する映像の部分とどの程度近いかを示す度合い)をつけることができ、ユーザは各文字EPがどの部分に対応しているかを知ることができる。
【0114】
(第3の実施形態)
この発明の第3の実施形態による画像情報処理装置の全体構成は図1に示したものと同じであるが、検索部0106による動作が異なる。第3の実施形態では、検索部0106は、発生頻度をグラフで示したものを選択画面として表示装置に表示する。
【0115】
以下に、第3の実施形態による画像情報処理装置における動作について説明する。
【0116】
まず、記録処理時の動作は、図4に示したものと同じである。
【0117】
次に、再生処理時の動作について説明する。
【0118】
まず第2の実施形態のステップST211からステップST215における処理が行われ、検出部0106は、1つの番組内に存在する文字EPの発生頻度を求める。
【0119】
次に、検出部0106は、図11に示すように横軸を文字EPの時刻EP_PTMとし、縦軸を文字EPの発生回数とするグラフを作成して表示装置に表示する。図11は、1つの番組内に存在する文字EPの発生頻度の時間的分布を示したグラフである。
【0120】
次に、ユーザは、表示装置に表示された選択画面より所望の文字EPを選択する。例えば、ユーザは、表示装置に表示された選択画面(図11参照)より黒丸をカーソル選択する。
【0121】
次に、ステップST220における処理が行われ、再生部0107は、ユーザが選択した文字EPの領域EP_PTM(図3参照)が示す時刻より記録媒体0105に記録されたデータを再生する。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。例えば、再生部0107は、ユーザによってカーソル選択された黒丸(図11参照)に対応する文字EPの領域EP_PTM(図3参照)が示す時刻から記録されたデータを再生する。
【0122】
以上のように、ユーザは、文字EPの発生頻度を時間分布で示したグラフを参照することができる。これにより、各文字EPに優先度をつけることができ、ユーザは指定した文字がどの時間帯に頻繁に登場するのかを知ることができる。
【0123】
(第4の実施形態)
この発明の第4の実施形態による画像情報処理装置4の全体構成を図12に示す。この装置は、図6に示した画像情報処理装置2において文字情報記憶部0201と、文章切れ目検出部0202と、文章情報書き込み部0203と、OSD作成部0204と、サムネイル作成部0205とに代えて、輝度データ取得部0401と、輝度データ記憶部0402と、輝度比較部0403と、輝度変化画素数カウント部0404と、シーン変化判断部0405と、時刻記憶部0406と、シーン変化時刻書き込み部0407とを備える。輝度データ取得部0401は、テレビ信号より画像フレームを取り出しそのフレームの各画素における輝度データを取得する。輝度データ記憶部0402は、輝度データ取得部0401で取得した輝度データを記憶する。輝度比較部0403は、輝度データ取得部0401で取得した輝度データと輝度データ記憶部0402で記憶された輝度データ(輝度データ取得部0401で取得した輝度データよりも1フレーム前のもの)とを画素単位で比較する。輝度変化画素数カウント部0404は、輝度比較部0403でフレーム間の輝度データの差が所定の値よりも大きい画素の数をカウントする。シーン変化判断部0405は、輝度変化画素数カウント部0404でカウントした画素の数と所定の値とを比較してシーンが変化したか否かを判断する。時刻記憶部0406は、シーン変化判断部0405でシーンが変化したと判断された場合に輝度データ取得部0401で取得したフレームの時刻を記憶する。シーン変化時刻書き込み部0407は、文字情報比較部0103で一致すると判断された場合に時刻記憶部0406に記憶された時刻を記録媒体0105に記録する。
【0124】
以下に、図12に示した画像情報処理装置4における記録処理時の動作について図13を参照しつつ説明する。記録処理時にはステップST101からステップST105における処理(エントリポイント書き込み処理)と並行して以下のように処理が行われる。詳しく述べれば、ステップST101,ステップST102の処理と並行してステップST401からステップST406の処理を行い、ステップST103の処理の結果に応じてステップST104の処理を行うのと並行してステップST103の結果に応じてステップST408の処理を行う。
【0125】
〔記録処理〕
〔ステップST401〕
まず、輝度データ取得部0401は、テレビ信号より画像フレームを1つ取得し、そのフレームに存在する全画素の輝度データを取得する。つまり、1フレーム内にn個の画素が存在する場合にはn個の輝度データを取得する。また、映像信号記録部0100は、受信したテレビ信号をDVD−VR規格に基づいて順次記録媒体0105に記録する。
【0126】
〔ステップST402〕
次に、輝度データ記憶部0402は、輝度データ取得部0401で取得した輝度データPを記憶する。このとき、輝度データ取得部0401は、テレビ信号より次のフレーム(ステップST401で取得したフレームに対して時間的に1つ後ろに存在するフレーム)を取得し、そのフレームに存在する全画素の輝度データQを取得する。つまり、輝度データ記憶部0402は、輝度データ取得部0401で現在取得されたフレームに対して時間的に1つ前に存在するフレームの輝度データを記憶する。
【0127】
〔ステップST403〕
次に、輝度比較部0403は、輝度データ記憶部0402で記憶された輝度データPと輝度データ取得部0401で新たに取得した輝度データQとの差を画素単位で求める。輝度データQは、輝度データPが記憶された後に輝度データ取得部0401で取得されたものである。つまり、輝度データQは、輝度データPを取得したフレームよりも1つ後に存在するフレームから取得されたものである。このように、これらの差を求めることによって、各画素における輝度データの時間的変化を求めることができる。
【0128】
〔ステップST404〕
次に、輝度変化画素数カウント部0404は、輝度比較部0403で求めた各画素における輝度データの差が所定の値よりも大きい画素の数をカウントする。つまり、1フレーム内に存在するn個の画素のうち、輝度データの差が所定の値よりも大きいものをカウントする。
【0129】
〔ステップST405〕
次に、シーン変化判断部0405は、輝度変化画素数カウント部0404でカウントした画素の数が所定の値よりも多い場合にシーン変化と判断する。シーン変化と判断した場合にはステップST406へ進み、シーン変化と判断されなかった場合にはステップST401へ進む。
【0130】
〔ステップST406〕
次に、時刻記憶部0406は、輝度データ取得部0401で取得したフレームの時刻(シーン変化時刻)を記憶する。なお、新たにシーン変化時刻を記憶するときには、以前に記憶したシーン変化時刻を消去する。つまり、時刻記憶部0406は最新のシーン変化時刻のみを記憶する。
【0131】
〔ステップST103〕
次に、文字情報比較部0103は、検索文字cha1と文字情報cha2とが一致するか否かを判断する。一致する場合にはステップST408へ進む。一致しない場合にはステップST401へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、一致する場合にはステップST104へ進み、一致しない場合にはステップST102へ進む。
【0132】
〔ステップST408〕
次に、シーン変化時刻書き込み部0407は、文字情報比較部0103で文字情報cha1と文字情報cha2とが一致すると判断された場合に時刻記憶部0406で記憶された時刻(シーン変化時刻)を記録媒体0105に記録する。また、また、並行して行われるステップST104における処理で、エントリポイント書き込み部0104は、エントリポイントを書き込む際、文字検索のためのエントリポイントであることを示すID、およびシーン変化時刻を書き込んだ領域を示すポインタとこのエントリポイントとのリンク情報を領域PRM_TXTI(図3参照)に書き込む。
【0133】
〔ステップST105〕
次に、記録処理を終了するか否かを判断する。テレビ信号をすべて記録するか、もしくはユーザから記録処理の終了が指示された場合には記録処理を終了する。そうでない場合には、ステップST401へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、記録処理を終了しない場合にはステップST102へ進む。
【0134】
以上のように、エントリポイントを書き込む際に併せてシーン変化の時刻も記録することによって、シーン検索のときに、所望のエントリポイントを選択することで適当な映像の切れ目から再生することができる。
【0135】
以下に、図12に示した画像情報処理装置4の再生処理時の動作について、図14を参照しつつ説明する。
【0136】
〔ステップST411〕
まず、検索部0106は、記録媒体に記録したデータの中からエントリポイントを検索する。
【0137】
〔ステップST412〕
次に、検索部0106は、検索したエントリポイントの領域PRM_TXTI(図3参照)を参照して文字EPであるか否かを判断する。文字EPである場合にはステップST413へ進み、そうでない場合には、ステップST411へ進む。
【0138】
〔ステップST413〕
次に、検索部0106は、記録媒体0105に記録されたシーン変化時刻の中からユーザによって選択された文字EPに対応するシーン変化時刻を文字EPの領域PRM_TXTI(図3参照)に書き込まれたリンク情報を参照して検索する。
【0139】
〔ステップST414〕
次に、検索部0106は、検索されたシーン変化時刻と文字EPの領域EP_PTM(図3参照)が示す時刻との時間間隔が所定の値よりも長いか否かを判断する。所定の値よりも長い場合にはステップST415へ進み、そうでない場合にはステップST416へ進む。
【0140】
〔ステップST415〕
次に、再生部0107は、文字EPの領域EP_PTM(図3参照)が示す時刻より記録媒体0105に記録されたデータを再生する。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0141】
〔ステップST416〕
一方、ステップST414で時間間隔が所定の値よりも長いと判断された場合、再生部0107は、検索部0106で検索したシーン変化時刻より記録媒体0105に記録されたデータを再生する。つまり、シーン変化時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0142】
以上のように、文字EPに対応したシーン変化時刻よりデータを再生することによって、適当な映像の切れ目から再生することができる。
【0143】
なお、ステップST401の処理において輝度データ取得部0401で輝度データを取得するフレームQはフレームPに対して時間的に1つ後ろのフレームである。これは、各画素における輝度データの時間的変化を求めるために時刻の異なるフレームを用いているので、1つ後ろのフレームでなくてもかまわない。
【0144】
(第5の実施形態)
この発明の第5の実施形態による画像情報処理装置5の全体構成を図15に示す。この装置は、図12に示した画像情報処理装置4において、輝度データ取得部0401と、輝度データ記憶部0402と、輝度比較部0403と、輝度変化画素数カウント部0404と、シーン変化判断部0405と、シーン変化時刻書き込み部0407とに代えて、音声レベル検出部0501と、音声レベル比較部0502と、無音期間計測部0503と、話題変化判断部0504と、話題変化時刻書き込み部0505とを備える。音声レベル検出部0501は、テレビ信号より音声信号を取り出しそのレベルを検出する。音声レベル比較部0502は、音声レベル検出部0501で検出された音声レベルと所定の値(無音判断しきい値)とを比較する。無音期間計測部0503は、音声レベル比較部0502で音声レベルが所定の値(無音判断しきい値)よりも小さいと判断され続けた期間を計測する。話題変化判断部0504は、無音期間計測部0503で計測された時間と所定の値とを比較して話題が変化したか否かを判断する。時刻記憶部0406は、話題変化判断部0504で話題が変化したと判断された場合に音声レベル比較部0502で音声レベルが所定の値よりも大きいと判断された時刻(無音期間計測部0503で計測した期間の終端の時刻)を記憶する。話題変化時刻書き込み部0505は、文字情報比較部0103で一致したと判断された場合に時刻記憶部0406で記憶された時刻を記録媒体0105に記憶する。
【0145】
以下に、図15に示した画像情報処理装置5による記録処理時の動作について図16を参照しつつ説明する。記録処理時にはステップST101からステップST105における処理(エントリポイント書き込み処理)と並行して以下のように処理が行われる。詳しく述べれば、ステップST101,ステップST102の処理と並行してステップST501からステップST505の処理を行い、ステップST103の処理の結果に応じてステップST104の処理を行うのと並行してステップST103の結果に応じてステップST507の処理を行う。
【0146】
〔記録処理〕
〔ステップST501〕
まず、音声レベル検出部0501は、テレビ信号より音声信号を検出し、さらにその音声信号のレベルを検出する。また、映像信号記録部0100は、受信したテレビ信号をDVD−VR規格に基づいて順次記録媒体0105に記録する。
【0147】
〔ステップST502〕
次に、音声レベル比較部0502は、音声レベル比較部0501で検出された音声レベルが所定の値(無音判断しきい値)よりも大きいか否かを判断する。
【0148】
〔ステップST503〕
次に、無音期間計測部0503は、音声レベル比較部0502で音声レベルが所定の値(無音判断しきい値)よりも小さいと判断され続けた期間を計測する。つまり、音声レベル比較部0502で音声レベルが所定の値(無音判断しきい値)よりも大きいと判断された直後に音声レベルが所定の値(無音判断しきい値)よりも小さいと判断された場合からカウントを開始して、次に音声レベル比較部0502で音声レベルが所定の値(無音判断しきい値)よりも大きいと判断される場合までの時間をカウントする。また、レベル比較部0502で音声レベルが所定の値(無音判断しきい値)よりも大きいと判断された場合には、無音期間計測部0503はカウンタをリセットする。つまり、無音期間計測部0503は、音声レベルが所定の値(無音判断しきい値)を下回っている期間を計測する。
【0149】
〔ステップST504〕
次に、話題変化判断部0504は、無音期間計測部0503で計測された期間が所定の値よりも長い場合に話題変化と判断する。話題変化と判断した場合にはステップST505へ進み、話題変化と判断しない場合にはステップST501へ進む。
【0150】
〔ステップST505〕
次に、時刻記憶部0406は、無音期間計測部0503でカウンタがリセットされたときの時刻、つまり音声レベル比較部0502で所定の値(無音判断しきい値)よりも大きいと判断されたときの時刻(話題変化時刻)を記憶する。なお、新たに話題変化時刻を記憶するときには、以前に記憶した話題変化時刻を消去する。つまり、時刻記憶部0406は最新の話題変化時刻のみを記憶する。
【0151】
〔ステップST103〕
次に、文字情報比較部0103は、検索文字cha1と文字情報cha2とが一致するか否かを判断する。一致する場合にはステップST507へ進む。一致しない場合にはステップST501へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、一致する場合にはステップST104へ進み、一致しない場合にはステップST102へ進む。
【0152】
〔ステップST507〕
次に、話題変化時刻書き込み部0505は、時刻記憶部0406で記憶された時刻(話題変化時刻)を記録媒体0105に記録する。また、並行して行われるステップST104における処理で、エントリポイント書き込み部0104は、エントリポイントを書き込む際、文字検索のためのエントリポイントであることを示すID、および話題変化時刻を書き込んだ領域を示すポインタとこのエントリポイントとのリンク情報を領域PRM_TXTI(図3参照)に書き込む。
【0153】
〔ステップST105〕
次に、記録処理を終了するか否かを判断する。テレビ信号をすべて記録するか、もしくはユーザから記録処理の終了が指示された場合には記録処理を終了する。そうでない場合には、ステップST501へ進む。また、並行して行われる処理(エントリポイント書き込み処理)では、記録処理を終了しない場合にはステップST102へ進む。
【0154】
以上のように、エントリポイントを書き込む際に併せて話題変化の時刻も記録することによって、シーン検索のときに、所望のエントリポイントを選択することで適当な音声の切れ目から再生することができる。
【0155】
以下に、図15に示した画像情報処理装置5における再生処理時の動作について、図17を参照しつつ説明する。
【0156】
〔再生処理〕
〔ステップST511〕
まず、検索部0106は、記録媒体に記録したデータの中からエントリポイントを検索する。
【0157】
〔ステップST512〕
次に、検索部0106は、検索したエントリポイントの領域PRM_TXTI(図3参照)を参照して文字EPであるか否かを判断する。文字EPである場合にはステップST513へ進み、そうでない場合には、ステップST511へ進む。
【0158】
〔ステップST513〕
次に、検索部0106は、文字EPの領域PRM_TXTI(図3参照)に書き込まれたリンク情報を参照して、記録媒体0105に記録された話題変化時刻の中からユーザによって選択された文字EPに対応する話題変化時刻を検索する。
【0159】
〔ステップST514〕
次に、検索部0106は、検索された話題変化時刻と文字EPの領域EP_PTM(図3参照)が示す時刻との時間間隔が所定の値よりも長いか否かを判断する。所定の値よりも長い場合にはステップST515へ進み、そうでない場合にはステップST516へ進む。
【0160】
〔ステップST515〕
次に、再生部0107は、文字EPの領域EP_PTM(図3参照)が示す時刻より記録媒体0105に記録されたデータを再生する。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0161】
〔ステップST516〕
一方、ステップST514で時間間隔が所定の値よりも長いと判断された場合、再生部0107は、検索部0106で検索した話題変化時刻より記録媒体0105に記録されたデータを再生する。つまり、話題変化時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0162】
以上のように、文字EPに対応した話題変化時刻よりデータを再生することによって、適当な音声の切れ目から再生することができる。つまり、文字EPの領域EP_PTM(図3参照)が示す時刻とパックヘッダに格納されている時刻管理情報(PTS)とを参照してコンテンツであるビデオオブジェクトを再生する。
【0163】
【発明の効果】
以上のように、この発明による画像情報処理装置および方法では、文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータとが一致する時刻を含む検索情報を記録媒体に記録することによって、データ検索の際に検索情報を検索すれば記録されたデータの中から文字情報が一致した時刻に対応する部分を検索することができる。つまり、ユーザが指定した文字によって検索を行うことが可能となる。
【図面の簡単な説明】
【図1】この発明の第1の実施形態による画像情報処理装置の全体構成を示すブロック図である。
【図2】DVDの管理情報とビデオオブジェクトとの関係の一例を示す図である。
【図3】DVD−VR規格におけるプログラムチェーン情報(PGCI)のデータ構造の一例を示す図である。
【図4】図1に示した画像情報処理装置による記録処理時の動作を示したフローチャートである。
【図5】図1に示した画像情報処理装置による再生処理時の動作を示したフローチャートである。
【図6】この発明の第2の実施形態による画像情報処理装置の全体構成を示すブロック図である。
【図7】図6に示した画像情報処理装置による記録処理時の動作を示したフローチャートである。
【図8】図6に示した画像情報処理装置による再生処理時の動作を示したフローチャートである。
【図9】1つの番組内に存在する文字EPの発生頻度を算出する方法の一例を示す図である。
【図10】表示装置に表示される選択画面の一例を示す図である。
【図11】1つの番組内に存在する文字EPの発生頻度の時間的分布を示したグラフである
【図12】この発明の第4の実施形態による画像情報処理装置の全体構成を示すブロック図である。
【図13】図12に示した画像情報処理装置による記録処理時の動作を示したフローチャートである。
【図14】図12に示した画像情報処理装置による再生処理時の動作を示したフローチャートである。
【図15】この発明の第5の実施形態による画像情報処理装置の全体構成を示すブロック図である。
【図16】図15に示した画像情報処理装置による記録処理時の動作を示したフローチャートである。
【図17】図15に示した画像情報処理装置による再生処理時の動作を示したフローチャートである。
【符号の説明】
1,2,4,5 画像情報処理装置
0100 映像信号記録部
0101 指定検索文字情報記憶部
0102 文字情報検出部
0103 文字情報比較部
0104 エントリポイント書き込み部
0105 記録媒体(DVD−RAM)
0106 検索部
0107 再生部
0201 文字情報記憶部
0202 文章切れ目検出部
0203 文章情報書き込み部
0401 輝度データ取得部
0402 輝度データ記憶部
0403 輝度比較部
0404 輝度変化画素数カウント部
0405 シーン変化判断部
0406 時刻記憶部
0407 シーン変化時刻書き込み部
0501 音声レベル検出部
0502 音声レベル比較部
0503 無音期間計測部
0504 話題変化判断部
0505 話題変化時刻書き込み部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image information recording apparatus / method and an image information retrieval apparatus / method, and more particularly, to an apparatus and a method capable of reproducing data recorded on a recording medium from a desired portion when reproducing the data. .
[0002]
[Prior art]
There is a caption display technology called closed caption (hereinafter, referred to as CC) that displays actors' dialogue, narration, sound effects, and the like as captions so that the deaf can enjoy broadcast programs and videos. This technology makes it possible to display subtitles synchronized with video by superimposing characters for displaying subtitles on a video signal. This character information is superimposed on 21 lines of the video signal vertical blanking period. In order to display such character information on the screen, a decoder for decoding the character information to be multiplexed on the video signal and displaying the character information on the screen is required, and whether or not to display the character is left to the viewer's choice. Have been.
[0003]
Techniques have been constructed to record a desired video signal using character information multiplexed on such a video signal, or to search for a desired portion from a video signal recorded on a recording medium.
[0004]
[Patent Document 1] Japanese Patent Application Laid-Open No. 7-79423
[0005]
[Problems to be solved by the invention]
However, when the above technology is realized, as shown in FIG. 1 of Patent Document 1, data recorded on a recording device using a large-scale system using a computer, an external storage device, a keyboard, a mouse, and the like. It is necessary to build management information. Further, when such a device is used, when searching for a scene that the user wants to see from a scene in which the character to be searched matches (a scene in which the character to be searched and the character multiplexed in the video signal match), the user is required Since it is necessary to check each scene, it takes time to search. Also, the position where the characters match is not always the point of the head that the user wants to see.
[0006]
Therefore, an object of the present invention is to provide an image information recording apparatus and method, an image information retrieval apparatus, and a method capable of searching for a desired portion from data recorded on a recording medium using characters set by a user in the DVD-VR standard. Is to provide a way.
[0007]
Further, the image information recording device and method and the image information search device and method add information that helps assign a priority to a search location when a character set by a user matches at a plurality of locations. The reproduction can be started from an appropriate break to see the position where the change has been made.
[0008]
[Means for Solving the Problems]
According to one aspect of the present invention, an image information recording device is a device that records a video signal including character information based on a predetermined standard (for example, a DVD-VR standard). The device includes a character information detecting unit, a character information comparing unit, and a search information writing unit. The character information detection unit detects character information included in the video signal. The character information comparing unit determines whether the character information detected by the character information detecting unit matches a preset search parameter (such as character information specified by a user in advance). The search information writing unit writes the search information to the recording medium when the character information comparison unit determines that they match. The search information indicates a predetermined time in the video signal recorded on the recording medium. The predetermined time is a time at which the character information detected by the character information detection unit matches a preset search parameter (such as character information specified by the user in advance).
[0009]
In the above-described image information recording apparatus, the character information comparing unit is set in advance with search parameters (such as character information designated by a user). The character information comparison unit records the search information on the recording medium when the search parameter matches the character information included in the video signal. The search information stores the time when the character information matches. Thus, in the data search, if the search information is searched, a portion including the character information designated by the user is searched from the video signal recorded on the recording medium with reference to the time included in the search information. be able to. That is, it is possible to search for data using characters set by the user. Further, by recording based on a predetermined standard (for example, the DVD-VR standard), it is not necessary to construct management information using a large-scale system as in the related art, and information used for searching can be easily obtained. Can be added.
[0010]
According to another aspect of the present invention, an image information search device processes data (video signal, search information) recorded on a recording medium by the image information recording device. The device includes a detection unit and a data search unit. The detection unit detects search information from data recorded on a recording medium. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected by the detection unit.
[0011]
In the image information search device, the data search unit searches a recorded video signal for a portion corresponding to the time included in the search information. The time included in the search information indicates the time at which the character information detected by the character information detection unit matches a preset search parameter (such as character information specified by the user in advance). Thereby, by searching the search information, it is possible to search a portion including the character information designated by the user from the video signal recorded on the recording medium. That is, it is possible to search for data using characters set by the user. Further, since data is recorded on a recording medium based on a predetermined standard (for example, the DVD-VR standard), there is no need to construct management information using a large-scale system as in the related art. A desired part can be easily searched from the data thus obtained.
[0012]
Preferably, the image information search device processes data (video signal, search information) recorded on a recording medium by the image information recording device. The device includes a detection unit, a thumbnail creation unit, and a data search unit. The detection unit detects search information from data recorded on a recording medium. The thumbnail creator creates a thumbnail corresponding to the search information detected by the detector from the video signal recorded on the recording medium. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the search information detected by the detection unit.
[0013]
In the image information search device, the thumbnail creation unit creates a thumbnail corresponding to the search information from the video signal recorded on the recording medium. Thus, by referring to the thumbnail, it is possible to know the image including the search information, and to give priority to the search information (indicating how close the part indicated by the search information is to the part of the video desired by the user). Degree).
[0014]
Preferably, the image information search device processes data (video signal, search information) recorded on a recording medium by the image information recording device. The device includes a detection unit, an occurrence frequency creation unit, and a data detection unit. The detection unit detects search information from data recorded on a recording medium. The occurrence frequency creation unit obtains the number of times (occurrence frequency) determined by the character information comparison unit to match within a predetermined time. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected by the detection unit.
[0015]
In the above-described image information search device, the occurrence frequency creation unit obtains the number of times (occurrence frequency) determined by the character information comparison unit to match within a predetermined time. Thus, by referring to the frequency of occurrence, it is possible to know how the search information exists, and to give priority to the search information (how close the part indicated by the search information is to the part of the video desired by the user). Degree).
[0016]
Preferably, the occurrence frequency creation unit includes a time interval creation unit, a maximum interval selection unit, and an occurrence count creation unit. The time interval creation unit refers to the time indicated by the search information and obtains the time interval of the time determined to match by the character information comparison unit. For example, the time interval between the time when the first match and the time when the second match is obtained. The maximum interval selection unit selects the maximum time interval among the time intervals obtained by the time interval creation unit. The occurrence count creation unit determines the number of pieces of the search information existing within the maximum time interval selected by the maximum interval selection unit.
[0017]
In the above-described image information search device, the search information is recorded on the recording medium when the character information comparison unit determines that they match. That is, the number of pieces of search information indicates the number of times of matching in the character information comparison unit. The occurrence frequency creation unit first obtains a time interval of the time determined to be coincident by the character information comparison unit, and then obtains the number of search information existing within the maximum time interval. As described above, the occurrence frequency creation unit obtains the number of times (occurrence frequency) that the character information comparison unit determines that they match within a predetermined time. Thus, by referring to the frequency of occurrence, it is possible to know how the search information exists, and to give priority to the search information (how close the part indicated by the search information is to the part of the video desired by the user). Degree).
[0018]
Preferably, the occurrence frequency creation unit obtains a temporal distribution of the occurrence frequency.
[0019]
In the above-described image information search device, the occurrence frequency creation unit obtains how the search information is temporally distributed and generated. The place where the search information exists is a place where the character information matches in the character information comparison unit. By referring to the time distribution of the frequency of occurrence, it is possible to determine in which time period character information matches frequently occur, and to give priority to the search information (the part indicated by the search information is the video desired by the user). (A degree indicating how close the part is).
[0020]
Preferably, the image information recording device is a device that records a video signal including character information based on a predetermined standard (for example, a DVD-VR standard). The apparatus further includes a sentence end detecting unit, a character information storage unit, and a sentence information writing unit. The sentence end detecting unit detects the end of the sentence from the character information detected by the character information detecting unit. The character information storage unit stores the character information detected by the character information detecting unit until the end of the sentence is detected by the sentence end detecting unit. The text information writing unit records the character information stored in the character information storage unit on the recording medium when the character information comparison unit determines that they match. The search information writing unit writes information (link information) for linking to the area where the character information recorded on the recording medium is stored in the text information writing unit into the search information, and records the search information on the recording medium. I do.
[0021]
In the image information recording device, the character information recording unit stores the character information detected by the character information detection unit until the end of the text is detected by the sentence end detection unit. That is, the character information is a sentence including the character information detected by the character information detection unit. In the search information, the time when the character information matches in the character information comparison unit and the link information are written. Therefore, by referring to the search information, it is possible to link to an area where character information (sentence) is stored. Also, an OSD can be created from character information (sentence) recorded on a recording medium. Thus, by referring to the OSD at the time of data search, it is possible to know how the character information is included, and the search information has a priority (the part including the character information is the same as the part of the video desired by the user). (A degree indicating the degree of closeness).
[0022]
Preferably, the image information search device is a device that processes data (video signal, search information, character information) recorded on a recording medium by the image information recording device. The device includes a detection unit, an OSD creation unit, and a data search unit. The detection unit detects search information from data recorded on a recording medium. The OSD creation unit creates an OSD from the character information recorded on the recording medium with reference to the link information written in the search data detected by the detection unit. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected by the detection unit.
[0023]
In the image information search device, the OSD creation unit creates an OSD corresponding to the search information from the character information recorded on the recording medium. The character information is a sentence including the character information detected by the character information detection unit. Thus, by referring to the OSD, it is possible to know how the character information is included, and the search information has a priority (how close the part including the character information is to the part of the video desired by the user). ).
[0024]
Preferably, the image information recording device is a device that records a video signal including character information based on a predetermined standard (for example, a DVD-VR standard). The device further includes a luminance comparing unit, a counting unit, a scene change determining unit, a time storage unit, and a scene change time writing unit. The luminance comparing unit obtains a temporal change of each luminance data between two temporally preceding and succeeding frames of the video signal. The counting section counts the number of pixels for which the temporal change in the luminance data obtained by the luminance comparing section is larger than the first value. The scene change determining unit determines whether the number of pixels counted by the counting unit is larger than a second value. The time storage unit stores the time when the scene change determination unit determines that the value is greater than the second value. The scene time writing unit records the time stored in the time storage unit on the recording medium when the character information comparison unit determines that they match. The search information writing unit writes, into the search information, information (link information) for linking to an area storing the time recorded on the recording medium by the scene change time writing unit.
[0025]
In the above-described image information recording apparatus, the time of the scene change corresponding to the search information can be searched by referring to the link information written in the search information at the time of data search. Thus, if the character information is searched, it is possible to search for a portion of the video signal that includes the character information desired by the user, and a scene change (when the luminance data is time-based) from the video signal recorded on the recording medium. By retrieving a portion corresponding to the time (when the number of pixels that have largely changed greatly is large) and playing back from that portion, it is possible to start playback from an appropriate video break.
[0026]
Preferably, the image information recording device is a device that records a video signal including character information based on a predetermined standard (for example, a DVD-VR standard). The video signal includes an audio signal. The apparatus includes a level detection unit, a level comparison unit, a silence period measurement unit, a topic change determination unit, a time storage unit, and a topic change time writing unit. The level detection unit detects an audio level from the video signal. The level comparing section determines whether or not the level of the sound detected by the level detecting section is higher than the first value. The silent period measuring unit measures a time during which the level of the sound detected by the level comparing unit is equal to or less than the first value. The topic change determining unit determines whether the time measured by the silent period measuring unit is longer than the second value. The time storage unit stores the time when the topic change determination unit determines that the value is longer than the second value and the level comparison unit determines that the value is greater than the first value. The topic change time writing unit records the time stored in the time storage unit on the recording medium when the character information comparison unit determines that they match. The search information writing unit writes information (link information) for linking to an area in which the time recorded on the recording medium by the topic change time writing unit is stored in the search information.
[0027]
In the image information recording apparatus, when data is searched, the time of a topic change corresponding to the search information can be searched by referring to the link information written in the search information. Thus, if the character information is searched, it is possible to search for a portion of the video signal that includes the character information desired by the user, and to change the topic (determined as silent) from the video signal recorded on the recording medium. By searching for a portion corresponding to the time (when the time period is long) and playing back from that portion, it is possible to start playback from an appropriate audio break.
[0028]
Preferably, the image information search device processes data (video signal, search information, time) recorded on a recording medium by the image information recording device. The device includes a detection unit, a time detection unit, and a data search unit. The detection unit detects search information from data recorded on a recording medium. The time search unit searches for the time recorded on the recording medium corresponding to the search information by referring to the link information written in the search information searched by the search unit. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the time searched by the time search unit.
[0029]
The image information search device can search for a scene change time (or a topic change time) corresponding to the search information by referring to the link information written in the search information. Thus, if the character information is searched, it is possible to search for a portion of the video signal containing the character information desired by the user, and the time of the scene change (or the topic change) from the video signal recorded on the recording medium. By searching for a portion corresponding to the change time) and playing back from that portion, it is possible to start playback from an appropriate video (or audio) break.
[0030]
Preferably, the image information search device further includes a time interval determination unit. The detection unit detects search information from data recorded on a recording medium. The time search unit searches for a time recorded on a recording medium corresponding to the search information with reference to link information written in the search information searched by the search unit. The time interval determination unit determines whether a time interval between the time indicated by the search information detected by the detection unit and the time searched by the time search unit is longer than a predetermined value. The data search unit searches the video signal recorded on the recording medium for a portion corresponding to the time detected by the detection unit when the time interval determination unit determines that the time is longer than the predetermined value.
[0031]
As described above, if a portion corresponding to the time detected by the time search unit is searched and playback is performed from that portion, playback can be started from an appropriate video (or audio) break. However, if the time interval between the time indicated by the search information and the time searched by the time search unit is too long, the reproduction is started from a part farther than the originally desired part.
[0032]
In the image information search device, when the time interval between the time indicated by the search information detected by the detection unit and the time searched by the time search unit is longer than a predetermined value, the data search unit records the data on the recording medium. A portion corresponding to the time detected by the detection unit is searched from the video signal thus obtained. As a result, the above-described problem is solved, and the reproduction can be started from the originally desired portion.
[0033]
Preferably, the search information writing unit writes data indicating the information recorded for the character search into the search information. That is, the search information writing unit records the search information including the data “This search information is recorded for character search” on the recording medium.
[0034]
Some pieces of search information are used not only for character search but also for other purposes (by user operation, switching of voice attribute for CM cut). In this case, if search information used for another purpose is detected by the detection unit and used for data search, it becomes difficult to search for a originally desired portion.
[0035]
In the image information recording device, the search information writing unit writes data indicating that the search information is recorded for character search in the search information. Thus, by referring to this data at the time of data search, search information used for character search can be identified, and data can be searched using characters set by the user.
[0036]
Preferably, when detecting the search information from the data recorded on the recording medium, the detection unit determines whether the search information is search information for a character search.
[0037]
In the above-described image information search device, the detection unit refers to data written in the search information (data indicating that the search information is recorded for the character search) and determines whether the search information is the search information for the character search. Judge. The detecting unit outputs the detected search information to the data search unit (or the time search unit) when determining that the search information is the search information for character search. Thus, by referring to the data written in the search information, the search information used for the character search can be identified, and the data can be searched using the character set by the user.
[0038]
According to still another aspect of the present invention, an image information recording method is a method of recording a video signal including character information based on a predetermined standard (for example, a DVD-VR standard). The method includes a character information detecting step, a character information comparing step, and a search information writing step. The character information detecting step detects character information included in the video signal. The character information comparing step determines whether the character information detected in the character information detecting step matches a preset search parameter (such as character information specified by the user). The search information writing step writes the search information to the recording medium when it is determined in the character information comparison step that they match. The search information indicates a predetermined time in the video signal recorded on the recording medium. The predetermined time is a time at which the character information detected in the character information detecting step matches a preset search parameter (such as character information specified by the user in advance).
[0039]
In the image information recording method, in the character information comparison step, a search parameter (such as character information designated by a user) is set in advance. The character information comparison step records the search information on the recording medium when the search parameter matches the character information included in the video signal. The search information stores the time when the character information matches. Thus, in the data search, if the search information is searched, a portion including the character information designated by the user can be searched from the video signal recorded on the recording medium. That is, it is possible to search for data using characters set by the user.
[0040]
According to still another aspect of the present invention, an image information search method processes data (video signal, search information) recorded on a recording medium by the image information recording method. The method includes a detecting step and a data searching step. The detecting step detects the search information from the data recorded on the recording medium. The data search step searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
[0041]
In the image information search method, the data search step searches the recorded video signal for a portion corresponding to the time included in the search information. The time included in the search information indicates the time at which the character information detected in the character information detecting step matches a preset search parameter (such as character information specified by the user). Thereby, by searching the search information, it is possible to search a portion including the character information designated by the user from the video signal recorded on the recording medium. That is, it is possible to search for data using characters set by the user.
[0042]
Preferably, the image information search method processes data (video signal, search information) recorded on a recording medium by the image information recording method. The method includes a detection step, a thumbnail creation step, a thumbnail display step, and a data search step. The detecting step detects the search information from the data recorded on the recording medium. The thumbnail creation step creates a thumbnail corresponding to the search information detected in the detection step from the video signal recorded on the recording medium. The thumbnail display step displays the thumbnail created in the thumbnail creation step on a display device. In the data search step, a portion corresponding to the search information detected in the detection step is searched from the video signal recorded on the recording medium.
[0043]
In the above-described image information search method, the thumbnail display step displays a thumbnail corresponding to the search information from the video signal recorded on the recording medium. With this, the user can know the image including the search information by referring to the thumbnail displayed on the display device, and give the search information a priority (the part indicated by the search information is the video desired by the user). (A degree indicating how close the part is).
[0044]
Preferably, the image information search method processes data (video signal, search information) recorded on a recording medium by the image information recording method. The method includes a detection step, an occurrence frequency creation step, an occurrence frequency display step, and a data detection step. The detecting step detects the search information from the data recorded on the recording medium. The occurrence frequency generation step obtains the number of times (occurrence frequency) determined to match in the character information comparison step within a predetermined time. The occurrence frequency display step displays the occurrence frequency created in the occurrence frequency creation step on a display device. The data search step searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
[0045]
In the above-described image search method, the occurrence frequency display step displays the number of times (occurrence frequency) determined to match in the character information comparison step within a predetermined time. Thus, the user can know how the search information exists by referring to the occurrence frequency displayed on the display device, and can give priority to the search information (the part indicated by the search information is desired by the user). (A degree indicating how close the image part is).
[0046]
Preferably, the occurrence frequency creation step includes a time interval creation step, a maximum interval selection step, and an occurrence count creation step. The time interval creation step obtains a time interval of the time determined to match in the character information comparison step with reference to the time indicated by the search information. For example, the time interval between the time when the first match and the time when the second match is obtained. The maximum interval selection step selects a maximum time interval among the time intervals obtained in the time interval creation step. The occurrence count creation step determines the number of pieces of the search information existing within the maximum time interval selected in the maximum interval selection step.
[0047]
In the above-described image information search method, the search information is recorded on the recording medium when it is determined in the character information comparison step that they match. That is, the number of pieces of search information indicates the number of matches in the character information comparison step. In the occurrence frequency creation step, first, a time interval of the time determined to match in the character information comparison step is obtained, and then, the number of search information existing within the maximum time interval is obtained. As described above, the occurrence frequency generation step obtains the number of times (occurrence frequency) determined to match in the character information comparison step within a predetermined time. Next, the occurrence frequency display step displays the occurrence frequency created in the occurrence frequency creation step on a display device. Thus, the user can know how the search information exists by referring to the frequency of occurrence displayed on the display device, and give priority to the search information (the portion indicated by the search information is the video desired by the user). (A degree indicating how close the part is).
[0048]
Preferably, the occurrence frequency creating step determines a temporal distribution of the occurrence frequency. The occurrence frequency display step displays a temporal distribution of the occurrence frequency created in the occurrence frequency creation step.
[0049]
In the above-described image information search method, the occurrence frequency display step displays how the search information is temporally distributed and generated. The place where the search information exists is the place where the character information matches in the character information comparison step. Thus, by referring to the temporal distribution of the occurrence frequency displayed on the display device, it is possible to know in which time period character information coincidence frequently occurs, and to give priority to the search information (parts indicated by the search information). Indicates how close the user is to the part of the video desired by the user).
[0050]
Preferably, the image information recording method is a method of recording a video signal including character information based on a predetermined standard (for example, a DVD-VR standard or the like). The above method further includes a sentence end detecting step, a character information storing step, and a sentence information writing step. The sentence end detecting step detects the end of the sentence from the character information detected in the character information detecting step. The character information storing step stores the character information detected in the character information detecting step until the end of the sentence is detected in the sentence end detecting step. In the text information writing step, the character information stored in the character information storage step is recorded on a recording medium when it is determined that they match in the character information comparison step. In the search information writing step, information (link information) for linking to the area storing the character information recorded on the recording medium in the text information writing step is written in the search information, and the search information is recorded on the recording medium. I do.
[0051]
In the image information recording method, the character information recording step stores the character information detected in the character information detection step until the end of the text is detected in the sentence end detection step. That is, the character information is a sentence including the character information detected in the character information detecting step. In the search information, the time when the character information matches in the character information comparison step and the link information are written. Therefore, by referring to the search information, it is possible to link to an area where character information (sentence) is stored. Also, an OSD can be created from character information (sentence) recorded on a recording medium. Thus, by referring to the OSD at the time of data search, it is possible to know how the character information is included, and the search information has a priority (the part including the character information is the same as the part of the video desired by the user). (A degree indicating the degree of closeness).
[0052]
Preferably, the image information search method is a method of processing data (video signal, search information, character information) recorded on a recording medium by the image information recording method. The method includes a detection step, an OSD creation step, an OSD display step, and a data search step. The search step detects search information from data recorded on the recording medium. In the OSD creation step, the OSD is created from the character information recorded on the recording medium with reference to the link information written in the search data detected in the detection step. The OSD display step displays the OSD created in the OSD creation step on a display device. The data search step searches the video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
[0053]
In the image information search method, in the OSD display step, the OSD corresponding to the search information is displayed on the display device from the character information recorded on the recording medium with reference to the link information written in the search information. The character information is a sentence including the character information detected in the character information detecting step. Thus, the user can know how the character information is included by referring to the OSD displayed on the display device, and can give priority to the search information (the part including the character information is desired by the user). (A degree indicating how close the image part is).
[0054]
Preferably, the image information recording method is a method of recording a video signal including character information based on a predetermined standard (for example, a DVD-VR standard or the like). The method further includes a luminance comparing step, a counting step, a scene change determining step, a time storing step, and a scene change time writing step. In the luminance comparing step, a temporal change of each luminance data between two temporally preceding and succeeding frames of the video signal is obtained. The counting step counts the number of pixels for which the temporal change in the luminance data obtained in the luminance comparing step is greater than the first value. The scene change determining step determines whether the number of pixels counted in the counting step is larger than a second value. The time storage step stores a time when it is determined in the scene change determination step that the number is greater than the second value. In the scene time writing step, the time stored in the time storage step is recorded on the recording medium when it is determined in the character information comparing step that they match. The search information writing step writes information (link information) for linking to the area storing the time recorded on the recording medium in the scene change time writing step in the search information.
[0055]
In the above image information recording method, the time of a scene change corresponding to the search information can be searched by referring to the link information written in the search information at the time of data search. Thus, if the character information is searched, it is possible to search for a portion of the video signal that includes the character information desired by the user, and a scene change (when the luminance data is time-based) from the video signal recorded on the recording medium. By retrieving a portion corresponding to the time (when the number of pixels that have largely changed greatly is large) and playing back from that portion, it is possible to start playback from an appropriate video break.
[0056]
Preferably, the image information recording method is a method of recording a video signal including character information based on a predetermined standard (for example, a DVD-VR standard or the like). The video signal includes an audio signal. The method includes a level detection step, a level comparison step, a silence period measurement step, a topic change determination step, a time storage step, and a topic change time writing step. The level detection step detects an audio level from the video signal. In the level comparing step, it is determined whether or not the level of the sound detected in the level detecting step is higher than the first value. The silent period measuring step measures a time during which the level of the sound detected by the level comparing step is equal to or less than the first value. The topic change determination step determines whether the time measured in the silence period measurement step is longer than the second value. The time storage step stores the time when the topic change determination step determines that the value is longer than the second value and the level comparison step determines that the topic change is longer than the first value. In the topic change time writing step, the time stored in the time storage step is recorded on the recording medium when it is determined in the character information comparison step that they match. In the search information writing step, information (link information) for linking to the area storing the time recorded on the recording medium in the topic change time writing step is written in the search information.
[0057]
In the above-described image information recording method, the time of topic change corresponding to the search information can be searched by referring to the link information written in the search information at the time of data search. Thus, if the character information is searched, it is possible to search for a portion of the video signal that includes the character information desired by the user, and to change the topic (determined as silent) from the video signal recorded on the recording medium. By searching for a portion corresponding to the time (when the time period is long) and playing back from that portion, it is possible to start playback from an appropriate audio break.
[0058]
Preferably, the image information search method processes data (video signal, search information, time) recorded on a recording medium by the image information recording method. The method includes a detecting step, a time detecting step, and a data searching step. The detecting step detects the search information from the data recorded on the recording medium. The time search step searches for the time recorded on the recording medium corresponding to the search information with reference to the link information written in the search information searched in the search step. In the data search step, a portion corresponding to the time searched in the time search step is searched from the video signal recorded on the recording medium.
[0059]
In the above-described image information search method, by searching the search information, the time of the scene change (or the time of the topic change) corresponding to the search information can be searched. Thus, if the character information is searched, it is possible to search for a portion of the video signal containing the character information desired by the user, and the time of the scene change (or the topic change) from the video signal recorded on the recording medium. By searching for a portion corresponding to the change time) and playing back from that portion, it is possible to start playback from an appropriate video (or audio) break.
[0060]
Preferably, the image information search method further includes a time interval determining step. The detecting step detects search information from data recorded on a recording medium. The time search step searches for a time recorded on a recording medium corresponding to the search information by referring to link information written in the search information searched in the search step. The time interval determination step determines whether a time interval between the time indicated by the search information detected in the detection step and the time searched in the time search step is longer than a predetermined value. The data search step searches the video signal recorded on the recording medium for a portion corresponding to the time detected in the detection step when it is determined in the time interval determination step that the length is longer than a predetermined value.
[0061]
As described above, if a portion corresponding to the time detected in the time search step is searched and playback is performed from that portion, playback can be started from an appropriate video (or audio) break. However, if the time interval between the time indicated by the search information and the time searched in the time search step is too long, the reproduction is started from a part far from the originally desired part.
[0062]
In the above image information search method, the data search step is performed when the time interval between the time indicated by the search information detected in the detection step and the time searched in the time search step is longer than a predetermined value. A portion corresponding to the time detected in the detection step is searched from the video signal thus obtained. As a result, the above-described problem is solved, and the reproduction can be started from the originally desired portion.
[0063]
Preferably, in the search information writing step, data indicating the information recorded for the character search is written in the search information. That is, in the search information writing step, the data "this search information is recorded for character search" is written in the search information and the search information is recorded on the recording medium.
[0064]
Some pieces of search information are used not only for character search but also for other purposes (by user operation, switching of voice attribute for CM cut). In this case, if search information used for another purpose is detected by the detection step and used for data search, it becomes difficult to search for a originally desired portion.
[0065]
In the above image information recording method, the search information writing step writes data indicating that the information has been recorded for character search in the search information. Thus, by referring to this data at the time of data search, search information used for character search can be identified, and data can be searched using characters set by the user.
[0066]
Preferably, in the detection step, when search information is detected from data recorded on a recording medium, it is determined whether the search information is search information for character search.
[0067]
In the image information search method, the detecting step refers to data written in the search information (data indicating that the information is recorded for the character search) and determines whether the search information is search information for the character search. Judge. The detection step outputs the search information detected when it is determined that the search information is character search information to the data search step (or time search step). Thus, by referring to this data, the search information used for the character search can be identified, and the data can be searched using the character set by the user.
[0068]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding portions have the same reference characters allotted, and description thereof will not be repeated.
[0069]
(1st Embodiment)
FIG. 1 shows the overall configuration of an image information processing apparatus 1 according to a first embodiment of the present invention. This apparatus includes a video signal recording unit 0100, a designated search character information storage unit 0101, a character information detection unit 0102, a character information comparison unit 0103, an entry point writing unit 0104, a search unit 0106, and a reproduction unit 0107. Is provided. The video information recording unit 0100 sequentially records the received television signals on a recording medium 0105 (DVD-ROM) based on the DVD-VR standard. The designated search character information storage unit 0101 stores the search character cha1 input from the outside (user) as an ASCII code. Character information detection unit 0102 detects character information cha2 superimposed on the television signal as an ASCII code. The character information cha2 is superimposed on the LINE 21 of the television signal in the case of closed caption (caption display technology). The character information comparison unit 0103 determines whether or not the search character cha1 matches the character information cha2. The entry point writing unit 0104 records the entry point on the recording medium 105 based on the VR standard when the character information comparison unit 0103 determines that the search character cha1 matches the character information cha2. The search unit 0106 searches for a part desired by the user from the data recorded on the recording medium 0105 with reference to the entry point. The reproduction unit 0107 reproduces the data recorded on the recording medium 0105 from the part searched by the search unit 0106.
[0070]
First, the DVD-VR standard will be described with reference to FIGS.
[0071]
FIG. 2 shows a management unit of management information and a data unit of a video object in the DVD standard.
[0072]
Video files have a hierarchical structure, and one file is composed of one or a plurality of video objects (VOBs). One video object (VOB) is composed of one or a plurality of video object units (VOBU). One video object unit (VOBU) includes an RDI pack (RDI), a video pack (V), an audio pack (A), and the like. The RDI pack includes information indicating the start time at which the first field of the video object unit (VOBU) to which the RDI pack belongs is reproduced, information indicating the recording time of the video object unit (VOBU), and the like. The video pack (V) includes a pack header, a packet header, and a video data section. The audio pack (A) includes a pack header, a packet header, and an audio data section.
[0073]
The management information is called a video manager (VMG). A program chain (PGC) is defined in the video manager (VMG). The program chain (PGC) is a logical unit that manages the order of data reproduction and reproduces all or part of a title or menu. In the program chain (PGC), the reproduction order of cells, which are basic units of the content to be reproduced, is defined. The part where the specific information of the program chain (PGC) is recorded is the program chain information (PGCI) part.
[0074]
FIG. 3 shows a data structure of program chain information (PGCI) in which specific information of a program chain (PGC) defined in management information (video manager VMG) in the DVD-VR standard is recorded. The program chain information (PGCI) includes general program chain information (PGC_GI), program information (PGI), and cell information (CI). The program chain general information (PGC_GI) includes the number of programs (PG_Ns) indicating the number of programs reproduced by the program chain (PGC) and the number of cell search pointers (C_SRP_Ns) indicating the number of cell search pointers. It has been described. The program information (PGI) includes a program type (PG_TY), the number of cells of the program (C_Ns), and representative image information (REP_PICTI) of the program. In the representative image information (REP_PICTI), the cell number of the representative image and the picture point in this cell are described by the presentation time PTM. The cell information (CI) describes cell general information (M_C_GI) and movie cell entry point information (M_C_EPI). The cell general information (M_C_GI) includes a cell type (C_TY) indicating whether it is a movie or a still, information (M_VOBI_SRPN) for indicating a video object VOB specified by this cell, and cell entry point information. The number of cell entry point information (C_EPI_Ns) indicating the number is described. The movie cell entry point information (M_C_EPI) describes the type of the entry point (EP_TY) and the presentation time of the entry point (EP_PTM). TYPEA and TYPEB exist at the entry points, and 128 bytes can be used as the TEXT area in TYPEB.
[0075]
The above is the description of the DVD-VR standard.
[0076]
Hereinafter, the operation of the image information processing apparatus 1 shown in FIG. 1 during the recording process will be described with reference to FIG.
[0077]
[Recording process]
[Step ST101]
First, the designated search character information storage unit 0101 stores a search character cha1 input from outside (user) as an ASCII code. Further, the video signal recording unit 0110 sequentially records the received television signals on the recording medium 0105 based on the DVD-VR standard.
[0078]
[Step ST102]
Next, the character information detection unit 0102 detects, as an ASCII code, character information cha2 superimposed on line 21 of the video signal vertical retrace period of the television signal.
[0079]
[Step ST103]
Next, the character information comparison unit 0103 determines whether or not the search character cha1 matches the character information cha2. If they match, the process proceeds to step ST104. Otherwise, the process proceeds to step ST102.
[0080]
[Step ST104]
Next, the entry point writing unit 0104 records the entry point on the recording medium 105 based on the DVD-VR standard. That is, the entry point writing unit 0104 writes the entry point in the program information (PGI). At this time, the entry point area PRM_TXTI (see FIG. 3) is used for character search in order to distinguish the entry point from those for other uses (such as a user operation or a change in voice attribute for CM cut). Is written to indicate that the entry point is an entry point. The entry point area EP_PTM (see FIG. 3) stores the time at which the search character cha1 matches the character information cha2.
[0081]
[Step ST105]
Next, it is determined whether or not to end the recording process. When all the desired television signals are to be recorded or the user has instructed to terminate the recording process, the recording process is terminated. Otherwise, the process proceeds to step ST102.
[0082]
Hereinafter, the operation at the time of the reproduction process by the image information processing apparatus 1 shown in FIG. 1 will be described with reference to FIG.
[0083]
[Reproduction processing]
[Step ST111]
First, the search unit 0106 searches for an entry point from data recorded on the recording medium 0105.
[0084]
[Step ST112]
Next, the search unit 0106 determines whether or not the searched entry point is an entry point (character EP) for character search by referring to the ID written in the entry point area PRM_TXTI (see FIG. 3). I do. If it is determined that the character is EP, the process proceeds to step ST113; otherwise, the process proceeds to step ST111.
[0085]
[Step ST113]
Next, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the time indicated by the area EP_PTM of the character EP searched by the searching unit 0106 (see FIG. 3). That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header.
[0086]
As described above, when the character (cha1) input by the user matches the character information (cha2) to be superimposed on the television signal, the character information (cha2) is written to the recording medium 0105, and the character set by the user and the desired part is reproduced. Can be searched. As a result, an entry point for a character search is searched, and data is reproduced from a portion corresponding to the time indicated by the entry point, thereby enabling the user to perform a character search.
[0087]
In step ST101, the character information cha1 stored in the character information storage unit 0101 may be one or more. When a plurality of pieces of character information cha1 are stored, the character information cha2 detected by the character information detection unit 0102 and the stored character information cha1 may be compared one by one.
[0088]
Although the television signal has been described using analog broadcasting such as an NTSC signal, digital broadcasting may be used. In the case of digital broadcasting, character information is stored in a packet different from audio and images. The character information detection unit 0101 can detect character information by detecting a packet in which character information is stored.
[0089]
In the recording process, it is possible to add a new entry point by operating the entry point setting key when a desired image appears.
[0090]
It should be noted that the image information processing apparatus 1 can be used by being divided into an image information recording apparatus and an image information reproducing apparatus. When used separately, the image information recording apparatus includes a designated search character information storage unit 0101, a character information detection unit 0102, a character information comparison unit 0103, and an entry point writing unit 0104. It comprises a unit 0106 and a reproducing unit 0107. In other words, the portion that performs the recording process may be an image information recording device, and the portion that performs the reproduction process may be an image information reproducing device.
[0091]
(Second embodiment)
FIG. 6 shows the overall configuration of the image information processing apparatus 2 according to the second embodiment of the present invention. This apparatus further includes a character information storage unit 0201, a sentence break detection unit 0202, a sentence information writing unit 0203, a thumbnail creation unit 0204, and an OSD creation unit 0205 in the image information processing apparatus 1 shown in FIG. Prepare. The character information storage unit 0201 stores the character information detected by the character information detection unit 0102. The sentence break detection unit 0202 detects a control code of the EOT that becomes a break in the sentence. Upon detection, the character information storage unit 0201 deletes the stored character information. The text information writing unit 0203 writes the character information stored in the character information storage unit 0201 to the recording medium 0105 when the character information comparison unit 0103 determines that they match. The search unit 0106 further obtains the frequency of occurrence of entry points. The OSD creating unit 0205 reads out the sentence data recorded on the recording medium 0105 with reference to the entry point when searching for the data written on the recording medium 0105, and creates an OSD. The thumbnail creation unit 0204 acquires a representative image from the program information PGI including the entry point and creates a thumbnail.
[0092]
Hereinafter, an operation at the time of recording processing by the image information processing apparatus 2 shown in FIG. 6 will be described with reference to FIG. During the recording process, the following process is performed in parallel with the process (entry point writing process) from step ST101 to step ST105.
[0093]
[Recording process]
First, the processes in steps ST101 and ST102 are performed, the designated search character information storage unit 0101 records the search character cha1, and the character information detection unit 0102 detects the character information cha2.
[0094]
[Step S202]
Next, the character information storage unit 0201 stores the character information detected by the character information detection unit 0102.
[0095]
[Step ST203]
Next, the sentence break detection unit 0202 detects an EOT control code indicating a break in the sentence from the character information detected by the character information detection unit 0102. If the sentence break detection unit 0202 detects the EOT control code, the character information storage unit 0201 proceeds to step ST207. Otherwise, the process proceeds to step ST103.
[0096]
[Step ST103]
Next, the character information comparison unit 0103 determines whether or not the search character cha1 matches the character information cha2. If they match, the process proceeds to step ST103. If they do not match, the process proceeds to step ST102. In the processing (entry point writing processing) performed in parallel, the process proceeds to step ST104 if they match, and proceeds to step ST102 if they do not match.
[0097]
[Step ST205]
Next, when the character information comparing unit 0103 determines that the character information cha1 and the character information cha2 match, the text writing unit 0203 records the character information stored in the character information storage unit 0201 on the recording medium 0105. The recording on the recording medium 0105 continues until the sentence break detection unit 0202 detects the EOT control code. That is, one sentence including the character information cha2 is recorded on the recording medium. Also, in the processing in step ST104 performed in parallel, when writing the entry point, the entry point writing unit 0104 has written the ID indicating the entry point (character EP) for character search and the character information. The link information between the pointer indicating the area and the character EP is written in the entry point area PRM_TXTI (see FIG. 3).
[0098]
[Step ST105]
Next, it is determined whether or not to end the recording process. When all the desired television signals are recorded or when the user instructs the end of the recording process, the recording process is terminated. Otherwise, the process proceeds to step ST102. In the processing (entry point writing processing) performed in parallel, if the recording processing is not ended, the process proceeds to step ST102.
[0099]
[Step ST207]
On the other hand, when the EOT control code is detected in step ST203, character information storage unit 0202 deletes all the stored character information. Next, the process proceeds to step ST102.
[0100]
Hereinafter, the operation at the time of the reproduction process by the image information processing apparatus 2 shown in FIG. 6 will be described with reference to FIG.
[0101]
[Reproduction processing]
[Step ST211]
First, the search unit 0106 performs the process in step ST111 to search for an entry point.
[0102]
[Step ST212]
Next, the search unit 0106 refers to the area PRM_TXTI (see FIG. 3) of the searched entry point to determine whether or not it is the character EP. If it is a character EP, the process proceeds to step ST213; otherwise, the process proceeds to step ST211.
[0103]
[Step ST213]
Next, the search unit obtains the time interval of the character EP in one program with reference to the time indicated by the area EP_PTM of the character EP (see FIG. 3). That is, as shown in FIG. 9, when the characters EP are arranged on the time axis, the interval between adjacent characters EP is obtained. The program can be identified with reference to a video manager (VMG), which is management information.
[0104]
[Step ST214]
Next, the search unit 0106 selects the maximum time interval Tw from the obtained time intervals of the character EP. In the case of FIG. 9, the interval is between the fourth character EP (EP4) from the beginning and the fifth character EP (EP5) from the beginning.
[0105]
[Step ST215]
Next, the search unit 0106 counts the number of character EPs that exist from the time of each character EP to the time after the time interval Tw for all the characters EP existing in one program. Using the count as the number of occurrences, the number of occurrences (occurrence frequency) within the time interval Tw for each character EP is obtained. In the case of FIG. 9, the number of occurrences of the first character EP (EP1) is two, and the number of occurrences of the fourth character EP (EP4) from the first is one.
[0106]
[Step ST216]
Next, the OSD creation unit 0205 compares the first character EP (the first character EP (EP1) in FIG. 9) existing in one program with the area of the character EP recorded on the recording medium 0105. The OSD corresponding to the character EP is created from the character information recorded on the recording medium 0105 with reference to the link information written in the PRM_TXTI (see FIG. 3).
[0107]
[Step ST217]
Further, the thumbnail creation unit 0204 compares the first character EP (the first character EP (EP1) in FIG. 9) existing in one program with the program information PGI in which the character EP is written. Referring to the representative image information REP_PICTI (see FIG. 3), a thumbnail corresponding to the character EP is created from the television signal (image information) recorded on the recording medium 0105.
[0108]
[Step ST218]
Next, the search unit 0106, the OSD creation unit 0205, and the thumbnail creation unit 0204 each determine whether the OSD / thumbnail / occurrence frequency has been created for all programs. If this set has been created for all programs, the process proceeds to step ST219. Otherwise, the process proceeds to step ST211.
[0109]
[Step ST219]
Next, the search unit 0106, the OSD creation unit 0205, and the thumbnail creation unit 0204 respectively create the created OSD, thumbnail, and occurrence frequency corresponding to the first character EP (the first character EP (EP1) in FIG. 9). Is displayed on the display device as a selection screen (see FIG. 10). That is, OSDs, thumbnails, and occurrence frequencies corresponding to the characters EP are displayed by the number of programs.
[0110]
Hereinafter, the selection screen will be described with reference to FIG. The image on the left side in the figure is a thumbnail corresponding to the first character EP present in each program. The number at the center in the figure is the frequency of occurrence corresponding to the first character EP present in each program. More specifically, the number on the left indicates the number of occurrences, and the time on the right indicates the maximum time interval Tw. The sentence on the right side in the figure is the OSD corresponding to the first character EP existing in each program. The underlined portion in the text of the OSD indicates character information cha2 determined to match the search character cha1. In FIG. 10, the OSD indicates in English the content and sound effects of a person who appeared in the program. That is, in the case of FIG. 10, the character information multiplexed on the television signal is written in English, and the search character cha1 is also input in English. These thumbnails, occurrence frequencies, and OSDs are grouped in a row. In other words, one set of thumbnails, occurrence frequency, and OSD in one row indicate one program. In the case of FIG. 10, this screen shows three programs.
[0111]
The user selects a desired character EP from the above selection screen. For example, the user selects a desired thumbnail with a cursor on a selection screen displayed on the display device.
[0112]
[Step ST220]
Next, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the time indicated by the area EP_PTM of the character EP selected by the user (see FIG. 3). That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header. For example, the reproducing unit 0107 reproduces data recorded from the time indicated by the area EP_PTM (see FIG. 3) of the character EP corresponding to the thumbnail selected by the user with the cursor.
[0113]
As described above, the text corresponding to the character EP is also recorded in the recording medium 0105, so that when performing a scene search based on the character EP, the character, while referring to the image, the text, and the frequency of occurrence corresponding to the character EP. EP can be selected. By referring to the image, the sentence, and the frequency of occurrence corresponding to the character EP, the priority of each character EP (the degree to which the portion indicated by the search information indicates how close to the portion of the video desired by the user) is determined. The user can know which part each character EP corresponds to.
[0114]
(Third embodiment)
The overall configuration of the image information processing apparatus according to the third embodiment of the present invention is the same as that shown in FIG. 1, but the operation by the search unit 0106 is different. In the third embodiment, the search unit 0106 displays a graph of the frequency of occurrence on a display device as a selection screen.
[0115]
Hereinafter, an operation of the image information processing apparatus according to the third embodiment will be described.
[0116]
First, the operation at the time of the recording process is the same as that shown in FIG.
[0117]
Next, the operation during the reproduction process will be described.
[0118]
First, the processing from step ST211 to step ST215 of the second embodiment is performed, and the detection unit 0106 obtains the occurrence frequency of the character EP existing in one program.
[0119]
Next, the detection unit 0106 creates a graph in which the horizontal axis is the time EP_PTM of the character EP and the vertical axis is the number of occurrences of the character EP, as shown in FIG. 11, and displays the graph on the display device. FIG. 11 is a graph showing the temporal distribution of the occurrence frequency of the character EP existing in one program.
[0120]
Next, the user selects a desired character EP from the selection screen displayed on the display device. For example, the user selects a black circle with a cursor on a selection screen (see FIG. 11) displayed on the display device.
[0121]
Next, the process in step ST220 is performed, and the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the time indicated by the area EP_PTM of the character EP selected by the user (see FIG. 3). That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header. For example, the reproducing unit 0107 reproduces data recorded from the time indicated by the area EP_PTM (see FIG. 3) of the character EP corresponding to the black circle (see FIG. 11) selected by the user with the cursor.
[0122]
As described above, the user can refer to the graph showing the frequency of occurrence of the character EP in the time distribution. Thereby, the priority can be assigned to each character EP, and the user can know at what time period the specified character appears frequently.
[0123]
(Fourth embodiment)
FIG. 12 shows an overall configuration of an image information processing apparatus 4 according to a fourth embodiment of the present invention. This device is different from the image information processing device 2 shown in FIG. A brightness data acquisition unit 0401, a brightness data storage unit 0402, a brightness comparison unit 0403, a brightness change pixel count unit 0404, a scene change determination unit 0405, a time storage unit 0406, and a scene change time writing unit 0407. Is provided. The luminance data acquisition unit 0401 extracts an image frame from a television signal and acquires luminance data of each pixel of the frame. The luminance data storage unit 0402 stores the luminance data acquired by the luminance data acquisition unit 0401. The luminance comparing unit 0403 compares the luminance data acquired by the luminance data acquiring unit 0401 with the luminance data stored in the luminance data storing unit 0402 (one frame earlier than the luminance data acquired by the luminance data acquiring unit 0401). Compare by unit. The luminance change pixel count unit 0404 counts the number of pixels in which the luminance data difference between frames is larger than a predetermined value in the luminance comparison unit 0403. The scene change determining unit 0405 compares the number of pixels counted by the luminance change pixel number counting unit 0404 with a predetermined value to determine whether the scene has changed. The time storage unit 0406 stores the time of the frame acquired by the luminance data acquisition unit 0401 when the scene change determination unit 0405 determines that the scene has changed. The scene change time writing unit 0407 records the time stored in the time storage unit 0406 on the recording medium 0105 when the character information comparison unit 0103 determines that they match.
[0124]
The operation of the image information processing apparatus 4 shown in FIG. 12 during the recording process will be described below with reference to FIG. During the recording process, the following process is performed in parallel with the process (entry point writing process) from step ST101 to step ST105. More specifically, the processing from step ST401 to step ST406 is performed in parallel with the processing in step ST101 and step ST102, and the processing in step ST104 is performed in parallel with the processing in step ST104 in accordance with the result of processing in step ST103. The processing of step ST408 is performed accordingly.
[0125]
[Recording process]
[Step ST401]
First, the luminance data obtaining unit 0401 obtains one image frame from a television signal, and obtains luminance data of all pixels existing in the frame. That is, when there are n pixels in one frame, n pieces of luminance data are acquired. Further, the video signal recording unit 0100 sequentially records the received television signals on the recording medium 0105 based on the DVD-VR standard.
[0126]
[Step ST402]
Next, the luminance data storage unit 0402 stores the luminance data P acquired by the luminance data acquisition unit 0401. At this time, the luminance data acquisition unit 0401 acquires the next frame (the frame temporally behind the frame acquired in step ST401) from the television signal, and acquires the luminance of all pixels existing in that frame. Obtain the data Q. That is, the luminance data storage unit 0402 stores the luminance data of the frame that is temporally immediately before the frame currently acquired by the luminance data acquisition unit 0401.
[0127]
[Step ST403]
Next, the brightness comparison unit 0403 obtains, for each pixel, a difference between the brightness data P stored in the brightness data storage unit 0402 and the brightness data Q newly obtained by the brightness data obtaining unit 0401. The brightness data Q is obtained by the brightness data obtaining unit 0401 after the brightness data P is stored. That is, the luminance data Q is obtained from a frame that is located immediately after the frame from which the luminance data P was obtained. As described above, by determining these differences, it is possible to determine the temporal change of the luminance data in each pixel.
[0128]
[Step ST404]
Next, the luminance change pixel number counting unit 0404 counts the number of pixels having a difference in luminance data of each pixel calculated by the luminance comparison unit 0403 that is larger than a predetermined value. That is, among the n pixels present in one frame, those having a difference in luminance data larger than a predetermined value are counted.
[0129]
[Step ST405]
Next, the scene change determining unit 0405 determines that a scene change has occurred when the number of pixels counted by the luminance change pixel number counting unit 0404 is larger than a predetermined value. If it is determined that the scene has changed, the process proceeds to step ST406. If it is not determined that the scene has changed, the process proceeds to step ST401.
[0130]
[Step ST406]
Next, the time storage unit 0406 stores the frame time (scene change time) acquired by the luminance data acquisition unit 0401. When a new scene change time is stored, the previously stored scene change time is deleted. That is, the time storage unit 0406 stores only the latest scene change time.
[0131]
[Step ST103]
Next, the character information comparison unit 0103 determines whether or not the search character cha1 matches the character information cha2. If they match, the process proceeds to Step ST408. If they do not match, the process proceeds to step ST401. In the processing (entry point writing processing) performed in parallel, the process proceeds to step ST104 if they match, and proceeds to step ST102 if they do not match.
[0132]
[Step ST408]
Next, when the character information comparing unit 0103 determines that the character information cha1 and the character information cha2 match, the scene change time writing unit 0407 stores the time (scene change time) stored in the time storage unit 0406 in the recording medium. 0105 is recorded. In addition, in the processing in step ST104 performed in parallel, when writing the entry point, the entry point writing unit 0104 writes the ID indicating the entry point for character search and the area in which the scene change time is written. Is written in the area PRM_TXTI (see FIG. 3).
[0133]
[Step ST105]
Next, it is determined whether or not to end the recording process. The recording process is terminated when all the television signals are recorded or when the user instructs to terminate the recording process. Otherwise, the process proceeds to step ST401. In the processing (entry point writing processing) performed in parallel, if the recording processing is not ended, the process proceeds to step ST102.
[0134]
As described above, by recording the time of a scene change at the time of writing an entry point, it is possible to play back from an appropriate video break by selecting a desired entry point at the time of a scene search.
[0135]
Hereinafter, the operation of the image information processing apparatus 4 shown in FIG. 12 during the reproduction process will be described with reference to FIG.
[0136]
[Step ST411]
First, the search unit 0106 searches for an entry point from data recorded on a recording medium.
[0137]
[Step ST412]
Next, the search unit 0106 refers to the area PRM_TXTI (see FIG. 3) of the searched entry point to determine whether or not it is the character EP. If it is the character EP, the process proceeds to step ST413; otherwise, the process proceeds to step ST411.
[0138]
[Step ST413]
Next, the search unit 0106 writes the scene change time corresponding to the character EP selected by the user from the scene change times recorded on the recording medium 0105 in the link PRM_TXTI (see FIG. 3) of the character EP. Search for information.
[0139]
[Step ST414]
Next, the search unit 0106 determines whether the time interval between the searched scene change time and the time indicated by the area EP_PTM of the character EP (see FIG. 3) is longer than a predetermined value. If it is longer than the predetermined value, the process proceeds to step ST415, otherwise, the process proceeds to step ST416.
[0140]
[Step ST415]
Next, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the time indicated by the area EP_PTM of the character EP (see FIG. 3). That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header.
[0141]
[Step ST416]
On the other hand, when it is determined in step ST414 that the time interval is longer than the predetermined value, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the scene change time searched by the search unit 0106. That is, the video object which is the content is reproduced by referring to the scene change time and the time management information (PTS) stored in the pack header.
[0142]
As described above, by reproducing data from the scene change time corresponding to the character EP, it is possible to reproduce from an appropriate break in the video.
[0143]
Note that the frame Q from which the luminance data is acquired by the luminance data acquiring unit 0401 in the process of step ST401 is a frame temporally one frame behind the frame P. In this case, since a frame at a different time is used in order to obtain a temporal change of the luminance data in each pixel, the frame does not need to be the next frame.
[0144]
(Fifth embodiment)
FIG. 15 shows the overall configuration of the image information processing apparatus 5 according to the fifth embodiment of the present invention. This apparatus is the same as the image information processing apparatus 4 shown in FIG. 12, except that a luminance data acquisition unit 0401, a luminance data storage unit 0402, a luminance comparison unit 0403, a luminance change pixel count unit 0404, and a scene change determination unit 0405 are provided. And an audio level detecting unit 0501, an audio level comparing unit 0502, a silence period measuring unit 0503, a topic change determining unit 0504, and a topic change time writing unit 0505 instead of the scene change time writing unit 0407. . The audio level detection unit 0501 extracts an audio signal from a television signal and detects the level. The audio level comparison unit 0502 compares the audio level detected by the audio level detection unit 0501 with a predetermined value (silence determination threshold). The silent period measuring unit 0503 measures a period during which the audio level comparing unit 0502 continues to determine that the audio level is lower than a predetermined value (silence determination threshold). The topic change determining unit 0504 compares the time measured by the silent period measuring unit 0503 with a predetermined value to determine whether the topic has changed. The time storage unit 0406 stores the time at which the audio level comparison unit 0502 determines that the audio level is higher than a predetermined value when the topic change determination unit 0504 determines that the topic has changed (measured by the silent period measurement unit 0503). (Time at the end of the specified period). The topic change time writing unit 0505 stores the time stored in the time storage unit 0406 in the recording medium 0105 when the character information comparison unit 0103 determines that they match.
[0145]
Hereinafter, the operation at the time of the recording process by the image information processing apparatus 5 shown in FIG. 15 will be described with reference to FIG. During the recording process, the following process is performed in parallel with the process (entry point writing process) from step ST101 to step ST105. More specifically, the processing of steps ST501 to ST505 is performed in parallel with the processing of steps ST101 and ST102, and the processing of step ST104 is performed in parallel with the processing of step ST104 in accordance with the processing result of step ST103. The processing of step ST507 is performed accordingly.
[0146]
[Recording process]
[Step ST501]
First, the audio level detection unit 0501 detects an audio signal from a television signal, and further detects the level of the audio signal. Further, the video signal recording unit 0100 sequentially records the received television signals on the recording medium 0105 based on the DVD-VR standard.
[0147]
[Step ST502]
Next, audio level comparing section 0502 determines whether or not the audio level detected by audio level comparing section 0501 is greater than a predetermined value (silence determination threshold).
[0148]
[Step ST503]
Next, the silent period measuring unit 0503 measures a period during which the audio level comparing unit 0502 continues to determine that the audio level is lower than a predetermined value (silence determination threshold). That is, immediately after the audio level comparing unit 0502 determines that the audio level is higher than the predetermined value (silence determination threshold value), it is determined that the audio level is lower than the predetermined value (silence determination threshold value). The counting is started from the case, and the time until the sound level comparing unit 0502 determines that the sound level is larger than a predetermined value (silence judgment threshold value) is counted. If the level comparison unit 0502 determines that the audio level is higher than a predetermined value (silence determination threshold), the silence period measurement unit 0503 resets the counter. That is, the silent period measuring unit 0503 measures a period during which the audio level is lower than a predetermined value (silence determination threshold value).
[0149]
[Step ST504]
Next, the topic change determination unit 0504 determines that a topic change has occurred when the period measured by the silent period measurement unit 0503 is longer than a predetermined value. If it is determined that the topic has changed, the process proceeds to step ST505; otherwise, the process proceeds to step ST501.
[0150]
[Step ST505]
Next, the time storage unit 0406 stores the time when the counter was reset by the silence period measurement unit 0503, that is, the time when the sound level comparison unit 0502 determined that the value was larger than a predetermined value (silence determination threshold value). The time (topic change time) is stored. When a new topic change time is stored, the previously stored topic change time is deleted. That is, the time storage unit 0406 stores only the latest topic change time.
[0151]
[Step ST103]
Next, the character information comparison unit 0103 determines whether or not the search character cha1 matches the character information cha2. If they match, the process proceeds to step ST507. If they do not match, the process proceeds to step ST501. In the processing (entry point writing processing) performed in parallel, the process proceeds to step ST104 if they match, and proceeds to step ST102 if they do not match.
[0152]
[Step ST507]
Next, the topic change time writing unit 0505 records the time (topic change time) stored in the time storage unit 0406 on the recording medium 0105. In addition, in the processing in step ST104 performed in parallel, when writing the entry point, the entry point writing unit 0104 indicates the ID indicating the entry point for the character search and the area in which the topic change time is written. The link information between the pointer and this entry point is written in the area PRM_TXTI (see FIG. 3).
[0153]
[Step ST105]
Next, it is determined whether or not to end the recording process. The recording process is terminated when all the television signals are recorded or when the user instructs to terminate the recording process. Otherwise, the process proceeds to step ST501. In the processing (entry point writing processing) performed in parallel, if the recording processing is not ended, the process proceeds to step ST102.
[0154]
As described above, by recording the time of the topic change at the time of writing the entry point, it is possible to reproduce from an appropriate audio break by selecting a desired entry point at the time of a scene search.
[0155]
Hereinafter, the operation at the time of the reproduction process in the image information processing apparatus 5 shown in FIG. 15 will be described with reference to FIG.
[0156]
[Reproduction processing]
[Step ST511]
First, the search unit 0106 searches for an entry point from data recorded on a recording medium.
[0157]
[Step ST512]
Next, the search unit 0106 refers to the area PRM_TXTI (see FIG. 3) of the searched entry point to determine whether or not it is the character EP. If it is a character EP, the process proceeds to step ST513; otherwise, the process proceeds to step ST511.
[0158]
[Step ST513]
Next, the search unit 0106 refers to the link information written in the area PRM_TXTI (see FIG. 3) of the character EP, and searches for the character EP selected by the user from the topic change times recorded on the recording medium 0105. Search for the corresponding topic change time.
[0159]
[Step ST514]
Next, the search unit 0106 determines whether the time interval between the searched topic change time and the time indicated by the area EP_PTM of the character EP (see FIG. 3) is longer than a predetermined value. If it is longer than the predetermined value, the process proceeds to step ST515; otherwise, the process proceeds to step ST516.
[0160]
[Step ST515]
Next, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the time indicated by the area EP_PTM of the character EP (see FIG. 3). That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header.
[0161]
[Step ST516]
On the other hand, if it is determined in step ST514 that the time interval is longer than the predetermined value, the reproducing unit 0107 reproduces the data recorded on the recording medium 0105 from the topic change time searched by the search unit 0106. That is, the video object that is the content is reproduced with reference to the topic change time and the time management information (PTS) stored in the pack header.
[0162]
As described above, by reproducing the data from the topic change time corresponding to the character EP, it is possible to reproduce the data from an appropriate voice break. That is, the video object which is the content is reproduced by referring to the time indicated by the area EP_PTM of the character EP (see FIG. 3) and the time management information (PTS) stored in the pack header.
[0163]
【The invention's effect】
As described above, in the image information processing apparatus and method according to the present invention, the search information including the time when the character information detected by the character information detection unit matches the preset search parameter is recorded on the recording medium. If the search information is searched at the time of data search, it is possible to search a portion corresponding to the time when the character information matches from the recorded data. That is, it is possible to perform a search using the character specified by the user.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an overall configuration of an image information processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a relationship between DVD management information and video objects.
FIG. 3 is a diagram showing an example of a data structure of program chain information (PGCI) in the DVD-VR standard.
FIG. 4 is a flowchart showing an operation at the time of recording processing by the image information processing apparatus shown in FIG. 1;
FIG. 5 is a flowchart showing an operation at the time of a reproduction process by the image information processing apparatus shown in FIG. 1;
FIG. 6 is a block diagram illustrating an overall configuration of an image information processing apparatus according to a second embodiment of the present invention.
FIG. 7 is a flowchart showing an operation at the time of recording processing by the image information processing apparatus shown in FIG. 6;
8 is a flowchart showing an operation at the time of a reproduction process by the image information processing apparatus shown in FIG. 6;
FIG. 9 is a diagram illustrating an example of a method of calculating the frequency of occurrence of a character EP existing in one program.
FIG. 10 is a diagram illustrating an example of a selection screen displayed on a display device.
FIG. 11 is a graph showing a temporal distribution of the frequency of occurrence of a character EP existing in one program.
FIG. 12 is a block diagram illustrating an overall configuration of an image information processing apparatus according to a fourth embodiment of the present invention.
FIG. 13 is a flowchart showing an operation at the time of recording processing by the image information processing apparatus shown in FIG.
FIG. 14 is a flowchart showing an operation at the time of reproduction processing by the image information processing apparatus shown in FIG. 12;
FIG. 15 is a block diagram illustrating an overall configuration of an image information processing apparatus according to a fifth embodiment of the present invention.
16 is a flowchart showing an operation at the time of recording processing by the image information processing apparatus shown in FIG.
FIG. 17 is a flowchart showing an operation at the time of reproduction processing by the image information processing apparatus shown in FIG. 15;
[Explanation of symbols]
1,2,4,5 image information processing device
0100 Video signal recording unit
0101 Designated search character information storage
0102 Character information detector
[0103] Character information comparison unit
0104 Entry point writing unit
0105 Recording medium (DVD-RAM)
0106 Search unit
0107 Playback unit
0201 Character information storage
[0202] Text break detection unit
[0203] Text information writing unit
0401 Luminance data acquisition unit
[0402] Brightness data storage unit
0403 Luminance comparison unit
0404 Brightness change pixel count section
0405 Scene change judgment unit
[0406] Time storage unit
0407 Scene change time writing unit
0501 Audio level detector
[0502] Audio level comparison unit
0503 Silence period measurement unit
0504 Topic change judgment unit
0505 Topic change time writing unit

Claims (28)

文字情報が含まれた映像信号を所定の規格に基づいて記録媒体に記録する装置であって、
前記映像信号に含まれている文字情報を検出する文字情報検出部と、
前記文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータとが一致するか否かを判断する文字情報比較部と、
前記文字情報比較部で一致すると判断されたとき記録媒体に検索情報を記録する検索情報書き込み部とを備え、
前記検索情報は、
記録媒体に記録された映像信号における所定の時刻を含み、
前記所定の時刻は、
前記文字情報検出部で検出された文字情報とあらかじめ設定された検索パラメータとが一致する時刻を示す
ことを特徴とする画像情報記録装置。
An apparatus for recording a video signal containing character information on a recording medium based on a predetermined standard,
A character information detection unit that detects character information included in the video signal,
A character information comparing unit that determines whether the character information detected by the character information detecting unit matches a preset search parameter,
A search information writing unit that records search information on a recording medium when it is determined that the character information comparison unit matches,
The search information includes:
Including a predetermined time in the video signal recorded on the recording medium,
The predetermined time is
An image information recording apparatus characterized by indicating a time at which the character information detected by the character information detection section matches a preset search parameter.
請求項1において、
前記文字情報検出部で検出された文字情報より文章の終端を検出する文章終端検出部と、
前記文章終端検出部で文章の終端が検出されるまで前記文字情報検出部で検出された文字情報を記憶する文章情報記憶部と、
前記文字情報比較部で一致すると判断されたとき前記文字情報記憶部で記憶された文字情報を記録媒体に記録する文章情報書き込み部とをさらに備え、
前記検索情報書き込み部はさらに、
前記文章情報書き込み部で記録媒体に記録された文字情報が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録装置。
In claim 1,
A sentence end detection unit that detects the end of a sentence from the character information detected by the character information detection unit,
A sentence information storage unit that stores character information detected by the character information detection unit until the end of a sentence is detected by the sentence end detection unit,
Further comprising a text information writing unit that records the character information stored in the character information storage unit on a recording medium when it is determined that the character information comparison unit matches,
The search information writing unit further includes:
An image information recording apparatus, wherein information (link information) for linking to an area where character information recorded on a recording medium is stored by the text information writing unit is written in the search information.
請求項1において、
前記映像信号の時間的に前後する2つのフレーム間における各画素の輝度データの時間的変化を求める輝度比較部と、
前記輝度比較部で求めた輝度データの時間的変化が第1の値よりも大きいと示された画素の数をカウントするカウント部と、
前記カウント部でカウントした画素の数が第2の値よりも多いか否かを判断するシーン変化判断部と、
前記シーン変化判断部で前記第2の値よりも多いと判断されたときの時刻を記憶する時刻記憶部と
前記文字情報比較部で一致すると判断されたとき前記時刻記憶部で記憶された時刻を記録媒体に記録するシーン変化時刻書き込み部とをさらに備え、
前記検索情報書き込み部はさらに、
前記シーン変化時刻書き込み部で記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録装置。
In claim 1,
A luminance comparing unit that calculates a temporal change in luminance data of each pixel between two frames that are temporally before and after the video signal,
A counting unit that counts the number of pixels whose temporal change in the luminance data obtained by the luminance comparing unit is greater than a first value;
A scene change determining unit that determines whether the number of pixels counted by the counting unit is greater than a second value;
A time storage unit that stores the time when the scene change determination unit determines that the time is greater than the second value, and a time that is stored in the time storage unit when the character information comparison unit determines that they match. A scene change time writing unit for recording on a recording medium,
The search information writing unit further includes:
An image information recording apparatus, wherein information (link information) for linking to an area storing a time recorded on a recording medium by the scene change time writing unit is written in the search information.
請求項1において、
前記映像信号は、音声信号を含んでおり、
前記映像信号より音声のレベルを検出するレベル検出部と、
前記レベル検出部で検出された音声のレベルが第1の値よりも大きいか否かを判断するレベル比較部と、
前記レベル比較部によって検出された音声のレベルが前記第1の値以下である時間を計測する無音期間計測部と、
前記無音期間計測部で計測された時間が第2の値よりも長いか否かを判断する話題変化判断部と、
前記話題変化判断部で前記第2の値よりも長いと判断されたとき前記レベル比較部で前記第1の値よりも大きいと判断された時刻を記憶する時刻記憶部と、
前記文字情報比較部で一致すると判断されたとき前記時刻記憶部で記憶された時刻を記録媒体に記録する話題変化時刻書き込み部とをさらに備え、
前記検索情報書き込み部はさらに、
前記話題変化時刻書き込み部で記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録装置。
In claim 1,
The video signal includes an audio signal,
A level detection unit that detects a level of audio from the video signal,
A level comparing unit that determines whether the level of the sound detected by the level detecting unit is greater than a first value,
A silence period measurement unit that measures time during which the level of the sound detected by the level comparison unit is equal to or less than the first value;
A topic change determination unit that determines whether the time measured by the silence period measurement unit is longer than a second value;
A time storage unit that stores a time when the level comparison unit determines that the value is longer than the first value when the topic change determination unit determines that the time is longer than the second value;
A topic change time writing unit that records the time stored in the time storage unit on a recording medium when it is determined that the character information comparison unit matches, further comprising:
The search information writing unit further includes:
An image information recording apparatus, wherein information (link information) for linking to an area storing a time recorded on a recording medium by the topic change time writing unit is written in the search information.
請求項1から請求項4のうちいずれか1つにおいて、
前記検索情報書き込み部はさらに、
前記検索情報に文字検索のために記録したことを示すデータを書き込む
ことを特徴とする画像情報記録装置。
In any one of claims 1 to 4,
The search information writing unit further includes:
An image information recording apparatus, wherein data indicating that the information has been recorded for character search is written in the search information.
請求項1に記載の画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する装置であって、
前記記録媒体に記録されたデータより検索情報を検出する検出部と、
前記記録媒体に記録された映像信号の中から前記検出部で検出された検索情報が示す時刻に対応する部分を検索するデータ検索部とを備える
ことを特徴とする画像情報検索装置。
An apparatus for processing data (video signal, search information) recorded on a recording medium by the image information recording apparatus according to claim 1,
A detection unit that detects search information from data recorded on the recording medium,
An image information search device, comprising: a data search unit that searches a portion corresponding to a time indicated by search information detected by the detection unit from a video signal recorded on the recording medium.
請求項1に記載の画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する装置であって、
前記記録媒体に記録されたデータより検索情報を検出する検出部と、
前記記録媒体に記録された映像信号より前記検出部で検出された検索情報に対応するサムネイルを作成するサムネイル作成部と、
前記記録媒体に記録された映像信号の中から前記検出部で検出された検索情報が示す時刻に対応する部分を検索するデータ検索部とを備える
ことを特徴とする画像情報検索装置。
An apparatus for processing data (video signal, search information) recorded on a recording medium by the image information recording apparatus according to claim 1,
A detection unit that detects search information from data recorded on the recording medium,
A thumbnail creation unit that creates a thumbnail corresponding to the search information detected by the detection unit from the video signal recorded on the recording medium;
An image information search device, comprising: a data search unit that searches a portion corresponding to a time indicated by search information detected by the detection unit from a video signal recorded on the recording medium.
請求項1に記載の画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する装置であって、
前記記録媒体に記録されたデータの中から検索情報を検出する検出部と、
所定の時間内に前記文字情報比較部で一致すると判断された回数(発生頻度)を求める発生頻度作成部と、
前記記録媒体に記録された映像信号の中から前記検出部で検出された検索情報が示す時刻に対応する部分を検索するデータ検索部とを備える
ことを特徴とする画像情報検索装置。
An apparatus for processing data (video signal, search information) recorded on a recording medium by the image information recording apparatus according to claim 1,
A detection unit that detects search information from data recorded on the recording medium,
An occurrence frequency creation unit that determines the number of times (occurrence frequency) determined to match by the character information comparison unit within a predetermined time;
An image information search device, comprising: a data search unit that searches a portion corresponding to a time indicated by search information detected by the detection unit from a video signal recorded on the recording medium.
請求項8において、
前記発生頻度作成部は、
前記文字情報比較部で一致すると判断された時刻の時間間隔を求める時間間隔作成部と、
前記時間間隔作成部で求められた時間間隔の中で最大の時間間隔を選択する最大間隔選択部と、
前記最大間隔選択部で選択された最大の時間間隔内に存在する前記検索情報の数を求める発生回数作成部とを含む
ことを特徴とする画像情報検索装置。
In claim 8,
The occurrence frequency creation unit,
A time interval creation unit that determines a time interval of the time determined to match in the character information comparison unit,
A maximum interval selection unit that selects a maximum time interval among the time intervals determined by the time interval creation unit,
An image information search device, comprising: an occurrence count creation unit for finding the number of search information items present within a maximum time interval selected by the maximum interval selection unit.
請求項8において、
前記発生頻度作成部はさらに、
前記発生頻度の時間的分布を求める
ことを特徴とする画像情報検索装置。
In claim 8,
The occurrence frequency creation unit further includes:
An image information retrieval apparatus, wherein a temporal distribution of the occurrence frequency is obtained.
請求項2に記載の画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報,文字情報)を処理する装置であって、
前記記録媒体に記録されたデータの中から検索情報を検出する検出部と、
前記検出部で検出された検索情報に書き込まれた前記リンク情報を参照して前記記録媒体に記録された文字情報よりOSDを作成するOSD作成部と、
前記記録媒体に記録された映像信号の中から前記検出部で検出された検索情報が示す時刻に対応する部分を検索するデータ検索部とを備える
ことを特徴とする画像情報検索装置。
An apparatus for processing data (video signal, search information, character information) recorded on a recording medium by the image information recording apparatus according to claim 2,
A detection unit that detects search information from data recorded on the recording medium,
An OSD creation unit that creates an OSD from character information recorded on the recording medium with reference to the link information written in the search information detected by the detection unit;
An image information search device, comprising: a data search unit that searches a portion corresponding to a time indicated by search information detected by the detection unit from a video signal recorded on the recording medium.
請求項3または請求項4に記載の画像情報記録装置によって記録媒体に記録されたデータ(映像信号,検索情報,時刻)を処理する装置であって、
前記記録媒体に記録されたデータの中から検索情報を検出する検出部と、
前記検出部で検出された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する前記記録媒体に記録された時刻を検索する時刻検索部と、
前記記録媒体に記録された映像信号の中から前記時刻検索部で検索された時刻に対応する部分を検索するデータ検索部とを備える
ことを特徴とする画像情報検索装置。
An apparatus for processing data (video signal, search information, time) recorded on a recording medium by the image information recording apparatus according to claim 3 or 4,
A detection unit that detects search information from data recorded on the recording medium,
A time search unit that searches for a time recorded on the recording medium corresponding to the search information with reference to link information written in the search information detected by the detection unit;
An image information search device, comprising: a data search unit that searches a portion corresponding to the time searched by the time search unit from the video signal recorded on the recording medium.
請求項12において、
前記検出部で検出された検索情報が示す時刻と前記時刻検索部で検索された時刻との時間間隔が所定の値よりも長いか否かを判断する時間間隔判断部をさらに備え、
前記データ検索部は、
前記時間間隔判断部で所定の値よりも長いと判断されたとき前記記録媒体に記録された映像信号の中から前記検索情報が示す時刻に対応する部分を検索する
ことを特徴とする画像情報検索装置。
In claim 12,
A time interval determination unit that determines whether a time interval between the time indicated by the search information detected by the detection unit and the time searched by the time search unit is longer than a predetermined value,
The data search unit includes:
When the time interval determination section determines that the time is longer than a predetermined value, a portion corresponding to the time indicated by the search information is searched from the video signal recorded on the recording medium. apparatus.
請求項6、請求項7、請求項8、請求項11、請求項12のうちいずれか1つにおいて、
前記検出部はさらに、
前記記録媒体に記録されたデータの中から検索情報を検出するときに前記検索情報が文字検索のための検索情報であるか否かを判断する
ことを特徴とする画像情報検索装置。
In any one of claim 6, claim 7, claim 8, claim 11, and claim 12,
The detection unit further includes:
An image information search device, wherein when detecting search information from data recorded on the recording medium, it is determined whether the search information is search information for character search.
文字情報が含まれた映像信号を所定の規格に基づいて記録媒体に記録する方法であって、
前記映像信号に含まれている文字情報を検出する文字情報検出ステップと、
前記文字情報検出ステップで検出された文字情報とあらかじめ設定された検索パラメータとが一致するか否かを判断する文字情報比較ステップと、
前記文字情報比較ステップで一致すると判断されたとき記録媒体に検索情報を記録する検索情報書き込みステップとを備え、
前記検索情報は、
記録媒体に記録された映像信号における所定の時刻を含み、
前記所定の時刻は、
前記文字情報検出ステップで検出された文字情報とあらかじめ設定された検索パラメータとが一致する時刻を示す
ことを特徴とする画像情報記録方法。
A method of recording a video signal containing character information on a recording medium based on a predetermined standard,
Character information detection step of detecting character information contained in the video signal,
A character information comparison step of determining whether or not the character information detected in the character information detection step matches a preset search parameter;
A search information writing step of recording search information on a recording medium when it is determined that the character information matches in the character information comparison step,
The search information includes:
Including a predetermined time in the video signal recorded on the recording medium,
The predetermined time is
An image information recording method, characterized by indicating a time when the character information detected in the character information detecting step matches a preset search parameter.
請求項15において、
前記文字情報検出ステップで検出された文字情報より文章の終端を検出する文章終端検出ステップと、
前記文章終端検出ステップで文章の終端が検出されるまで前記文字情報検出ステップで検出された文字情報を記憶する文章情報記憶ステップと、
前記文字情報比較ステップで一致すると判断されたとき前記文字情報記憶ステップで記憶された文字情報を記録媒体に記録する文章情報書き込みステップとをさらに備え、
前記検索情報書き込みステップはさらに、
前記文章情報書き込みステップで記録媒体に記録された文字情報が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録方法。
In claim 15,
A sentence end detecting step of detecting the end of the sentence from the character information detected in the character information detecting step,
A sentence information storing step of storing character information detected in the character information detecting step until the end of the sentence is detected in the sentence end detecting step;
A text information writing step of recording the character information stored in the character information storage step on a recording medium when it is determined that the character information matches in the character information comparison step,
The search information writing step further includes:
An image information recording method, wherein information (link information) for linking to an area storing character information recorded on a recording medium in the text information writing step is written in the search information.
請求項15において、
前記映像信号の時間的に前後する2つのフレーム間における各画素の輝度データの時間的変化を求める輝度比較ステップと、
前記輝度比較ステップで求めた輝度データの時間的変化が第1の値よりも大きいと示された画素の数をカウントするカウントステップと、
前記カウントステップでカウントした画素の数が第2の値よりも多いか否かを判断するシーン変化判断ステップと、
前記シーン変化判断ステップで第2の値よりも多いと判断されたときの時刻を記憶する時刻記憶ステップと
前記文字情報比較ステップで一致すると判断されたとき前記時刻記憶ステップで記憶された時刻を記録媒体に記録するシーン変化時刻書き込みステップとをさらに備え、
前記検索情報書き込みステップはさらに、
前記シーン変化時刻書き込みステップで記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録方法。
In claim 15,
A luminance comparing step of obtaining a temporal change in luminance data of each pixel between two frames temporally preceding and following the video signal;
A counting step of counting the number of pixels whose temporal change in the luminance data obtained in the luminance comparing step is greater than a first value;
A scene change determining step of determining whether the number of pixels counted in the counting step is larger than a second value;
A time storage step for storing a time when it is determined that the number is greater than a second value in the scene change determination step, and a time stored in the time storage step when the character information comparison step determines that they match. Further comprising a scene change time writing step of recording on a medium,
The search information writing step further includes:
An image information recording method, wherein information (link information) for linking to an area in which a time recorded on a recording medium is stored in the scene change time writing step is written in the search information.
請求項15において、
前記映像信号は、音声信号を含んでおり、
前記映像信号より音声のレベルを検出するレベル検出ステップと、
前記レベル検出ステップで検出された音声のレベルが第1の値よりも大きいか否かを判断するレベル比較ステップと、
前記レベル比較ステップによって検出された音声のレベルが前記第1の値以下である時間を計測する無音期間計測ステップと、
前記無音期間計測ステップで計測された時間が第2の値よりも長いか否かを判断する話題変化判断ステップと、
前記話題変化判断ステップで前記第2の値よりも長いと判断されたとき前記レベル比較ステップで前記第1の値よりも大きいと判断された時刻を記憶する時刻記憶ステップと、
前記文字情報比較ステップで一致すると判断されたとき前記時刻記憶ステップで記憶された時刻を記録媒体に記録する話題変化時刻書き込みステップとをさらに備え、
前記検索情報書き込みステップはさらに、
前記話題変化時刻書き込みステップで記録媒体に記録された時刻が格納されている領域にリンクするための情報(リンク情報)を前記検索情報に書き込む
ことを特徴とする画像情報記録方法。
In claim 15,
The video signal includes an audio signal,
A level detection step of detecting an audio level from the video signal,
A level comparing step of determining whether or not the level of the sound detected in the level detecting step is greater than a first value;
A silence period measuring step of measuring a time during which the level of the sound detected by the level comparing step is equal to or less than the first value;
A topic change determining step of determining whether the time measured in the silent period measuring step is longer than a second value;
A time storage step of storing a time determined to be greater than the first value in the level comparison step when the topic change determination step determines that the value is longer than the second value;
A topic change time writing step of recording the time stored in the time storage step on a recording medium when it is determined that they match in the character information comparing step,
The search information writing step further includes:
An image information recording method, wherein information (link information) for linking to an area storing a time recorded on a recording medium in the topic change time writing step is written in the search information.
請求項15から請求項18のうちいずれか1つにおいて、
前記検索情報書き込みステップはさらに、
前記検索情報に文字検索のために記録したことを示すデータを書き込む
ことを特徴とする画像情報記録方法。
In any one of claims 15 to 18,
The search information writing step further includes:
An image information recording method, wherein data indicating that the information has been recorded for character search is written in the search information.
請求項15に記載の画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する方法であって、
前記記録媒体に記録されたデータの中から検索情報を検出する検出ステップと、
前記記録媒体に記録された映像信号の中から前記検出ステップで検出された検索情報が示す時刻に対応する部分を検索するデータ検索ステップとを備える
ことを特徴とする画像情報検索方法。
A method for processing data (video signal, search information) recorded on a recording medium by the image information recording method according to claim 15,
A detection step of detecting search information from data recorded on the recording medium,
A data search step of searching a video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
請求項15に記載の画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する方法であって、
前記記録媒体に記録されたデータより検索情報を検出する検出ステップと、
前記記録媒体に記録された映像信号より前記検出ステップで検出された検索情報に対応するサムネイルを作成するサムネイル作成ステップと
前記サムネイル作成ステップで作成されたサムネイルを表示装置に表示するサムネイル表示ステップと、
前記記録媒体に記録された映像信号の中から前記検出ステップで検出された検索情報が示す時刻に対応する部分を検索するデータ検索ステップとを備える
ことを特徴とする画像情報検索方法。
A method for processing data (video signal, search information) recorded on a recording medium by the image information recording method according to claim 15,
A detection step of detecting search information from data recorded on the recording medium,
A thumbnail creation step of creating a thumbnail corresponding to the search information detected in the detection step from the video signal recorded on the recording medium, and a thumbnail display step of displaying the thumbnail created in the thumbnail creation step on a display device;
A data search step of searching a video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
請求項15に記載の画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報)を処理する方法であって、
前記記録媒体に記録されたデータより検索情報を検出する検出ステップと、
所定の時間内に前記文字情報比較ステップで一致すると判断された回数(発生頻度)を求める発生頻度作成ステップと、
前記発生頻度作成ステップで作成された発生頻度を表示装置に表示する発生頻度表示ステップと、
前記記録媒体に記録された映像信号の中から前記検出ステップで検出された検索情報が示す時刻に対応するステップ分を検索するデータ検索ステップとを備える
ことを特徴とする画像情報検索方法。
A method for processing data (video signal, search information) recorded on a recording medium by the image information recording method according to claim 15,
A detection step of detecting search information from data recorded on the recording medium,
An occurrence frequency creation step of finding the number of times (occurrence frequency) determined to match in the character information comparison step within a predetermined time;
An occurrence frequency display step of displaying the occurrence frequency created in the occurrence frequency creation step on a display device,
A data search step of searching a video signal recorded on the recording medium for a step corresponding to the time indicated by the search information detected in the detection step.
請求項22において、
前記発生頻度作成ステップは、
前記文字情報比較ステップで一致すると判断された時刻の時間間隔を求める時間間隔作成ステップと、
前記時間間隔作成ステップで求められた時間間隔の中で最大の時間間隔を選択する最大間隔選択ステップと、
前記最大間隔選択ステップで選択された最大の時間間隔内に存在する前記検索情報の数を求める発生回数作成ステップとを含む
ことを特徴とする画像情報検索方法。
In claim 22,
The occurrence frequency creating step includes:
A time interval creation step of finding a time interval of the time determined to match in the character information comparison step,
A maximum interval selection step of selecting a maximum time interval among the time intervals determined in the time interval creation step,
Generating a number of occurrences for finding the number of the search information existing within the maximum time interval selected in the maximum interval selection step.
請求項22において、
前記発生頻度作成ステップは、
さらに前記発生頻度の時間的分布を求め、
前記発生頻度表示ステップは、
前記発生頻度作成ステップで作成された発生頻度の時間的分布を表示装置に表示する
ことを特徴とする画像情報検索方法。
In claim 22,
The occurrence frequency creating step includes:
Further, the temporal distribution of the occurrence frequency is obtained,
The occurrence frequency display step includes:
An image information search method, wherein a temporal distribution of the occurrence frequency created in the occurrence frequency creation step is displayed on a display device.
請求項16に記載の画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報,文字情報)を処理する方法であって、
前記記録媒体に記録されたデータより検索情報を検出する検出ステップと、
前記検出ステップで検出された検索情報に書き込まれた前記リンク情報を参照して前記記録媒体に記録された文字情報よりOSDを作成するOSD作成ステップと、
前記OSD作成ステップで作成されたOSDを表示装置に表示するOSD表示ステップと、
前記記録媒体に記録された映像信号の中から前記検出ステップで検出された検索情報が示す時刻に対応する部分を検索するデータ検索ステップとを備える
ことを特徴とする画像情報検索方法。
A method for processing data (video signal, search information, character information) recorded on a recording medium by the image information recording method according to claim 16,
A detection step of detecting search information from data recorded on the recording medium,
An OSD creation step of creating an OSD from character information recorded on the recording medium with reference to the link information written in the search information detected in the detection step;
An OSD display step of displaying the OSD created in the OSD creation step on a display device;
A data search step of searching a video signal recorded on the recording medium for a portion corresponding to the time indicated by the search information detected in the detection step.
請求項17または請求項18に記載の画像情報記録方法によって記録媒体に記録されたデータ(映像信号,検索情報,時刻)を処理する方法であって、
前記記録媒体に記録されたデータの中から前記検索情報を検出する検出ステップと、
前記検出ステップで検出された検索情報に書き込まれたリンク情報を参照して前記検索情報に対応する前記記録媒体に記録された時刻を検索する時刻検索ステップと、
前記記録媒体に記録された映像信号の中から前記時刻検索ステップで検索された時刻に対応する部分を検索するデータ検索ステップとを備える
ことを特徴とする画像情報検索方法。
A method for processing data (video signal, search information, time) recorded on a recording medium by the image information recording method according to claim 17 or 18,
A detection step of detecting the search information from data recorded on the recording medium,
A time search step of searching for a time recorded on the recording medium corresponding to the search information by referring to link information written in the search information detected in the detection step;
A data search step of searching a portion corresponding to the time searched in the time search step from the video signal recorded on the recording medium.
請求項26において、
前記検出ステップで検出された検索情報が示す時刻と前記時刻検索ステップで検索された時刻との時間間隔が所定の値よりも長いか否かを判断する時間間隔判断ステップをさらに備え、
前記データ検索ステップは、
前記時間検索判断ステップで所定の値よりも長いと判断されたとき前記記録媒体に記録された映像信号の中から前記検索情報が示す時刻に対応する部分を検索する
ことを特徴とする画像情報検索方法。
In claim 26,
A time interval determining step for determining whether a time interval between the time indicated by the search information detected in the detecting step and the time searched in the time searching step is longer than a predetermined value,
The data search step includes:
An image information search unit that searches a portion corresponding to a time indicated by the search information from a video signal recorded on the recording medium when it is determined that the time is longer than a predetermined value in the time search determination step. Method.
請求項20、請求項21、請求項22、請求項25、請求項26のうちいずれか1つにおいて、
前記検出ステップは、
前記記録媒体に記録されたデータの中から検索情報を検出するときに前記検索情報が文字検索のための検索情報であるか否かを判断する
ことを特徴とする画像情報検索方法。
In any one of claim 20, claim 21, claim 22, claim 25, and claim 26,
The detecting step includes:
An image information search method, comprising: determining whether search information is search information for character search when detecting search information from data recorded on the recording medium.
JP2003157192A 2003-06-02 2003-06-02 Image information recording apparatus and method, and image information searching apparatus and method Withdrawn JP2004363729A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003157192A JP2004363729A (en) 2003-06-02 2003-06-02 Image information recording apparatus and method, and image information searching apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003157192A JP2004363729A (en) 2003-06-02 2003-06-02 Image information recording apparatus and method, and image information searching apparatus and method

Publications (2)

Publication Number Publication Date
JP2004363729A true JP2004363729A (en) 2004-12-24
JP2004363729A5 JP2004363729A5 (en) 2006-06-22

Family

ID=34051045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003157192A Withdrawn JP2004363729A (en) 2003-06-02 2003-06-02 Image information recording apparatus and method, and image information searching apparatus and method

Country Status (1)

Country Link
JP (1) JP2004363729A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113495970A (en) * 2020-04-01 2021-10-12 深圳云天励飞技术有限公司 Picture retrieval method and device and electronic equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113495970A (en) * 2020-04-01 2021-10-12 深圳云天励飞技术有限公司 Picture retrieval method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP3376303B2 (en) Optical disk, optical disk recording device, and optical disk reproducing device
US6542694B2 (en) Optical disc for storing moving pictures with text information and apparatus using the disc
KR100326400B1 (en) Method for generating caption location information, method for searching thereby, and reproducing apparatus using the methods
TWI280568B (en) Information storage medium for storing subtitle and video mapping information, and method and apparatus for reproducing thereof
KR100771264B1 (en) Medium on recorded script files, and method and apparatus for reproducing them
KR100769375B1 (en) Medium on recorded script files, and method and apparatus for reproducing them
JP4361674B2 (en) Playback apparatus and computer-readable recording medium
JP2003317395A (en) Information recording device and information recording method
JP2004363729A (en) Image information recording apparatus and method, and image information searching apparatus and method
US8208791B2 (en) Authoring device, authoring method, authoring program, and recording medium containing the program
JP3840790B2 (en) Information reproduction control apparatus and information reproduction method
KR100443273B1 (en) Method for pointing and reproducing on recorded data optical disc
KR100565115B1 (en) Method of creating caption-based search information and repeating a section using the created search information, and an apparatus using the method
JP3376370B2 (en) Optical disk, optical disk recording device, and optical disk reproducing device
JP2002279765A (en) Information recording and reproducing method with play list editing function and its device
JP2007329732A (en) Thumbnail display method and information recording and reproducing device
JP2001069439A (en) Recording and reproducing device with character information recording function
JP2003022659A (en) Optical disk, optical disk recorder and optical disk reproducer

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060501

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070731