JP4235635B2 - Data retrieval apparatus and control method thereof - Google Patents
Data retrieval apparatus and control method thereof Download PDFInfo
- Publication number
- JP4235635B2 JP4235635B2 JP2005265502A JP2005265502A JP4235635B2 JP 4235635 B2 JP4235635 B2 JP 4235635B2 JP 2005265502 A JP2005265502 A JP 2005265502A JP 2005265502 A JP2005265502 A JP 2005265502A JP 4235635 B2 JP4235635 B2 JP 4235635B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- person
- speaker
- search
- search condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、検索対象データ内から検索条件を指定して所望のデータを検索可能なデータ検索装置及びその制御方法に関するものである。 The present invention relates to a data search apparatus capable of searching for desired data by specifying a search condition from search target data, and a control method therefor.
近年、ビデオカメラの記録方法がアナログ形式からデジタル形式になるとともに、ユーザによるビデオカメラ本体またはパーソナルコンピュータを用いた各種動画編集が行われるようになってきた。動画編集を行う際、動画データの一部分を切り取り、コピー、貼り付けが頻繁に行われている。これらの操作を行う為に、動画の切り出し部分などの先頭を検索しマークを付けるといった作業が必要である。また、動画編集を行う際、被写体が話者となっている時に字幕スーパや吹き出し等の効果を付けることも行われている。 In recent years, the recording method of the video camera has changed from an analog format to a digital format, and various types of video editing using a video camera body or a personal computer have been performed by a user. When editing a movie, a part of the movie data is frequently cut, copied, and pasted. In order to perform these operations, it is necessary to search for and mark the beginning of a cutout portion of a moving image. In addition, when editing a moving image, effects such as subtitle super or a speech balloon are added when the subject is a speaker.
このように動画データ内のシーンに対して所望のシーンを検索して、編集操作を行っている。その一つの方法として、話者の台詞をキーワードとして検索する方法が挙げられる。例えば、「おはようございます。」の挨拶シーンを検索する際、「おはようございます。」を指定することで、動画データ内の挨拶シーンを検索することができる。 In this way, a desired scene is searched for a scene in the moving image data, and an editing operation is performed. As one of the methods, there is a method of searching using a speaker's dialogue as a keyword. For example, when searching for a greeting scene of “Good morning”, it is possible to search for a greeting scene in the video data by specifying “Good morning”.
このようなシーン検索方法として、ビデオコンテンツファイル生成システムが作成したビデオコンテンツファイルに対して、所望の検索キーワードを入力し、字幕テキストファイル内を検索する方法が特許文献1に提案されている。
As such a scene search method,
また、音声で入力したキーワードに対して、音声パターンで検索する方法が特許文献2に提案されている。
Further,
しかしながら、従来技術において音声や字幕テキスト内のキーワードによる検索を行う場合、話者の特定ができず、特に動画データの中に多数の人が同じ台詞(キーワード)を喋っている場合に多数の検索結果が出力され、話者の特定に時間がかかるため効率が悪い。 However, when searching with keywords in audio and subtitle texts in the prior art, it is not possible to identify the speaker, especially when many people speak the same line (keyword) in the video data. The result is output, and it takes time to identify the speaker, which is inefficient.
そこで、本発明の目的は、指定した人物が喋った内容が含まれるデータを効率よく検索可能とすることにある。 Accordingly, an object of the present invention is to make it possible to efficiently search for data including contents sung by a designated person.
本発明のデータ検索装置は、人物を識別するための識別用データを用いて、検索対象データに含まれる前記人物の人物に係るデータから前記人物を識別し、前記人物を示すデータを生成する第1のデータ生成手段と、前記人物に係るデータから前記人物の音声データを抽出し、抽出した音声データから前記人物の発声内容を示すデータを生成する第2のデータ生成手段と、前記検索対象データ内における前記人物に係るデータの位置を示す位置データを生成する第3のデータ生成手段と、前記人物に係るデータ内に前記人物の画像データが含まれるか否かを示す存在データを生成する第4のデータ生成手段と、検索対象の人物の画像データが含まれるか否かを指定するデータを検索条件として入力する第3の検索条件入力手段と、前記第3の検索条件入力手段により検索条件が入力された場合、前記第1のデータ生成手段、前記第2のデータ生成手段及び前記第4のデータ生成手段により生成されたデータの組のうち、入力された検索条件に合致するデータの組みを判定する判定手段と、前記判定手段により判定されたデータの組みに対応する位置データに基づいて、その位置データにより示される位置のデータを前記検索対象データから検索するデータ検索手段とを有することを特徴とする。
本発明のデータ検索装置の制御方法は、データを検索するためのデータ検索装置の制御方法であって、人物を識別するための識別用データを用いて、検索対象データに含まれる前記人物の人物に係るデータから前記人物を識別し、前記人物を示すデータを生成する第1のデータ生成ステップと、前記人物に係るデータから前記人物の音声データを抽出し、抽出した音声データから前記人物の発声内容を示すデータを生成する第2のデータ生成ステップと、前記検索対象データ内における前記人物に係るデータの位置を示す位置データを生成する第3のデータ生成ステップと、前記人物に係るデータ内に前記人物の画像データが含まれるか否かを示す存在データを生成する第4のデータ生成ステップと、検索対象の人物の画像データが含まれるか否かを指定するデータを検索条件として入力する検索条件入力ステップと、前記検索条件入力ステップにより検索条件が入力された場合、前記第1のデータ生成ステップ、前記第2のデータ生成ステップ及び前記第4のデータ生成ステップにより生成されたデータの組のうち、入力された検索条件に合致するデータの組みを判定する判定ステップと、前記判定ステップにより判定されたデータの組みに対応する位置データに基づいて、その位置データにより示される位置のデータを前記検索対象データから検索するデータ検索ステップとを含むことを特徴とする。
本発明のプログラムは、前記のデータ検索装置の制御方法をコンピュータに実行させることを特徴とする。
本発明のコンピュータ読み取り可能な記録媒体は、前記のプログラムを記録したことを特徴とする。
The data search device of the present invention uses identification data for identifying a person to identify the person from data related to the person of the person included in the search target data, and generates data indicating the
A control method for a data search apparatus according to the present invention is a control method for a data search apparatus for searching for data, and the person of the person included in the search target data using identification data for identifying a person. A first data generation step for identifying the person from the data related to the data and generating data indicating the person; extracting voice data of the person from the data related to the person; and uttering the person from the extracted voice data A second data generating step for generating data indicating content, a third data generating step for generating position data indicating the position of the data relating to the person in the search target data, and the data relating to the person A fourth data generation step for generating presence data indicating whether or not the image data of the person is included; and image data of the person to be searched A search condition input step for inputting data specifying whether or not as a search condition; and when the search condition is input by the search condition input step, the first data generation step, the second data generation step, and the first Among the data sets generated by the data generation step of 4, based on the determination step for determining the data set that matches the input search condition, and the position data corresponding to the data set determined by the determination step And a data search step for searching for data at a position indicated by the position data from the search target data.
A program according to the present invention causes a computer to execute the control method of the data search apparatus.
The computer-readable recording medium of the present invention is characterized in that the program is recorded.
本発明によれば、人物、その人物の台詞とともに話者の画像データが含まれるか否かを指定することで、指定した人物が喋った内容が含まれ、且つ話者が画像内に映っている画像データを効率よく検索することが可能となる。 According to the present invention, by designating whether or not a person and the person's dialogue are included together with the image data of the speaker, the content of the specified person is included, and the speaker is reflected in the image. It is possible to efficiently search for existing image data.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
−第1の実施形態−
先ず、本発明の第1の実施形態について説明する。図1及び図2は、本発明の第1の実施形態に係る話者特定検索装置の構成を示すブロック図である。100は動画データの内部構造を示している。動画データ100は、話者データ109、画像データ101、音声データ102及び字幕データ103により構成されており、画像データ101、音声データ102、字幕データ103が時系列に並んで構成されている。図1又は図2に示す動画データ100に含まれるデータのうち、画像データ101及び音声データ102はオリジナルのデータであり、話者データ109及び字幕データ103は画像データ101及び音声データ102を解析することによって生成され、図1又は図2に示すように所定の位置に後に埋め込まれるデータである。なお、ここで示す動画データの内部構造は一例であり、本発明に制限を与えるものではない。
-First embodiment-
First, a first embodiment of the present invention will be described. 1 and 2 are block diagrams showing the configuration of the speaker specific search apparatus according to the first embodiment of the present invention.
字幕データ103は、話者情報106、字幕のテキスト情報107及び発声開始情報108で構成されている。話者データ109は、オリジナルの動画データ100内の話者に関するデータが保存されている。話者データ109には、例えば話者を識別するためのデータ(例えば、話者の名称を示すデータ等)、顔識別用特徴量データ、顔の画像イメージデータ及び音声識別用特徴量データ等が話者毎に対応付けられて格納されている。話者データ109は話者データ読み出し部120により読み出され、動画データ内に存在する話者の一覧が取得できる。本実施形態では、動画データ100中に話者データ109が含まれる構成を採用しているが、他の実施形態として動画データ100中ではなく、例えば話者特定検索装置内部又は外部の記録媒体内に保持され、必要に応じて読み込まれて該当する処理において使用されるような構成であってもよい。
The
字幕データ103は、話者情報106、テキスト情報107及び発声開始情報108により構成される。話者情報106は、上記顔識別用特徴量データを用いて画像データから話者を特定した場合や上記音声識別用特徴量データを用いて音声データから話者を特定した場合に生成される当該話者を識別するためのデータである。テキスト情報107は、今回特定された話者の音声データが音声識別用特徴量データを用いて識別された場合に、その音声データを解析してテキスト化したテキストデータである。発声開始情報108は、今回特定された話者の音声データが識別された時点の時刻情報等から成る情報である。
The
110は字幕データ読み出し部であり、動画データ100から字幕データ103のみを順次読み出す。読み出された字幕データ103は話者特定取得部111、テキスト取得部112、発声開始情報取得部113へ送られ、それぞれ当該字幕の話者情報106、字幕のテキスト情報107、字幕の発声開始情報108が取得される。ここで取得された話者情報106と字幕のテキスト情報107は字幕データ比較部115へ送られる。
図3は字幕データの一例を示したものである。110の字幕データ読み出し部は、動画データ100内から字幕データ103のみを読み出す。読み出した字幕データ103の例が121及び122である。字幕データ122を例に以下の説明を行う。字幕データ読み出し部110に読み出された字幕データ122は、話者特定取得部111へ送られ、話者情報106が読み取られる。本実施形態では話者情報106は、Speakerタグで囲われている部分である。字幕データ122からは<Speaker>….</Speaker>で囲われている"B子"が話者であることが取得される。
FIG. 3 shows an example of caption data. A caption
また、字幕データ読み出し部110に読み出された字幕データ122は、テキスト取得部112へ送られ、字幕のテキスト情報107が読み取られる。本実施形態では字幕のテキスト情報107は、SubTitleタグで囲われている部分である。字幕データ122からは<SubTitle>….</SubTitle>で囲われている"おはようございます。"が字幕テキストとして取得される。
The
また、字幕データ読み出し部110に読み出された字幕データ122は、発声開始情報取得部113へ送られ、発声開始情報108が読み取られる。本実施形態では発声開始情報108は、StartTimeCodeタグで囲われている部分である。字幕データ122からは<StartTimeCode>….</StartTimeCode>で囲われている"T01:12:03 11"が発声始タイムコードとして取得される。本実施形態では、字幕データはタグを用いて作成しているが、他の形式であっても良い。
The
114は検索条件入力部であり、話者及び話者の発声した内容を検索条件として入力する。話者の入力手段としては、人物名の選択や顔の選択、画像からの選択であってもよい。話者の発声した内容入力手段としては、テキスト入力や音声入力であっても良い。入力された検索条件は、字幕データ比較部115へ送られる。
字幕データ比較部115では、検索条件と話者情報106と字幕のテキスト情報107を比較し、一致している字幕データ116を検索し、特定する。検索条件入力部114で、話者が"B子"、話者の発声した内容が"おはようございます。"であるとき、字幕データ121は話者情報が"A子"であるため不一致字幕データとして読み飛ばされ、字幕データ122が一致したものと判断され、一致字幕データ116となる。一致した字幕データ116は、字幕データ122から取得された発声開始情報108を一致字幕データの発声開始情報117として組み合わせて使用される。
The subtitle
一致字幕データの発声開始情報117は、発声開始のタイムコードとして音声データ検索部118及び動画像データ検索部119へ送られる。図2は、音声データ検索部118及び動画像データ検索部119の動作を説明するための図である。
The utterance start
字幕データ122の例において、発声開始のタイムコードとして"T01:12:03 11"が音声データ検索部118及び動画像データ検索部119へ送られる。音声データ検索部118では、動画データ100内から音声データ102のみを読み込み当該タイムコードの位置を検索する。図1又は図2では(1)に示す位置が検索された音声のデータ位置である。動画像データ検索部119では、動画データ100内から画像データ101のみを読み込み当該タイムコードの位置を検索する。図1又は図2では(2)に示す位置が検索された画像のデータ位置である。
In the example of the
図4は字幕表示の例である。200は画面データで、B子201が映っており、B子が「おはようございます。」を発声している状況である。字幕データ122に従って表示している字幕が202である。
FIG. 4 is an example of caption display.
図5は、話者特定検索装置上の検索ソフトウェアで表示される画面構成例を示す図である。300はメイン操作画面である。301は画像データの表示画面である。302は画像表示画面301に表示されている画像データのタイムコードである。305はダイヤルであり、303のジョグボタン、304のシャトルボタンにより動作が変わる。303のジョグボタンが押下されているとダイヤル305はジョグダイヤルとして機能し、回転方向にコマ送りが可能であり回転速度によりコマ送り速度を変化させる。304のシャトルボタンが押下されているとダイヤル305はシャトルダイヤルとして機能し、回転方向及び回転角によりコマ送り方向と速度を変化させる。306は前方のマークポイントまでの移動ボタン、307は巻き戻しボタン、308は再生ボタン、309は早送りボタン、310は後方のマークポイントまでの移動ボタン、311は検索ボタンである。
FIG. 5 is a diagram showing a screen configuration example displayed by the search software on the speaker specific search device.
図6は、メイン操作画面とともに、検索ボタン311を押下した際に表示される検索条件入力画面320を示す図である。321は話者を選択するプルダウンであり、話者を選択する。322は検索する台詞を入力する画面である。323は前方検索ボタンであり、現在のタイムコードより過去に遡って検索を実行する。324は後方検索ボタンであり、現在のタイムコードより後の検索を実行する。325はキャンセルボタンであり検索条件入力を中止する。
FIG. 6 is a diagram showing a search
第1の実施形態におけるソフトウェアによる処理の流れを図7のフローチャートを用いて説明する。ここでは、字幕データ103を含んだ動画データ100内からB子が「おはようございます。」を発声したシーンを検索する手順を例に挙げて説明する。
The flow of processing by software in the first embodiment will be described with reference to the flowchart of FIG. Here, a procedure for searching for a scene where child B uttered “Good morning” from moving
図5の検索ソフトウェアの画面300で検索ボタン311を押下するとシーン検索ステップ(ステップS100)に入る。シーン検索ステップ(ステップS100)に入ると、図6の検索条件入力画面320が表示される。
When the
続いて話者指定ステップ(ステップS101)が実行される。話者指定ステップ(ステップS101)では、動画データ100から話者データ読み出し部120により話者データ109を読み出し、動画データ100内の話者一覧を取得する。取得された話者の一覧は話者選択プルダウン321により選択することができる。本実施形態の話者プルダウン321では話者データ109に含まれる話者名称が表示され、話者名称により話者を選択する。話者選択時には、話者名称以外でも話者の顔を表示して選択することも可能である。図6の例では"B子"を選択している。
Subsequently, a speaker specifying step (step S101) is executed. In the speaker specifying step (step S101), the
話者を指定した後、話者の発声内容入力ステップ(ステップS102)が実行される。話者内容入力ステップ(ステップS102)では、話者の発声した台詞を台詞入力画面322から入力する。図6の例では"おはようございます。"を指定している。これらのステップにより検索条件として"B子"が発声した"おはようございます。"が設定され、前方検索ボタン323又は後方検索ボタン324を押下することで同条件を字幕データとして持つシーンが検索される。本実施形態では話者指定ステップ(ステップS101)、発声内容入力ステップ(ステップS102)の順に検索条件の設定を行っているが、順序は入れ替わっても良い。
After designating the speaker, the speaker's utterance content input step (step S102) is executed. In the speaker content input step (step S102), the speech uttered by the speaker is input from the
前方検索ボタン323又は後方検索ボタン324が押下されることで検索が開始される。検索では、先ず字幕データ読み出しステップ(ステップS103)が実行される。字幕データ読み出しステップ(ステップS103)では、字幕データ読み出し部110により動画データ100から字幕データ103のみを順次読み出す。読み出された字幕データ103は話者特定取得ステップ(ステップS104)において話者特定取得部111で話者情報106が取得される。例えば字幕データ121に対しては"A子"、字幕データ122に対しては"B子"が話者として取得される。取得された話者は話者一致ステップ(ステップS105)において話者指定ステップ(ステップS101)で指定された検索対象の話者と比較される。図6の例では検索対象の話者として"B子"が指定されているので、字幕データ121は不一致、字幕データ122は一致と判定される。不一致の場合は次の字幕データ読み出しステップ(ステップS103)へ戻る。一致の場合は次のテキスト取得ステップ(ステップS106)へ移行する。
The search is started when the
テキスト取得ステップ(ステップS106)では、字幕データ読み出しステップ(ステップS103)で読み出された字幕データ103よりテキスト取得部112によって字幕のテキスト情報107を取得する。例えば字幕データ121に対しては"おはようございます。"、字幕データ122に対しては"おはようございます。"が字幕のテキストとして取得される。取得された字幕のテキストは、テキスト一致ステップ(ステップS107)において発声内容入力ステップ(ステップS102)で指定された検索対象の台詞と比較される。図6の例では検索対象の台詞として"おはようございます。"が指定されているので、字幕データ122は一致と判定される。不一致の場合は次の字幕データ読み出しステップ(ステップS103)へ戻る。一致の場合は字幕データ122が一致字幕データ116として発声開始情報取得ステップ(ステップS108)へ渡される。
In the text acquisition step (step S106), the
発声開始情報取得ステップ(ステップS108)では、字幕データ読み出しステップ(ステップS103)で読み出された字幕データ103より発声開始情報取得部113によって発声開始情報108を取得する。例えば字幕データ121に対しては"T01:11:50 03"、字幕データ122に対しては"T01:12:03 11"が発声開始情報として取得される。ここでは、"B子"の字幕データ122が一致字幕データ116として送られたので、一致した発声開始情報117として"T01:12:03 11"が取得される。取得された発声開始情報117は音声データ検索ステップ(ステップS109)へ渡される。
In the utterance start information acquisition step (step S108), the utterance start
音声データ検索ステップ(ステップS109)では、動画データ100から音声データ検索部118により音声データ102のみを順次読み出し、一致した発声開始情報117で指定される位置(1)を検索する。ここでは一致した発声開始情報117として"T01:12:03 11"が入力されているので、タイムコード"01:12:03 11"の音声データ位置が取得される。
In the audio data search step (step S109), only the
また、発声開始情報取得ステップ(ステップS108)で取得された発声開始情報117は動画像データ検索ステップ(ステップS110)へ渡される。発声開始情報取得ステップ(ステップS108)では、動画データ100から動画像データ検索部119により画像データ101のみを順次読み出し、一致した発声開始情報117で指定される位置(2)を検索する。ここでは一致した発声開始情報117として"T01:12:03 11"が入力されているので、タイムコード"01:12:03 11"の画像データ位置が取得される。
The utterance start
検索結果OKステップ(ステップS111)では検索された音声データ及び画像データが画像の表示画面301及びタイムコード表示302に表示され、検索結果の確認が行われる。この検索結果で良ければ検索は終了し、更に検索を行う場合には306は前方のマークポイントまでの移動ボタンまたは310は後方のマークポイントまでの移動ボタンを押下することで次の字幕データを読み出し同一条件での検索を繰り返すことが可能である。
In the search result OK step (step S111), the searched audio data and image data are displayed on the
ここで示したフローチャートは一つの実施形態であり本発明を制限するものではない。話者一致ステップ(ステップS105)、テキスト一致ステップ(ステップS107)の順序が変わっても良く、また音声データ検索ステップ(ステップS109)と動画像データ検索ステップ(ステップS110)の順序が変わってもよい。 The flowchart shown here is one embodiment and does not limit the present invention. The order of the speaker matching step (step S105) and the text matching step (step S107) may be changed, and the order of the voice data searching step (step S109) and the moving image data searching step (step S110) may be changed. .
また、本実施形態では1件毎に検索を実施しているが、動画データ100内から検索条件に合致する字幕データを全て検索し、検索結果を画像の表示画面301に複数のインデックス画像としてマルチ表示することも可能である。
In the present embodiment, the search is performed for each item. However, all subtitle data matching the search condition is searched from the moving
また、本実施形態では話者指定ステップ(ステップS101)にて話者を1人に限定しているが、2人以上の話者を指定して検索する事も可能である。また、本実施形態では発声内容入力ステップ(ステップS102)にて一つの台詞を指定しているが、複数の台詞を指定して検索する事も可能である。 In the present embodiment, the number of speakers is limited to one in the speaker designation step (step S101), but it is also possible to designate and search for two or more speakers. In this embodiment, one line is specified in the utterance content input step (step S102). However, it is also possible to search by specifying a plurality of lines.
さらに、本実施形態ではテキスト一致ステップ(ステップS107)にて検索条件と字幕データの字幕テキストが一致していることを判定しているが、正規表現やあいまい検索等既知の検索方法に拡張する事も可能である。 Furthermore, in the present embodiment, it is determined in the text matching step (step S107) that the search condition and the caption text of the caption data match, but this can be extended to known search methods such as regular expressions and fuzzy searches. Is also possible.
このように本実施形態によれば、特定話者の特定の台詞で画像を検索することが容易にできるため、シーン検索が効率よく行うことが可能となる。 As described above, according to the present embodiment, it is possible to easily search for an image using a specific dialogue of a specific speaker, so that a scene search can be performed efficiently.
−第2の実施形態−
次に、本発明の第2の実施形態について説明する。図9は、本発明の第2の実施形態に係る撮像装置の構成を示す図である。図9に示す撮像装置では一般的にキーボードなどの文字入力手段が無いため、画像による検索条件の指定が必要である。本実施形態ではそのような場合の解決例を示している。
-Second Embodiment-
Next, a second embodiment of the present invention will be described. FIG. 9 is a diagram illustrating a configuration of an imaging apparatus according to the second embodiment of the present invention. Since the image pickup apparatus shown in FIG. 9 generally has no character input means such as a keyboard, it is necessary to specify a search condition by an image. In the present embodiment, a solution example in such a case is shown.
図9の撮像装置において、400は撮像装置本体(操作面)である。撮像装置はレンズユニット(図示せず)、撮像ユニット(図示せず)、信号処理ユニット(図示せず)、記録媒体(図示せず)を持っており、レンズユニットを通して取り込まれる画像を撮像ユニットでキャプチャし、信号処理ユニットによりデジタル信号処理を行い、背面の液晶表示装置401へ表示している。また、録画ボタン405を押下することでレンズユニットを通して取り込まれる画像を撮像ユニットでキャプチャし、信号処理ユニットによりデジタル信号処理を行った画像データを記録媒体へ格納する。以下では、図1又は図2に示す動画データ100の構成図を流用して本実施形態の説明を行なう。
In the image pickup apparatus of FIG. 9,
図9の撮像装置400において、401は撮影画像や再生画像の表示、各種設定画面の表示用の液晶表示装置である。402は表示されている画像データのタイムコードを示している。403は選択用の操作部材であり、上下左右方向のボタンにより構成されている。404は設定ボタンで選択用操作部材403により選択された結果を決定する際に押下する。405は録画ボタンであり、録画の開始、停止を行う。406は前方のマークポイントまでの移動ボタン、407は巻き戻しボタン、408は再生ボタン、409は早送りボタン、410は後方のマークポイントまでの移動ボタン、411は検索ボタン、412はメニューボタンである。413は音声入力用のマイクである。
In the
本実施形態においても動画データ100は画像データ101、音声データ102、話者データ109及び字幕データ103によって構成される。字幕データ103のデータ構成及びそれを生成するための処理は上述した第1の実施形態と同様であり、話者データ109も第1の実施形態と同様に、例えば話者を識別するためのデータ(例えば、話者の名称を示すデータ等)、顔識別用特徴量データ及び音声識別用特徴量データ等が話者毎に対応付けられて格納されている。話者データ109は、図1又は図2に示すように動画データ100内に含まれる構成でもよいし、撮像装置の内部又は外部の記録媒体内に保持され、必要に応じて読み込まれて該当する処理において使用されるような構成であってもよい。
Also in this embodiment, the moving
ところで、音声識別用特徴量データを用いて音声データから話者が特定され、字幕データ103を作成するような場合、音声データから話者は特定されるが、当該音声データの台詞を発言した話者が画面内に存在せず、その音声データに対応する画像データ内に当該話者の画像データが含まれていない場合がある。
By the way, when the speaker is specified from the voice data using the voice identification feature quantity data and the
本実施形態では、上記のような場合に鑑み、字幕データ103を作成する対象となる話者が画面内に存在するか否か(対応する画像データから当該話者が特定できるか否か)を示す画面内存在情報を生成している。これは、音声識別用特徴量データのみによって話者を特定することができ、顔識別用特徴量データによっては当該話者を特定できなかった場合、該当する音声データの台詞を発言した話者が画面内に存在しない旨の画面内存在情報が生成される。一方、字幕テキスト情報107が生成される場合(即ち、少なくとも音声識別用得量量データによって音声データから話者が特定され、当該音声データが解析されてテキスト化された場合)であって、それ以外の場合には、当該音声データの台詞を発言した話者が画面内に存在する旨の画面内存在情報が生成される。
In the present embodiment, in view of the above case, it is determined whether or not the speaker for which the
図8に、このようにして作成された字幕データ103の一例を示す。Speakerタグで囲われている部分は話者情報に対応する話者名称である。話者名称は、話者データ109内の例えば上述した話者を一意に特定するための識別情報によって生成される。後にこれを話者名に更新することも可能である。Existenceタグで囲われている部分は画面内存在情報を示している。字幕データ131では<Existence>….</Existence>で囲われた内容が"Y"なので、話者が画面内に存在している。字幕データ133では<Existence>….</Existence>で囲われた内容が"N"なので、話者が画面内に存在しない。SubTitleタグで囲われている部分は話者が発声している字幕のテキストである。StartTimeCodeタグで囲われている部分は話者が発声を開始したタイムコードであり、発生開始情報に対応する。字幕データ131は話者が"A子"でタイムコード"T01:11:50 03"で示されるフレーム番号の画像にA子が映っており、その位置から"おはようございます。"を発声していることを示している。字幕データ132は話者が"B子"でタイムコード"T01:12:03 11"で示されるフレーム番号の画像にB子が映っており、その位置から"おはようございます。"を発声していることを示している。字幕データ133は話者が"C子"でタイムコード"T01:12:23 10"で示されるフレーム番号の画像にC子が映っておらず、その位置から"今日はいい天気ですね。"を発声していることを示している。
FIG. 8 shows an example of the
図10は撮像装置400における検索条件指定画面の一例を示す図である。420は検索対象話者の一覧表示である。421は選択中の話者を示す話者選択表示枠である。422はA子の顔、423はB子の顔、424はC子の顔である。本画面では、選択用の操作部材403を用いて話者の選択を行う。425は検索する台詞の表示である。
FIG. 10 is a diagram illustrating an example of a search condition designation screen in the
図11は撮像装置401における検索条件指定画面のもう一つの例を示す図である。430はA子であり、431はA子が話者として認識されていることを示す登録話者枠である。432はB子であり、433はB子が話者として認識されており且つ検索対象の話者として選択されていることを示す選択話者枠である。434はC子であり、435はC子が話者として認識されていることを示す登録話者枠である。436は検索する台詞の表示である。
FIG. 11 is a diagram illustrating another example of a search condition designation screen in the
図10及び図11の検索画面はメニューより選択して切り替えることが可能である。また、検索ボタン411を一度押下することで図10の検索画面が表示され、更に検索ボタン411を押下することで図11の検索画面を表示することも可能である。
The search screens in FIGS. 10 and 11 can be selected and switched from the menu. 10 can be displayed once by pressing the
図12は本実施形態における処理の流れを示したフローチャートである。検索ボタン411を押下すると検索モードステップ(ステップS201)に入る。検索モードステップ(ステップS201)では、話者一覧選択画面(図10)または画像からの話者選択画面(図11)の何れかを表示する。本実施形態では、メニューボタン412を操作し、話者選択方法指定メニュー(図示せず)により最初に表示される画面を設定している。
FIG. 12 is a flowchart showing the flow of processing in this embodiment. When the
先ず、検索モードステップ(ステップS201)にて、話者一覧選択画面(図10)が表示される場合を説明する。話者選択ステップ(ステップS202)では話者データより話者の顔の画像イメージデータを取得し、登録されている話者の一覧を表示する。本実施形態では話者としてA子、B子、C子の3人が登録されている。図10で422はA子の顔、423はB子の顔、424はC子の顔である。話者データに話者の名称が登録されている場合には、顔の右隣に名称が表示されても良い。話者の一覧が表示されると、選択用操作部材403により話者選択表示枠421を移動させて話者を選択することができる。また、4人以上の話者が登録されている場合には、選択用操作部材403により話者選択表示枠421が移動すると共に話者一覧が検索対象話者一覧表示420内でスクロールする。検索対象の話者を選択し設定ボタン404で決定する。図10ではB子が話者として選択されている状態を示している。話者が決定すると話者特定ステップ(ステップS204)へ進み、選択された話者の話者データが取得される。
First, the case where the speaker list selection screen (FIG. 10) is displayed in the search mode step (step S201) will be described. In the speaker selection step (step S202), the image data of the speaker's face is acquired from the speaker data, and a list of registered speakers is displayed. In this embodiment, three persons A, B, and C are registered as speakers. In FIG. 10, 422 is the face of child A, 423 is the face of child B, and 424 is the face of child C. When the speaker name is registered in the speaker data, the name may be displayed on the right side of the face. When the list of speakers is displayed, the speaker
話者特定ステップ(ステップS204)により話者データが取得されると、発声内容入力ステップ(ステップS205)となる。本実施形態では発声内容入力ステップ(ステップS205)では音声によるテキスト入力を行う。音声入力用マイク413に向かい、検索したい台詞を喋ると音声認識が行われ自動的にテキスト化されて検索する台詞表示425へ入力される。図10では"おはようございます。"が発声内容として指定されている。正しく入力されない場合には、選択用操作部材403の左ボタンを押下し、検索する台詞表示425の文字を削除し、入力し直すことも可能である。発声内容入力が正しく入力された場合には設定ボタン404で決定する。これらのステップにより検索条件として"B子"が発声した"おはようございます。"が設定される。
When the speaker data is acquired in the speaker specifying step (step S204), the utterance content input step (step S205) is performed. In the present embodiment, voice input is performed in the utterance content input step (step S205). When facing the
次に、検索モードステップ(ステップS201)にて、画像データからの話者選択画面(図11)が表示される場合を説明する。話者選択ステップ(ステップS202)では話者データより話者の識別用顔特徴量データを取得し、話者検索ステップ(ステップS203)により液晶表示装置401に表示されている画像データから顔検出を行い、話者データに登録されている話者の顔の画像データに登録話者枠を表示する。
Next, a case where a speaker selection screen (FIG. 11) from image data is displayed in the search mode step (step S201) will be described. In the speaker selection step (step S202), face feature amount data for identifying the speaker is acquired from the speaker data, and face detection is performed from the image data displayed on the liquid
図11の例では、話者検索ステップ(ステップS203)では、液晶表示装置401にA子430、B子432、C子434の3人が表示されており、それぞれの顔の画像データから顔検出を行い、顔特徴量を算出し、話者データに登録されている話者の顔特徴量データと比較を行う。比較した結果、それぞれ話者登録されているので顔の画像データに話者登録枠が表示され(A子の登録話者枠431、B子の選択話者枠432、C子の登録話者枠435)、顔の画像データと各話者の話者データとが関連付けされる。話者の顔に登録話者枠、選択話者枠が表示されると、選択用操作部材403により選択話者枠を移動させることができる。話者の選択範囲は液晶表示装置401に表示されている話者からのみ選択されるため、図11の場合に4人以上話者が登録されている場合であっても、上記3人のみから話者を選択する。検索対象の話者の顔の画像データが液晶表示装置401内に存在しない場合には、巻き戻しボタン407、早送りボタン409により表示画像を変えることで、他の話者の顔の画像データが映っている状態にすることにより、話者データに登録されている話者であれば、同じく顔の画像データに登録話者枠が表示され同じく検索の対象とすることができる。
In the example of FIG. 11, in the speaker search step (step S203), three members A
利用者は、検索対象の話者を選択し設定ボタン404で決定する。図11ではB子が話者として選択されている状態を示している。話者が決定すると話者特定ステップ(S204)へ進み、選択された話者の話者データが検索条件として取得される。
The user selects a speaker to be searched and determines with the
話者特定ステップ(ステップS204)により話者データが取得されると、発声内容入力ステップ(ステップS205)となる。本実施形態では発声内容入力ステップ(ステップS205)では音声によるテキスト入力を行う。音声入力用マイク413に向かい、検索したい台詞を喋ると音声認識が行われ自動的にテキスト化されて検索する台詞表示436へ入力される。図11では"おはようございます。"が発声内容として指定されている。正しく入力されない場合には、選択用操作部材403の左ボタンを押下し、検索する台詞表示436の文字を削除し、入力し直すことも可能である。発声内容入力が正しく入力された場合には設定ボタン404で決定する。これらのステップにより検索条件として"B子"が発声した"おはようございます。"が設定される。
When the speaker data is acquired in the speaker specifying step (step S204), the utterance content input step (step S205) is performed. In the present embodiment, voice input is performed in the utterance content input step (step S205). When facing the
検索条件が発声内容入力ステップ(ステップS205)で決定すると、以下の動作は第1の実施形態の字幕データ読み出しステップ(ステップS103)以降の動作と同様である。 When the search condition is determined in the utterance content input step (step S205), the following operation is the same as the operation after the subtitle data reading step (step S103) of the first embodiment.
第2の実施形態では、図8に示すように話者の画面内存在を示すデータ(画面内存在情報)が字幕データ103に含まれている。検索のオプションとして話者の画面内存在を指定することで、話者と話者の画面内存在と話者の台詞でシーンを検索することが可能である。この場合、話者特定ステップ(ステップS204)にて、話者の画面内存在の有無を指定する。操作の例として選択用操作部材403の上下ボタンにより画面内存在の有無を選択し、設定ボタン404で決定する。
In the second embodiment, as shown in FIG. 8, the
話者の画面内存在情報の読み出しは、字幕データ103を字幕データ読み出しステップ(ステップS206)により読み出し、話者特定取得ステップ(ステップS207)にて話者情報106を取得する。取得された話者情報106には、話者名称と画面内存在情報が含まれている。字幕データ131に対して話者特定取得ステップ(ステップS207)で話者情報106を取得すると話者として"A子"が当該画像内に存在している情報"Y"が取得される。字幕データ132に対して話者特定取得ステップ(ステップS207)で話者情報106を取得すると話者として"B子"が当該画像内に存在している情報"Y"が取得される。字幕データ133に対して話者特定取得ステップ(ステップS207)で話者情報106を取得すると話者として"C子"が当該画像内に存在していない情報"N"が取得される。
The speaker's in-screen presence information is read by reading the
話者特定取得ステップ(ステップS207)で字幕データ103より取得された話者名称と画面内存在情報は話者一致ステップ(ステップS208)で話者特定ステップ(ステップS204)にて設定された検索条件と比較される。
The speaker name and in-screen presence information acquired from the
これらのステップにより検索された図1又は図2に示す(1)の位置の音声データ102と(2)の位置の画像データ101が液晶表示装置401に表示され、タイムコード表示領域402にタイムコードが表示される。本実施形態での検索結果は字幕データ132が該当するのでタイムコードとして"01:12:13 11"が表示される。再生ボタン408を押下した場合、B子が映った映像が開始され、"おはようございます。"の字幕スーパが表示されるとともに"おはようございます"とB子の声で再生される。
The
このように本実施形態によれば、撮像装置をはじめとするキーボード等のテキスト入力手段や選択手段を持たない機器においても、特定話者の特定の台詞で画像を検索することが容易にできるため、シーン検索が効率よく行うことが可能となる。 As described above, according to the present embodiment, it is possible to easily search for an image using a specific speech of a specific speaker even in a device having no text input means and selection means such as a keyboard such as an imaging device. The scene search can be performed efficiently.
以上のように、上述した各実施形態によれば、話者を指定して台詞(キーワード)で検索することで、指定した話者が喋った内容が含まれる画像データ内のシーンを効率よく検索することが可能となる。 As described above, according to each of the embodiments described above, a scene in image data including the content spoken by the designated speaker can be efficiently searched by designating the speaker and searching with dialogue (keywords). It becomes possible to do.
また、当該話者の画面内存在を指定し、台詞(キーワード)で検索することで、指定した人物が喋った内容且つ、話者が画像内に映っている画像データ内のシーンを効率よく検索することが可能となる。 Also, by specifying the presence of the speaker in the screen and searching with dialogue (keywords), it is possible to efficiently search the contents of the specified person and scenes in the image data where the speaker is reflected in the image. It becomes possible to do.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。 Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (basic system or operating system) running on the computer based on the instruction of the program code. Needless to say, a case where the functions of the above-described embodiment are realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
100:動画データ、101:画像データ、102:音声データ、103:字幕データ、106:字幕データ内の話者情報、107:字幕データ内の字幕テキスト情報、108:字幕データ内の発声開始情報、109:話者データ、110:字幕データ読み出し部、111:話者特定取得部、112:テキスト取得部、113:発声開始情報取得部、114:検索条件入力部、115:字幕データ比較部、116:一致した字幕データ、117:一致した字幕データの発声開始情報、118:音声データ検索部、119:動画像データ検索部、120:話者データ読み出し部、121:A子の字幕データ、122:B子の字幕データ、131:A子の字幕データ、132:B子の字幕データ、133:C子の字幕データ、201:B子の映像、202:字幕、300:検索ソフトウェアメイン画面、301:画像表示画面、302:タイムコード表示、303:ジョグボタン、304:シャトルボタン、305:ジョグ、シャトルダイヤル、306:前方のマークポイントまでの移動ボタン、307:巻き戻しボタン、308:再生ボタン、309:早送りボタン、310:後方のマークポイントまでの移動ボタン、311:検索ボタン、320:検索条件入力画面、321:話者選択するプルダウン、322:検索する台詞を入力する画面、323:前方検索ボタン、324:後方検索ボタン、325:キャンセルボタン、400:撮像装置本体(操作面)、401:液晶表示装置、402:タイムコード表示、403:選択用操作部材、404:設定ボタン、405:録画ボタン、406:前方のマークポイントまでの移動ボタン、407:巻き戻しボタン、408:再生ボタン、409:早送りボタン、410:後方のマークポイントまでの移動ボタン、411:検索ボタン、412:メニューボタン、413:音声入力用マイク、420:検索対象話者一覧表示、421:話者選択表示枠、422:A子の顔、423:B子の顔、424:C子の顔、430:A子の顔、431:A子の登録話者枠、432:B子の顔、433:B子の選択話者枠、434:C子の顔、435:C子の登録話者枠、436:検索する台詞表示 100: moving image data, 101: image data, 102: audio data, 103: subtitle data, 106: speaker information in subtitle data, 107: subtitle text information in subtitle data, 108: utterance start information in subtitle data, 109: Speaker data, 110: Subtitle data reading unit, 111: Speaker specification acquisition unit, 112: Text acquisition unit, 113: Speaking start information acquisition unit, 114: Search condition input unit, 115: Subtitle data comparison unit, 116 : Matched subtitle data, 117: utterance start information of matched subtitle data, 118: audio data search unit, 119: moving image data search unit, 120: speaker data read unit, 121: subtitle data of child A, 122: Subtitle data of child B, 131: Subtitle data of child A, 132: Subtitle data of child B, 133: Subtitle data of child C, 201: Video of child B 202: Subtitle, 300: Search software main screen, 301: Image display screen, 302: Time code display, 303: Jog button, 304: Shuttle button, 305: Jog, shuttle dial, 306: Move button to the front mark point 307: Rewind button, 308: Play button, 309: Fast forward button, 310: Move to back mark point, 311: Search button, 320: Search condition input screen, 321: Pull-down for selecting speaker, 322: Screen for inputting dialogue to search 323: Forward search button, 324: Back search button, 325: Cancel button, 400: Imaging device body (operation surface), 401: Liquid crystal display device, 402: Time code display, 403: Selection Operation member 404: setting button 405: recording button 406: Move button to the front mark point, 407: Rewind button, 408: Play button, 409: Fast forward button, 410: Move button to the rear mark point, 411: Search button, 412: Menu button, 413 : Voice input microphone 420: Search target speaker list display 421: Speaker selection display frame 422: Child A face 423: Child B face 424: Child C face 430: Child A face 431: A child registered speaker frame, 432: B child face, 433: B child selected speaker frame, 434: C child face, 435: C child registered speaker frame, 436: Dialog to search display
Claims (6)
前記人物に係るデータから前記人物の音声データを抽出し、抽出した音声データから前記人物の発声内容を示すデータを生成する第2のデータ生成手段と、
前記検索対象データ内における前記人物に係るデータの位置を示す位置データを生成する第3のデータ生成手段と、
前記人物に係るデータ内に前記人物の画像データが含まれるか否かを示す存在データを生成する第4のデータ生成手段と、
検索対象の人物の画像データが含まれるか否かを指定するデータを検索条件として入力する第3の検索条件入力手段と、
前記第3の検索条件入力手段により検索条件が入力された場合、前記第1のデータ生成手段、前記第2のデータ生成手段及び前記第4のデータ生成手段により生成されたデータの組のうち、入力された検索条件に合致するデータの組みを判定する判定手段と、
前記判定手段により判定されたデータの組みに対応する位置データに基づいて、その位置データにより示される位置のデータを前記検索対象データから検索するデータ検索手段とを有することを特徴とするデータ検索装置。 First data generating means for identifying the person from data relating to the person of the person included in the search target data using identification data for identifying the person, and generating data indicating the person;
Second data generating means for extracting voice data of the person from the data related to the person, and generating data indicating the utterance content of the person from the extracted voice data;
Third data generation means for generating position data indicating the position of data relating to the person in the search target data;
Fourth data generation means for generating presence data indicating whether or not the image data of the person is included in the data relating to the person;
A third search condition input means for inputting data specifying whether or not image data of a person to be searched is included as a search condition;
When a search condition is input by the third search condition input unit, among a set of data generated by the first data generation unit, the second data generation unit, and the fourth data generation unit, Determination means for determining a set of data that matches the input search condition;
A data search device comprising: data search means for searching data of a position indicated by the position data from the search target data based on position data corresponding to the data set determined by the determination means. .
各人物の画像データから任意の画像データを選択可能な選択手段と、
前記選択手段により選択された画像データに該当する人物を特定するためのデータを検索条件として入力する第1の検索条件入力手段とを更に有することを特徴とする請求項1に記載のデータ検索装置。 Display control means for displaying the image data of each person on the display means;
A selection means capable of selecting arbitrary image data from the image data of each person;
2. The data search apparatus according to claim 1, further comprising first search condition input means for inputting data for specifying a person corresponding to the image data selected by the selection means as a search condition. .
前記識別手段により識別された各人物の画像データから、任意の画像データを選択可能な選択手段と、
前記選択手段により選択された画像データに該当する人物を特定するためのデータを検索条件として入力する第2の検索条件入力手段とを更に有することを特徴とする請求項1に記載のデータ検索装置。 Identification means for identifying a person corresponding to the image data displayed on the display means using the identification data;
A selection means capable of selecting arbitrary image data from the image data of each person identified by the identification means;
The data search device according to claim 1, further comprising second search condition input means for inputting data for specifying a person corresponding to the image data selected by the selection means as a search condition. .
人物を識別するための識別用データを用いて、検索対象データに含まれる前記人物の人物に係るデータから前記人物を識別し、前記人物を示すデータを生成する第1のデータ生成ステップと、
前記人物に係るデータから前記人物の音声データを抽出し、抽出した音声データから前記人物の発声内容を示すデータを生成する第2のデータ生成ステップと、
前記検索対象データ内における前記人物に係るデータの位置を示す位置データを生成する第3のデータ生成ステップと、
前記人物に係るデータ内に前記人物の画像データが含まれるか否かを示す存在データを生成する第4のデータ生成ステップと、
検索対象の人物の画像データが含まれるか否かを指定するデータを検索条件として入力する検索条件入力ステップと、
前記検索条件入力ステップにより検索条件が入力された場合、前記第1のデータ生成ステップ、前記第2のデータ生成ステップ及び前記第4のデータ生成ステップにより生成されたデータの組のうち、入力された検索条件に合致するデータの組みを判定する判定ステップと、
前記判定ステップにより判定されたデータの組みに対応する位置データに基づいて、その位置データにより示される位置のデータを前記検索対象データから検索するデータ検索ステップとを含むことを特徴とするデータ検索装置の制御方法。 A method for controlling a data search apparatus for searching data, comprising:
A first data generation step of identifying the person from data related to the person included in the search target data using identification data for identifying the person, and generating data indicating the person;
A second data generation step of extracting voice data of the person from the data relating to the person, and generating data indicating the utterance content of the person from the extracted voice data;
A third data generation step of generating position data indicating a position of data related to the person in the search target data;
A fourth data generation step of generating presence data indicating whether or not the image data of the person is included in the data related to the person;
A search condition input step for inputting, as a search condition, data specifying whether or not image data of a person to be searched is included;
When a search condition is input in the search condition input step, it is input out of the data set generated in the first data generation step, the second data generation step, and the fourth data generation step. A determination step of determining a set of data that matches the search condition;
And a data search step of searching from the search target data for data at a position indicated by the position data based on the position data corresponding to the set of data determined by the determination step. Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265502A JP4235635B2 (en) | 2005-09-13 | 2005-09-13 | Data retrieval apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005265502A JP4235635B2 (en) | 2005-09-13 | 2005-09-13 | Data retrieval apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007078985A JP2007078985A (en) | 2007-03-29 |
JP4235635B2 true JP4235635B2 (en) | 2009-03-11 |
Family
ID=37939399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005265502A Expired - Fee Related JP4235635B2 (en) | 2005-09-13 | 2005-09-13 | Data retrieval apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4235635B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5320913B2 (en) * | 2008-09-04 | 2013-10-23 | 株式会社ニコン | Imaging apparatus and keyword creation program |
KR101009973B1 (en) * | 2010-04-07 | 2011-01-21 | 김덕훈 | Method for providing media contents, and apparatus for the same |
CN113301444B (en) * | 2021-05-20 | 2023-02-17 | 北京达佳互联信息技术有限公司 | Video processing method and device, electronic equipment and storage medium |
-
2005
- 2005-09-13 JP JP2005265502A patent/JP4235635B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007078985A (en) | 2007-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4599244B2 (en) | Apparatus and method for creating subtitles from moving image data, program, and storage medium | |
JP4600828B2 (en) | Document association apparatus and document association method | |
US7123816B2 (en) | Audio and/or video generation apparatus and method of generating audio and/or video signals | |
JP5144424B2 (en) | Imaging apparatus and information processing method | |
JP2008158788A (en) | Information processing device and method | |
JP6280312B2 (en) | Minutes recording device, minutes recording method and program | |
JP2001155036A (en) | Navigation device and navigation method | |
WO2005094437A2 (en) | System and method for automatically cataloguing data by utilizing speech recognition procedures | |
JP4405418B2 (en) | Information processing apparatus and method | |
JP2007101945A (en) | Apparatus, method, and program for processing video data with audio | |
JP3757565B2 (en) | Speech recognition image processing device | |
JP4235635B2 (en) | Data retrieval apparatus and control method thereof | |
JP2010252008A (en) | Imaging device, displaying device, reproducing device, imaging method and displaying method | |
JP5320913B2 (en) | Imaging apparatus and keyword creation program | |
JP5111343B2 (en) | Playback device | |
JP2005346259A (en) | Information processing device and information processing method | |
JP2006166407A (en) | Imaging device and its control method | |
JP2000222417A (en) | Image filing device | |
JP3222283B2 (en) | Guidance device | |
JP2006267934A (en) | Minutes preparation device and minutes preparation processing program | |
JP3852383B2 (en) | Video playback device | |
JP2010008938A (en) | Voice recorder and speech recording method | |
JP2005204291A (en) | Index-imparting system using control signal | |
JP6269771B1 (en) | Translation device, loudspeaker, and control method thereof | |
JP2004260521A (en) | Moving image editing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081209 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081215 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111219 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4235635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121219 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131219 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |