JP2006050091A - 映像記録装置 - Google Patents

映像記録装置 Download PDF

Info

Publication number
JP2006050091A
JP2006050091A JP2004225732A JP2004225732A JP2006050091A JP 2006050091 A JP2006050091 A JP 2006050091A JP 2004225732 A JP2004225732 A JP 2004225732A JP 2004225732 A JP2004225732 A JP 2004225732A JP 2006050091 A JP2006050091 A JP 2006050091A
Authority
JP
Japan
Prior art keywords
data
video
unit
search
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004225732A
Other languages
English (en)
Inventor
Yoji Yasuda
陽治 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2004225732A priority Critical patent/JP2006050091A/ja
Publication of JP2006050091A publication Critical patent/JP2006050091A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

【課題】ある発話内容が発せられた場面に対応する映像の検索を容易にする。
【解決手段】 映像記録装置1は、映像入力部10と、音声入力部20と、入力された音声信号から発話内容に含まれる文節やキーワードを抽出する文節キーワード抽出部51と、タイマー部40の時間情報を識別子とし、文節やキーワードを検索データとしてこれらを対応づけて識別データを作成する識別データ作成部55と、音声信号と時間情報とを対応づけた音声データを記憶する音声データDB63と、映像信号と時間情報とを対応づけた映像データを記憶する映像データDB73とを含む。識別データ検索部83は、入力受付部81が受け付けた検索条件に基づいて識別データを検索・抽出する。そして、抽出された識別データの識別子に基づいて音声データ及び映像データを検索し、再生させる。
【選択図】 図1

Description

本発明は、映像記録装置に関する。
コンビニエンスストアや銀行などに設置され、音声と映像とを同期して記録する監視カメラなどの映像記録装置が普及している。このような映像記録装置により撮影された映像を再生すれば、映っている人物など、撮影時の状況を視覚的に把握することができる。あるいは、人物などが映っていない場合であっても、記録された音声から撮影時の状況を聴覚的に把握することもできる。このように、映像記録装置で記録された映像及び音声は、保安警備、犯罪捜査などにおいて、非常に重要な情報となる。従って、映像及び音声の記録後、特定の内容の映像や音声を迅速に検索できるようにすることが求められている。
しかし、従来の映像記録装置において所望の映像を検索する場合、映像を早送りや巻き戻したりしながら映像を逐一肉眼で確認する必要がある。特に、ある発話内容が発せられた場面に対応する映像を検索する場合、等倍速で音声を再生しなければ音声内容を把握できない。従って、この場合は検索にさらに時間がかかる。
本発明の目的は、ある発話内容が発せられた場面に対応する映像の検索を容易にすることにある。
本願第1発明は、上記の課題を解決するために、音声を入力する音声入力部と、映像を入力する映像入力部と、前記音声に基づいて前記映像を検索するための検索データを作成する検索データ作成部と、前記検索データの各々を識別する識別子と前記検索データとを対応づけて記録する識別データ記録部と、前記識別子と前記映像とを対応づけて記録する映像記録部とを備えている映像記録装置を提供する。
ここでは、発話内容と映像とを識別子を介して対応づけて記録することにより、ある発話内容に対応する映像を特定できる。従って、発話内容に基づき、映像を容易に検索することが可能である。
本願第2発明は、本願第1発明において、前記映像記録部に記録された映像を特定するための入力データの入力を受け付ける入力受付部と、前記入力データと前記識別データ記録部に記録された識別データとを比較することにより、前記入力データを含む識別データを抽出し、抽出された識別データの識別子に基づいて前記映像を検索する検索部をさらに備えている映像記録装置を提供する。
映像を特定するための入力データと識別データ記録部内の識別データとを比較する。識別データを構成する検索データと入力データとを比較して、例えば入力データと一致する、入力データを含む検索データを抽出する。そして、抽出された検索データを含む識別データの識別子に基づいて映像記録部内の映像を検索する。よって、特定の音声内容に対応する映像を検索することができる。
本願第3発明は、本願第1発明において、前記識別子は時間情報を含み、前記映像記録部は、前記時間情報と前記映像とを対応づけて記憶する映像記録装置を提供する。
検索データと時間情報とを対応づけた識別データを記憶し、かつ時間情報と映像とを対応づけて記録することで、時間情報を介して識別データと映像とを対応づけることができる。よって、時間情報に基づいて識別データに対応する映像を特定することができる。
本願第4発明は、本願第1発明において、検索データは音声を文字に変換した文字データを含む映像記録装置を提供する。
ここでは、音声を文字に変換した文字データを検索データとして記録することができる。
本願第5発明は、本願第1発明において、検索データは音声を発声した人物の性別を示す性別データを含む。
ここでは、音声を発声した人物の性別を示す性別データを検索データとして記録する映像記録装置を提供する。
本願第6発明は、本願第1発明において、検索データは音声の音源の到来方向を示す方向データを含む映像記録装置を提供する。
ここでは、音声の音源の到来方向を示す方向データを検索データとして記録することができる。
本願第7発明は、本願第6発明において、記録された映像を再生表示する表示部と、音声の音源の位置を示す位置データに基づいて音源の位置を表示する音源位置表示部をさらに備えている映像記録装置を提供する。
ここでは、音声の音源の到来方向を表示することができる。
本願第8発明は、本願第1発明において、前記映像と前記音声を再生し、前記映像に前記音声を文字に変換した文字データを重畳して再生する再生部をさらに備えた映像記録装置を提供する。
本発明の映像記録装置を用いれば、ある発話内容が発せられた場面に対応する映像の検索を容易にすることができる。
<第1実施形態>
(1)構成
図1は、第1実施形態に係る映像記録装置1の全体構成図である。この装置は、映像入力部10、音声入力部20、検索条件入力部30、タイマー部40、識別データ部50、音声データ部60、映像データ部70、検索部80及び再生部90を含む。以下に、各部の構成を説明する。
<映像入力部>
映像入力部10は、監視カメラなどの映像撮影装置10aから所定時間ΔTごと(例えば1/30秒ごと)に送信された映像信号を入力する端子であり、映像データ部70に接続されている。本実施形態では、所定時間ΔTごとに送信される映像信号は静止画像を示すものであるとするが、動画であってもよい。映像入力部10は、さらに映像データバッファと接続され、映像信号が映像データ部70に出力されるまで映像信号を一時的に記録するようにしても良い。
<音声入力部>
音声入力部20は、各々空間的あるいは平面的に異なる位置に設置されたマイクロホンなどの複数の集音部20a、b、c、d・・からの音声信号を入力する端子であり、識別データ部50及び音声データ部60に接続されている。
<検索条件入力部>
検索条件入力部30は、パソコン等の入力機器30aと接続されており、所望の音声データ及び映像データを取得するための検索条件の入力を受け付ける。検索条件としては、例えばキーワード等が挙げられる。
<タイマー部>
タイマー部40は、現在の時刻を識別データ部50、音声データ部60及び映像データ部70に出力する。タイマー部40の出力は現在の時刻に限定されず、例えば経過時間などの時間情報を出力すれば良い。
<識別データ部>
識別データ部50は、文節キーワード抽出部51、性別判定部52、方向抽出部53、識別データ作成部55及び識別データDB57を有している。また、識別データDB57は、識別テーブル59を有している。
文節キーワード抽出部51は、音声入力部20及びタイマー部40に接続されており、音声入力部20から音声信号が入力される。文節キーワード抽出部51は、後述の登録処理において、入力された音声信号から発話内容に含まれる文節やキーワードを抽出する。そして、抽出した文節やキーワードを文字情報化したテキストデータとして識別データ作成部55に出力する。文節やキーワードの抽出は、例えば公知の音声認識システムにより音声を文字に変換し(例えば特開平11−175092号公報を参照)、その文字で構成される文節やキーワードに相当する語彙を、システムが有する語彙データベースから抽出することで行うことができる。このとき、文節キーワード抽出部51には、タイマー部40から現在の時刻が入力されており、抽出した文節やキーワードを含む音声信号の開始時刻を取得する。そして、抽出した文節やキーワードとともに開始時刻を識別データ作成部55に出力する。
性別判定部52は、音声入力部20及びタイマー部40に接続されており、音声入力部20から音声信号が入力される。性別判定部52は、入力された音声信号の音源である人物の性別を判定し、判定結果を性別データとして識別データ作成部55へ出力する。性別データは、音声信号の音源である人物の性別を示すデータである。発話者の性別の判定は、公知の性別判定手段により行うことができる(例えば、特開2000−200276号公報を参照)。このとき、性別判定部52には、タイマー部40から現在の時刻が入力されており、性別が判定された音声信号の開始時刻を取得する。そして、性別データとともに開始時刻を識別データ作成部55に出力する。
方向抽出部53は、音声入力部20及びタイマー部40に接続されており、音声入力部20から音声信号が入力される。方向抽出部53は、入力された音声信号の音源の方向を判定し、判定結果として方向データを識別データ作成部55へ出力する。例えば、音声の到来方向の決定は、集音部20a、b・・から入力される音声の音量の比を算出し、最も比の値が大きい音量の音声信号を出力した集音部20a、b・・の位置を到来方向とする。なお、到来方向の決定は、公知の音源方向検出装置により行うこともできる(特開平10−332807号公報を参照)。このとき、方向抽出部53には、タイマー部40から現在の時刻が入力されており、到来方向が判定された音声信号の開始時刻を取得する。そして、到来方向を示す方向データとともに開始時刻を識別データ作成部55に出力する。
識別データ作成部55は、文節キーワード抽出部51、性別判定部52及び方向抽出部53と接続されており、それぞれから文節やキーワード、性別データ及び方向データが入力される。識別データ作成部55は、入力された文節やキーワード、性別データ及び方向データとともに開始時刻を受け取る。さらに、識別データ作成部55は、文節やキーワードを含む発話が発声された時間に相当する秒数をタイマー部40が出力する時刻に基づいて算出する。そして、文節やキーワード、性別データ、方向データ及び秒数と開始時刻とを対応づけ、これに発話IDを付与した識別データを作成する。よって、識別データは、文節キーワード、性別データ及び方向データが、開始時刻を基準に対応づけて作成される。ここで、文節やキーワード、性別データ、方向データ及び秒数等が、後述する入力受付部に入力される検索条件と比較される検索データに相当する。識別データ作成部55は、作成された識別データを識別データDB57に出力する。なお、文節やキーワードを含む音声信号の開始時刻を時間情報としているが、時間情報としては開始時刻に限定されず終了時刻、経過時間であっても良い。
<音声データ部>
音声データ部60は、音声入力部20及びタイマー部40に接続されており、音声データ作成部61及び音声データDB63を有している。音声データ作成部61は、後述の登録処理において、音声入力部20から入力された音声信号と音声信号の開始時刻とを対応づけて、後述する音声データを作成する。音声データDB63は、作成された音声データを記憶する。
<映像データ部>
映像データ部70は、映像入力部10及びタイマー部40に接続されており、映像データ作成部71及び映像データDB73を有している。映像データ作成部71は、後述の登録処理において、映像入力部10から入力された映像信号と映像信号の開始時刻とを対応づけて、後述する映像データを作成する。映像データDB73は、作成された映像データを記憶する。
<検索部>
検索部80は、入力受付部81、識別データ検索部83、音声データ検索部85及び映像データ検索部87を有している。入力受付部81は、音声データDB63及び映像データDB73内に記録されている音声データ及び/または映像データから所望の音声データ及び/又は映像データを取得するための検索条件の指定を受け付ける。入力受付部81は、受け付けた検索条件を識別データ検索部83に出力する。識別データ検索部83は、検索条件に基づいて、識別データDB57内の識別データとを比較し、検索条件に該当する識別データを抽出する。このとき、識別データ検索部83は、識別データを構成する検索データと検索条件とを比較する。つまり、検索データである文節やキーワード、性別データ、方向データ及び秒数と検索条件とを比較し、例えば検索条件と一致する、あるいは検索条件を含む検索データを抽出する。そして、識別データ検索部83は、その抽出された検索データを含む識別データから識別子である時間情報を取り出し、音声データ検索部85及び映像データ検索部87に出力する。音声データ検索部85及び映像データ検索部87は、入力された時間情報に基づいて、例えば同一の時間情報を有する音声データDB63及び映像データDB73内を検索し、音声データ及び映像データを抽出する。抽出された音声データ及び映像データは、それぞれ音声再生部91及び映像再生部93において再生される。
例えば、検索条件として入力受付部81が “あぶない”を受け付けた場合、識別データ検索部83は、検索条件“あぶない”に基づいて、識別データDB57内を検索する。ここで、識別子である時間情報が“8:00”であり、検索データが”あぶない”から構成されている識別子が識別データDB57内に記録されているとする。識別データ検索部83は、検索条件“あぶない”と一致する検索データを有する前述の識別データを識別データDB57内から抽出する。そして、抽出された識別データ内から識別子である時間情報を取り出し、音声データ検索部85及び映像データ検索部87に出力する。よって、音声データ検索部85及び映像データ検索部87は、それぞれ識別子である時間情報“8:00”を有する音声データ及び映像データを抽出する。
さらに、識別データ検索部83は、検索画面において、指定された文節やキーワード等の検索条件を検索結果画面に一覧表示するようにしても良い。そして、ユーザに一覧表示の中から所望の検索条件を選択させるようにしても良い。図2は、検索画面の表示例である。この画面では、識別テーブル59の「文節・キーワード」に記憶される全てのキーワードの先頭の文字、例えば「あ」、「か」「さ」・・・に対応するタブが表示されている。このタブ内には、その先頭の文字を有するキーワードの一覧、例えば「あ」のタブには「あたま」、「あたる」、などが表示される。ユーザは、所望の検索条件を表示されたキーワードの中から選択する。このとき、一覧内の所望のキーワードが選択されると、選択されたキーワードが強調表示されると選択状態の有無を確認でき好ましい。図2では、例えば、「あぶない」が選択された場合の強調表示例を示している。
図3は、検索結果画面の表示例である。この画面は、図2の検索画面で選択されたキーワードを含む検索条件を一覧表示する。図2の検索画面で「あぶない」が選択された場合、「あぶない」をキーワードとして記憶する検索条件に含まれる文節、性別、開始時刻を表示している。この画面では、文節、キーワード、性別、開始時刻を参照しながら所望の検索条件を選択することができる。よって、例えば図3の検索結果画面において最上位に表示されている検索情報を選択すれば、例えば図4の映像が再生される。従って、文節、キーワード、性別、開始時刻を参照しながら所望の映像を簡単に検索・再生することができる。
<再生部>
再生部90は、音声再生部91及び映像再生部93を有している。音声再生部91は、音声データ検索部85において音声データDB63から抽出された音声データ内の音声信号に基づいて音声を再生する。映像再生部93は、映像データ検索部87において映像データDB73から抽出された映像データ内の映像信号に基づいて映像を再生し、前述の映像表示画面上に表示する。なお、音声再生部91及び映像再生部93は、映像記録装置1の外部に設けてもよい。
図4の画面では、映像データDB73に記録された映像が再生表示されている。また、音声データDB63に記録された音声が再生される。さらに、この画面には、集音部20a、b、c、d・・から入力された音源の到来方向を示す方向マーカー(図中、音符記号)が、音源の到来方向に対応する画面上の位置に表示される。さらに、この画面には、音声を発声した人物の性別と、音声に含まれる文節やキーワードとが文字情報として画面下の所定の位置に表示される。このように方向マーカーや文字により音源の到来方向や発声内容を示すことで、発話者などによる音源が撮影されていない場合であっても音源の到来方向や移動方向などを視覚的に認識することができる。また、音声に含まれる文節やキーワード、音声を発声した人物の性別を文字情報として視覚的に認識することができる。さらに、文字の表示位置を音の到来方向に応じて変化させても良い。
(2)識別データ
図5は、識別テーブル59に記録される識別データの一例である。識別テーブル59には、「発話ID」、「開始時刻」、「到来方向」、「秒数」、「性別」及び「文節・キーワード」を1レコードに含む識別データが記録されている。「発話ID」は、識別テーブル59におけるレコードの識別子である。「開始時刻」は、「文節・キーワード」が含まれる音声の記録が開始された時刻である。この時刻は、タイマー部40から取得される。「文節・キーワード」は、文節キーワード抽出部51により発話内容から抽出された文節やキーワードをテキストデータなどの文字情報である。「秒数」は、「文節・キーワード」に記憶された文節やキーワードが発話された長さである。この秒数は、タイマー部40から得られる現在の時刻を計測することで算出される。「性別」は、発話者の性別である。「到来方向」は、音声の到来方向を示す情報である。ここでは簡便のため、音声の到来方向を集音部20aの設置されている位置である「A」、集音部20bの設置されている位置である「B」などで表す。ただし、各集音部20a、b・・から集音された音声の大きさの相関から算出される音声の到来方向を記録してもよい。
例えば図5を参照すると、発話IDが“1”の識別データについては、2002年9月25日の9時38分に発話が開始される識別データが登録されている。この発話の到来方向は“A”であり、2秒間発話がされている。また、発話者の性別は男であり、その発話の中に含まれる文節・キーワードは「おい」、「あぶない」、「何を」である。このように、1レコードの記録される識別データを構成する「発話ID」、「開始時刻」、「秒数」、「性別」、「到来方向」及び「文節・キーワード」等は、互いに対応づけられている。
上記では、識別データは、「発話ID」、「開始時刻」、「秒数」、「性別」、「到来方向」及び「文節・キーワード」から構成されるが、この構成に限られない。
また、識別テーブル59に記録される識別データは、例えば開始時刻の早いレコードからソートされて記録されている。
(3)音声データ、映像データ
図6は、音声データまたは映像データの一例である。音声データまたは映像データは、複数のフレームデータF1、F2、F3・・・から構成される。1つのフレームデータは、例えば音声信号または映像信号(V1、V2、V3・・・)と、音声信号または映像信号の開始時刻(T1、T2、T3・・・)とにより作成されている。音声データまたは映像データが時間情報として開始時刻を含んでいるため、識別データとのリンクを開始時刻を介して行うことができる。よって、所望の検索条件に基づいて識別データを検索し、その識別データの時間情報に基づいて音声データ及び/または映像データを抽出することができる。時間情報をリンクとして用いるため、音声データや映像データなどの容量を少なくすることができる。そのため、検索時間のスピードアップを図ることができる。
図7は、音声データまたは映像データの別の一例である。図7に示す音声データまたは映像データのフレームデータは、例えば静止画像の映像信号と、到来方向に基づき音源の位置を画面上で示す方向マーカーのデータと、音声信号の音源である人物の性別を示す性別データと、発話内容に含まれる文節・キーワードを表すテキストデータとを有するファイルを作成する。このテキストデータを検索すれば、そのテキストデータと対応づけられた音声データまたは映像データを検索できる。例えば、図7に示すフレームデータF1は、フレームF1のID番号ID=1と、撮影が開始された開始時刻T1と、文節・キーワードS1と、方向マーカーM1と、性別G1と、音声信号または映像信号V1のデータから構成される。これらの文節・キーワードS1、方向マーカーM1、性別G1及び音声信号または映像信号V1は、次のように対応づけられている。文節・キーワードS1で示される音声または映像が開始時刻T1から開始し、その開始時刻T1から音声信号または映像信号V1の録音・撮影が開始されている。その音声の発声源が方向マーカーM1で、その音声を発声した人物の性別が性別G1で表されている。これらのデータは、上述のようにファイルにより作成することができる。例えば、図4に示す画面中央の静止画像、画面周縁部の方向マーカー、画面下部の発声した人物の性別及び文節・キーワードである「男:おいあぶない何を」を配置したファイルを作成する。なお、音声信号または映像信号V1、V2、V3・・の録音・撮影時に無音声である場合は、性別データ、文節キーワード、方向マーカー等のデータをフレームデータに含めないようにしても良い。
(4)映像記録装置で行われる処理
次に、映像記録装置1で行われる識別データ、音声データ及び映像データの登録処理の流れを、図8に例示するフローチャートに基づいて説明する。なお、以下では、識別データ、音声データ及び映像データの識別子が開始時刻である場合を例に挙げて説明する。
この処理は、音声及び映像がそれぞれ音声入力部10、映像入力部16に入力されたときに開始する。
ステップS11:文節キーワード抽出部51は、音声入力部20から入力された音声信号から文節と、文節に含まれるキーワードとを抽出する。そして、抽出された文節やキーワードを識別データ作成部55に出力する。このとき、文節キーワード抽出部51は、抽出された文節やキーワードとともに開始時刻を識別データ作成部55に出力する。
ステップS12:性別判定部52は、音声信号の音源である発話者の性別を判定し、判定結果を示す性別データを識別データ作成部55に出力する。このとき、性別判定部52は、性別データとともに開始時刻を識別データ作成部55に出力する。
ステップS13:方向抽出部53は、現在の音声の到来方向を決定し、音声の到来方向を示す情報である方向データを識別データ作成部55に出力する。このとき、方向データとともに開始時刻を識別データ作成部55に出力する。
ステップS14:識別データ作成部55は、抽出された文節やキーワードが発声された時間に相当する秒数をタイマー部40が出力する時刻に基づいて算出する。そして、識別データ作成部55は、入力された文節やキーワード、性別データ、方向データ及び秒数を、開始時刻を基準に対応づけ、これに発話IDを付与した識別データを作成する。識別データ作成部55は、作成された識別データを識別データDB57に出力し、識別データDB57は識別データを記録する。ここで、文節やキーワード、性別データ、方向データ及び秒数が検索条件と比較される検索データであり、開始時刻が識別子である。
ステップS16:音声データ作成部61は、音声入力部20から入力された音声信号と音声信号の開始時刻とを対応づけて、音声データを作成し、音声データDB63に出力する。そして、音声データDB63は音声データを記録する。
ステップS17:映像データ作成部71は、映像入力部10から入力された映像信号と映像信号の開始時刻とを対応づけて、映像データを作成し、映像データDB63に出力する。そして、映像データDB63は映像データを記録する。
以上の処理により、識別データ、音声データ及び映像データの登録処理が行われる。そして、前述のように所望の検索条件を入力することにより、検索条件と識別データの比較をまず行い、検索条件に該当する識別データの抽出を行う。そして、抽出された識別データの識別子に基づいて音声データ及び映像データを抽出し、抽出された音声データ及び映像データに基づいて音声及び映像を再生する。このように、発話内容を含む識別データと音声データまたは映像データとを、識別子である開始時刻を介して対応づけて記録することにより、所定の発話内容に対応する音声または映像を容易に特定することができる。識別子が、時刻データなどであると識別子のデータ量が小さくなり検索を容易に行うことができる。
<その他の実施形態>
(A)上記第1実施形態では、識別データ、音声データ及び映像データを識別する識別子として開始時刻を用い、開始時刻を介して識別データ、音声データ及び映像データを対応づけている。つまり、検索条件を入力した場合に、検索条件に該当する識別データが抽出される。そして、その識別データに含まれる開始時刻に基づいて対応する音声データ及び映像データを抽出する。しかし、識別子は終了時刻であっても良く、開始時刻に限定されない。また、時刻に限定されず、例えばID、アドレス、文節やキーワード、開始時刻、秒数、性別、到来方向等の多様のデータが識別子として使用することができる。
同様に、検索データとして文節やキーワード、性別データ、方向データ及び秒数等を用いているが、検索データはこれらに限定されない。
(B)上記第1実施形態の検索部80の入力受付部81は、検索条件として、文節やキーワードの他、開始時刻、秒数、性別、到来方向の指定を受け付け、指定された検索条件に合致する映像データまたは音声データを抽出するようにしてもよい。例えば、検索条件として、「男性」の指定を受け付けた場合、識別テーブル59の「性別」が「男」である識別データを抽出する。そして、抽出された識別データが有する識別子に基づいて、映像データを抽出し、再生するようにしてもよい。
また、複数の検索条件を組み合わせて入力しても良い。
(C)上記第1実施形態のフレームデータには、文節データの他、開始時刻、秒数、性別、到来方向などを含めてもよい。
(D)上記第1実施形態では、入力された検索条件に対応する識別データに基づいて音声データまたは映像データのいずれかが抽出できればよい。そして、音声または映像のいずれかが再生できれば良い
本発明を用いれば、音声に基づいて作成された映像特定情報を用いて所望の映像を容易に検索することができる。
第1実施形態に係る映像記録装置の構成図。 検索画面の表示例。 検索結果画面の表示例。 映像表示画面の表示例。 識別テーブルに記録される識別データの一例。 音声データまたは映像データの一例。 音声データまたは映像データの別の一例。 登録処理の流れを示すフローチャート。
符号の説明
1:映像記録装置
15:検索部
21:登録部
23:映像記録部

Claims (8)

  1. 音声を入力する音声入力部と、
    映像を入力する映像入力部と、
    前記音声に基づいて前記映像を検索するための検索データを作成する検索データ作成部と、
    前記検索データの各々を識別する識別子と前記検索データとを対応づけて記録する識別データ記録部と、
    前記識別子と前記映像とを対応づけて記録する映像記録部と、
    を備えた映像記録装置。
  2. 前記映像記録部に記録された映像を特定するための入力データの入力を受け付ける入力受付部と、
    前記入力データと前記識別データ記録部に記録された識別データとを比較することにより、前記入力データを含む識別データを抽出し、抽出された識別データの識別子に基づいて前記映像を検索する検索部をさらに備えた、請求項1に記載の映像記録装置。
  3. 前記識別子は時間情報を含み、
    前記映像記録部は、前記時間情報と前記映像とを対応づけて記憶する、請求項1に記載の映像記録装置。
  4. 前記検索データは前記音声を文字に変換した文字データを含む、請求項1に記載の映像記録装置。
  5. 前記検索データは前記音声を発声した人物の性別を示す性別データを含む、請求項1に記載の映像記録装置。
  6. 前記検索データは前記音声の音源の到来方向を示す方向データを含む、請求項1に記載の映像記録装置。
  7. 前記記録された映像を再生表示する表示部と、
    前記音声の音源の位置を示す位置データに基づいて前記音源の位置を表示する音源位置表示部をさらに備えた、請求項6に記載の映像記録装置。
  8. 前記映像と前記音声を再生し、前記映像に前記音声を文字に変換した文字データを重畳して再生する再生部をさらに備えた、請求項1に記載の映像記録装置。
JP2004225732A 2004-08-02 2004-08-02 映像記録装置 Pending JP2006050091A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004225732A JP2006050091A (ja) 2004-08-02 2004-08-02 映像記録装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004225732A JP2006050091A (ja) 2004-08-02 2004-08-02 映像記録装置

Publications (1)

Publication Number Publication Date
JP2006050091A true JP2006050091A (ja) 2006-02-16

Family

ID=36028166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004225732A Pending JP2006050091A (ja) 2004-08-02 2004-08-02 映像記録装置

Country Status (1)

Country Link
JP (1) JP2006050091A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206364A (ja) * 2009-03-02 2010-09-16 Mitsubishi Electric Corp 画像監視システム
WO2015151130A1 (ja) * 2014-03-31 2015-10-08 パナソニックIpマネジメント株式会社 音声処理装置、音声処理システム、及び音声処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206364A (ja) * 2009-03-02 2010-09-16 Mitsubishi Electric Corp 画像監視システム
WO2015151130A1 (ja) * 2014-03-31 2015-10-08 パナソニックIpマネジメント株式会社 音声処理装置、音声処理システム、及び音声処理方法
CN105474665A (zh) * 2014-03-31 2016-04-06 松下知识产权经营株式会社 声音处理装置、声音处理系统及声音处理方法

Similar Documents

Publication Publication Date Title
US9798934B2 (en) Method and apparatus for providing combined-summary in imaging apparatus
CN101202864B (zh) 动画再现装置
AU2005200340B2 (en) Database annotation and retrieval
US9245523B2 (en) Method and apparatus for expansion of search queries on large vocabulary continuous speech recognition transcripts
US7788095B2 (en) Method and apparatus for fast search in call-center monitoring
EP1692629B1 (en) System & method for integrative analysis of intrinsic and extrinsic audio-visual data
KR101513847B1 (ko) 화상들을 재생하기 위한 방법 및 장치
US20030065655A1 (en) Method and apparatus for detecting query-driven topical events using textual phrases on foils as indication of topic
US20080235018A1 (en) Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content
EP1100073A2 (en) Classifying audio signals for later data retrieval
JP2008533580A (ja) オーディオ及び/又はビジュアルデータの要約
KR101100191B1 (ko) 멀티미디어 재생장치와 이를 이용한 멀티미디어 자료검색방법
US20090070364A1 (en) Multimedia data recording method and apparatus for automatically generating/updating metadata
JP2005115607A (ja) 映像検索装置
JP2008032825A (ja) 発言者表示システム、発言者表示方法および発言者表示プログラム
KR20060089922A (ko) 음성 인식을 이용한 데이터 추출 장치 및 방법
JP5320913B2 (ja) 撮像装置およびキーワード作成プログラム
US20140078331A1 (en) Method and system for associating sound data with an image
JP2017021672A (ja) 検索装置
JP4172904B2 (ja) 映像・音声検索装置
JP2004023661A (ja) 記録情報処理方法、記録媒体及び記録情報処理装置
CN110992984A (zh) 音频处理方法及装置、存储介质
JP2006050091A (ja) 映像記録装置
JPH08249343A (ja) 音声情報取得装置及び音声情報取得方法
JP4080965B2 (ja) 情報提示装置及び情報提示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090331