JP2006050091A - 映像記録装置 - Google Patents
映像記録装置 Download PDFInfo
- Publication number
- JP2006050091A JP2006050091A JP2004225732A JP2004225732A JP2006050091A JP 2006050091 A JP2006050091 A JP 2006050091A JP 2004225732 A JP2004225732 A JP 2004225732A JP 2004225732 A JP2004225732 A JP 2004225732A JP 2006050091 A JP2006050091 A JP 2006050091A
- Authority
- JP
- Japan
- Prior art keywords
- data
- video
- unit
- search
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
【解決手段】 映像記録装置1は、映像入力部10と、音声入力部20と、入力された音声信号から発話内容に含まれる文節やキーワードを抽出する文節キーワード抽出部51と、タイマー部40の時間情報を識別子とし、文節やキーワードを検索データとしてこれらを対応づけて識別データを作成する識別データ作成部55と、音声信号と時間情報とを対応づけた音声データを記憶する音声データDB63と、映像信号と時間情報とを対応づけた映像データを記憶する映像データDB73とを含む。識別データ検索部83は、入力受付部81が受け付けた検索条件に基づいて識別データを検索・抽出する。そして、抽出された識別データの識別子に基づいて音声データ及び映像データを検索し、再生させる。
【選択図】 図1
Description
本発明の目的は、ある発話内容が発せられた場面に対応する映像の検索を容易にすることにある。
ここでは、発話内容と映像とを識別子を介して対応づけて記録することにより、ある発話内容に対応する映像を特定できる。従って、発話内容に基づき、映像を容易に検索することが可能である。
映像を特定するための入力データと識別データ記録部内の識別データとを比較する。識別データを構成する検索データと入力データとを比較して、例えば入力データと一致する、入力データを含む検索データを抽出する。そして、抽出された検索データを含む識別データの識別子に基づいて映像記録部内の映像を検索する。よって、特定の音声内容に対応する映像を検索することができる。
検索データと時間情報とを対応づけた識別データを記憶し、かつ時間情報と映像とを対応づけて記録することで、時間情報を介して識別データと映像とを対応づけることができる。よって、時間情報に基づいて識別データに対応する映像を特定することができる。
本願第4発明は、本願第1発明において、検索データは音声を文字に変換した文字データを含む映像記録装置を提供する。
本願第5発明は、本願第1発明において、検索データは音声を発声した人物の性別を示す性別データを含む。
ここでは、音声を発声した人物の性別を示す性別データを検索データとして記録する映像記録装置を提供する。
本願第6発明は、本願第1発明において、検索データは音声の音源の到来方向を示す方向データを含む映像記録装置を提供する。
本願第7発明は、本願第6発明において、記録された映像を再生表示する表示部と、音声の音源の位置を示す位置データに基づいて音源の位置を表示する音源位置表示部をさらに備えている映像記録装置を提供する。
ここでは、音声の音源の到来方向を表示することができる。
本願第8発明は、本願第1発明において、前記映像と前記音声を再生し、前記映像に前記音声を文字に変換した文字データを重畳して再生する再生部をさらに備えた映像記録装置を提供する。
(1)構成
図1は、第1実施形態に係る映像記録装置1の全体構成図である。この装置は、映像入力部10、音声入力部20、検索条件入力部30、タイマー部40、識別データ部50、音声データ部60、映像データ部70、検索部80及び再生部90を含む。以下に、各部の構成を説明する。
<映像入力部>
映像入力部10は、監視カメラなどの映像撮影装置10aから所定時間ΔTごと(例えば1/30秒ごと)に送信された映像信号を入力する端子であり、映像データ部70に接続されている。本実施形態では、所定時間ΔTごとに送信される映像信号は静止画像を示すものであるとするが、動画であってもよい。映像入力部10は、さらに映像データバッファと接続され、映像信号が映像データ部70に出力されるまで映像信号を一時的に記録するようにしても良い。
<音声入力部>
音声入力部20は、各々空間的あるいは平面的に異なる位置に設置されたマイクロホンなどの複数の集音部20a、b、c、d・・からの音声信号を入力する端子であり、識別データ部50及び音声データ部60に接続されている。
<検索条件入力部>
検索条件入力部30は、パソコン等の入力機器30aと接続されており、所望の音声データ及び映像データを取得するための検索条件の入力を受け付ける。検索条件としては、例えばキーワード等が挙げられる。
<タイマー部>
タイマー部40は、現在の時刻を識別データ部50、音声データ部60及び映像データ部70に出力する。タイマー部40の出力は現在の時刻に限定されず、例えば経過時間などの時間情報を出力すれば良い。
<識別データ部>
識別データ部50は、文節キーワード抽出部51、性別判定部52、方向抽出部53、識別データ作成部55及び識別データDB57を有している。また、識別データDB57は、識別テーブル59を有している。
<音声データ部>
音声データ部60は、音声入力部20及びタイマー部40に接続されており、音声データ作成部61及び音声データDB63を有している。音声データ作成部61は、後述の登録処理において、音声入力部20から入力された音声信号と音声信号の開始時刻とを対応づけて、後述する音声データを作成する。音声データDB63は、作成された音声データを記憶する。
<映像データ部>
映像データ部70は、映像入力部10及びタイマー部40に接続されており、映像データ作成部71及び映像データDB73を有している。映像データ作成部71は、後述の登録処理において、映像入力部10から入力された映像信号と映像信号の開始時刻とを対応づけて、後述する映像データを作成する。映像データDB73は、作成された映像データを記憶する。
<検索部>
検索部80は、入力受付部81、識別データ検索部83、音声データ検索部85及び映像データ検索部87を有している。入力受付部81は、音声データDB63及び映像データDB73内に記録されている音声データ及び/または映像データから所望の音声データ及び/又は映像データを取得するための検索条件の指定を受け付ける。入力受付部81は、受け付けた検索条件を識別データ検索部83に出力する。識別データ検索部83は、検索条件に基づいて、識別データDB57内の識別データとを比較し、検索条件に該当する識別データを抽出する。このとき、識別データ検索部83は、識別データを構成する検索データと検索条件とを比較する。つまり、検索データである文節やキーワード、性別データ、方向データ及び秒数と検索条件とを比較し、例えば検索条件と一致する、あるいは検索条件を含む検索データを抽出する。そして、識別データ検索部83は、その抽出された検索データを含む識別データから識別子である時間情報を取り出し、音声データ検索部85及び映像データ検索部87に出力する。音声データ検索部85及び映像データ検索部87は、入力された時間情報に基づいて、例えば同一の時間情報を有する音声データDB63及び映像データDB73内を検索し、音声データ及び映像データを抽出する。抽出された音声データ及び映像データは、それぞれ音声再生部91及び映像再生部93において再生される。
<再生部>
再生部90は、音声再生部91及び映像再生部93を有している。音声再生部91は、音声データ検索部85において音声データDB63から抽出された音声データ内の音声信号に基づいて音声を再生する。映像再生部93は、映像データ検索部87において映像データDB73から抽出された映像データ内の映像信号に基づいて映像を再生し、前述の映像表示画面上に表示する。なお、音声再生部91及び映像再生部93は、映像記録装置1の外部に設けてもよい。
(2)識別データ
図5は、識別テーブル59に記録される識別データの一例である。識別テーブル59には、「発話ID」、「開始時刻」、「到来方向」、「秒数」、「性別」及び「文節・キーワード」を1レコードに含む識別データが記録されている。「発話ID」は、識別テーブル59におけるレコードの識別子である。「開始時刻」は、「文節・キーワード」が含まれる音声の記録が開始された時刻である。この時刻は、タイマー部40から取得される。「文節・キーワード」は、文節キーワード抽出部51により発話内容から抽出された文節やキーワードをテキストデータなどの文字情報である。「秒数」は、「文節・キーワード」に記憶された文節やキーワードが発話された長さである。この秒数は、タイマー部40から得られる現在の時刻を計測することで算出される。「性別」は、発話者の性別である。「到来方向」は、音声の到来方向を示す情報である。ここでは簡便のため、音声の到来方向を集音部20aの設置されている位置である「A」、集音部20bの設置されている位置である「B」などで表す。ただし、各集音部20a、b・・から集音された音声の大きさの相関から算出される音声の到来方向を記録してもよい。
また、識別テーブル59に記録される識別データは、例えば開始時刻の早いレコードからソートされて記録されている。
(3)音声データ、映像データ
図6は、音声データまたは映像データの一例である。音声データまたは映像データは、複数のフレームデータF1、F2、F3・・・から構成される。1つのフレームデータは、例えば音声信号または映像信号(V1、V2、V3・・・)と、音声信号または映像信号の開始時刻(T1、T2、T3・・・)とにより作成されている。音声データまたは映像データが時間情報として開始時刻を含んでいるため、識別データとのリンクを開始時刻を介して行うことができる。よって、所望の検索条件に基づいて識別データを検索し、その識別データの時間情報に基づいて音声データ及び/または映像データを抽出することができる。時間情報をリンクとして用いるため、音声データや映像データなどの容量を少なくすることができる。そのため、検索時間のスピードアップを図ることができる。
次に、映像記録装置1で行われる識別データ、音声データ及び映像データの登録処理の流れを、図8に例示するフローチャートに基づいて説明する。なお、以下では、識別データ、音声データ及び映像データの識別子が開始時刻である場合を例に挙げて説明する。
この処理は、音声及び映像がそれぞれ音声入力部10、映像入力部16に入力されたときに開始する。
ステップS11:文節キーワード抽出部51は、音声入力部20から入力された音声信号から文節と、文節に含まれるキーワードとを抽出する。そして、抽出された文節やキーワードを識別データ作成部55に出力する。このとき、文節キーワード抽出部51は、抽出された文節やキーワードとともに開始時刻を識別データ作成部55に出力する。
ステップS13:方向抽出部53は、現在の音声の到来方向を決定し、音声の到来方向を示す情報である方向データを識別データ作成部55に出力する。このとき、方向データとともに開始時刻を識別データ作成部55に出力する。
ステップS14:識別データ作成部55は、抽出された文節やキーワードが発声された時間に相当する秒数をタイマー部40が出力する時刻に基づいて算出する。そして、識別データ作成部55は、入力された文節やキーワード、性別データ、方向データ及び秒数を、開始時刻を基準に対応づけ、これに発話IDを付与した識別データを作成する。識別データ作成部55は、作成された識別データを識別データDB57に出力し、識別データDB57は識別データを記録する。ここで、文節やキーワード、性別データ、方向データ及び秒数が検索条件と比較される検索データであり、開始時刻が識別子である。
ステップS17:映像データ作成部71は、映像入力部10から入力された映像信号と映像信号の開始時刻とを対応づけて、映像データを作成し、映像データDB63に出力する。そして、映像データDB63は映像データを記録する。
以上の処理により、識別データ、音声データ及び映像データの登録処理が行われる。そして、前述のように所望の検索条件を入力することにより、検索条件と識別データの比較をまず行い、検索条件に該当する識別データの抽出を行う。そして、抽出された識別データの識別子に基づいて音声データ及び映像データを抽出し、抽出された音声データ及び映像データに基づいて音声及び映像を再生する。このように、発話内容を含む識別データと音声データまたは映像データとを、識別子である開始時刻を介して対応づけて記録することにより、所定の発話内容に対応する音声または映像を容易に特定することができる。識別子が、時刻データなどであると識別子のデータ量が小さくなり検索を容易に行うことができる。
(A)上記第1実施形態では、識別データ、音声データ及び映像データを識別する識別子として開始時刻を用い、開始時刻を介して識別データ、音声データ及び映像データを対応づけている。つまり、検索条件を入力した場合に、検索条件に該当する識別データが抽出される。そして、その識別データに含まれる開始時刻に基づいて対応する音声データ及び映像データを抽出する。しかし、識別子は終了時刻であっても良く、開始時刻に限定されない。また、時刻に限定されず、例えばID、アドレス、文節やキーワード、開始時刻、秒数、性別、到来方向等の多様のデータが識別子として使用することができる。
(B)上記第1実施形態の検索部80の入力受付部81は、検索条件として、文節やキーワードの他、開始時刻、秒数、性別、到来方向の指定を受け付け、指定された検索条件に合致する映像データまたは音声データを抽出するようにしてもよい。例えば、検索条件として、「男性」の指定を受け付けた場合、識別テーブル59の「性別」が「男」である識別データを抽出する。そして、抽出された識別データが有する識別子に基づいて、映像データを抽出し、再生するようにしてもよい。
(C)上記第1実施形態のフレームデータには、文節データの他、開始時刻、秒数、性別、到来方向などを含めてもよい。
(D)上記第1実施形態では、入力された検索条件に対応する識別データに基づいて音声データまたは映像データのいずれかが抽出できればよい。そして、音声または映像のいずれかが再生できれば良い
15:検索部
21:登録部
23:映像記録部
Claims (8)
- 音声を入力する音声入力部と、
映像を入力する映像入力部と、
前記音声に基づいて前記映像を検索するための検索データを作成する検索データ作成部と、
前記検索データの各々を識別する識別子と前記検索データとを対応づけて記録する識別データ記録部と、
前記識別子と前記映像とを対応づけて記録する映像記録部と、
を備えた映像記録装置。 - 前記映像記録部に記録された映像を特定するための入力データの入力を受け付ける入力受付部と、
前記入力データと前記識別データ記録部に記録された識別データとを比較することにより、前記入力データを含む識別データを抽出し、抽出された識別データの識別子に基づいて前記映像を検索する検索部をさらに備えた、請求項1に記載の映像記録装置。 - 前記識別子は時間情報を含み、
前記映像記録部は、前記時間情報と前記映像とを対応づけて記憶する、請求項1に記載の映像記録装置。 - 前記検索データは前記音声を文字に変換した文字データを含む、請求項1に記載の映像記録装置。
- 前記検索データは前記音声を発声した人物の性別を示す性別データを含む、請求項1に記載の映像記録装置。
- 前記検索データは前記音声の音源の到来方向を示す方向データを含む、請求項1に記載の映像記録装置。
- 前記記録された映像を再生表示する表示部と、
前記音声の音源の位置を示す位置データに基づいて前記音源の位置を表示する音源位置表示部をさらに備えた、請求項6に記載の映像記録装置。 - 前記映像と前記音声を再生し、前記映像に前記音声を文字に変換した文字データを重畳して再生する再生部をさらに備えた、請求項1に記載の映像記録装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004225732A JP2006050091A (ja) | 2004-08-02 | 2004-08-02 | 映像記録装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004225732A JP2006050091A (ja) | 2004-08-02 | 2004-08-02 | 映像記録装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006050091A true JP2006050091A (ja) | 2006-02-16 |
Family
ID=36028166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004225732A Pending JP2006050091A (ja) | 2004-08-02 | 2004-08-02 | 映像記録装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006050091A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206364A (ja) * | 2009-03-02 | 2010-09-16 | Mitsubishi Electric Corp | 画像監視システム |
WO2015151130A1 (ja) * | 2014-03-31 | 2015-10-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、音声処理システム、及び音声処理方法 |
-
2004
- 2004-08-02 JP JP2004225732A patent/JP2006050091A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206364A (ja) * | 2009-03-02 | 2010-09-16 | Mitsubishi Electric Corp | 画像監視システム |
WO2015151130A1 (ja) * | 2014-03-31 | 2015-10-08 | パナソニックIpマネジメント株式会社 | 音声処理装置、音声処理システム、及び音声処理方法 |
CN105474665A (zh) * | 2014-03-31 | 2016-04-06 | 松下知识产权经营株式会社 | 声音处理装置、声音处理系统及声音处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9798934B2 (en) | Method and apparatus for providing combined-summary in imaging apparatus | |
CN101202864B (zh) | 动画再现装置 | |
AU2005200340B2 (en) | Database annotation and retrieval | |
US9245523B2 (en) | Method and apparatus for expansion of search queries on large vocabulary continuous speech recognition transcripts | |
US7788095B2 (en) | Method and apparatus for fast search in call-center monitoring | |
EP1692629B1 (en) | System & method for integrative analysis of intrinsic and extrinsic audio-visual data | |
KR101513847B1 (ko) | 화상들을 재생하기 위한 방법 및 장치 | |
US20030065655A1 (en) | Method and apparatus for detecting query-driven topical events using textual phrases on foils as indication of topic | |
US20080235018A1 (en) | Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content | |
EP1100073A2 (en) | Classifying audio signals for later data retrieval | |
JP2008533580A (ja) | オーディオ及び/又はビジュアルデータの要約 | |
KR101100191B1 (ko) | 멀티미디어 재생장치와 이를 이용한 멀티미디어 자료검색방법 | |
US20090070364A1 (en) | Multimedia data recording method and apparatus for automatically generating/updating metadata | |
JP2005115607A (ja) | 映像検索装置 | |
JP2008032825A (ja) | 発言者表示システム、発言者表示方法および発言者表示プログラム | |
KR20060089922A (ko) | 음성 인식을 이용한 데이터 추출 장치 및 방법 | |
JP5320913B2 (ja) | 撮像装置およびキーワード作成プログラム | |
US20140078331A1 (en) | Method and system for associating sound data with an image | |
JP2017021672A (ja) | 検索装置 | |
JP4172904B2 (ja) | 映像・音声検索装置 | |
JP2004023661A (ja) | 記録情報処理方法、記録媒体及び記録情報処理装置 | |
CN110992984A (zh) | 音频处理方法及装置、存储介质 | |
JP2006050091A (ja) | 映像記録装置 | |
JPH08249343A (ja) | 音声情報取得装置及び音声情報取得方法 | |
JP4080965B2 (ja) | 情報提示装置及び情報提示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090331 |