JP2010010967A - 撮影装置、その制御方法及びコンピュータプログラム - Google Patents

撮影装置、その制御方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2010010967A
JP2010010967A JP2008166541A JP2008166541A JP2010010967A JP 2010010967 A JP2010010967 A JP 2010010967A JP 2008166541 A JP2008166541 A JP 2008166541A JP 2008166541 A JP2008166541 A JP 2008166541A JP 2010010967 A JP2010010967 A JP 2010010967A
Authority
JP
Japan
Prior art keywords
detection
change
monitoring environment
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008166541A
Other languages
English (en)
Other versions
JP5374080B2 (ja
JP2010010967A5 (ja
Inventor
Tomoaki Kawai
智明 河合
Yasuo Nakamura
安夫 中村
Shinji Shiragami
愼二 白神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008166541A priority Critical patent/JP5374080B2/ja
Priority to US12/489,917 priority patent/US8606570B2/en
Publication of JP2010010967A publication Critical patent/JP2010010967A/ja
Publication of JP2010010967A5 publication Critical patent/JP2010010967A5/ja
Application granted granted Critical
Publication of JP5374080B2 publication Critical patent/JP5374080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】撮影装置における検知・認識精度を向上させる。
【解決手段】監視環境の音声を集音する集音手段と、監視環境の映像を撮影する撮影手段と、集音手段、撮影手段、及び監視環境の状態を測定するセンサが収集したデータの変化に基づいて監視環境の状態の変化を検知する検知手段と、集音手段が収集した音声データと撮影手段が収集した映像データとについて、状態の変化を認識する認識処理を行う認識処理手段とを備える。認識処理手段は、検知手段による検知結果に基づいて起動し、認識処理に使用する認識データベースを選択することを特徴とする。
【選択図】図2

Description

本発明は撮影技術に関し、特に監視のための撮影技術に関する。
治安等の問題をはじめ、遠隔地の様子を見たいという潜在的な要求や、カメラのこれまでにない使い方について技術的にも様々な観点から検討されつつある。
例えば、インターネットに代表されるネットワーク環境の普及及び高速化を背景として、遠隔地の映像を見るようないわゆるネットワークカメラが増えてきている。また、音声処理・画像処理の処理能力が向上し、高度な音声検知処理や音声認識処理、高度な映像検知処理や映像認識処理の技術が検討されつつある。上記に鑑み、音声・映像を用いて認識・検知するための様々な技術が提案されている。
特許文献1では、動きないし音量の閾値を用いて状態の変化を検知する技術が提案されている。特許文献2では、入力音声の認識結果から発言者を推定し、発言者に対応してあらかじめ設定した撮影条件に沿って自動的にクローズアップする技術が提案されている。特許文献3では、ネットワークに接続された複数の音声認識装置を用いて、入力音声を全ての認識装置に送り、認識結果のスコアが最高の音声認識装置の結果を採用する技術が提案されている。特許文献4では、ローカルに小語彙用、リモートに大語彙用の音声認識装置をもつ複数の音声認識エンジンが存在する場合に、どちらのエンジンを利用するかをユーザが明示的に指定することにより音声認識エンジンを決定する技術が提案されている。
特開平8−297792号公報 特開平11−341334号公報 特開2002−116796号公報 特開2002−182896号公報
しかしながら、監視等の利用では無人の状況で動作させることが多く、検知処理や認識処理性能が向上したとはいえ、まだまだ検知・認識の機能として、無人の状況で使うには要求を満足させるには処理負荷や精度の面で不十分な場合が少なくない。
上記課題を鑑み、本発明に係る撮影装置は、
監視環境の音声を集音する集音手段と、
前記監視環境の映像を撮影する撮影手段と、
前記集音手段、前記撮影手段、及び前記監視環境の状態を測定するセンサが収集したデータの変化に基づいて前記監視環境の状態の変化を検知する検知手段と、
前記集音手段が収集した音声データと前記撮影手段が収集した映像データとについて、前記状態の変化を認識する認識処理を行う認識処理手段と
を備え、
前記認識処理手段は、前記検知手段による検知結果に基づいて起動し、前記認識処理に使用する認識データベースを選択する
ことを特徴とする。
本発明により、検知・認識能力を向上させると共に、撮影装置の限られた処理能力であっても、不要な処理を実行せず、精度の高い検知・認識ができるようになる。
本発明の実施形態について、添付の図面を参照しつつ詳細に説明する。
<第1の実施形態>
図1は本実施形態におけるシステム構成図の一例である。撮影装置101、映像音声蓄積装置102、センサ105、及び操作端末103は、ネットワーク104を介して接続される。撮影装置101は監視環境の映像の撮影や音声の集音を行う。映像音声蓄積装置102は撮影装置101から送信された映像・音声を必要に応じて蓄積する。操作端末103は撮影装置101から送信された映像・音声の閲覧や撮影装置101の操作等を行う。操作端末103は撮影装置101で状態の変化を検知した場合に異常検知通知の受信も行う。なお、撮影装置101で検知・認識された状態の変化に関連する情報も、映像音声蓄積装置102において、映像・音声と共に蓄積される。センサ105は例えば窓ガラスセンサやドアセンサであり、監視環境の状態を測定して、収集した測定結果を撮影装置101に出力する。ネットワーク104はLANやWANのようなIP網を想定しているが、専用の通信網等の映像・音声を通信するために十分は回線が確保できればどのようなものであってもかまわない。また、撮影装置101、映像音声蓄積装置102、センサ105、及び操作端末103は、それぞれ複数がネットワーク104に接続されていてもかまわない。この場合、通信相手を特定して通信できれば良い。
また、撮影装置101は検知した状態の変化を操作端末103及び映像音声蓄積装置102に送信しているが、撮影装置101の内部に保持してもよい。その場合、管理者は定期的に撮影装置101に保持されたデータをネットワーク経由で又は直接に取得する。
図2は本実施形態における撮影装置101の機能ブロック図の一例である。音声入力部201はマイク等から入力された音声信号をA/D変換する。音声圧縮部202はA/D変換された音声信号を圧縮する。映像撮像部211は撮像素子から入力された映像信号をA/D変換する。映像圧縮部212は、A/D変換された映像信号を圧縮する。映像音声圧縮データ統合部210は映像の圧縮データと音声の圧縮データとを統合する。さらに、通信処理部224は統合されたデータをネットワーク104に送信できる形態に変換して、映像音声蓄積装置102や操作端末103に対して送信する。統合されたデータを受信した映像音声蓄積装置102や操作端末103は、それぞれ蓄積や表示等を行う。なお、音声圧縮部202による音声圧縮方式としては、G.711、G.722、G.723等が考えられる。また、映像圧縮部212による映像圧縮方式としては、Motion−JPEGやMPEG−2、H.264等が考えられる。これらは例示であり、他の圧縮方式であったとしても、本発明は適用可能である。
音声検知部203は、集音した音声を用いて、事前に設定された条件に基づいて音や声の状態の変化の発生を検知する。音声検知部203は、音声圧縮部202における圧縮処理過程において音声検知を行うか、又は圧縮音声データを用いて音声検知処理を行う。例えば、以下のような条件で音声の状態の変化を検知する。
・音声の大きさが事前に設定した以上のレベルになる。
・音声における特定の周波数成分の一定時間内におけるレベルの総和が事前に設定した以上のレベルになる。
音声検知部203では、音声圧縮処理過程における音声検知、又は圧縮音声データを用いた音声検知がより高精度でできることが重要である。音声検知部203は検知した音声状態の変化を分析処理部222に通知する。
映像検知部213は、撮影した映像を用いて、不審者の侵入や異常な動き、滞留の有無、持ち去りなどの事前に設定された条件に基づいて映像上の状態の変化が発生したことを検知する。映像検知部213は、映像圧縮部212における圧縮処理過程において映像検知を行うか、又は圧縮映像データを用いて映像検知処理を行う。例えば、以下のような条件で映像の状態の変化を検知する。
・特定のDCT(Discrete Cosine Transform)成分のDCT係数が事前に設定した以上の値になる。
・DCT成分ごとにDCT係数のフレーム間の差分をとり、一定時間内の差分和の積算の一定以上の値になる。
・動きベクトル成分の絶対値の和が特定の大きさ以上の値になる。
映像検知部213では、映像圧縮処理過程における映像検知、又は圧縮映像データを用いた映像検知がより高精度でできることが重要である。映像検知部213は検知した映像の状態の変化を分析処理部222に通知する。
音声一時記憶部204は、音声入力部201からの出力である圧縮されていないデジタル音声データを一時的にバッファリングする。バッファリングはFIFO(先入れ先出し)で行い、常に一定時間分(例えば10秒)の最新音声データを保持する。基本的には、音声検知の対象となった時点の前後の音声を常に記憶しておく。
映像一時記憶部214は、映像撮像部211からの出力である圧縮されていないデジタル映像データを一時的にバッファリングする。バッファリングはFIFOで行い、常に一定時間(例えば10秒)の期間の最新映像データを保持する。基本的には、映像検知の対象となった時点の前後の映像を常に記憶しておく。
音声認識処理部205は、音声一時記憶部204に保持されている非圧縮音声データに基づいて音声認識・弁別処理(以下、単に音声認識処理という)を行う。例えば、集音した音声が、大人又は子供の声であるか、男性又は女性の声であるか、ドアの音であるか、ガラスの割れる音であるか、自動車のエンジン音であるか等の音声検知部203で認識できないような認識処理を行う。また、音声による高度な人物特定処理や行動特定処理のような高度な認識処理を行ってもよい。この場合には、人物、自動車等の認識分野によって、使用する音声認識処理アルゴリズム及び音声認識処理データベース226を切り替えることになる。いずれにしても、あらかじめ設定した認識対象と一致する音声パターンを認識した場合に音声認識したとみなす。なお、あらかじめ設定する認識対象は、もちろん複数であってもよいし、ある一定の範囲としてもよい。例えば、男性の声で特定の言葉を認識した場合に異常を認識したと判断してもよいし、単純に子供の泣き声を認識した場合に異常を認識したと判断してもよい。音声認識処理部205は音声の認識結果を分析処理部222に通知する。音声認識処理データベース226には、認識処理に適した各種データベースを用意する。例えば、特定の人物を認識するためのデータや、自動車であることを認識するためのデータ等を用意する。
映像認識処理部215は、映像一時記憶部214に保持されている非圧縮映像データに基づいて映像認識・弁別処理(以下、単に映像認識処理という)を行う。例えば、人の特定の動作であるか、人物の顔であるか、猫や犬といった特定の動物であるか、自動車等の物体であるかというような映像検知部で認識できないような認識処理を行う。また、映像による高度な人物特定やエンジン音からの車種特定のような高度な認識処理を行ってもよい。人物特定である場合には、誰の顔であるか、未知の人であるか、というような弁別をする。この場合には、人物、自動車等の認識分野によって映像認識処理アルゴリズム及び映像認識処理データベース227を切り替えることになる。いずれにしても、あらかじめ設定した認識対象と一致する映像パターンを認識した場合に異常を認識したとみなす。なお、あらかじめ設定する認識対象は、もちろん複数であってもよいし、ある一定の範囲としてもよい。例えば、特定の人物若しくは未知の人物の顔を認識した場合に異常を認識したと判断してもよいし、単に人物を認識した場合に異常を認識したと判断してもよい。映像認識処理部215は像の認識結果を分析処理部222に通知する。映像認識処理データベース227には、認識処理に適した各種データベースを用意する。例えば、特定の人物を認識するためのデータや、自動車であることを認識するためのデータ等を用意する。
センサ処理部231は、人感センサやドアセンサ等のセンサからのトリガ入力を受け付けて、トリガ発生時刻と共に、分析処理部222に通知する。
分析処理部222は、センサ処理部231、音声検知部203、音声認識処理部205、映像検知部213及び映像認識処理部215の処理結果に応じて、適切な検知処理及び認識処理を実行する。詳細は後述する。以下、音声検知部203、音声認識処理部205、映像検知部213及び映像認識処理部215をまとめて検知・認識処理部と表すこともある。
さらに、分析処理部222は、検知・認識処理部の処理結果を表す適切な形のコマンドを生成するため、コマンド生成部223に検知・認識結果と時刻情報等の情報を渡す。コマンド生成部223は、これらの情報から通知コマンドを生成し、通信処理部224から映像音声蓄積装置102及び操作端末103に送信する。通知コマンドは、検知した事実を通知するためのコマンドであり、検知時刻、認識した対象物などの情報を含む。
PTZ制御部225は撮影装置101のPTZを制御する。ここで、PTZとは、撮影装置101のパン・チルト角度及びズーム倍率のことである。PTZを適切に設定することで、特定の対象の認識性を高めることができる。
図3は本実施形態における撮影装置101のハードウェア構成図の一例である。マイクロプロセッサであるCPU301は、ROM303、ハードディスク(HD)305に記憶されたプログラムやデータなどに基づき、撮影装置101を制御する。
RAM302は、CPU301のワークエリアとして機能し、ROM303やHD305等に格納されたプログラムを読み出す。
ROM303、HD305には、後述するフローチャートに示されるような、CPU301により実行されるプログラムなどが記憶されている。また、図2に示す映像認識処理データベース227や映像認識処理データベース227も記憶されている。
通信装置306は図2に示す通信処理部224として機能し、ネットワーク104に接続される。映像素子307は図2に示す映像撮像部211として機能し、撮影装置101の周辺の映像を撮影する。マイク308は図2に示す音声入力部201として機能し、撮影装置101の周辺の音声を集音する。センサ309は人感センサやドアセンサ等であり、撮影装置101の周辺の変化を検知して、図2に示すセンサ処理部231にトリガを出力する。センサ309は撮影装置101にトリガを出力できれば、撮影装置101の外部に位置していても良い。以上の構成要素はバス304を介して接続される。
図4から図9までのフローチャートを用いて撮影装置101の処理について説明する。これらのフローチャートはRAM302に読み出されたコンピュータプログラムをCPU301が実行することで処理される。
図4は撮影装置101の初期動作の一例を説明するフローチャートである。
ステップS401で、分析処理部222はセンサ処理部231に対して動作の開始を指示する。指示を受けたセンサ処理部231はセンサ309を用いて測定を開始する。
ステップS402で、分析処理部222は音声検知部203に対して動作の開始を指示する。指示を受けた音声検知部203は、幅広い検知ができるデフォルトの設定で検知処理を開始する。例えば、音量が一定音量以上になったことのみの検知する。初期動作においては音声認識処理部205の動作は開始しない。
ステップS403で、分析処理部222は映像検知部213に対して動作の開始を指示する。指示を受けた映像検知部213は、幅広い検知ができるデフォルトの設定で検知処理を開始する。例えば、動きが一定の動き量となったことのみの検知する。初期動作においては映像認識処理部215の動作が開始しない。
なお、上記のステップS401からステップS403までは任意の順番に実行しても良いし、並列に実行してもかまわない。
図5はセンサ処理部がイベントを検知した場合の撮影装置101の処理の一例を説明するフローチャートである。
ステップS501で、分析処理部222は検知した検知結果であるイベントに基づいてPTZ制御部225を制御し、PTZ設定を変更する。例えば、センサ309の一つである窓ガラスセンサがイベントを検知した場合には、該当する窓ガラスを注視するようにPTZ設定を行う。また、PTZ設定に合わせて、マイク308の方向や感度を調整しても良い。
ステップS502で、分析処理部222は検知したイベントに基づいて各検知・認識処理部の設定を変更する。分析処理部222には、センサ309が検知したイベントの組み合わせに応じた、音声検知処理パラメータ、映像検知処理パラメータ、音声認識処理データベース226及び映像認識処理データベース227の適切な設定を予め規定しておく。この設定に沿って最適な音声検知、映像検知、音声認識処理、及び映像認識処理を実行する。
例えば、窓ガラスセンサがイベントを検知した場合には、窓を破って不審者が入ってくる可能性が高いので、不審者を前提とした映像・音声の検知・認識処理をできるように各検知・認識処理部を最適に設定する。また、ドアセンサがイベントを検知し、かつ、IDカード認識センサが正規のIDカードを認識した場合には、既知の人物が現れる可能性が高いので、映像・音声の認識データベースとして既知の人物のものを用いる。また、重量センサが一定の閾値の超過を検知した場合には、自動車が車庫に入った可能性が高いので、この方向に撮影装置を向け、音声検知・認識処理はエンジン音を検知・認識し、映像検知・認識処理は自動車を検知できるように各検知認識処理部を最適に設定する。
ステップS503で、各検知・認識処理部は設定された処理内容に基づいて処理を開始する。
図6は音声検知部203が状態の変化を検知した場合の撮影装置101の処理の一例を説明するフローチャートである。
ステップS601で、分析処理部222は音声認識処理部205に対して動作の開始を指示する。また、状態の変化の検知時刻を記憶する。
ステップS602で、分析処理部222は検知した検知結果に基づいて、音声検知処理パラメータ、音声認識処理データベース226を選択する。例えば、検知した音声が人の声の場合には、最も近い音声認識処理パラメータ、音声認識処理データベース226を選択する。
ステップS603で、音声認識処理部205は、音声一時記憶部204に保持されている非圧縮データに対して認識処理を実行する。したがって、音声検知時刻の少し前の時刻から認識処理を開始することになる。
図7は音声認識処理部205が音声を認識した場合の撮影装置101の処理の一例を説明するフローチャートである。
ステップS701で、分析処理部222は、音声認識処理部205による音声認識処理の結果に応じて、映像認識処理パラメータ、映像認識処理データベース227を選択する。例えば、特定の人物であることが認識できた場合には、その人物に応じた映像検知、映像認識処理ができるような選択を行う。
ステップS702で、分析処理部222は、音声認識処理部205の認識処理結果を、認識対象の非圧縮データと発生時刻とに合わせて、映像音声蓄積装置102及び操作端末103に送信する。
図8は映像検知部213が状態の変化を検知した場合の撮影装置101の処理の一例を説明するフローチャートである。
ステップS801で、分析処理部222は映像認識処理部215に対して動作の開始を指示する。また、状態の変化の検知時刻を記憶する。
ステップS802で、分析処理部222は検知結果に基づいて、映像検知処理パラメータ、映像認識処理データベース227を選択する。例えば、検知した映像が人の形の場合には、最も近い映像認識処理パラメータ、映像認識処理データベース227を選択する。
ステップS803で、映像認識処理部215は、映像一時記憶部214に保持されている非圧縮データに対して認識処理を実行する。したがって、映像検知時刻の少し前の時刻の映像から認識処理を開始することになる。
図9は映像認識処理部215が映像を認識した場合の撮影装置101の処理の一例を説明するフローチャートである。
ステップS901で、分析処理部222は、映像認識処理部215による映像認識処理の結果に応じて、音声認識処理パラメータ、音声認識処理データベース226を選択する。例えば、特定の人物であることが認識できた場合には、その人物に応じた音声検知、音声認識処理ができるような選択を行う。
ステップS902で、分析処理部222は、映像認識の結果を、認識対象の非圧縮データと発生時刻とに合わせて、映像音声蓄積装置102及び操作端末103に送信する。
図5から図9までで説明したセンサ検知、音声検知、音声認識処理、映像検知、及び映像認識処理については、映像音声蓄積装置102及び操作端末103に対してデータを配信中であるか否かに関わらず処理を実行するものとする。
以上のように、センサ検知、音声検知、音声認識、映像検知、及び映像認識を、それまでの処理結果に応じて、最適な処理に切り替えていくことで、検知・認識精度を向上させることができる。また、一般的に処理負荷の重い音声認識処理、映像認識処理を常に起動するのではなく、必要に応じて起動することで、撮影装置内の処理負荷を軽くすることが可能である。
<第2の実施形態>
第1の実施形態において、音声認識処理部205と映像認識処理部215とは、各検知部による異常検知直後に起動するようになっている。しかし、映像一時記憶部214と音声一時記憶部204との容量が十分にあれば、映像・音声の異常検知後の映像・音声の認識処理は、時間軸に沿ってリアルタイムで必ずしも実行する必要はなく、時間をかけて非同期に処理してもかまわない。
本実施形態では、異常検知した場合に、検知前後の映像一時記憶部214と音声一時記憶部204とにおける非圧縮の映像・音声データを部分的に削除不可にしておく。そして、撮影装置101が低負荷である間に、認識処理を行う。この場合の処理は、リアルタイム処理(ストリーム処理)でなくてもかまわない。こうすることで、認識処理部はより安価に構成することが可能となる。
<第3の実施形態>
第1の実施形態では、認識処理部を撮影装置101の内部に備えている。認識処理部において行われる人物特定処理や、会話の内容把握や解析処理のような処理は、一般に高負荷である。そこで、図10のように、認識処理部を撮影装置101の外部に備えることで、撮影装置101の処理負荷を軽減しても良い。図10は認識処理部を別の装置にした場合のシステム構成図の一例である。認識処理装置1005と撮影装置101とはネットワーク104を介して接続される。
本実施形態における撮影装置101の動作は基本的に第1の実施形態と同様である。すなわち、図2に示す映像撮像部211及び音声入力部201から取り込んだ映像・音声データは、映像圧縮部212及び音声圧縮部202で圧縮され、映像音声圧縮データ統合部210において統合される。検知内容である統合されたデータは、通信処理部224から映像音声蓄積装置102及び操作端末103に通常の映像・音声圧縮ストリームとして送信される。
さらに、本実施形態では、映像検知時及び音声検知時には、音声一時記憶部204及び映像一時記憶部214に蓄積されている非圧縮の映像・音声データを、通常の映像・音声圧縮ストリームとは別のデータとして認識処理装置1005に送信する。
そして、撮影装置101は外部の認識処理部からの応答である認識処理結果を受信して、検知部の動作を変更する。
一般に、人物認識処理や会話の内容把握といった認識処理の多くは、圧縮データを対象にせず非圧縮データを対象としている。したがって、認識処理をする際に、映像・音声データのデコード処理が不要になる。また、一般に映像・音声データはロスレス圧縮でない限り、圧縮によってデータの一部は省略されることになる。したがって、一旦圧縮したデータを用いて認識処理すると、圧縮によるデータロスが認識処理に悪影響を与えることがありうる。しかしながら、非圧縮データを別装置に送信して処理させることで、こういった悪影響を取り除ける。なお、認識処理装置1005を操作端末103や映像音声蓄積装置102と統合することもできる。
圧縮によるデータロスが認識処理に悪影響を与えないのであれば、バンド幅を効率的に使えるように、映像・音声を圧縮して送ってもよい。この場合の圧縮方法は、通常の撮影装置の映像・音声配信での圧縮ストリームとは異なる送り方になる。
<その他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。
本発明の第1、第2の実施形態におけるシステム構成図の一例である。 本発明の実施形態における撮影装置101の機能ブロック図の一例である。 本発明の実施形態における撮影装置101のハードウェア構成図の一例である。 本発明の実施形態における撮影装置101の初期動作の一例を説明するフローチャートである。 本発明の実施形態におけるセンサ処理部がイベントを検知した場合の撮影装置101の処理の一例を説明するフローチャートである。 本発明の実施形態における音声検知部203が異常を検知した場合の撮影装置101の処理の一例を説明するフローチャートである。 本発明の実施形態における音声認識処理部205が音声を認識した場合の撮影装置101の処理の一例を説明するフローチャートである。 本発明の実施形態における映像検知部213が異常を検知した場合の撮影装置101の処理の一例を説明するフローチャートである。 本発明の実施形態における映像認識処理部215が映像を認識した場合の撮影装置101の処理の一例を説明するフローチャートである。 本発明の第3の実施形態における認識処理部を別の装置にした場合のシステム構成図の一例である。
符号の説明
101 撮影装置
102 映像音声蓄積装置
103 操作端末
104 ネットワーク

Claims (9)

  1. 監視環境の音声を集音する集音手段と、
    前記監視環境の映像を撮影する撮影手段と、
    前記集音手段、前記撮影手段、及び前記監視環境の状態を測定するセンサが収集したデータの変化に基づいて前記監視環境の状態の変化を検知する検知手段と、
    前記集音手段が収集した音声データと前記撮影手段が収集した映像データとについて、前記状態の変化を認識する認識処理を行う認識処理手段と
    を備え、
    前記認識処理手段は、前記検知手段による検知結果に基づいて起動し、前記認識処理に使用する認識データベースを選択する
    ことを特徴とする撮影装置。
  2. 前記検知手段は、該検知手段による検知結果又は前記認識処理手段による認識処理結果に基づいて、前記監視環境の状態の変化の検知に使用するパラメータを調整することを特徴とする請求項1に記載の撮影装置。
  3. 前記検知手段が前記監視環境の状態の変化を検知した期間の前記映像データと前記音声データとを保持する保持手段をさらに備え、
    前記認識処理手段は、前記保持手段に保持されたデータを用いて、前記検知手段による状態の変化の検知とは非同期に前記認識処理を行うことを特徴とする請求項1又は2に記載の撮影装置。
  4. 前記検知手段は、前記撮影手段が収集した映像データに基づく前記監視環境の状態の変化の検知を、該データに含まれるDCT係数又は動きベクトルの変化に基づいて行うことを特徴とする請求項1乃至3のいずれか1項に記載の撮影装置。
  5. 前記検知手段による検知結果と前記認識処理手段による認識処理結果とを送信する通信手段をさらに備える請求項1乃至4のいずれか1項に記載の撮影装置。
  6. 監視環境の音声を集音する集音手段と、
    前記監視環境の映像を撮影する撮影手段と、
    前記集音手段、前記撮影手段、及び前記監視環境の状態を測定するセンサが収集したデータの変化に基づいて前記監視環境の状態の変化を検知する検知手段と、
    前記検知手段が前記監視環境の状態の変化を検知した期間の前記データと検知内容とを、前記状態の変化を認識する認識処理を行う認識処理装置に送信し、該送信に対する応答を受信する通信手段と
    を備え、
    前記通信手段は、前記検知手段による検知結果に基づいて前記送信を行い、
    前記検知手段は、前記応答の内容に基づいて、前記監視環境の状態の変化の検知に使用するパラメータを調整する
    ことを特徴とする撮影装置。
  7. 監視環境の音声を集音する集音手段と、
    前記監視環境の映像を撮影する撮影手段と
    を備える撮影装置の制御方法であって、
    検知手段が、前記集音手段、前記撮影手段、及び前記監視環境の状態を測定するセンサが収集したデータの変化に基づいて前記監視環境の状態の変化を検知する検知工程と、
    認識処理手段が、前記集音手段が収集した音声データと前記撮影手段が収集した映像データとについて、前記状態の変化を認識する認識処理を行う認識処理工程と
    を備え、
    前記認識処理工程において、前記認識処理手段は、前記検知工程における検知結果に基づいて起動され、前記認識処理に使用する認識データベースを選択する
    ことを特徴とする撮影装置の制御方法。
  8. 監視環境の音声を集音する集音手段と、
    前記監視環境の映像を撮影する撮影手段と
    を備える撮影装置の制御方法であって、
    検知手段が、前記集音手段、前記撮影手段、及び前記監視環境の状態を測定するセンサが収集したデータの変化に基づいて前記監視環境の状態の変化を検知する検知工程と、
    通信手段が、前記検知工程において前記監視環境の状態の変化を検知した期間の前記データと検知内容とを、前記検知工程における検知結果に基づいて前記状態の変化を認識する認識処理を行う認識処理装置に送信し、該送信に対する応答を受信する通信工程と、
    前記検知手段が、前記応答の内容に基づいて、前記監視環境の状態の変化の検知に使用するパラメータを調整する調整工程と
    を備えることを特徴とする撮影装置の制御方法。
  9. コンピュータを請求項1乃至6のいずれか1項に記載の撮影装置として機能させるためのコンピュータプログラム。
JP2008166541A 2008-06-25 2008-06-25 撮影装置、その制御方法及びコンピュータプログラム Active JP5374080B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008166541A JP5374080B2 (ja) 2008-06-25 2008-06-25 撮影装置、その制御方法及びコンピュータプログラム
US12/489,917 US8606570B2 (en) 2008-06-25 2009-06-23 Imaging apparatus, method of controlling same and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008166541A JP5374080B2 (ja) 2008-06-25 2008-06-25 撮影装置、その制御方法及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2010010967A true JP2010010967A (ja) 2010-01-14
JP2010010967A5 JP2010010967A5 (ja) 2011-08-11
JP5374080B2 JP5374080B2 (ja) 2013-12-25

Family

ID=41448515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166541A Active JP5374080B2 (ja) 2008-06-25 2008-06-25 撮影装置、その制御方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US8606570B2 (ja)
JP (1) JP5374080B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150045918A (ko) * 2012-03-05 2015-04-29 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
US9489126B2 (en) 2013-05-07 2016-11-08 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
JP2017182511A (ja) * 2016-03-30 2017-10-05 アイシン精機株式会社 車両用セキュリティ装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080015A (ja) * 2011-09-30 2013-05-02 Toshiba Corp 音声認識装置および音声認識方法
TW201407538A (zh) * 2012-08-05 2014-02-16 Hiti Digital Inc 影像擷取裝置與利用語音辨識進行影像處理的方法
CN111385624B (zh) * 2018-12-29 2021-10-01 深圳Tcl新技术有限公司 一种基于语音的数据传输控制方法、智能电视及存储介质
CN112218137B (zh) * 2020-10-10 2022-07-15 北京字跳网络技术有限公司 一种多媒体数据采集方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02182093A (ja) * 1989-01-07 1990-07-16 Mitsubishi Electric Corp 監視装置
JP2004110280A (ja) * 2002-09-17 2004-04-08 Toa Corp 移動物体検出装置
JP2006018818A (ja) * 2004-06-04 2006-01-19 Canon Inc 状況モニタリング装置及び状況モニタリングシステム
JP2008015860A (ja) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd 画像認識カメラ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6297856B1 (en) * 1994-11-30 2001-10-02 Canon Kabushiki Kaisha Apparatus and system for reading data from a dynamic image data file
JPH08297792A (ja) 1995-04-25 1996-11-12 Canon Inc 監視システム
JP2002182896A (ja) 2000-12-12 2002-06-28 Canon Inc 音声認識システム及び音声認識装置ならびにそれらの方法
US7174299B2 (en) * 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
US6002995A (en) * 1995-12-19 1999-12-14 Canon Kabushiki Kaisha Apparatus and method for displaying control information of cameras connected to a network
JP3696999B2 (ja) * 1996-01-30 2005-09-21 キヤノン株式会社 カメラ制御システムおよびカメラ制御装置
JP3817312B2 (ja) * 1996-11-29 2006-09-06 キヤノン株式会社 制御方法及び装置と撮像システム及び表示操作装置とのその方法
JPH11341334A (ja) 1998-05-27 1999-12-10 Canon Inc カメラ制御方法及び装置並びに記憶媒体
JP4235300B2 (ja) * 1999-01-14 2009-03-11 キヤノン株式会社 通信システム
JP2002116796A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
GB2380556A (en) * 2001-10-05 2003-04-09 Hewlett Packard Co Camera with vocal control and recording
US7663666B2 (en) * 2003-06-23 2010-02-16 Canon Kabushiki Kaisha Operation at mobile terminal when communicating with remote camera
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
US8107625B2 (en) * 2005-03-31 2012-01-31 Avaya Inc. IP phone intruder security monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02182093A (ja) * 1989-01-07 1990-07-16 Mitsubishi Electric Corp 監視装置
JP2004110280A (ja) * 2002-09-17 2004-04-08 Toa Corp 移動物体検出装置
JP2006018818A (ja) * 2004-06-04 2006-01-19 Canon Inc 状況モニタリング装置及び状況モニタリングシステム
JP2008015860A (ja) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd 画像認識カメラ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150045918A (ko) * 2012-03-05 2015-04-29 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
KR102116679B1 (ko) 2012-03-05 2020-05-29 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
US9489126B2 (en) 2013-05-07 2016-11-08 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
US9875022B2 (en) 2013-05-07 2018-01-23 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
JP2017182511A (ja) * 2016-03-30 2017-10-05 アイシン精機株式会社 車両用セキュリティ装置

Also Published As

Publication number Publication date
JP5374080B2 (ja) 2013-12-25
US8606570B2 (en) 2013-12-10
US20090326954A1 (en) 2009-12-31

Similar Documents

Publication Publication Date Title
JP5374080B2 (ja) 撮影装置、その制御方法及びコンピュータプログラム
US8780203B2 (en) Video recording apparatus, video recording system and video recording method executed by video recording apparatus
US20140146172A1 (en) Distributed image processing system
JP4622301B2 (ja) 監視システム、および監視カメラ
WO2008107138A1 (en) Process for automatically determining a probability of image capture with a terminal using contextual data
CN108810400B (zh) 控制设备、控制方法和记录介质
WO2014174737A1 (ja) 監視装置、監視方法および監視用プログラム
KR101025133B1 (ko) 영상감시 시스템 및 그 시스템의 영상감시방법
JP5911227B2 (ja) 判定装置、判定方法及びプログラム
EP1884793A2 (en) Monitoring apapratus, monitoring method, and program
US20120120309A1 (en) Transmission apparatus and transmission method
JP4442571B2 (ja) 撮像装置及びその制御方法
JP5769468B2 (ja) 物体検出システム及び物体検出方法
JP6016658B2 (ja) 撮像装置及び撮像装置の制御方法
JP2006197102A (ja) 遠隔監視装置
JP4622945B2 (ja) 映像監視装置
US20180316896A1 (en) Surveillance camera, information processing device, information processing method, and recording medium
JP6771959B2 (ja) 制御装置、通信装置、制御方法及びプログラム
KR101335647B1 (ko) 저장장치 일체형 방범용 카메라 시스템 및 그를 이용한 감시방법
JP2013115566A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP6091079B2 (ja) 制御装置、制御方法及びプログラム
JP7045445B2 (ja) 画像処理システム
JP2005057609A (ja) カメラ
JP2007300462A (ja) 画像記録装置及び画像記録方法
JP4373254B2 (ja) 圧縮データ量を制御する画像圧縮装置及びそれを用いたカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130920

R151 Written notification of patent or utility model registration

Ref document number: 5374080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151