JPH09205575A - 追尾装置および追尾方法 - Google Patents

追尾装置および追尾方法

Info

Publication number
JPH09205575A
JPH09205575A JP8011653A JP1165396A JPH09205575A JP H09205575 A JPH09205575 A JP H09205575A JP 8011653 A JP8011653 A JP 8011653A JP 1165396 A JP1165396 A JP 1165396A JP H09205575 A JPH09205575 A JP H09205575A
Authority
JP
Japan
Prior art keywords
subject
image
unit
detected
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8011653A
Other languages
English (en)
Other versions
JP4079463B2 (ja
Inventor
Taro Mizufuji
太郎 水藤
Tadafusa Tomitaka
忠房 富高
Takayuki Sakamoto
隆之 坂本
Koji Kageyama
浩二 景山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP01165396A priority Critical patent/JP4079463B2/ja
Priority to US08/785,393 priority patent/US6014167A/en
Publication of JPH09205575A publication Critical patent/JPH09205575A/ja
Application granted granted Critical
Publication of JP4079463B2 publication Critical patent/JP4079463B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image

Abstract

(57)【要約】 【課題】 ユーザが特に操作を行わなくても、追尾すべ
き被写体を設定することができるようにする。 【解決手段】 撮像された画像は、被写体処理部21を
介して、被写体設定部23に供給される。被写体設定部
23では、動き検出部23Bにおいて、連続する2フレ
ームの画像の差分値が演算され、その差分値に基づい
て、画像の動きが検出される。そして、その動きの検出
された部分が、追尾すべき被写体として設定される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、追尾装置および追
尾方法に関する。特に、例えば監視カメラや、テレビ会
議システム、その他、被写体を自動追尾するビデオカメ
ラなどに用いて好適な追尾装置および追尾方法に関す
る。
【0002】
【従来の技術】従来より、パン駆動機構およびチルト駆
動機構を用いて、例えば表示画面の中央部に、追尾対象
である被写体を表示させるように自動追尾を行うビデオ
カメラが提案されている。
【0003】即ち、このようなビデオカメラにおいて
は、例えば表示画面(ビデオカメラにより撮像される画
像)の中央部に基準計測枠が設けられ、まず、その基準
計測枠に、追尾対象の被写体が含まれるように撮像が行
われて記憶される(自動追尾する被写体が設定され
る)。その後、ビデオカメラにより撮像された画像か
ら、記憶された被写体が検出され、被写体を検出するこ
とができた場合には、その被写体が、表示画面の中央部
に表示されるように、パンニングおよびチルティングが
行われる。
【0004】さらに、被写体を検出することができた場
合には、ビデオカメラより出力される画像のうち、例え
ば、その被写体が占有している領域が、白飽和などされ
て表示され、これにより、被写体の位置を、ユーザが認
識することができるようになされている。
【0005】また、被写体を検出することができなかっ
た場合(被写体を見失った場合)には、ビデオカメラよ
り出力される画像が、そのまま表示されるようになされ
ている。
【0006】このような自動追尾を行うビデオカメラ
は、例えば監視カメラや、話者を自動追尾する話者自動
追尾型テレビ会議システムなどに適用することができ、
さらに、セキュリティシステムの無人化や、いわゆるハ
ンズフリー撮影などを行うのに有効な手段である。
【0007】
【発明が解決しようとする課題】ところで、従来のビデ
オカメラでは、追尾する被写体を設定する場合、基準計
測枠に、その被写体が含まれるように、ユーザが、ビデ
オカメラをパンチルト(パンニングまたはチルティン
グ)する必要があった。
【0008】即ち、被写体の設定後は、ユーザがビデオ
カメラを操作する必要はないが、被写体を設定するため
には、ユーザがビデオカメラを操作する必要があり、面
倒であった。
【0009】また、従来においては、自動追尾中に、被
写体を検出することができなくなった場合には、上述し
たように、ビデオカメラより出力される画像が、その一
部が白飽和などされず、そのまま表示されるが、この場
合、被写体が検出されていないことを、ユーザが認識し
難い課題があった。
【0010】本発明は、このような状況に鑑みてなされ
たものであり、ユーザが操作を行わなくても、被写体を
設定することができるようにするものである。また、被
写体が検出されていないことを、ユーザが容易に認識す
ることができるようにするものである。
【0011】
【課題を解決するための手段】請求項1に記載の追尾装
置は、被写体設定手段が、撮像手段より出力される画像
の動きを検出する動き検出手段を有し、動き検出手段に
より動きの検出された部分を、被写体として設定するこ
とを特徴とする。
【0012】請求項3に記載の追尾方法は、被写体設定
手段に、撮像手段より出力される画像の動きを検出さ
せ、その動きの検出された部分を、被写体として設定さ
せることを特徴とする。
【0013】請求項4に記載の追尾装置は、被写体検出
手段により被写体が検出されたとき、その被写体を囲む
枠を表示させ、被写体が検出されなかったとき、枠の表
示を変化させる枠表示制御手段を備えることを特徴とす
る。
【0014】請求項7に記載の追尾方法は、被写体検出
手段により被写体が検出されたとき、その被写体を囲む
枠を表示させ、被写体が検出されなかったとき、枠の表
示を変化させることを特徴とする。
【0015】請求項8に記載の追尾装置は、被写体検出
手段により被写体が検出されなかったとき、所定の文字
を表示させる文字表示制御手段を備えることを特徴とす
る。
【0016】請求項9に記載の追尾方法は、被写体検出
手段により被写体が検出されなかったとき、所定の文字
を表示させることを特徴とする。
【0017】請求項10に記載の追尾装置は、被写体検
出手段により被写体が検出されなかったとき、所定の音
声を出力させる音声出力手段を備えることを特徴とす
る。
【0018】請求項11に記載の追尾方法は、被写体検
出手段により被写体が検出されなかったとき、所定の音
声を出力させることを特徴とする。
【0019】請求項1に記載の追尾装置においては、動
き検出手段は、撮像手段より出力される画像の動きを検
出するようになされており、被写体検出手段は、動き検
出手段により動きの検出された部分を、被写体として設
定するようになされている。
【0020】請求項3に記載の追尾方法においては、被
写体設定手段に、撮像手段より出力される画像の動きを
検出させ、その動きの検出された部分を、被写体として
設定させるようになされている。
【0021】請求項4に記載の追尾装置においては、枠
表示制御手段が、被写体検出手段により被写体が検出さ
れたとき、その被写体を囲む枠を表示させ、被写体が検
出されなかったとき、枠の表示を変化させるようになさ
れている。
【0022】請求項7に記載の追尾方法においては、被
写体検出手段により被写体が検出されたとき、その被写
体を囲む枠を表示させ、被写体が検出されなかったと
き、枠の表示を変化させるようになされている。
【0023】請求項8に記載の追尾装置においては、文
字表示制御手段が、被写体検出手段により被写体が検出
されなかったとき、所定の文字を表示させるようになさ
れている。
【0024】請求項9に記載の追尾方法においては、被
写体検出手段により被写体が検出されなかったとき、所
定の文字を表示させるようになされている。
【0025】請求項10に記載の追尾装置においては、
音声出力手段が、被写体検出手段により被写体が検出さ
れなかったとき、所定の音声を出力させるようになされ
ている。
【0026】請求項11に記載の追尾方法においては、
被写体検出手段により被写体が検出されなかったとき、
所定の音声を出力させるようになされている。
【0027】
【発明の実施の形態】以下に、本発明の実施例を説明す
るが、その前に、特許請求の範囲に記載の発明の各手段
と以下の実施例との対応関係を明らかにするために、各
手段の後の括弧内に、対応する実施例(但し、一例)を
付加して、本発明の特徴を記述すると、次のようにな
る。
【0028】即ち、請求項1に記載の追尾装置は、被写
体を撮像する撮像手段(例えば、図1に示すレンズブロ
ック1など)と、撮像手段をパンニングおよびチルティ
ング駆動する駆動手段(例えば、図1に示すパンモータ
12およびチルトモータ13など)と、被写体を設定す
る被写体設定手段(例えば、図2に示す被写体設定部2
3など)と、撮像手段より出力された画像から、被写体
設定手段により設定された被写体を検出する被写体検出
手段(例えば、図2に示す被写体処理部21や、図5に
示すプログラムの処理ステップS25など)と、被写体
検出手段により検出された被写体の位置が、撮像手段よ
り出力される画像の所定の基準の位置と一致するよう
に、駆動手段を制御する制御手段(例えば、図2に示す
モータ駆動部24や、図5に示すプログラムの処理ステ
ップS29など)とを備える追尾装置であって、被写体
設定手段が、撮像手段より出力される画像の動きを検出
する動き検出手段(例えば、図2に示す動き検出部23
Bなど)を有し、動き検出手段により動きの検出された
部分を、被写体として設定することを特徴とする。
【0029】請求項3に記載の追尾方法は、被写体を撮
像する撮像手段(例えば、図1に示すレンズブロック1
など)と、撮像手段をパンニングおよびチルティング駆
動する駆動手段(例えば、図1に示すパンモータ12お
よびチルトモータ13など)と、被写体を設定する被写
体設定手段(例えば、図2に示す被写体設定部23な
ど)と、撮像手段より出力された画像から、被写体設定
手段により設定された被写体を検出する被写体検出手段
(例えば、図2に示す被写体処理部21や、図5に示す
プログラムの処理ステップS25など)と、被写体検出
手段により検出された被写体の位置が、撮像手段より出
力される画像の所定の基準の位置と一致するように、駆
動手段を制御する制御手段(例えば、図2に示すモータ
駆動部24や、図5に示すプログラムの処理ステップS
29など)とを備える追尾装置の追尾方法であって、被
写体設定手段に、撮像手段より出力される画像の動きを
検出させ、その動きの検出された部分を、被写体として
設定させることを特徴とする。
【0030】請求項4に記載の追尾装置は、被写体を撮
像する撮像手段(例えば、図1に示すレンズブロック1
など)と、撮像手段をパンニングおよびチルティング駆
動する駆動手段(例えば、図1に示すパンモータ12お
よびチルトモータ13など)と、撮像手段より出力され
た画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを有
する追尾装置であって、被写体検出手段により被写体が
検出されたとき、その被写体を囲む枠を表示させ、被写
体が検出されなかったとき、枠の表示を変化させる枠表
示制御手段(例えば、図2に示す表示制御部25や、図
5に示すプログラムの処理ステップS28およびS30
など)を備えることを特徴とする。
【0031】請求項7に記載の追尾方法は、被写体を撮
像する撮像手段(例えば、図1に示すレンズブロック1
など)と、撮像手段をパンニングおよびチルティング駆
動する駆動手段(例えば、図1に示すパンモータ12お
よびチルトモータ13など)と、撮像手段より出力され
た画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを備
える追尾装置の追尾方法であって、被写体検出手段によ
り被写体が検出されたとき、その被写体を囲む枠を表示
させ、被写体が検出されなかったとき、枠の表示を変化
させることを特徴とする。
【0032】請求項8に記載の追尾装置は、被写体を撮
像する撮像手段(例えば、図1に示すレンズブロック1
など)と、撮像手段をパンニングおよびチルティング駆
動する駆動手段(例えば、図1に示すパンモータ12お
よびチルトモータ13など)と、撮像手段より出力され
た画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを有
する追尾装置であって、被写体検出手段により被写体が
検出されなかったとき、所定の文字を表示させる文字表
示制御手段(例えば、図2に示す表示制御部25など)
を備えることを特徴とする。
【0033】請求項9に記載の追尾方法は、被写体を撮
像する撮像手段(例えば、図1に示すレンズブロック1
など)と、撮像手段をパンニングおよびチルティング駆
動する駆動手段(例えば、図1に示すパンモータ12お
よびチルトモータ13など)と、撮像手段より出力され
た画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを備
える追尾装置の追尾方法であって、被写体検出手段によ
り被写体が検出されなかったとき、所定の文字を表示さ
せることを特徴とする。
【0034】請求項10に記載の追尾装置は、被写体を
撮像する撮像手段(例えば、図1に示すレンズブロック
1など)と、撮像手段をパンニングおよびチルティング
駆動する駆動手段(例えば、図1に示すパンモータ12
およびチルトモータ13など)と、撮像手段より出力さ
れた画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを有
する追尾装置であって、被写体検出手段により被写体が
検出されなかったとき、所定の音声を出力させる音声出
力手段(例えば、図2に示す放音部26など)を備える
ことを特徴とする。
【0035】請求項11に記載の追尾方法は、被写体を
撮像する撮像手段(例えば、図1に示すレンズブロック
1など)と、撮像手段をパンニングおよびチルティング
駆動する駆動手段(例えば、図1に示すパンモータ12
およびチルトモータ13など)と、撮像手段より出力さ
れた画像から、被写体を検出する被写体検出手段(例え
ば、図2に示す被写体処理部21や、図5に示すプログ
ラムの処理ステップS25など)と、被写体検出手段に
より検出された被写体の位置が、撮像手段より出力され
る画像の所定の基準の位置と一致するように、駆動手段
を制御する制御手段(例えば、図2に示すモータ駆動部
24や、プログラムの処理ステップS29など)とを備
える追尾装置の追尾方法であって、被写体検出手段によ
り被写体が検出されなかったとき、所定の音声を出力さ
せることを特徴とする。
【0036】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。
【0037】図1は、本発明を適用したビデオカメラシ
ステムの一実施例の構成を示している。レンズブロック
1は、レンズ2、アイリス3、およびCCD(Charge C
oupled Device)4から構成され、被写体からの光LA
を撮像し、電気信号としての画像信号を出力する。即
ち、被写体からの光LAは、レンズ2により、アイリス
3を介してCCD4上に結像され、これにより、CCD
4からは、その受光量に対応した画像信号が出力され
る。
【0038】なお、アイリス3は、いわゆるオートアイ
リス(AE)機構を構成しており、CCD4で受光され
る光量を、適切な値に調整する(レンズブロック1の露
光状態を適切な状態にする)ようになされている。
【0039】レンズブロック1から出力された画像信号
は、信号分離(S/H(Sample Hold)/自動利得調整
(AGC(Automatic Gain Control))回路5におい
て、サンプルホールドされ、さらに、オートアイリス機
構からの制御信号によって、所定のゲインを持つように
利得制御された後、A/D変換器6に出力される。
【0040】A/D変換器6は、信号分離/自動利得調
整回路5からの画像信号(アナログ信号)を、所定のク
ロックにしたがってA/D変換することによりディジタ
ルの画像信号にする。なお、A/D変換器6がA/D変
換を行うために用いる基準電圧は、図示せぬオートホワ
イトバランス(AWB)機構から供給されるようになさ
れており、これにより、ホワイトバランスが適正に調整
されるようになされている。
【0041】ここで、本実施例では、オートアイリス機
構およびオートホワイトバランス機構を機能させるよう
にしたが、オートアイリス機構およびオートホワイトバ
ランス機構を機能させず、固定の露出およびホワイトバ
ランスで、撮像を行うようにすることも可能である。
【0042】A/D変換器6によってディジタル信号と
された画像信号は、ディジタルカメラ処理回路7に供給
される。ディジタルカメラ処理回路7は、A/D変換器
6からの画像信号に基づいて、その画像信号に対応する
画像を構成する各画素の輝度信号Y、並びに色差信号R
−Y,B−Y、およびクロマ信号Cを生成する。輝度信
号Yおよびクロマ信号Cは、D/A変換器8に出力さ
れ、そこでD/A変換された後、モニタ14に供給され
る。これにより、モニタ14では、レンズブロック1で
撮像された画像が表示される。
【0043】また、ディジタルカメラ処理回路7で生成
された輝度信号Yと、色差信号R−Y,B−Yは、被写
体認識回路部9に供給される。被写体認識回路部9は、
ディジタルカメラ処理回路7からの輝度信号Yと、色差
信号R−Y,B−Yで構成される画像の中から、追尾す
べき被写体を検出し、その被写体が、レンズブロック1
から出力される画像の、例えば中央部分(所定の基準位
置)に表示されるように、パンモータ12およびチルト
モータ13を駆動する。
【0044】即ち、被写体認識回路部9は、フレームメ
モリ構成の画像メモリ10と、マイクロプロセッサ構成
の追尾信号処理回路11とで構成される。画像メモリ1
0は、追尾信号処理回路11から書き込み許可信号を受
信すると、ディジタルカメラ処理回路7が出力する輝度
信号Y、色差信号R−Y,B−Yそれぞれを、独立に、
画素単位で記憶する。
【0045】ここで、以下、適宜、色差信号R−Yまた
はB−Yを、それぞれRまたはBと略記する。また、レ
ンズブロック1が出力する画像の最も左上の画素の位置
を原点(0,0)とし、その位置の左または上からそれ
ぞれiまたはj番目の画素の輝度信号Y、色差信号R,
Bそれぞれを、以下、適宜、Yij,Rij,Bijとも表
す。さらに、以下、適宜、輝度信号Y、色差信号R,B
をまとめて、画像データともいう。
【0046】画像メモリ10は、1フレーム(または1
フィールド)分の画像データを記憶すると、読み出し許
可信号を、追尾信号処理回路11に出力する。そして、
画像目メモリ10は、その後、追尾信号処理回路11が
出力するアドレス(上述のi,jに対応する)を受信す
ると、そのアドレスに記憶された画像データを、追尾信
号処理回路11に出力する。
【0047】追尾信号処理回路11は、画像メモリ10
から読み出し許可信号を受信すると、被写体の追尾に必
要な画像データを、上述したように、画像メモリ10に
アドレス(メモリアドレス)を与えることで読み出し、
これにより、レンズブロック1より出力された画像か
ら、追尾すべき被写体を検出する。その後、追尾信号処
理回路11は、書き込み許可信号を、画像メモリ10に
供給し、これにより、画像メモリ10では、レンズブロ
ック1で撮像された画像が、新たに記憶される(既に記
憶されている画像に上書きされる)。その後、画像メモ
リ10は、上述したように、読み出し許可信号を出力
し、以下、同様にして、画像メモリ10では、レンズブ
ロック1で撮像された画像が、順次記憶されていく。な
お、以上のようにして、画像メモリ10の記憶内容が書
き換えられるのは、被写体の自動追尾の開始後(後述す
る図5のステップS25以降の処理が行われる場合)で
あり、自動追尾が開始される前(後述する図5のステッ
プS22およびS23が繰り返し行われている場合)
は、画像メモリ10の記憶内容は、例えばフレーム周期
(またはフィールド周期)で、レンズブロック1が出力
する画像に書き換えられていく。
【0048】また、追尾信号処理回路11は、被写体を
検出すると、その被写体が、レンズブロック1から出力
される画像の中央部分に表示されるように、パンモータ
12およびチルトモータ13を駆動する。これにより、
パンモータ12またはチルトモータ13において、レン
ズブロック1がそれぞれパンニングまたはチルティング
駆動され、被写体が、レンズブロック1が出力する画像
の中央部分に表示される。
【0049】さらに、追尾信号処理回路11は、被写体
を検出した場合、その被写体を囲む枠(以下、適宜、被
写体枠という)を、モニタ14に表示させる。
【0050】図2は、追尾信号処理回路11の機能的な
構成例を示している。被写体処理部21は、上述した書
き込み許可信号およびアドレスを画像メモリ10に出力
するとともに、読み出し許可信号および画像データを受
信し、モデル記憶部22を参照しながら、被写体の追尾
に必要な処理を行う。さらに、被写体処理部21では、
その処理結果に応じて、モータ駆動部24および表示制
御部25が制御される。また、被写体処理部21は、被
写体設定部23により設定される、追尾すべき被写体の
特徴を表す被写体モデル(追尾すべき被写体をモデル化
したもの)を生成し、モデル記憶部22に記憶させるよ
うにもなされている。
【0051】モデル記憶部22は、被写体処理部21に
よって生成された被写体モデルを記憶するようになされ
ている。
【0052】被写体設定部23は、輝度データ記憶部2
3Aおよび動き検出部23Bから構成されており、追尾
すべき被写体を設定するようになされている。即ち、輝
度データ記憶部23Aは、被写体処理部21が画像メモ
リ10から読み出した画像データY,R,Bのうちの、
例えば輝度信号Yを1フレームずつ順次記憶するように
なされている。動き検出部23Bは、輝度データ記憶部
23Aを参照することで、レンズブロック1より出力さ
れる、連続する2フレームの画像の差分値を演算し、そ
の差分値に基づいて、画像の動きを検出するようになさ
れている。そして、動き検出部23Bは、画像の動きを
検出した場合、その動きが検出された部分に表示されて
いる物体を、追尾すべき被写体として設定し、その設定
結果を、被写体処理部21に出力するようになされてい
る。
【0053】モータ駆動部24は、被写体処理部21の
制御の下、パンモータ12およびチルトモータ13を回
転駆動するようになされている。表示制御部25は、被
写体処理部21の制御の下、モニタ14の表示を制御す
るようになされている。
【0054】次に、図3のフローチャートを参照して、
図1のビデオカメラシステムの画像の撮像処理について
説明する。まず最初に、ステップS1において、レンズ
ブロック1における露出が適正な状態に制御され、ステ
ップS2に進み、被写体からの光LAが、CCD4にお
いて光電変換されることにより電気信号としての画像信
号とされ、ステップS3に進む。ステップS3では、C
CD4より出力される画像信号が、信号分離/自動利得
調整回路5においてサンプルホールド(信号分離)さ
れ、ステップS4に進み、そのサンプルホールドされた
画像信号が、同じく信号分離/自動利得制御回路5にお
いて利得制御され、ステップS5に進む。ステップS5
では、利得制御された画像信号が、A/D変換器6にお
いてサンプリングされ、さらに所定のビット数に量子化
されて、ディジタルカメラ処理回路7に出力される。
【0055】ディジタルカメラ処理回路7では、ステッ
プS6において、A/D変換器6からの画像信号に対
し、ディジタル信号処理が施され、これにより、その画
像信号に対応する画像を構成する各画素の輝度信号Y、
並びに色差信号R,B、およびクロマ信号Cが生成され
る。そして、上述したように、輝度信号Yおよびクロマ
信号Cは、D/A変換器8に出力され、輝度信号Yおよ
び色差信号R,Bは、被写体認識回路部9に出力され
る。
【0056】その後、ステップS7に進み、D/A変換
器8において、ディジタルカメラ処理回路7からの輝度
信号Yおよびクロマ信号CはD/A変換され、モニタ1
4に供給されて表示される。そして、ステップS1に戻
り、このステップS1からの処理が繰り返される。
【0057】次に、図4のフローチャートを参照して、
被写体認識回路部9の処理について説明する。被写体認
識回路部9では、まず最初に、ステップS8において、
後述する被写体追尾処理が、追尾信号処理回路11によ
って行われ、これにより、追尾すべき被写体の検出が行
われる。そして、ステップS10に進み、ステップS8
の被写体追尾処理が終了したかどうかが、追尾信号処理
回路11により判定され、終了していないと判定された
場合、ステップS8に戻る。
【0058】また、ステップS10において、ステップ
S8の被写体追尾処理が終了したと判定された場合、ス
テップS11に進み、画像メモリ10の記憶内容が、デ
ィジタルカメラ処理回路7から供給される画像データ
(輝度信号Yと、色差信号R,B)に、上述したように
して書き換えられ、ステップS8に戻る。
【0059】なお、ステップS8の被写体追尾処理によ
り、追尾すべき被写体を検出することができた場合に
は、追尾信号処理回路11では、ステップS9におい
て、その被写体を囲む被写体枠を表示するように、モニ
タ14が制御される。
【0060】次に、図5のフローチャートを参照して、
図4のステップS8における被写体追尾処理について説
明する。被写体追尾処理では、まず最初に、ステップS
21において、追尾すべき被写体が設定され、その被写
体に対応する被写体モデル(特徴モデル)が、モデル記
憶部22に、既に記憶されているかどうかが、被写体処
理部21により判定される。ステップS21において、
被写体モデルが既に記憶されていると判定された場合、
ステップS22乃至S24をスキップして、ステップS
25に進む。
【0061】また、ステップS21において、被写体モ
デルがまだ記憶されていないと判定された場合、ステッ
プS22に進み、被写体処理部21により、画像メモリ
10から読み出された現フレームの画像データのうちの
輝度信号(1フレーム分の輝度信号)Yが、輝度データ
記憶部23Aに供給されて記憶される。
【0062】そして、ステップS23に進み、動き検出
部23Bにより、輝度データ記憶部23Aが参照され、
レンズブロック1より出力された画像に動きがあったか
どうかが判定される。
【0063】即ち、被写体処理部21は、輝度データ記
憶部23Aに輝度信号が記憶された画像の次のフレーム
の画像の輝度信号Yを画像メモリ10から読み出し、動
き検出部23Bに供給する。動き検出部23Bでは、輝
度データ記憶部23Aに記憶された輝度信号YijをYP
ijと表すとともに、次のフレームの画像の輝度信号Yij
をYNijと表すとき、例えば、これらの輝度信号YPij
とYNijとのフレーム間差分の絶対値和が、所定の閾値
より大きいかどうかが判定される。具体的には、輝度信
号YPijとYNijが次式を満たすかどうかが判定され
る。
【0064】 Σ|YNij−YPij|>α ・・・(1) 但し、Σは、1フレームの画像を構成する画素の座標
(i,j)すべてについてのサメーションを表す。ま
た、αは、所定の正数である。
【0065】輝度信号YPijおよびYNijが、式(1)
を満たさない場合、ステップS23では、レンズブロッ
ク1より出力された画像に動きがなかったと判定され
る。この場合、ステップS22に戻り、ステップS23
で、レンズブロック1より出力された画像に動きがあっ
たと判定されるまで、ステップS22およびS23の処
理が繰り返される。なお、この場合、ステップS22で
は、次のフレームの画像の輝度信号YNijが、現フレー
ムの画像の輝度信号YPijとして記憶されることにな
る。
【0066】また、輝度信号YPijおよびYNijが、式
(1)を満たす場合、ステップS23では、レンズブロ
ック1より出力された画像に動きがあったと判定され
る。この場合、動き検出部23Bでは、動きのあった画
素(i,j)、即ち、例えば式(2)を満たす画素(以
下、適宜、動画素という)が検出される。
【0067】 |YNij−YPij|>β ・・・(2) 但し、βは、αより小さい正数である。
【0068】さらに、動き検出部23Bは、動画素を検
出した後、例えば、その飽和度(彩度)が、所定の閾値
γより大きいものを検出する。即ち、動き検出部23B
は、例えば式(3)を満たす動画素を検出する。
【0069】 (Rij 2+Bij 21/2>γ ・・・(3) 但し、γは、所定の正数である。
【0070】そして、動き検出部23Bでは、式(3)
を満たす動画素により構成される物体が、追尾対象とす
る被写体として設定される。
【0071】従って、動き検出部23Bにおいては、レ
ンズブロック1による撮像が開始された後、即ち、例え
ば装置の電源がオンにされた後に、レンズブロック1で
撮像された画像の中の最初に動いた物体が、追尾する被
写体として設定される。
【0072】以上のように、装置の電源がオンにされた
後に、最初に動いた物体が、追尾する被写体に設定され
るので、ユーザは、そのような設定を行うための操作を
行わずに済む。さらに、そのような操作を行うためのブ
ロックを設ける必要がなくなるので、システムの簡素化
を図ることも可能となる。
【0073】なお、動き検出部23Bには、装置の電源
がオンにされた後に、最初に動いた物体を、追尾する被
写体に設定させる他、例えば所定のボタンが操作された
後に、最初に動いた物体を、追尾する被写体に設定させ
るようにすることなども可能である。
【0074】動き検出部23Bにおいて追尾する被写体
が設定されると、その設定結果は、被写体処理部21に
出力される。被写体処理部21では、動き検出部23B
から被写体の設定結果を受信すると、ステップS24に
おいて、その被写体に対応する被写体モデル(被写体の
特徴を表す特徴モデル)が生成される。
【0075】即ち、追尾する被写体の画像データとして
の輝度信号Yijおよび色差信号Rij,Bijの組(Yij
ij,Bij)で表される点の集合は、この被写体自身を
表すため、この点の集合から、被写体モデルが生成され
る。但し、点(Yij,Rij,Bij)の集合にはノイズが
含まれ、また、この点(Yij,Rij,Bij)の集合は、
被写体を表す代表的な点の集合に過ぎないため、この集
合に一致する画像データを、レンズブロック1が出力す
る画像の中から見つけ出すことにより、被写体の検出を
行うようにしたのでは、被写体の検出が困難となる。
【0076】そこで、点(Yij,Rij,Bij)の集合
に、いわば幅を持たせるため(点(Yij,Rij,Bij
の集合と幾分異なる点の集合が得られた場合も、被写体
を検出することができるように許容誤差を認めるた
め)、点(Yij,Rij,Bij)の集合に基づいて、点
(Yij,HRij,LRij)および(Yij,HBij,LB
ij)の集合が求められる。
【0077】但し、HRij,LRij,HBij,LB
ijは、それぞれ次式にしたがって計算される。 HRij=1.1×Rij LRij=0.9×Rij HBij=1.1×Bij LBij=0.9×Bij
【0078】なお、上式においては、許容誤差を10%
に設定(1+0.1と、1−0.1)してあるが、許容
誤差は、10%に限定されるものではない。
【0079】ここで、図6(A)に、YまたはRをそれ
ぞれ横軸または縦軸として、点(Yij,HRij)および
(Yij,LRij)をプロットしたものを、また、図6
(B)に、YまたはBをそれぞれ横軸または縦軸とし
て、点(Yij,HBij)および(Yij,LBij)をプロ
ットしたものを、それぞれ示す。なお、図6の実施例で
は、RおよびBを表す値として、−128乃至127の
範囲の値が割り当てられている。
【0080】点(Yij,HRij,LRij)および
(Yij,HBij,LBij)の集合が求められた後は、Y
を引数として、RまたはBそれぞれを、例えば2次関数
で近似した被写体モデルが求められる。
【0081】ここで、本実施例では、異なる被写体につ
いて、ある程度近似した形の被写体モデル(2次関数)
が得られるように、2次関数のY切片(被写体モデルで
ある2次関数がY軸と交わる点)が、被写体の色相によ
って決められている。
【0082】即ち、被写体処理部21は、被写体の色相
と、2次関数のY切片とを対応付けて記憶しており、R
ijおよびBijから、被写体の色相(例えば、その平均値
など)を計算し、その色相に対応付けられているY切片
を用いて、被写体モデルを求めるようになされている。
【0083】具体的には、いま設定された被写体の色相
に対応付けられているY切片が、Y−R座標系について
は、図6(A)に示すように、RlowおよびRhighであ
り(但し、Rlow<Rhighとする)、Y−B座標系につ
いては、図6(B)に示すように、BlowおよびBhigh
であるとき(但し、Blow<Bhighとする)、次式で示
される被写体モデルとしての2次関数HFr(Y)(Y
に関するRの特徴モデル),HFb(Y)(Yに関する
Bの特徴モデル),LFr(Y)(Yに関するRの特徴
モデル),LFb(Y)(Yに関するBの特徴モデル)
それぞれを決める定数A0,A1,A2,A3が算出さ
れる。
【0084】 HFr(Y)=A0×(Y−Rlow)×(Y−Rhigh) HFb(Y)=A1×(Y−Blow)×(Y−Bhigh) LFr(Y)=A2×(Y−Rlow)×(Y−Rhigh) LFb(Y)=A3×(Y−Blow)×(Y−Bhigh
【0085】但し、定数A0乃至A3は、点(Yij,H
ij)、(Yij,HBij)、(Yij,LRij)、または
(Yij,LBij)それぞれの集合を用い、例えば最小自
乗法によって求められる。
【0086】図6に示したような点(Yij,HRij),
(Yij,HBij),(Yij,LRij)、または(Yij
LBij)それぞれの集合から得られる2次関数HFr
(Y),HFb(Y),LFr(Y)、またはLFb
(Y)を、同じく図6に示す。なお、本実施例では、2
次関数HFr(Y)およびLFr(Y)の頂点は、Y=
(Rlo w+Rhigh)/2の直線上に位置するようになさ
れており、また、2次関数HFb(Y)およびLFb
(Y)の頂点は、Y=(Blow+Bhigh)/2の直線上
に位置するようになされている。さらに、図6の実施例
では、(Rlow+Rhig h)/2および(Blow+Bhigh
/2は、いずれも255とされている。従って、図6の
実施例の場合、2次関数HFr(Y),HFb(Y),
LFr(Y)、およびLFb(Y)は、いずれもY=2
55に対して線対称となっている。
【0087】被写体処理部21は、ステップS24にお
いて、以上のようにして被写体モデルとしての2次関数
を規定する定数A0およびA3を求め、この定数A0乃
至A3と、上述のY切片Rlow,Rhigh,Blow,Bhigh
を、モデル記憶部22に記憶させる。
【0088】なお、このような、いわば輝度・色差空間
(輝度Yおよび色差R,Bで表される3次元空間(図6
においては、図が煩雑になるのを避けるために、輝度・
色差空間を、Y−Rの2次元平面と、Y−Bの2次元平
面とに分けて図示してある))において規定される被写
体モデルを用いて、画像の中から被写体を抽出する方法
については、その有効性が確認されている。
【0089】以上のようにして、被写体モデルが生成さ
れた後は、被写体処理部21は、ステップS25におい
て、被写体画素選択処理を行い、その処理結果に基づい
て、レンズブロック1から出力された画像の中に被写体
が存在するかどうかを、ステップS26において判定す
る。
【0090】即ち、ステップS25では、レンズブロッ
ク1で撮像され、画像メモリ10に記憶された画像を構
成する各画素のうち、その輝度Yijと、色差信号Rij
たはBijそれぞれとが、次の2つの式の両方を満足する
ものが検出される。
【0091】LFr(Yij)<Rij<HFr(Yij) LFb(Yij)<Bij<HFb(Yij) なお、2次関数LFr(Yij),HFr(Yij),LF
b(Yij)、およびHFb(Yij)は、ステップS24
でモデル記憶部22に記憶された被写体モデル(定数A
0乃至A3、およびY切片Rlow,Rhigh,Blow,B
high)により規定されるものである。
【0092】ステップS25では、上式を満たす画素、
即ち、図6(A)に示した2つの2次関数LFr
(Yij)とHFr(Yij)との間にプロットされ、かつ
図6(B)に示した2つの2次関数LFb(Yij)とH
Fb(Yij)との間にプロットされる画素が、被写体を
構成する画素(以下、適宜、被写体構成画素という)と
して検出される。
【0093】その後、ステップS26に進み、レンズブ
ロック1で撮像され、画像メモリ10に記憶された画像
の中に、被写体が存在するかどうかが判定される。即
ち、ステップS26では、ステップS25で検出された
被写体構成画素の総数が、所定の閾値δと比較される。
そして、被写体構成画素数が所定の閾値δより多い場
合、または被写体構成画素数が所定の閾値δ以下である
場合、ステップS26では、それぞれ、画像メモリ10
に記憶された画像の中に、被写体が存在する、または存
在しないと判定される。
【0094】ステップS26において、被写体が存在す
ると判定された場合、ステップS27に進み、被写体の
位置が、被写体処理部21によって検出される。
【0095】即ち、例えば、ステップS25で、図7
(A)に影を付して示すように、被写体構成画素が検出
され、さらに、ステップS26において、被写体が存在
すると判定された場合には、ステップS27では、ステ
ップS25で検出された被写体構成画素のうち、その被
写体構成画素で構成される領域の周辺にある、いわばノ
イズ的なものを除去するために、被写体構成画素で構成
される領域に対してフィルタリング処理が施される。こ
れにより、図7(A)に示す被写体構成画素は、図7
(B)に示すようにされる。そして、ステップS27で
は、フィルタリングの結果得られた被写体構成画素の集
合の、例えば重心(例えば、水平方向または垂直方向を
それぞれx軸またはy軸とするxy平面上の重心)(図
7(B)において、×印で示す部分)が求められ、これ
が、被写体の位置とされる。
【0096】その後、ステップS28に進み、被写体処
理部21において、例えば、図7(B)に太線で示すよ
うに、フィルタリングの結果得られた被写体構成画素の
集合を囲む枠(以下、適宜、被写体枠という)を表示す
るように、表示制御部25が制御される。これに対応し
て、表示制御部25では、レンズブロック1で撮像され
た画像に、被写体枠がスーパインポーズして表示される
ように、モニタ14が制御される。
【0097】即ち、モニタ14の表示画面に、例えば図
8(A)に白抜きで示すような被写体枠を表示させる場
合には、表示制御部25において、同図(B)に示すよ
うなパルス(枠パルス)が生成される。なお、図8
(B)は、同図(A)のAA’で示す水平走査線に、被
写体枠を表示させるための枠パルスを示している。
【0098】そして、表示制御部25は、レンズブロッ
ク1で撮像された画像の、対応する水平走査線に、図8
(C)に示すように、枠パルスを重畳する。これによ
り、モニタ14には、レンズブロック1で撮像された画
像に、被写体枠がスーパインポーズされて表示される。
【0099】その後、ステップS29に進み、被写体処
理部21において、ステップS27で検出された被写体
の位置が、モニタ14の表示画面(レンズブロック1か
ら出力される画像)の中央の位置に一致するように、モ
ータ駆動部24が制御される。これに対応して、モータ
駆動部24では、パンモータ12、チルトモータ13が
回転駆動され、これにより、被写体が、モニタの表示画
面の中央に引き込まれるように、レンズブロック1がパ
ンチルトされ、処理(被写体追尾処理)を終了する。
【0100】以上のようにして、被写体の自動追尾が行
われる。
【0101】一方、ステップS26において、被写体が
存在しないと判定された場合、即ち、被写体を見失った
場合(レンズブロック1から出力される画像の中から被
写体を抽出(検出)することができなかった場合)、ス
テップS30に進み、被写体枠の表示が、被写体を検出
することができた場合とは明らかに異なる状態に変化さ
れる。
【0102】即ち、ステップS30では、被写体処理部
21において、被写体枠の表示を変化させるように、表
示制御部25が制御される。これに対応して、表示制御
部25は、被写体枠を、例えばその大きさを一定の速度
で変化させながら、モニタ14に表示させる。これによ
り、モニタ14においては、被写体枠が、例えば、図9
(A),(B),(C),(D),(A),・・・のよ
うな順番で、その大きさが一定時間ごとに変化されなら
が表示される。
【0103】なお、ステップS30の処理後は、例え
ば、被写体が存在する方向が予測され、さらに、そのよ
うな方向に、レンズブロック1がパンチルトされた後、
被写体追尾処理を終了する。あるいは、また、ユーザに
よって、被写体が存在する方向に、レンズブロック1
が、手動でパンチルトされ、被写体追尾処理を終了す
る。
【0104】このように、被写体を検出することができ
なかった場合、被写体枠の表示が、被写体を検出するこ
とができた場合とは明らかに異なる状態に変化されるの
で、被写体が検出されていないことを、ユーザは容易に
認識することができる。即ち、ユーザは、被写体の検出
状況を容易に認識(確認)することができる。
【0105】なお、本実施例では、被写体モデルの生成
および被写体の検出を行うにあたって、3色表色系の1
つである輝度信号および色差信号を用いるようにした
が、その他、例えばRGB表色系や、Lab表色系、L
uv表色系、XYZ表色系などを用いるようにすること
も可能である。
【0106】さらに、本実施例では、追尾すべき被写体
を2次関数で近似するようにしたが、即ち、被写体モデ
ルとして2次関数を用いるようにしたが、被写体モデル
としては、その他の関数などを用いることが可能であ
る。
【0107】また、本実施例では、被写体が検出されな
かったときに、表示制御部25に、被写体枠の大きさを
変化させるようにしたが、その他、例えば、被写体枠を
点滅させたり、あるいは消去したりするようにすること
なども可能である。あるいは、また、例えば、被写体を
検出することができなかった旨のメッセージ(文字)や
マークなどを、表示制御部25に表示させるようにして
も良い。さらには、図2に点線で示すように、例えば被
写体を検出することができなかった旨の音声や、所定の
ビープ音などを出力する放音部26を設け、被写体が検
出されなかったときには、この放音部26に、上述のよ
うな音声やビープ音を出力させるようにすることも可能
である。また、ビデオカメラシステムの見やすい位置
に、LEDなどの光を発する発光部を設け、被写体が検
出されなかったときには、そのような発光部を点灯させ
たり、点滅させたりするようにすることも可能である。
【0108】さらに、画像の動きの検出方法は、上述し
たものに限定されるものではない。
【0109】
【発明の効果】請求項1に記載の追尾装置および請求項
3に記載の追尾方法によれば、撮像手段より出力される
画像の動きが検出され、その動きの検出された部分が、
被写体として設定される。従って、ユーザが被写体を設
定する操作を行わなくても、追尾すべき被写体を設定す
ることができる。
【0110】請求項4に記載の追尾装置および請求項7
に記載の追尾方法によれば、被写体が検出されなかった
ときに、枠の表示が変化される。請求項8に記載の追尾
装置および請求項9に記載の追尾方法によれば、被写体
が検出されなかったときに、所定の文字が表示される。
請求項10に記載の追尾装置および請求項11に記載の
追尾方法によれば、被写体が検出されなかったときに、
所定の音声が出力される。従って、ユーザは、被写体の
検出状況を容易に認識(確認)することができる。
【図面の簡単な説明】
【図1】本発明を適用したビデオカメラシステムの一実
施例の構成を示すブロック図である。
【図2】図1の追尾信号処理回路11の構成例を示すブ
ロック図である。
【図3】図1のビデオカメラシステムの動作を説明する
ためのフローチャートである。
【図4】図1の被写体認識回路部9の動作を説明するた
めのフローチャートである。
【図5】図4のステップS8の処理の詳細を説明するた
めのフローチャートである。
【図6】被写体モデルの生成方法を説明するための図で
ある。
【図7】図5のステップS27の処理を説明するための
図である。
【図8】被写体枠の表示について説明するための図であ
る。
【図9】被写体枠の表示が変化する様子を示す図であ
る。
【符号の説明】
1 レンズブロック, 9 被写体認識回路部, 10
画像メモリ, 11追尾信号処理回路, 12 パン
モータ, 13 チルトモータ, 14 モニタ, 2
1 被写体処理部, 22 モデル記憶部, 23 被
写体設定部,23A 輝度データ記憶部, 23B 動
き検出部, 24 モータ駆動部,25 表示制御部,
26 放音部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 景山 浩二 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記被写体を設定する被写体設定手段と、 前記撮像手段より出力された画像から、前記被写体設定
    手段により設定された被写体を検出する被写体検出手段
    と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを備える追尾装置であって、 前記被写体設定手段は、 前記撮像手段より出力される画像の動きを検出する動き
    検出手段を有し、 前記動き検出手段により動きの検出された部分を、前記
    被写体として設定することを特徴とする追尾装置。
  2. 【請求項2】 前記動き検出手段は、前記撮像手段より
    出力される、連続する2フレームの画像の差分値を演算
    し、その差分値に基づいて、前記画像の動きを検出する
    ことを特徴とする請求項1に記載の追尾装置。
  3. 【請求項3】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記被写体を設定する被写体設定手段と、 前記撮像手段より出力された画像から、前記被写体設定
    手段により設定された被写体を検出する被写体検出手段
    と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを備える追尾装置の追尾方法であって、 前記被写体設定手段に、 前記撮像手段より出力される画像の動きを検出させ、 その動きの検出された部分を、前記被写体として設定さ
    せることを特徴とする追尾方法。
  4. 【請求項4】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを有する追尾装置であって、 前記被写体検出手段により前記被写体が検出されたと
    き、その被写体を囲む枠を表示させ、前記被写体が検出
    されなかったとき、前記枠の表示を変化させる枠表示制
    御手段を備えることを特徴とする追尾装置。
  5. 【請求項5】 前記枠表示制御手段は、前記被写体が検
    出されなかったとき、前記枠を、その大きさを変化させ
    ながら表示させることを特徴とする請求項4に記載の追
    尾装置。
  6. 【請求項6】 前記枠表示制御手段は、前記被写体が検
    出されなかったとき、前記枠を点滅させることを特徴と
    する請求項4に記載の追尾装置。
  7. 【請求項7】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを備える追尾装置の追尾方法であって、 前記被写体検出手段により前記被写体が検出されたと
    き、その被写体を囲む枠を表示させ、前記被写体が検出
    されなかったとき、前記枠の表示を変化させることを特
    徴とする追尾方法。
  8. 【請求項8】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを有する追尾装置であって、 前記被写体検出手段により前記被写体が検出されなかっ
    たとき、所定の文字を表示させる文字表示制御手段を備
    えることを特徴とする追尾装置。
  9. 【請求項9】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを備える追尾装置の追尾方法であって、 前記被写体検出手段により前記被写体が検出されなかっ
    たとき、所定の文字を表示させることを特徴とする追尾
    方法。
  10. 【請求項10】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを有する追尾装置であって、 前記被写体検出手段により前記被写体が検出されなかっ
    たとき、所定の音声を出力させる音声出力手段を備える
    ことを特徴とする追尾装置。
  11. 【請求項11】 被写体を撮像する撮像手段と、 前記撮像手段をパンニングおよびチルティング駆動する
    駆動手段と、 前記撮像手段より出力された画像から、前記被写体を検
    出する被写体検出手段と、 前記被写体検出手段により検出された前記被写体の位置
    が、前記撮像手段より出力される画像の所定の基準の位
    置と一致するように、前記駆動手段を制御する制御手段
    とを備える追尾装置の追尾方法であって、 前記被写体検出手段により前記被写体が検出されなかっ
    たとき、所定の音声を出力させることを特徴とする追尾
    方法。
JP01165396A 1996-01-26 1996-01-26 被写体検出装置および被写体検出方法 Expired - Fee Related JP4079463B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01165396A JP4079463B2 (ja) 1996-01-26 1996-01-26 被写体検出装置および被写体検出方法
US08/785,393 US6014167A (en) 1996-01-26 1997-01-21 Tracking apparatus and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01165396A JP4079463B2 (ja) 1996-01-26 1996-01-26 被写体検出装置および被写体検出方法

Publications (2)

Publication Number Publication Date
JPH09205575A true JPH09205575A (ja) 1997-08-05
JP4079463B2 JP4079463B2 (ja) 2008-04-23

Family

ID=11783932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01165396A Expired - Fee Related JP4079463B2 (ja) 1996-01-26 1996-01-26 被写体検出装置および被写体検出方法

Country Status (2)

Country Link
US (1) US6014167A (ja)
JP (1) JP4079463B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033508A (ja) * 2003-07-14 2005-02-03 Minolta Co Ltd 撮像装置
JP2005312018A (ja) * 2004-03-23 2005-11-04 Canon Inc 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム
JP2006166400A (ja) * 2004-11-11 2006-06-22 Matsushita Electric Ind Co Ltd 撮像装置及び撮像方法
JP2010072659A (ja) * 2009-11-06 2010-04-02 Olympus Corp カメラ
US7876980B2 (en) 2004-11-11 2011-01-25 Panasonic Corporation Imaging apparatus and imaging method for outputting a specified number of pixels in a specified area
JP2017111430A (ja) * 2015-12-08 2017-06-22 キヤノン株式会社 制御装置および撮像装置

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6756974B2 (en) * 1997-09-24 2004-06-29 Canon Kabushiki Kaisha Display control apparatus and method
US6545705B1 (en) * 1998-04-10 2003-04-08 Lynx System Developers, Inc. Camera with object recognition/data output
JP2000050238A (ja) * 1998-07-27 2000-02-18 Matsushita Electric Ind Co Ltd 監視カメラ装置
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7391443B2 (en) * 1998-08-21 2008-06-24 Sony Corporation Information processing apparatus, information processing method, and medium
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US7995096B1 (en) * 1999-09-23 2011-08-09 The Boeing Company Visual security operations system
US6930703B1 (en) 2000-04-29 2005-08-16 Hewlett-Packard Development Company, L.P. Method and apparatus for automatically capturing a plurality of images during a pan
SE517765C2 (sv) * 2000-11-16 2002-07-16 Ericsson Telefon Ab L M Registrering av rörliga bilder medelst en portabel kommunikationsenhet samt en tillbehörsanordning vilken är samlokaliserad med objektet
WO2002045434A1 (en) * 2000-12-01 2002-06-06 Vigilos, Inc. System and method for processing video data utilizing motion detection and subdivided video fields
US6760465B2 (en) 2001-03-30 2004-07-06 Intel Corporation Mechanism for tracking colored objects in a video sequence
US6952224B2 (en) * 2001-03-30 2005-10-04 Intel Corporation Object trackability via parametric camera tuning
US6985179B2 (en) * 2001-03-30 2006-01-10 Intel Corporaiton Determining image quality for improving object trackability
JP2002305683A (ja) * 2001-04-04 2002-10-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
US20030052971A1 (en) * 2001-09-17 2003-03-20 Philips Electronics North America Corp. Intelligent quad display through cooperative distributed vision
US6980485B2 (en) * 2001-10-25 2005-12-27 Polycom, Inc. Automatic camera tracking using beamforming
US7872670B2 (en) * 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US6940540B2 (en) * 2002-06-27 2005-09-06 Microsoft Corporation Speaker detection and tracking using audiovisual data
US7161579B2 (en) * 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7854655B2 (en) * 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7803050B2 (en) * 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8313380B2 (en) * 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8233642B2 (en) * 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US7918733B2 (en) * 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US8139793B2 (en) * 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7920718B2 (en) * 2002-09-05 2011-04-05 Cognex Corporation Multi-zone passageway monitoring system and method
US20040100560A1 (en) * 2002-11-22 2004-05-27 Stavely Donald J. Tracking digital zoom in a digital video camera
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7505862B2 (en) * 2003-03-07 2009-03-17 Salmon Technologies, Llc Apparatus and method for testing electronic systems
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US20070223732A1 (en) * 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8326084B1 (en) * 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US20070265075A1 (en) * 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
US20110014981A1 (en) * 2006-05-08 2011-01-20 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) * 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
AU2007221976B2 (en) * 2006-10-19 2009-12-24 Polycom, Inc. Ultrasonic camera tracking system and associated methods
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
US8749634B2 (en) 2012-03-01 2014-06-10 H4 Engineering, Inc. Apparatus and method for automatic video recording
AU2013225635B2 (en) 2012-03-02 2017-10-26 H4 Engineering, Inc. Waterproof Electronic Device
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
US8854481B2 (en) * 2012-05-17 2014-10-07 Honeywell International Inc. Image stabilization devices, methods, and systems

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5119205A (en) * 1963-03-11 1992-06-02 Lemelson Jerome H Methods and apparatus for scanning and analyzing selected images areas
US5231483A (en) * 1990-09-05 1993-07-27 Visionary Products, Inc. Smart tracking system
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5311305A (en) * 1992-06-30 1994-05-10 At&T Bell Laboratories Technique for edge/corner detection/tracking in image frames
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
CA2148231C (en) * 1993-01-29 1999-01-12 Michael Haysom Bianchi Automatic tracking camera control system
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
JPH0730796A (ja) * 1993-07-14 1995-01-31 Sony Corp ビデオ信号追従処理システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033508A (ja) * 2003-07-14 2005-02-03 Minolta Co Ltd 撮像装置
JP2005312018A (ja) * 2004-03-23 2005-11-04 Canon Inc 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム
JP2006166400A (ja) * 2004-11-11 2006-06-22 Matsushita Electric Ind Co Ltd 撮像装置及び撮像方法
US7876980B2 (en) 2004-11-11 2011-01-25 Panasonic Corporation Imaging apparatus and imaging method for outputting a specified number of pixels in a specified area
JP2010072659A (ja) * 2009-11-06 2010-04-02 Olympus Corp カメラ
JP2017111430A (ja) * 2015-12-08 2017-06-22 キヤノン株式会社 制御装置および撮像装置

Also Published As

Publication number Publication date
US6014167A (en) 2000-01-11
JP4079463B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
JP4079463B2 (ja) 被写体検出装置および被写体検出方法
JP4677753B2 (ja) 動画像処理装置及び方法
JP4457358B2 (ja) 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
US7606476B2 (en) Imaging device and imaging method
KR101142316B1 (ko) 화상 선택 장치 및 화상 선택 방법
JP3468231B2 (ja) 画像処理装置、画質制御方法、プログラム及び記録媒体
JP5246159B2 (ja) 撮像装置、画像表示装置、プログラム
EP2196943B1 (en) Image capturing apparatus and face area detecting method
JPH06165016A (ja) ビデオカメラシステム
EP2373002A1 (en) Image capture device
CN107087103B (zh) 摄像装置、摄像方法以及计算机可读存储介质
JPH0730795A (ja) ビデオカメラシステム
JP2001169169A (ja) 自動追尾装置
JPH0750771A (ja) ビデオカメラの自動映像安定化装置
JPH08116485A (ja) ビデオカメラの被写体追尾装置及び追尾方法
JPH1079881A (ja) 撮像装置
JP3757403B2 (ja) 被写体検出装置および被写体検出方法
JP2001008216A (ja) 画像処理装置
JP2008270983A (ja) 手ぶれ補正装置及び手ぶれ補正方法
JPH10290412A (ja) 撮像、記憶、処理、表示、再生、伝送装置及び記録媒体
JP3757404B2 (ja) 被写体検出装置および被写体検出方法
JP2001169170A (ja) 自動追尾装置
JP4881113B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、および記憶媒体
JP3610604B2 (ja) ビデオカメラの被写体追尾装置及び追尾方法
JP2009098850A (ja) 演算装置及びそのプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050902

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050922

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20051021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees