JP2015089119A - 物体を追跡するためのシステム及び方法 - Google Patents

物体を追跡するためのシステム及び方法 Download PDF

Info

Publication number
JP2015089119A
JP2015089119A JP2014214375A JP2014214375A JP2015089119A JP 2015089119 A JP2015089119 A JP 2015089119A JP 2014214375 A JP2014214375 A JP 2014214375A JP 2014214375 A JP2014214375 A JP 2014214375A JP 2015089119 A JP2015089119 A JP 2015089119A
Authority
JP
Japan
Prior art keywords
camera
objects
sensor
cameras
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014214375A
Other languages
English (en)
Inventor
マッコイ チャールズ
Mccoy Charles
マッコイ チャールズ
シオン トゥルー
Xiong True
シオン トゥルー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Interactive Entertainment LLC
Original Assignee
Sony Corp
Sony Network Entertainment International LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Network Entertainment International LLC filed Critical Sony Corp
Publication of JP2015089119A publication Critical patent/JP2015089119A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体を追跡するためのシステム及び方法を提供すること。【解決手段】1つ又はそれ以上の物体を追跡するためのシステム及び方法の種々の態様は、複数のカメラ、複数のセンサ、及び制御装置を通信可能に結合できるネットワークを備えることができる。制御装置は、1つ又はそれ以上の物体と関連付けられたメタデータを受け取ることができる。メタデータは、1つ又はそれ以上の物体を識別する。制御装置は、受け取ったメタデータに基づいて1つ又はそれ以上の物体を追跡するため複数のカメラから第1のカメラセットを選択することができる。制御装置は、選択された第1のカメラセットによって1つ又はそれ以上の物体を追跡可能にすることができる。【選択図】図1

Description

本開示の種々の実施形態は、物体追跡システムに関する。より具体的には、本開示の種々の実施形態は、デジタルカメラを用いて物体を追跡するためのシステム及び方法に関する。
物体追跡システムは、物体の移動を追跡する。物体追跡システムは、セキュリティ及び監視システム、人−コンピュータインタフェース、医療用イメージング、ビデオ通信、及び物体認識などの様々な用途で用いられる。カメラベースの物体追跡システムは、追跡している物体に関連する空間的及び時間的変化を監視する。しかしながら、カメラベースの物体追跡システムは、カメラの現在の視野内で見える物体の追跡に制限される。更に、カメラベースの物体追跡システムは、複数の物体を同時に追跡する能力が限定的である。
このようなシステムと、図面を参照しながら本出願の他の部分において記載される本開示の幾つかの態様とを比較することにより、当業者には従来の手法の更なる限界及び欠点が明らかになるであろう。
物体を追跡するためのシステム及び方法は、請求項においてより完全に記載されるように、各図の少なくとも1つにおいて実質的に図示され及び/又はそれと関連して説明される。
全体を通じて同じ参照数字が同じ部分を示す添付図面と共に以下の本開示の詳細な説明を検討することにより、本開示のこれら及び他の特徴及び利点を理解することができる。
本開示の1つの実施形態による、例示的なマルチカメラシステムにおける物体の追跡を例示したブロック図である。 本開示の1つの実施形態による、マルチカメラシステムのカメラ及び/又はセンサを制御するための例示的な制御装置のブロック図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた2つ又はそれ以上の物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた2つ又はそれ以上の物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、マルチカメラシステムを用いた2つ又はそれ以上の物体の追跡の実施例を示す図である。 本開示の1つの実施形態による、制御装置によって1又はそれ以上の物体を追跡する例示的なステップを示すフローチャートである。 本開示の1つの実施形態による、制御装置によって複数の物体を追跡する例示的なステップを示すフローチャートである。
複数の物体を追跡するためのシステム及び方法において、様々な実施構成を見出すことができる。複数の物体を追跡するための方法の例示的な態様は、複数のカメラ、複数のセンサ、及び制御装置を通信可能に結合することを可能にするネットワークを含むことができる。制御装置は、複数の物体に関するメタデータを受け取ることができる。メタデータは、複数の物体を識別する。制御装置は、受け取ったメタデータに基づいて複数の物体を追跡するために複数のカメラから第1のカメラセットを選択することができる。制御装置は、選択した第1のカメラセットを用いて複数の物体の追跡を可能にすることができる。
制御装置は、1つ又はそれ以上の物体が選択された第1のカメラセットのうちの1つ又はそれ以上のカメラの視界の外に移動したときに、複数の物体のうちの1つ又はそれ以上の物体を追跡するために複数のカメラから第2のカメラセットを選択することができる。制御装置は、複数のセンサから受け取った1つ又はそれ以上の信号に基づいて、複数のセンサからセンサを選択することができる。複数のカメラに対する複数の物体のロケーションは、受け取った1つ又はそれ以上の信号に基づいて決定することができる。制御装置は、選択したセンサから受け取った信号に基づいて選択された第1のカメラセットを用いて複数の物体を追跡することができる。選択された第1のカメラセットに対する複数の物体のロケーションは、選択されたセンサから受け取った信号に基づいて決定することができる。
制御装置は、追跡されることになる複数の物体間の距離に基づいて、選択された第1のカメラセットの1つ又はそれ以上のパラメータを制御することができる。制御装置は、選択された第1のカメラセットによって取り込まれた画像での複数の物体の相対位置に基づいて、当該画像をトリミングすることができる。
図1は、本開示の1つの実施形態による、例示的なマルチカメラシステムにおける物体の追跡を例示したブロック図である。図1を参照すると、マルチカメラシステム100が示されている。マルチカメラシステム100は、第1の物体102a、第2の物体102b、及び第3の物体102c(総称して物体102と呼ばれる)のような1つ又はそれ以上の物体を追跡することができる。マルチカメラシステム100は、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104c(総称してカメラ104と呼ばれる)のような複数のカメラを備えることができる。カメラ104は、物体102を追跡することができる。マルチカメラシステム100は更に、第1のセンサ106a、第2のセンサ106b、及び第3のセンサ106c(総称してセンサ106と呼ばれる)のような複数のセンサを備えることができる。マルチカメラシステム100は更に、制御装置108及び通信ネットワーク110を備えることができる。
マルチカメラシステム100は、1つ又はそれ以上の物体の移動を追跡する物体追跡システムに相当することができる。マルチカメラシステム100の実施例は、限定ではないが、セキュリティ及び監視システム、物体認識システム、ビデオ通信システム、及び/又はライブイベントの画像及び/又はビデオをブロードキャストするシステムを含むことができる。
物体102は、追跡することができる何らかの生物及び/又は非生物に相当することができる。物体102は、人、動物、物品(スポーツイベントで使用するボールなど)、在庫商品、車両、及び/又は物理的なロケーションに相当することができる。例えば、物体102は、ミュージアムを訪れる人とすることができる。別の実施例において、物体102は、店舗における1つ又はそれ以上の物品に相当することができる。1つの実施例において、第1の物体102aは、サッカーの試合をしているプレーヤーとすることができる。別の実施例において、個人の携帯電話は、第2の物体102bに相当することができる。別の実施例において、第3の物体102cは、オフィスビルの入口にある車両に相当することができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、他の何れかの生物及び/又は非生物を追跡することができる。
カメラ104は、画像及び/又はビデオコンテンツの取り込み及び/又は処理を行うことができる電子デバイスに相当することができる。カメラ104は、画像及び/又はビデオコンテンツの取り込み及び/又は処理を行うよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。1つの実施形態において、カメラ104は、電磁スペクトルの可視部分の範囲内で画像及び/又はビデオを取り込むよう作動することができる。別の実施形態において、カメラ104は、電磁スペクトルの可視部分の範囲外で画像及び/又はビデオを取り込むよう作動することができる。1つの実施形態において、カメラ104は、パン−チルト−ズーム(PTZ)カメラとすることができる。1つの実施形態において、カメラ104のパン、チルト、及び/又はズームは、機械的に制御することができる。別の実施形態において、カメラ104のパン、チルト、及び/又はズームは、半導体素子を用いて電気的に制御することができる。
1つの実施形態において、カメラ104は、20メガピクセル又はそれ以上の一眼レフ(SLR)カメラのような高解像度カメラとすることができる。高解像度カメラは、高解像度の広角画像及び/又はビデオを取り込むことができる。別の実施形態において、カメラ104は、複数の低解像度カメラから構成することができる。1つの実施形態において、複数の低解像度カメラは、単一のハウジング内に組み込むことができる。別の実施形態において、複数の低解像度カメラは、別個にすることができる。このような場合、複数の低解像度カメラの出力信号は較正することができる。複数の低解像度カメラによって取り込まれた画像及び/又はビデオを結合して、単一の高解像度画像にすることができる。1つの実施形態において、複数の低解像度カメラは、外複数の低解像度カメラの視野を重ね合わせ、結合した出力信号が高解像度画像をもたらすことができるように設定することができる。
1つの実施形態において、カメラ104は、第1の物体102aのような、追跡される物体の近傍の1つ又はそれ以上のロケーションに設置することができる。カメラ104は、追跡される第1の物体102aの画像をカメラ104が自動的に取り込むことができるようなロケーションに設置することができる。1つの実施形態において、カメラ104は、カメラ104の各々の位置が固定されるようにして設置することができる。例えば、カメラ104は、第1の物体102aが追跡される異なる部屋の壁上の1つ又はそれ以上のロケーションに設置することができる。別の実施形態において、カメラ104は、運動場の周りの様々なロケーションに設置することができる。
別の実施形態において、第1のカメラ104aのようなカメラ104のうちの1つ又はそれ以上は、第1のカメラ104aの位置を変えることができるように設置することができる。このような場合、カメラ104の位置は、電気的及び/又は機械的に制御することができる。1つの実施形態において、第1のカメラ104aは、第1の物体102aの近傍にある可動物品に結合することができる。例えば、第1のカメラ104aは、移動中の航空機に結合され、下方に位置する1つ又はそれ以上の物体を追跡することができる。別の実施例において、カメラ104は、トラック又はブーム上に装着することができる。別の実施例において、カメラ104は、ケーブルから懸下することができる。
1つの実施形態において、カメラ104は、制御装置108と通信するよう作動することができる。カメラ104は、センサ106及び制御装置108から1つ又はそれ以上の信号を受け取るよう作動することができる。カメラ104は、制御装置108から受け取った1つ又はそれ以上の信号に基づいて、パン、チルト、及び/又はズームを調整するよう作動することができる。カメラ104は、1つ又はそれ以上の信号をセンサ106及び制御装置108に送信するよう作動することができる。センサ106は、物体102のロケーションを決定するよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。センサ106の実施例は、限定ではないが、マイクロホンのようなオーディオセンサ、超音波センサ、位置センサ、無線個体識別(RFID)センサ、及び赤外線(IR)センサを含むことができる。センサ106の実施例は更に、Bluetoothセンサ、グローバル・ポジショニング・システム(GPS)センサ、紫外線(UV)センサ、セルラーネットワーク信号を検出するよう作動するセンサ、及び/又は物体のロケーションを決定するよう作動する何れかのセンサを含むことができる。
1つの実施形態において、センサ106は、物体102の近傍に配置することができる。例えば、第1の物体102aが室内にある場合、マイクロホンは、室内に設置することができる。別の実施形態において、センサ106は、物体102の各々に関連する1つ又はそれ以上の物品に結合することができる。例えば、Bluetooth送信器は、警備担当者が身に着けているベルトに結合することができる。別の実施例において、ある人の携帯電話のGPSセンサ及び/又はBluetooth送信器は、第1のセンサ106aに相当することができる。
1つの実施形態において、センサ106は、送信器及び受信器を備えることができる。例えば、センサ106は、RFID送信器及び受信器のペアとすることができる。RFID送信器は、サッカーの試合で用いられるサッカーボールの内部に配置することができる。RFID受信器は、運動場の外に配置することができる。RFID受信器は、試合中にボールを追跡できるように、RFID送信器により送信されるRFID信号を受信することができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、物体を追跡するよう作動可能な他の何れかのセンサを用いることができる。
センサ106は、カメラ104に対する物体102のロケーションを決定するよう作動することができる。センサ106は、1つ又はそれ以上の信号を制御装置108に送信するよう作動することができる。物体102の各々のロケーションは、1つ又はそれ以上の信号に基づいて決定することができる。例えば、ある人の携帯電話のGPSセンサは、携帯電話のロケーションを決定するよう作動することができる。GPSセンサは、携帯電話のロケーションを示す1つ又はそれ以上の信号を制御装置108に送信することができる。別の実施例において、ある人の衣服に結合されたRFIDタグは、無線周波数(RF)信号を制御装置108に送信することができる。1つの実施形態において、センサ106は、カメラ104の一体部分とすることができる。別の実施形態において、センサ106は、カメラ104の外部に配置され、通信ネットワーク110を介してカメラ104に通信可能に結合することができる。
制御装置108は、カメラ104及びセンサ106を制御して物体102を追跡するよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。制御装置108は、カメラ104及びセンサ106から1つ又はそれ以上の信号を受け取るよう作動することができる。制御装置108は、センサ106から受け取った1つ又はそれ以上の信号を処理して物体102のロケーションを決定するよう作動することができる。制御装置108は、カメラ104に対する物体102の各々の方向及び距離を決定することができる。制御装置108は、1つ又はそれ以上の信号をカメラ104及びセンサ106に送信し、カメラ104及びセンサ106の作動を制御するよう作動することができる。1つの実施形態において、制御装置108は、物体102の決定されたロケーションに基づいて1つ又はそれ以上の信号をカメラ104に送信することができる。制御装置108は、制御装置108に関連するオペレータのようなユーザから1つ又はそれ以上の命令及び/又は入力を受け取るよう作動することができる。1つの実施形態において、制御装置108は、第1の物体102aのような、追跡される物体を識別するメタデータを受け取るよう作動することができる。1つの実施形態において、制御装置108は、制御装置108に関連するユーザからメタデータを受け取ることができる。
制御装置108は、追跡される第1の物体102aの現在のロケーションを決定するために、センサ106のうちから1つ又はそれ以上のセンサを選択するよう作動することができる。制御装置108は更に、第1の物体102aを追跡するために、カメラ104のうちから第1のカメラセットを選択するよう作動することができる。制御装置108は、第1の物体102aのロケーション、選択された1又はそれ以上のカメラに対する第1の物体102aの方向及び距離、追跡される第1の物体102a、及び/又は制御装置108に関連するユーザにより提供される1つ又はそれ以上の命令及び/又は入力に基づいて、カメラ104の1つ又はそれ以上のパラメータを制御するよう作動することができる。
1つの実施形態において、制御装置108は、第1のカメラ104aなどのカメラの一体部分とすることができる。別の実施形態において、制御装置108は、カメラ104の外部に配置され、通信ネットワーク110を介してカメラ104に通信可能に結合することができる。
カメラ104、カメラ106、及び制御装置108は、通信ネットワーク110を介して互いに通信するよう作動することができる。通信ネットワーク110の実施例は、限定ではないが、Bluetoothネットワーク、Wireless Fidelity(Wi−Fi)ネットワーク、及び/又はZigBeeネットワークを含むことができる。
作動時には、マルチカメラシステム100は、監視される領域及び/又は追跡される物体(例えば、第1の物体102a)の近傍に設置することができる。カメラ104は、監視される領域及び/又は追跡される第1の物体102aに関連する画像及び/又はビデオを取り込むことができる。カメラ104は、取り込んだ画像及び/又はビデオを制御装置108に送信することができる。更に、制御装置108は、センサ106からの1つ又はそれ以上の信号を受け取ることができる。第1の物体102aのロケーションは、センサ106から受け取った1つ又はそれ以上の信号に基づいて決定することができる。
制御装置108は、追跡される第1の物体102aを識別するメタデータを受け取ることができる。受け取ったメタデータに基づいて、制御装置108は、追跡される第1の物体102aの現在のロケーションを決定するために、1つ又はそれ以上のセンサ(第1のセンサ106aなど)をリアルタイムで選択することができる。第1のセンサ106aは、追跡される第1の物体102aのロケーションを決定することができる。第1のセンサ106aは、マルチカメラシステム100のカメラ104に対する第1の物体102aのロケーションを決定することができる。第1のセンサ106aは、通信ネットワーク110を介して制御装置108と通信することができる。第1のセンサ106aは、通信ネットワーク110を介して1つ又はそれ以上の信号を制御装置108に送信することができる。カメラ104に対する第1の物体102aのロケーションは、送信された1つ又はそれ以上の信号に基づいて決定することができる。
追跡される第1の物体102aに関連するメタデータに基づいて、制御装置108は、マルチカメラシステム100のカメラ104から第1のカメラセットをリアルタイムで選択することができる。選択された第1のカメラセットは、カメラ104のうちの1つ又はそれ以上のカメラを含むことができる。例えば、制御装置108は、第1の物体102aを追跡するために第1のカメラ104aを選択することができる。第1のセンサ106aから受け取った信号に基づいて、制御装置108は、選択された第1のカメラ104aの作動を制御することができる。制御装置108は、第1の物体102aが選択された第1のカメラ104aの視野内にあるように選択された第1のカメラ104aを合焦することができる。第1の物体102aの現在位置が変化するときには、選択された第1のカメラ104aは、第1の物体102aを追跡することができる。
別の実施形態において、マルチカメラシステム100は、第1の物体102a及び第2の物体102bのような、2つ又はそれ以上の物体を同時に追跡するよう作動することができる。このような場合、制御装置108は、追跡される物体として第1の物体102a及び第2の物体102bを識別するメタデータを受け取ることができる。受け取ったメタデータに基づいて、制御装置108は、第1のセンサ106aのような1つ又はそれ以上のセンサをリアルタイムで選択することができる。選択された第1のセンサ106aは、追跡される第1の物体102a及び第2の物体102bの現在のロケーションを決定することができる。1つの実施形態において、第1のセンサ106aは、マルチカメラシステム100のカメラ104に対する第1の物体102a及び第2の物体102bのロケーションを決定することができる。第1のセンサ106aは、通信ネットワーク110を介して制御装置108と通信することができる。第1のセンサ106aは、通信ネットワーク110を介して1つ又はそれ以上の信号を制御装置108に送信することができる。カメラ104に対する第1の物体102a及び第2の物体102bのロケーションは、送信された1つ又はそれ以上の信号に基づいて決定することができる。
1つの実施形態において、追跡される第1の物体102a及び第2の物体102bに関連するメタデータに基づいて、制御装置108は、マルチカメラシステム100のカメラ104から第1のカメラセットをリアルタイムで選択することができる。選択された第1のカメラセットは、カメラ104のうちの1つ又はそれ以上のカメラを含むことができる。例えば、制御装置108は、第1の物体102a及び第2の物体102bを追跡するために第1のカメラ104aを選択することができる。第1のセンサ106aから受け取った信号に基づいて、制御装置108は、選択された第1のカメラ104aの作動を制御することができる。制御装置108は、第1の物体102a及び第2の物体102bが選択された第1のカメラ104aの視野内にあるように選択された第1のカメラ104aを合焦することができる。第1の物体102a及び/又は第2の物体102bの現在位置が変化するときには、選択された第1のカメラ104aは、第1の物体102a及び第2の物体102bを追跡することができる。
別の実施形態において、追跡される第1の物体102a及び第2の物体102bに関連するメタデータに基づいて、制御装置108は、2つ又はそれ以上のカメラをリアルタイムで選択することができる。例えば、制御装置108は、第1の物体102a及び第2の物体102bをそれぞれ追跡するために、第1のカメラ104a及び第2のカメラ104bを選択することができる。第1のセンサ106aから受け取った信号に基づいて、制御装置108は、選択された第1のカメラ104a及び第2のカメラ104bの作動を制御することができる。制御装置108は、第1の物体102a及び第2の物体102bが選択された第1のカメラ104a及び第2のカメラ104bそれぞれの視野内にあるように選択された第1のカメラ104a及び第2のカメラ104bを合焦することができる。第1の物体102a及び/又は第2の物体102bの位置が変化するときには、選択された第1のカメラ104a及び第2のカメラ104bは、第1の物体102a及び第2の物体102bそれぞれを追跡することができる。
1つの実施形態において、マルチカメラシステム100は、カメラ104から遠い距離に配置された物体102を追跡するのに用いることができる。例えば、マルチカメラシステム100は、地上にいる人を追跡するために航空機に設置することができる。別の実施例において、マルチカメラシステム100は、山頂から大渓谷を監視するのに用いることができる。
図2は、本開示の1つの実施形態による、マルチカメラシステムのカメラ及び/又はセンサを制御するための例示的な制御装置のブロック図である。図2のブロック図は、図1の要素と連動して記載されている。
図2を参照すると、制御装置108が図示されている。制御装置108は、プロセッサ202などの1つ又はそれ以上のプロセッサ、メモリ204、受信器206、送信器208、及び入力/出力(I/O)デバイス210を備えることができる。
プロセッサ202は、メモリ204及びI/Oデバイス210に通信可能に結合することができる。受信器206及び送信器208は、プロセッサ202、メモリ204、及びI/Oデバイス210に通信可能に結合することができる。
プロセッサ202は、メモリ204内に記憶された少なくとも1つのコードセクションを実行するよう作動することができる好適なロジック、回路、及び/又インタフェースを含むことができる。プロセッサ202は、当該技術分野で公知の幾つかのプロセッサ技術に基づいて実施することができる。プロセッサ202の実施例は、限定ではないが、X86ベースのプロセッサ、縮小命令セット・コンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、及び/又は複数命令セットコンピュータ(CISC)プロセッサを含むことができる。
メモリ204は、プロセッサ202によって実行可能な少なくとも1つのコードセクションを有するマシンコード及び/又はコンピュータプログラムを格納するよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。メモリ204の実施構成の実施例は、限定ではないが、ランダムアクセスメモリ(RAM)、ランダムオンリーメモリ(ROM)、ハードディスクドライブ(HDD)、及び/又はセキュア・デジタル(SD)カードを含むことができる。メモリ204は、カメラ104及びセンサ106のコンフィギュレーション設定のようなデータを記憶するよう作動することができる。メモリ204は更に、追跡される物体に関連するデータを記憶するよう作動することができる。物体102に関連するこのようなデータの実施例は、限定ではないが、物体102に関連するメタデータ、物体102のロケーション、物体102に関連する選好、及び/又は物体102に関連する他の何れかの情報を含むことができる。
メモリ204は更に、カメラ104によって取り込まれた1つ又はそれ以上の画像及び/又はビデオコンテンツ、1つ又はそれ以上の画像処理アルゴリズム、及び/又は他の何れかのデータを記憶することができる。メモリ204は、Joint Photographic Experts Group(JPEG)、Tagged Image File Format(TIFF)、Graphics Interchange Format(GIF)、及び/又は他の何れかのフォーマットのような様々な標準フォーマットの1つ又はそれ以上の画像及び/又はビデオコンテンツを記憶することができる。
受信器206は、データ及びメッセージを受け取るよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。受信器206は、種々の公知の通信プロトコルに従ってデータを受け取ることができる。1つの実施形態において、受信器206は、センサ106によって送信された1つ又はそれ以上の信号を受け取ることができる。別の実施形態において、受信器206は、カメラ104によって送信された1つ又はそれ以上の信号を受け取ることができる。別の実施形態において、受信器206は、カメラ104からデータを受け取ることができる。このようなデータは、カメラ104によって取り込まれた物体102に関連する1つ又はそれ以上の画像及び/又はビデオを含むことができる。受信器206は、制御装置108と、カメラ104及び/又はセンサ106との間の有線又は無線通信をサポートする公知の技術を実装することができる。
送信器208は、データ及び/又はメッセージを送信するよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。送信器208は、種々の公知の通信プロトコルに従ってデータを送信することができる。1つの実施形態において、送信器208は、1つ又はそれ以上の制御信号をカメラ104及びセンサ106に送信してその作動を制御することができる。
I/Oデバイス210は、プロセッサ202に動作可能に結合することができる様々な入力及び出力デバイスを含むことができる。I/Oデバイス210は、制御装置108を作動させる入力をユーザから受け取って、出力を提供するよう作動することができる好適なロジック、回路、インタフェース、及び/又はコードを含むことができる。入力デバイスの実施例は、限定ではないが、キーパッド、スタイラス、及び/又はタッチスクリーンを含むことができる。出力デバイスの実施例は、限定ではないが、ディスプレイ及び/又はスピーカを含むことができる。
作動時には、プロセッサ202は、通信ネットワーク110を介してカメラ104及びセンサ106と通信することができる。プロセッサ202は更に、画像及び/又はビデオのようなデータをカメラ104から受け取ることができる。プロセッサ202は、カメラ104及びセンサ106から受け取ったデータをメモリ204内に記憶することができる。プロセッサ202は、追跡される1つ又はそれ以上の物体を識別するメタデータを受け取ることができる。追跡される1つ又はそれ以上の物体を識別する受け取ったメタデータに基づいて、プロセッサ202は、1つ又はそれ以上の物体を追跡するためにマルチカメラシステム100から第1のカメラセットを選択することができる。受け取ったメタデータに応答して、プロセッサ202は、何らかの追加の入力無しで、1つ又はそれ以上の物体を追跡するための第1のカメラセットをリアルタイムで選択することができる。プロセッサ202は、選択された第1のカメラセットを用いて1つ又はそれ以上の物体を追跡することができる。
1つの実施形態において、プロセッサ202は、マルチカメラシステム100を制御して、第1の物体102aのような物体を追跡するよう作動することができる。追跡される第1の物体102aは、該第1の物体102aに関連するメタデータに基づいて識別することができる。追跡される物体に関連するメタデータの実施例は、限定ではないが、追跡される物体の名称、追跡される物体の画像、追跡される物体に関連する一意の識別子、追跡される物体の表面印刷、追跡される物体に関連する視聴覚識別子、追跡される物体に関連する音、及び/又は追跡される物体を識別可能な他の何れかの情報を含むことができる。例えば、ある人が身に着けている服装の色は、追跡される人を識別するメタデータに相当することができる。別の実施例において、ある領域において最も騒がしい物体は、追跡される物体に相当することができる。
1つの実施形態において、プロセッサ202は、制御装置108に関連するメタデータをユーザから受け取ることができる。1つの実施形態において、プロセッサ202は、追跡される第1の物体102aを識別するメタデータを入力するようユーザに促すことができる。1つの実施形態において、ユーザは、I/Oデバイス210を介してメタデータを入力することができる。例えば、ユーザは、キーボードを介して追跡される人の名前を入力することができる。
別の実施形態において、ユーザは、カメラ104によって取り込まれた画像及び/又はビデオから、追跡される第1の物体102aを指定することができる。例えば、ユーザは、カメラ104によって取り込まれた画像内の対応する人の顔をタッチすることにより、カメラ104によって追跡される人を指定することができる。別の実施例において、ユーザは、カメラ104によって取り込まれた画像内の対応するボールをクリックすることにより、追跡される第1の物体102aとしてボールを選択することができる。別の実施形態において、ユーザは、音声入力によって、追跡される第1の物体102aを識別するメタデータを入力することができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、追跡される物体に関連するメタデータを提供する他のあらゆる方法を用いることができる。
受信器206は、センサ106から1つ又はそれ以上の信号を受け取ることができる。追跡される第1の物体102aの現在のロケーションは、センサ106から受け取った1つ又はそれ以上の信号に基づいて決定することができる。更に、プロセッサ202は、受け取った1つ又はそれ以上の信号を処理し、第1の物体102aの現在のロケーションを決定することができる。プロセッサ202は、受け取った1つ又はそれ以上の信号を処理し、カメラ104に対する第1の物体102aの方向及び距離を決定することができる。1つの実施形態において、プロセッサ202は、三角測量法に基づいて、カメラ104に対する第1の物体102aの方向及び距離を決定することができる。プロセッサ202はまた、受け取った1つ又はそれ以上の信号を処理し、第1の物体102aによって実施される1つ又はそれ以上の活動を決定するよう作動することができる。例えば、受け取ったGPS信号に基づいて、プロセッサ202は、追跡される人が階段を上っているか又は降りているかを決定することができる。プロセッサ202は、決定された現在のロケーション、実施される活動、及び/又はカメラ104に対する第1の物体102aの方向及び/又は距離をメモリ204内に記憶することができる。
プロセッサ202は、センサ106から受け取った1つ又はそれ以上の信号及び追跡される第1の物体102aに基づいて、センサ106から第1のセンサ106aのようなセンサを選択することができる。例えば、第1の物体102aは、RFIDタグが埋め込まれたボールとすることができる。このような場合、プロセッサ202は、1つ又はそれ以上の信号を受け取るRFIDセンサを選択することができる。別の実施例において、第1の物体102aは、携帯電話を有する人とすることができる。このような場合、プロセッサ202は、1つ又はそれ以上の信号を受け取るGPSセンサを選択することができる。更に、プロセッサ202は、検知する携帯電話信号を選択して、携帯電話を所持している人のロケーションを決定することができる。
1つの実施形態において、プロセッサ202は、追跡される第1の物体102aの現在のロケーションに基づいて第1のセンサ106aを選択することができる。例えば、IRセンサは、動作するために第1の物体102aが見通し線上にあることが必要とされる。従って、プロセッサ202は、第1の物体102aの現在のロケーションが、IRセンサの見通し線に位置するようなものである場合にIRセンサを選択することができる。
1つの実施形態において、プロセッサ202は、センサ106の範囲及び追跡される第1の物体102aのセンサ106からの距離に基づいて、センサ106から第1のセンサ106aを選択することができる。例えば、Bluetoothセンサ及びIRセンサは、このようなセンサから所定距離の範囲内で物体を検知することができる近距離センサである。従って、プロセッサ202は、第1の物体102aがこのようなセンサの所定の距離範囲内に位置するときにのみ、このようなセンサを選択することができる。別の実施例において、GPSセンサ及び携帯電話ネットワークベースのセンサは、このようなセンサから遠く離れて位置する物体を検知することができる長距離センサである。従って、プロセッサ202は、他の近距離センサの所定の距離範囲の外に第1の物体102aが位置するときに、このようなセンサを選択することができる。
1つの実施形態において、プロセッサ202は、第1のセンサ106a及び第2のセンサ106bのような2つ又はそれ以上のセンサを選択することができる。例えば、第1の物体102aは、ステージ上で演じている俳優とすることができる。Bluetooth送信器は、俳優が身に着けているネクタイに結合することができる。このような場合、プロセッサ202は、1つ又はそれ以上の信号を受け取るためにマイクロホン及びBluetooth受信器を選択することができる。1つの実施形態において、プロセッサ202は、第1のセンサ106a及び第2のセンサ106b間を動的に切り換えて、第1の物体102aのロケーションを決定することができる。
1つの実施形態において、受け取ったメタデータに基づいて、プロセッサ202は、第1のカメラ104aが第1の物体102aの画像を取り込むことができるように、第1のカメラ104aをリアルタイムで選択することができる。1つの実施形態において、プロセッサ202は、第1のカメラ104aが1つ又はそれ以上の所定の基準を満たすよう、第1のカメラ104aを選択することができる。このような所定の基準の実施例は、限定ではないが、第1の物体102aの画像を取り込むことができる角度、第1の物体102aの画像の品質、第1のカメラ104aからの第1の物体102aの距離、第1のカメラ104aの視野、第1の物体102aの画像を取り込むために第1のカメラ104aが必要なズーム、パン、及び/又はチルトの度合いを含むことができる。1つの実施例において、プロセッサ202は、第1のカメラ104aが第1の物体102aのロケーションに最も近づくように第1のカメラ104aを選択することができる。別の実施例において、プロセッサ202は、第1の物体102aが第1のカメラ104aの視野内に位置するように第1のカメラ104aを選択することができる。別の実施例において、プロセッサ202は、第1のカメラ104aが第1の物体102aの正面画像を取り込むことができるように第1のカメラ104aを選択することができる。
1つの実施形態において、2つ又はそれ以上のカメラが所定の基準を満たすことができる。この場合、制御装置108に関連するユーザは、2つ又はそれ以上のカメラから選択されることになる1つのカメラを指定することができる。更に、プロセッサ202は、2つ又はそれ以上のカメラに関する予め定められた優先順位に基づいて2つ又はそれ以上のカメラから1つのカメラを選択するよう作動することができる。別の実施形態において、カメラ104の何れもが所定の基準を満たさない場合がある。このような場合、プロセッサ202は、第1の物体102aを追跡するための既定設定のカメラを選択することができる。
1つの実施形態において、プロセッサ202は、選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づいて、選択された第1のカメラ104aの1つ又はそれ以上のパラメータを動的に制御するよう作動することができる。プロセッサ202は、選択された第1のカメラ104aに対する第1の物体102aの方向及び距離、及び/又は追跡される第1の物体102aに基づいて、選択された第1のカメラ104aの1つ又はそれ以上のパラメータを制御することができる。1つ又はそれ以上のパラメータの実施例は、限定ではないが、カメラの位置、ズーム、チルト、及び/又はパンを含むことができる。例えば、第1の物体102aが選択された第1のカメラ104aの視野の外に移動したときに、プロセッサ202は、選択された第1のカメラ104aのパン、ズーム、及び/又はチルトを調整し、第1の物体102aが選択された第1のカメラ104aの視野内に留まることができるようにする。1つの実施形態において、プロセッサ202は、選択された第1のカメラ104aに対する第1の物体102aの方向及び距離に基づいて選択された第1のカメラ104aのパン、ズーム、及び/又はチルトを調整することができる。
1つの実施形態において、プロセッサ202は、選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づいて、選択された第1のカメラ104aを用いることにより第1の物体102aを追跡することができる。選択された第1のカメラ104aに対する第1の物体102aの方向及び/又は距離は、選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づいて決定することができる。1つの実施形態において、選択された第1のカメラ104aに対する第1の物体102aの現在の方向及び/又は距離はまた、変化する可能性がある。プロセッサ202は、選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づいて、選択された第1のカメラ104aに対する第1の物体102aのロケーションの変化を決定することができる。1つの実施形態において、プロセッサ202は、第1の物体102aを追跡するために第2のカメラセットを選択することができる。第2のカメラセットは、1つ又はそれ以上のカメラを含むことができる。例えば、プロセッサ202は、第1の物体102aを追跡するために第1のカメラ104aを選択することができる。1つの実施形態において、プロセッサ202は、第1の物体102aのロケーションの決定された変化に基づいて、第2のカメラセットを選択することができる。別の実施形態において、プロセッサ202は、第1の物体102aのロケーションの変化に基づいて、複数のカメラ間を切り換えるように作動することができる。例えば、第1の物体102aのロケーションが変化したときに、第1の物体102aは、選択された第1のカメラ104aの視野の外に移動する場合がある。このような場合、プロセッサ202は、第2のカメラ104bを選択することができる。プロセッサ202は、第2のカメラ104bを用いて第1の物体102aを追跡することができる。1つの実施形態において、プロセッサ202は、第1の物体102aに関連するメタデータに基づいて第2のカメラ104bを選択することができる。別の実施形態において、プロセッサ202は、選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づいて第2のカメラ104bを選択することができる。
別の実施例において、第1の物体102aのロケーションが変化したときに、第1の物体102aは、選択された第1のカメラ104aから離れて移動し、第1の物体102aが別のカメラにより接近するようになる場合がある。このような場合、プロセッサ202は、どのカメラが第1の物体102aに最も近いかを決定することができる。この決定は、第1の物体102aに関連するメタデータ及び選択された第1のセンサ106aから受け取った1つ又はそれ以上の信号に基づくことができる。プロセッサ202は、第1の物体102aに最も近い第2のカメラ104bのようなカメラを選択することができる。プロセッサ202は、選択された第2のカメラ104bを用いて第1の物体102aを追跡することができる。第1の物体102aが移動して、再度第1のカメラ104aに近づいたときには、プロセッサ202は、第1の物体102aを追跡するために再度第1のカメラ104aに切り換えることができる。
1つの実施形態において、プロセッサ202は、マルチカメラシステム100の複数のカメラ間で協働するよう作動することができる。1つの実施形態において、プロセッサ202は、複数のカメラの1つ又はそれ以上のパラメータ及び/又は設定の調整を協働することができる。例えば、プロセッサ202は、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cのチルトを調整し、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cの各々が室内の特定の領域の画像及び/又はビデを取り込むことができるようにする。
別の実施形態において、プロセッサ202は、マルチカメラシステム100の可動カメラの位置を制御するよう作動することができる。例えば、第1のカメラ104aは、第1の物体102aに対する第1のカメラ104aの位置が変化できるようにして設置することができる。プロセッサ202は、追跡される第1の物体102aのロケーションに基づいて、第1のカメラ104aを第1の位置から第2の位置に移動させることができる。例えば、第1のカメラ104aは、ビルの中に居る人を監視するために航空機に結合することができる。このような場合、第1のカメラ104aの位置は、航空機が移動したときに変えることができる。プロセッサ202は、第1のカメラ104aがビルの中に居る人の画像を取り込むことを可能にできるように、航空機の移動を制御することができる。例えば、第1のカメラ104aがビルの一方の側から画像を取り込むことができない場合には、プロセッサ202は、ビルの別の側に航空機を移動させるよう制御することができる。
1つの実施形態において、制御装置108に関連するユーザは、マルチカメラシステム100のカメラ104の何れかよって取り込まれる画像及び/又はビデオにおいて見ることができない物体に関連するメタデータを提供することができる。例えば、マルチカメラシステム100は、ミュージアム内の人を追跡することができる。ユーザは、追跡される人の名前を指定することができる。追跡される人は、マルチカメラシステム100のカメラ104の何れかよって取り込まれる画像及び/又はビデオにおいて見ることができない場合がある。このような場合、プロセッサ202は、GPSセンサなどのセンサ106から受け取った1つ又はそれ以上の信号に基づいて追跡される人の現在のロケーションをリアルタイムで決定することができる。決定された現在のロケーションに基づいて、プロセッサ202は、追跡される人の画像及び/又はビデオを取り込むことができるカメラを選択することができる。例えば、決定された現在のロケーションに基づいて、プロセッサ202は、追跡される人の現在のロケーションに最も近いマルチカメラシステム100のカメラを選択することができる。別の実施例において、プロセッサ202は、追跡される人がカメラ104の少なくとも1つの視野内に位置するように、追跡される人の現在のロケーションに基づいてカメラ104のパン、チルト、及び/又はズームを調整することができる。
1つの実施形態において、選択された第1のセンサ106aは、マイクロホンに相当することができる。マイクロホンは、第1の物体102aに関連する音に基づいて第1の物体102aのロケーションを検出することができる。マイクロホンは、1つ又はそれ以上の音響信号をプロセッサ202に伝送することができる。プロセッサ202は、マイクロホンから受け取った1つ又はそれ以上の音響信号に基づいて、カメラ104に対する第1の物体102aのロケーションを決定することができる。1つの実施形態において、プロセッサ202は、三角測量法を用いて音源のロケーションを決定するために少なくとも3つのマイクロホンを用いることができる。
別の実施形態において、プロセッサ202は、マイクロホンから受け取った1つ又はそれ以上の音響信号に様々なタイプのフィルタを適用してノイズを除去することができる。フィルタ処理は、マイクロホンから受け取った1つ又はそれ以上の音響信号に適用され、追跡される第1の物体102aに関連しない音をフィルタ除去することができる。1つの実施形態において、プロセッサ202は、マイクロホンにフィルタを適用し、マイクロホンが所定の音に対してのみ応答できるようにすることができる。このような所定の音の実施例は、限定ではないが、所与の周波数帯域内の音、特定の振幅パターンを有する音、発生波形の一定形状に関連する音、特定の高調波に関連する音、人の発話の存在を含む音、音声認識に基づく音、及び/又はトリガー音を含むことができる。このようなトリガー音は、電話の着信音、及び/又は機械が特定の動作を実施する際に機械が作り出す特徴のある音(クルマのエンジン始動音及び/又は犬の吠える音など)とすることができる。1つの実施形態において、プロセッサ202は、マイクロホンによって検出された音の特徴と、フィルタ処理又はトリガーのために音が生成されたビデオフレームの特性とを同期させることができる。
1つの実施形態において、マルチカメラシステム100は、無指向性マイクロホン及び指向性マイクロホンを含むことができる。無指向性マイクロホンは、第1の物体102aの周りの環境ノイズを検出することができる。無指向性マイクロホンから受け取った音響信号に基づいて、プロセッサ202は、指向性マイクロホンから受け取る音響信号を処理してノイズを除去することができる。
1つの実施形態において、マイクロホンを選択された第1のカメラ104aとして用いることができるマルチカメラシステム100は、監視領域において最もノイズを多く発生する物体を追跡される物体として自動的に選択できるように実施することができる。例えば、ステージ上の俳優(第1の俳優など)が歩いているときに、マイクロホンは、第1の俳優からの音を検出する可能性がある。マイクロホンによって検出された音に基づいて、プロセッサ202は、第1の俳優を追跡される物体として選択することができる。プロセッサ202は、ステージ上で第1の俳優を追跡するために1つ又はそれ以上のカメラを選択することができる。別の俳優(第2の俳優など)が話すときには、マイクロホンは、第2の俳優からの音を検出する可能性がある。マイクロホンによって検出される音に基づいて、プロセッサ202は、第2の俳優を追跡される物体として選択することができる。プロセッサ202は、ステージ上で第1の俳優を追跡するために、1つ又はそれ以上のカメラを選択することができる。複数の俳優(第1の俳優及び第2の俳優の両方など)が話すときには、マイクロホンは、第1の俳優及び第2の俳優の両方からの音を検出する可能性がある。マイクロホンによって検出される音に基づいて、プロセッサ202は、追跡される物体として第1の俳優及び第2の俳優の両方を選択することができる。プロセッサ202は、ステージ上で第1の俳優及び第2の俳優を追跡するために、1つ又はそれ以上のカメラを選択することができる。
1つの実施形態において、マルチカメラシステム100は、通常は音があまり存在しないシステムにおいてマイクロホンを選択された第1のセンサ106aとして利用する。このようなシステムにおいて、音をたてるものが何か存在する可能性があるときには、当該音の発生源は、自動的に追跡される物体として選択することができる。例えば、マルチカメラシステム100は、森林内の空き地に設置することができる。オオカミが遠吠えしたときに、マイクロホンは、オオカミからの遠吠え音を検出することができる。プロセッサ202は、オオカミを追跡される物体として選択することができる。プロセッサ202は、マイクロホンにより検出された遠吠え音に基づいてオオカミのロケーションを決定することができる。プロセッサ202は、オオカミを追跡するカメラを選択することができる。プロセッサ202は、オオカミに対して選択したカメラをズームすることができる。
1つの実施形態において、マルチカメラシステム100は更に、電磁スペクトルの非可視部分にある放射線を検出できる1つ又はそれ以上のカメラ(非可視カメラと呼ばれる)を含むことができる。このような非可視カメラは、電磁スペクトルの可視部分内で画像及び/又はビデオを取り込むことができるカメラ104に追加することができる。このような電磁スペクトルの非可視部分にある放射線の実施例は、限定ではないが、UV及びIR放射線を含むことができる。このような非可視カメラの実施例は、UVカメラ及び/又はIRカメラとすることができる。1つの実施形態において、非可視カメラは、カメラ104と一体化してもよい。プロセッサ202は、カメラ104によって取り込まれた画像と、非可視カメラによって取り込まれた画像との間の相関関係を決定することができる。
プロセッサ202は、非可視カメラによって提供される1つ又はそれ以上の信号に基づいて、カメラ104に対しての追跡される物体のロケーション及び距離を決定することができる。1つの実施形態において、マルチカメラシステム100は、複数の非可視カメラを用いて、カメラ104に対しての追跡される物体のロケーション及び距離を決定することができる。1つの実施形態において、マルチカメラシステム100は、ロケーション及び距離を決定するのに三角測量法を用いることができる。別の実施形態において、プロセッサ202は、非可視カメラの出力に3次元(3D)処理を適用し、追跡される物体のロケーション及び距離を決定することができる。
1つの実施形態において、非可視カメラは、可視スペクトルの範囲外の光を用いて追跡される物体を照射するための特殊周波数レーザを含むことができる。特殊周波数レーザは、追跡される物体にタグ付けするのに用いることができる。非可視カメラは、レーザによる照射に基づいて追跡される物体を決定することができる。
1つの実施形態において、非可視カメラを有するマルチカメラシステム100は、可視スペクトルの光が追跡される物体を視覚的に検出するのに十分ではない場所において、物体を追跡するのに用いることができる。このような低可視光条件において、プロセッサ202は、物体が搬送するIR又はUV帯域での送信器に基づいて追跡される物体のロケーションを決定することができる。プロセッサ202は、追跡される物体の画像を取り込むためにカメラ104のフラッシュを制御することができる。
1つの実施形態において、IRカメラを有するマルチカメラシステム100は、特定の温度範囲にある1つ又はそれ以上の物体を追跡するのに用いることができる。例えば、IRカメラを用いることにより、人体温度に基づいて人を追跡することができる。
本開示は、物体を追跡することができる単一のカメラに関するが、当業者であれば理解されるように、本開示は、物体を追跡することができるあらゆる数のカメラで実施することができる。例えば、第1の物体102aは、プロセッサ202によって選択された第1のカメラ104aと第2のカメラ104bとによって同時に追跡することができる。
本開示は、マルチカメラシステム100を用いた単一の物体の追跡を説明したが、当業者であれば理解されるように、本開示は、追跡されるあらゆる数の物体に対して実施することができる。例えば、マルチカメラシステム100は、複数の物体を同時に追跡することができる。
1つの実施形態において、プロセッサ202は、マルチカメラシステム100を制御して、第1の物体102a及び第2の物体102bのような、2つ又はそれ以上の物体を同時に追跡するよう作動することができる。プロセッサ202は、追跡される第1の物体102a及び第2の物体102bを識別するメタデータを受け取ることができる。第1の物体102a及び第2の物体102bについて受け取ったメタデータに基づいて、プロセッサ202は、第1の物体102a及び第2の物体102bを追跡するために1つ又はそれ以上のカメラをリアルタイムで選択するよう作動することができる。
例えば、プロセッサ202は、第1の物体102a及び第2の物体102bを同時に追跡するために、第1のカメラ104aのような単一のカメラを選択することができる。1つの実施形態において、プロセッサ202は、第1のカメラ104aを選択し、第1の物体102a及び第2の物体102bの両方が選択された第1のカメラ104aの視野内に位置するようにすることができる。1つの実施形態において、プロセッサ202は、第1の物体102a及び第2の物体102bの両方が選択された第1のカメラ104aの視野内に位置するように、選択された第1のカメラ104aのズーム、チルト、及び/又はスパンを制御することができる。1つの実施形態において、プロセッサ202は、選択された第1のカメラ104aに対する第1の物体102a及び第2の物体102bの各々の方向及び/又は距離に基づいて、選択された第1のカメラ104aのズーム、チルト、及び/又はスパンを調整することができる。別の実施形態において、プロセッサ202は、第2の物体102bに対する第1の物体102aの方向及び/又は距離に基づいて、選択された第1のカメラ104aのズーム、チルト、及び/又はスパンを調整することができる。例えば、第1の物体102a及び第2の物体102bの両方は、同じ方向に移動する。このような場合、プロセッサ202は、第1の物体102a及び第2の物体102bの両方が第1のカメラ104aの視野内に位置する範囲まで、選択された第1のカメラ104aをズームすることができる。別の実施例において、第1の物体102a及び第2の物体102bは、反対方向に移動する。このような場合、プロセッサ202は、第1の物体102a及び第2の物体102bの両方が第1のカメラ104aの視野内に位置するように選択された第1のカメラ104aをズームアウトすることができる。
1つの実施形態において、第1の物体102a及び第2の物体102bは、両方が第1のカメラ104aの視野内に決して位置しないような距離に存在する場合がある。このような場合、プロセッサ202は、第1の物体102a及び第2の物体102bをそれぞれ個別に追跡するために、第1のカメラ104a及び第2のカメラ104bなどの2つの異なるカメラを選択することができる。プロセッサ202は、第1の物体102a及び第2の物体102bを追跡するために第1のカメラ104a及び第2のカメラ104bを独立して制御することができる。
1つの実施形態において、プロセッサ202は、マルチカメラシステム100の外部にある1つ又はそれ以上の装置の1つ又はそれ以上の作動及び/又は設定を動的に制御するよう作動することができる。1つ又はそれ以上の外部装置は、追跡される1つ又はそれ以上の物体と関連付けることができる。1つの実施形態において、1つ又はそれ以上の外部装置は、追跡される1つ又はそれ以上の物体の所定の近傍内に配置することができる。プロセッサ202は、このような外部装置に対する1つ又はそれ以上の追跡される物体のロケーション、1つ又はそれ以上の物体を追跡することができる選択された第1のカメラセットによって必要とされる設定、及び/又は制御装置108に関連するユーザの選好のうちの1つ又はそれ以上に基づいて、このような外部装置を動的に制御することができる。加えて、プロセッサ202は、1つ又はそれ以上の追跡される物体の色及びサイズのような特性に基づいて、このような外部装置を動的に制御することができる。1つの実施形態において、プロセッサ202は、制御装置108に関連するユーザによって提供される入力に基づいて、外部装置を動的に制御することができる。別の実施形態において、プロセッサ202は、メモリ204内に記憶された1つ又はそれ以上の命令に基づいて、外部装置を動的に制御することができる。
1つの実施形態において、プロセッサ202は、第1の物体102aが追跡されることになる領域における照明を動的に制御することができる。例えば、プロセッサ202は、追跡される人が部屋に入ったときに、室内の照明を明るくすることができる。このことは、室内に配置された種々の者を人が明確に見えるよう助けることができる。また、制御装置108に関連するユーザが、追跡される人を見ることができる。別の実施例において、追跡される人が街路灯に近づいたときに、プロセッサ202は、その人の可視性が向上するように、街路灯の明るさを増大させることができる。
1つの実施形態において、追跡される1つ又はそれ以上の物体の画像及び/又はビデオは、ディスプレイ画面上で制御装置108に関連するユーザに表示することができる。1つの実施形態において、ディスプレイ画面は、制御装置108のディスプレイに相当することができる。別の実施形態において、画像及び/又はビデオは、制御装置108の外部にあるディスプレイ画面上に表示することができる。1つの実施形態において、画像及び/又はビデオは、制御装置108に関連するユーザによって予め指定された1つ又はそれ以上の基準に基づいて表示することができる。例えば、画像及び/又はビデオは、ユーザによって指定された1つ又はそれ以上の物体が、画像及び/又はビデオで可視である場合にだけ表示することができる。1つの実施形態において、プロセッサ202は、ユーザ指定の1つ又はそれ以上の基準を満たす画像及び/又はビデオが利用可能でない場合には、1つ又はそれ以上のデフォルト画像を表示することができる。
1つの実施形態において、制御装置108は、1つ又はそれ以上の追跡される物体に関連する情報をメモリ204内に記憶することができる。このような情報の実施例は、限定ではないが、カメラ104によって取り込まれた画像において1つ又はそれ以上の物体が見られる時間、及びカメラ104によって取り込まれた画像において1つ又はそれ以上の物体が見られる時間期間を含むことができる。
1つの実施形態において、カメラ104は、高解像度広角画像及び/又はビデオを取り込む高解像度カメラとすることができる。このような場合、プロセッサ202は、高解像度カメラによって取り込まれた高解像度広角画像及び/又はビデオからの画像及び/又はビデオ信号(高解像度信号と呼ばれる)をトリミングするよう作動することができる。例えば、カメラ104は、20メガピクセル又はそれ以上のSLRカメラとすることができる。プロセッサ202は、高解像度信号から通常1080p又は720p信号にトリミングできるように、SLRカメラの高解像度信号をトリミングすることができる。
1つの実施形態において、プロセッサ202は、高解像度信号における追跡される物体の位置に基づいて、高解像度信号をトリミングすることができる。別の実施形態において、プロセッサ202は、高解像度信号内の1つ又はそれ以上の追跡される物体の相対位置に基づいて、高解像度信号のトリミングする一部分を選択することができる。例えば、プロセッサ202は、追跡される物体を含む高解像度信号の一部分をトリミングすることができる。制御装置108は、トリミングされた部分に基づいて物体を追跡することができる。1つの実施形態において、高解像度カメラから得られた高解像度信号は、メモリ204内に記憶することができる。記憶された高解像度信号を用いて、該高解像度信号に含まれる他の物体及び/又は領域を監視することができる。
1つの実施形態において、プロセッサ202は、高解像度信号のトリミングした部分をズームイン及び/又はズームアウトして、所望の観察解像度を得ることができる。例えば、高解像度カメラからトリミングされた画像部分は、カメラ104の視野の一部にズームインすることができる。
図3A、3B、及び3Cは、本開示の1つの実施形態による、マルチカメラシステムに基づいた物体の追跡に関する実施例を示している。図3A、3B、及び3Cの実施例は、図1及び図2からの要素と関連して説明される。
図3A、3B、及び3Cを参照すると、サッカー競技場300、サッカーボール302、並びに、第1のプレーヤー304a、第2のプレーヤー304b、及び第3のプレーヤー304c(総称してプレーヤー304と呼ばれる)のような1人又はそれ以上プレーヤーが示されている。サッカーボール302及びプレーヤー304は、追跡される物体102に相当することができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、サッカー競技場300のあらゆる物体を追跡することができる。
図3A、3B、及び3Cは更に、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c(総称してGPSセンサ306と呼ばれる)などの1つ又はそれ以上のセンサを示している。図3A、3B、及び3Cは更に、第1のマイクロホン308a及び第2のマイクロホン308b(総称してマイクロホン308と呼ばれる)などの1つ又はそれ以上のマイクロホンを示している。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、物体を追跡するよう作動できる他の何れかのタイプのセンサを用いることができる。第1のGPSセンサ306a、第2のGPSセンサ306b、及び第3のGPSセンサ306cは、第1のプレーヤー304a、第2のプレーヤー304b、及び第3のプレーヤー304cがそれぞれ身に着けているシャツの襟に結合することができる。マイクロホン308は、サッカー競技場300の外部に設置することができる。例えば、第1のマイクロホン308aは、サッカー競技場300の境界線の支柱に設置することができる。1つの実施形態において、サッカーボール302の内部にBluetoothセンサ(図3A、3B、及び3Cには図示せず)を埋め込むことができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、サッカー競技場300の近傍の他の何れかの場所にセンサを配置することができる。
図3A、3B、及び3Cは更に、制御装置108と、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cのような1つ又はそれ以上のカメラとを示しており、これらは図1において既に詳細に説明されている。図3A、3B、及び3Cは更に、第1のカメラ104aの第1の視野310aと、第2のカメラ104bの第2の視野310bと、第3のカメラ104cの第3の視野310cとを例示している。
第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cは、サッカー競技場300が第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cの各々の視野内に位置するように、サッカー競技場300を囲む異なるロケーションに設置することができる。1つの実施形態において、第3のカメラ104cは、その位置が変化することができるように設置することができる。例えば、第3のカメラ104cは、ハンドヘルドカメラとすることができ、及び/又は可動カート上に装着することができる。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、サッカー競技場300の近傍にある他の何れかの場所に配置することができる。
カメラ104、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a、第2のマイクロホン308b、及びBluetoothセンサは、通信ネットワーク110を介して制御装置108と通信することができる(図3A、3B、及び3Cには図示せず)。第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a、第2のマイクロホン308b、及びBluetoothセンサは、通信ネットワーク110を介して1つ又はそれ以上の信号を制御装置108に送信することができる。カメラ104に対するサッカーボール302及びプレーヤー304のロケーションは、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a、第2のマイクロホン308b、及びBluetoothセンサによって送信される1つ又はそれ以上の信号に基づいて決定することができる。カメラ104は、サッカーボール302及びプレーヤー304の画像及び/又はビデオを取り込むことができる。取り込まれた画像及び/又はビデオは、通信ネットワーク110を介して制御装置108に送信することができる。
制御装置108は、追跡される物体を識別するメタデータを受け取ることができる。1つの実施形態において、制御装置108に関連するユーザは、追跡される特定のプレーヤーを指定することができる。ユーザは、キーボードを介してプレーヤーの名前を入力することにより、及び/又はカメラ104によって取り込まれた画像内のプレーヤーを選択することにより、特定のプレーヤーを指定することができる。
例えば、ユーザは、第1のプレーヤー304aの名前を入力し、第1のプレーヤー304aを追跡される物体として指定することができる。入力された第1のプレーヤー304aの名前に基づいて、制御装置108は、カメラ104に対する第1のプレーヤー304aの現在のロケーションを決定することができる。制御装置108は、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a、第2のマイクロホン308b、及びBluetoothセンサによって送信される1つ又はそれ以上の信号に基づいて、第1のプレーヤー304aの現在のロケーションを決定することができる。第1のプレーヤー304aに基づいて、制御装置108は、第1のプレーヤー304aの現在のロケーションを識別できるセンサを選択することができる。例えば、制御装置108は、第1のプレーヤー304aのロケーションを決定するために、第1のGPSセンサ306aを選択することができる。別の実施例において、制御装置108が第1のGPSセンサ306aから1つ又はそれ以上の信号を受け取ることができない場合、制御装置108は、第1のプレーヤー304aのロケーションを決定するために、第1のマイクロホン308aを選択することができる。
図3Aは、第1のプレーヤー304aが、現在第1のロケーションに位置することができることを示している。第1のプレーヤー304aの現在のロケーションに基づいて、制御装置108は、第1のプレーヤー304aを追跡するためのカメラを選択することができる。例えば、制御装置108は、第1のプレーヤー304aの現在のロケーションに最も近いとすることができる第1のカメラ104aを選択することができる。第1のプレーヤー304aがサッカー競技場300を移動すると、第1のカメラ104aは、第1のプレーヤー304aを追跡することができる。
第1のプレーヤー304aがサッカー競技場300を移動すると、制御装置108は、第1のプレーヤー304aが第1のカメラ104aの第1の視野310a内に位置するように第1のカメラ104aのパン、ズーム、及び/又はチルトを調整することができる。第1のプレーヤー304aが第1のカメラ104aの第1の視野310aの外に移動すると、制御装置108は、第1のプレーヤー304aを追跡するための別のカメラを選択することができる。
図3Bは、第1のプレーヤー304aがサッカー競技場300の第2のロケーションに移動できることを示している。第1のプレーヤー304aの第2のロケーションは、第1のプレーヤー304aが第1のカメラ104aの第1の視野310aの外にいるようなものとすることができる。このような場合、制御装置108は、第1のプレーヤー304aの第2のロケーションにより近接した別のカメラを選択することができる。例えば、制御装置108は、第1のプレーヤー304aが第2のカメラ104bの第2の視野310b内に位置することができるように第2のカメラ104bを選択することができる。第1のプレーヤー304aが、再度第1のカメラ104aにより近接して移動すると、制御装置108は、第1のプレーヤー304aを追跡するために再度第1のカメラ104aに切り換えることができる。
1つの実施形態において、第1のプレーヤー304aは、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cの何れの視野内にも位置していない場合がある。このような場合、制御装置108は、可動カメラの位置を変えることができる。例えば、制御装置108は、第3のカメラ104cを別のロケーションに移動させることができる。
図3Cは、第1のプレーヤー304aが第3のカメラ104cの第3の視野310c内に位置するように、第3のカメラ104cが第1の位置(図3Aに示す)から第2の位置に移動できることを示している。1つの実施形態において、制御装置108は、第1のプレーヤー304aのロケーションの変化に基づいて、第3のカメラ104cの位置をリアルタイムで変えることができる。本開示は、物体を追跡するのに単一のカメラを用いて説明したが、当業者であれば理解されるように、本開示は、あらゆる数のカメラを用いて物体を追跡するよう実施することができる。例えば、第1のカメラ104a及び第2のカメラ104bの両方が、第1のプレーヤー304aを同時に追跡することができる。
別の実施例において、追跡される物体を識別するメタデータは、サッカーボール302を所持しているあらゆるプレーヤーを含むことができる。メタデータに基づいて、制御装置108は、サッカーボール302の現在のロケーションを決定するために、サッカーボール302に埋め込まれたBluetoothセンサを選択することができる。制御装置108は、Bluetoothセンサから1つ又はそれ以上のBluetooth信号を受け取ることができる。制御装置108は、受け取った1つ又はそれ以上のBluetooth信号に基づいて、サッカーボール302の現在のロケーションを決定することができる。サッカーボール302の決定された現在のロケーションに基づいて、制御装置108は、現在どのプレーヤーがサッカーボール302を所持しているかを決定することができる。制御装置108は、プレーヤー304の各々に結合されたGPSセンサ306から受け取った1つ又はそれ以上のGPS信号を、Bluetoothセンサから受け取った1つ又はそれ以上のBluetooth信号と比較することができる。この比較に基づいて、制御装置108は、Bluetoothセンサにより指定されたサッカーボール302の現在のロケーションに一致するGPS信号を決定することができる。このようなGPSセンサに関連するプレーヤー(第1のプレーヤー304aなど)は、サッカーボール302を現在所持しているプレーヤーに相当することができる。第1のプレーヤー304aの現在のロケーションに基づいて、制御装置108は、第1のプレーヤー304aを追跡するためのカメラ(第1のカメラ104aなど)を選択することができる。第1のプレーヤー304aがサッカーボール302を所持している限り、制御装置108は、第1のカメラ104aにより第1のプレーヤー304aを追跡することができる。サッカーボール302があるプレーヤーから別のプレーヤーに移動したときは常に、制御装置108は、どのプレーヤーがサッカーボール302を所持しているかを決定することができ、当該プレーヤーを追跡することができる。別の実施形態において、制御装置108は、サッカーボール302を所持しているプレーヤーを追跡することなく、サッカーボール302のみを追跡することもできる。
1つの実施形態において、サッカーボール302、プレーヤー304、及び/又はサッカー競技場300の他の何れかの物体の画像及び/又はビデオは、制御装置108に関連するユーザに表示することができる。画像及び/又はビデオは、制御装置108のディスプレイ上、及び/又は制御装置108の外部にある何れかのディスプレイ画面上に表示することができる。1つの実施形態において、制御装置108は、追跡される第1のプレーヤー304aに関連する画像及び/又はビデオのみを表示することができる。どのカメラも第1のプレーヤー304aの画像及び/又はビデオを取り込むことができない場合には、制御装置108は、画像及び/又はビデオを表示しない場合がある。或いは、制御装置108は、既定の画像及び/又はビデオを表示してもよい。それでも尚、本開示は、これらに限定されず、本開示の範囲を限定することなく、サッカー競技場300のあらゆる数のプレーヤー及び/又は物体を追跡することができる。
図4A、4B、及び4Cは、本開示の1つの実施形態による、マルチカメラシステムに基づいて2つ又はそれ以上の物体の追跡に関する実施例を例示している。図4A、4B、及び4Cの実施例は、図1、図2、図3A、図3B、及び図3Cからの要素に関連して説明される。
図4A、4B、及び4Cを参照すると、サッカー競技場300、サッカーボール302、並びに、第1のプレーヤー304a、第2のプレーヤー304b、及び第3のプレーヤー304c(総称してプレーヤー304と呼ばれる)が示されており、これらは、図3A、3B、及び3Cを参照して既に詳細に説明されている。
図4A、4B、及び4Cは更に、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a及び第2のマイクロホン308bを示しており、これらは図3A、3B、及び3Cを参照して既に詳細に説明されている。1つの実施形態において、Bluetoothセンサ(図4A、4B、及び4Cには図示せず)は、サッカーボール302の内部に埋め込むことができる。
図4A、4B、及び4Cは更に、制御装置108と、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cのような1つ又はそれ以上のカメラとを示しており、これらは図1において既に詳細に説明されている。図4A、4B、及び4Cは更に、第1のカメラ104aの第1の視野310aと、第2のカメラ104bの第2の視野310bと、第3のカメラ104cの第3の視野310cとを例示しており、これらは、図3A、3B、及び3Cにおいて既に詳細に説明されている。
1つの実施形態において、制御装置108は、追跡される2人又はそれ以上のプレーヤーを識別するメタデータを受け取ることができる。例えば、制御装置108に関連するユーザは、第1のプレーヤー304a及び第2のプレーヤー304bの名前を入力し、第1のプレーヤー304a及び第2のプレーヤー304bを追跡される物体として指定することができる。ユーザによって入力された第1のプレーヤー304a及び第2のプレーヤー304bの名前に基づいて、制御装置108は、カメラ104に対する第1のプレーヤー304a及び第2のプレーヤー304bの現在のロケーションを決定することができる。制御装置108は、第1のGPSセンサ306a、第2のGPSセンサ306b、第3のGPSセンサ306c、第1のマイクロホン308a、第2のマイクロホン308b、及びBluetoothセンサによって送信される1つ又はそれ以上の信号に基づいて、第1のプレーヤー304a及び第2のプレーヤー304bの現在のロケーションを決定することができる。第1のプレーヤー304a及び第2のプレーヤー304bの名前に基づいて、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bの現在のロケーションを識別できる1つ又はそれ以上のセンサを選択することができる。例えば、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bのロケーションを決定するために、第1のプレーヤー304a及び第2のプレーヤー304bが身に着けている衣服に結合された第1のGPSセンサ306a及び第2のGPSセンサ306bを選択することができる。別の実施例において、制御装置108が、第1のプレーヤー304a及び第2のプレーヤー304bの衣服に結合された第1のGPSセンサ306a及び第2のGPSセンサ306bから1つ又はそれ以上の信号を受け取ることができない場合、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bのロケーションを決定するために、第1のマイクロホン308aを選択することができる。
図4Aは、第1のプレーヤー304a及び第2のプレーヤー304bが、現在それぞれの第1のロケーションに位置することができることを示している。第1のプレーヤー304a及び第2のプレーヤー304bの現在のロケーションに基づいて、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bを同時に追跡するためのカメラを選択することができる。例えば、制御装置108は、第1のカメラ104aが第1のプレーヤー304a及び第2のプレーヤー304bの現在のロケーションに最も近いときに第1のカメラ104aを選択することができる。別の実施例において、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bの両方が第1のカメラ104aの第1の視野310a内にあるときに、第1のカメラ104aを選択することができる。第1のプレーヤー304a及び第2のプレーヤー304bがサッカー競技場300を移動すると、第1のカメラ104aは、第1のプレーヤー304a及び第2のプレーヤー304bを追跡することができる。
第1のプレーヤー304a及び第2のプレーヤー304bがサッカー競技場300を移動できる場合、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bの両方が第1のカメラ104aの第1の視野310a内に留まるように、第1のカメラ104aのパン、ズーム、及び/又はチルトを調整することができる。第1のプレーヤー304a及び/又は第2のプレーヤー304bが、第1のカメラ104aの第1の視野310aの外に移動できる場合、制御装置108は、第1のプレーヤー304a及び第2のプレーヤー304bを追跡するために別のカメラを選択することができる。
図4Bは、第2のプレーヤー304bがサッカー競技場300の第2のロケーションに移動することができ、他方、第1のプレーヤー304aが第1のロケーションに留まることができることを示している。第2のプレーヤー304bの第2のロケーションは、第2のプレーヤー304bが第1のカメラ104aの第1の視野310aの外にいるようなものとすることができる。このような場合、制御装置108は、第2のプレーヤー304bの第2のロケーションにより近接した別のカメラを選択することができる。例えば、制御装置108は、第2のプレーヤー304bが第2のカメラ104bの第2の視野310b内に位置することができるように第2のカメラ104bを選択することができる。制御装置108は、第1のカメラ104aにより第1のプレーヤー304aを継続して追跡することができる。第2のプレーヤー304bが、再度第1のカメラ104aにより近接して移動すると、制御装置108は、第2のプレーヤー304bを追跡するために再度第1のカメラ104aに切り換えることができる。
1つの実施形態において、第2のプレーヤー304bが、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cの何れの視野内にも位置していないようなサッカー競技場300のロケーションに移動する場合がある。このような場合、制御装置108は、可動カメラの位置を変えることができる。例えば、制御装置108は、第3のカメラ104cを別のロケーションに移動させることができる。
図4Cは、第3のカメラ104cが、第2のプレーヤー304bのロケーションの変化に基づいて、第1の位置(図4Aに示す)から第2の位置にリアルタイムで移動できることを示している。第3のカメラ104cが第2の位置にあるときに、第2のプレーヤー304bは、第3のカメラ104cの第3の視野310c内に位置することができる。本開示は、2つ又はそれ以上の物体を同時に追跡するために、単一のカメラを用いて説明したが、当業者であれば理解されるように、本発明は、あらゆる数のカメラを用いて2つ又はそれ以上の物体を追跡するよう実施することができる。
1つの実施形態において、カメラ104の各々は、特定のプレーヤーを個別に追跡することができる。例えば、第1のカメラ104a、第2のカメラ104b、及び第3のカメラ104cは、第1のプレーヤー304a、第2のプレーヤー304b、及び第3のプレーヤー304cをそれぞれ追跡することができる。
1つの実施形態において、それぞれのカメラ104によって取り込まれたプレーヤー304の各々の画像及び/又はビデオは、制御装置108に関連するユーザに表示することができる。ユーザは、表示された画像及び/又はビデオに基づいて、どのプレーヤーを追跡するかを選択することができる。1つの実施形態において、ユーザは、既存の追跡されているプレーヤーのリストに更にプレーヤーを追加することができる。別の実施形態において、ユーザは、追跡されるプレーヤーのリストからプレーヤーを削除することもできる。ユーザによって追加及び/又は削除されたプレーヤーの数に基づいて、制御装置108は、表示を変えることができる。
1つの実施形態において、ユーザは、第1のプレーヤー304a及び第2のプレーヤー304bの両方が見える画像及び/又はビデオだけを表示するよう指定することができる。第1のプレーヤー304a及び第2のプレーヤー304bの両方が見える画像及び/又はビデオを取り込むことがどのカメラ104もできない場合には、制御装置108は、画像及び/又はビデオを表示しないようにすることができる。或いは、制御装置108は、既定の画像及び/又はビデオを表示してもよい。
図5は、本開示の1つの実施形態による、制御装置によって1又はそれ以上の物体を追跡する例示的なステップを示すフローチャートである。図5を参照すると、方法500が示される。方法500は、図1及び図2の要素と連動して説明される。
例示的なステップは、ステップ502から始まる。ステップ504において、プロセッサ202は、第1の物体102aのような追跡される1つ又はそれ以上の物体に関連するメタデータを受け取ることができる。メタデータは、第1の物体102aを識別する。ステップ506において、プロセッサ202は、受け取ったメタデータに基づいて、1つ又はそれ以上の物体を追跡するため複数のカメラ(カメラ104など)から第1のカメラセット(第1のカメラ104aなど)を選択することができる。ステップ508において、プロセッサ202は、選択された第1のカメラセットによって1つ又はそれ以上の物体の追跡を可能にすることができる。方法500は、ステップ510にて終了する。
図6は、本開示の1つの実施形態による、制御装置によって複数の物体を追跡する例示的なステップを示すフローチャートである。図6を参照すると、方法600が示される。本方法600は、図1及び図2の要素と連動して説明される。
例示的なステップは、ステップ602から始まる。ステップ604において、プロセッサ202は、第1の物体102a及び第2の物体102bのような追跡される複数の物体に関連するメタデータを受け取ることができる。メタデータは、第1の物体102a及び第2の物体102bを識別する。ステップ606において、プロセッサ202は、受け取ったメタデータに基づいて、複数の物体を追跡するため複数のカメラ(カメラ104など)から第1のカメラセット(第1のカメラ104aなど)を選択することができる。ステップ608において、プロセッサ202は、選択された第1のカメラセットによって複数の物体の追跡を可能にすることができる。方法600は、ステップ610にて終了する。
本開示の1つの実施形態によれば、1つ又はそれ以上の物体102(図1)を追跡するためのマルチカメラシステム100(図1)のようなシステムは、通信ネットワーク110(図1)のようなネットワークを含むことができる。ネットワークは、複数のカメラ104(図1)、複数のセンサ106(図1)、及び制御装置108(図1)を通信可能に結合することができる。制御装置108は、プロセッサ202のような1つ又はそれ以上のプロセッサを備えることができる。1つ又はそれ以上のプロセッサは、1つ又はそれ以上の物体102と関連するメタデータを受け取るよう作動することができる。メタデータは、1つ又はそれ以上の物体102を識別する。1つ又はそれ以上のプロセッサは、受け取ったメタデータに基づいて、1つ又はそれ以上の物体102を追跡するために、複数のカメラ104から第1のカメラ104aのような第1のカメラセットを選択するよう作動することができる。1つ又はそれ以上のプロセッサは、選択された第1のカメラセットによって1つ又はそれ以上の物体の追跡を可能にするよう作動することができる。
1つ又はそれ以上のプロセッサは、1つ又はそれ以上の物体102が選択された第1のカメラセットのうちの1つ又はそれ以上のカメラの視界の外に移動したときに、1つ又はそれ以上の物体102を追跡するために複数のカメラ104から第2のカメラ104b(図1)のような第2のカメラセットを選択するよう作動することができる。
1つ又はそれ以上のプロセッサは、複数のセンサ106から1つ又はそれ以上の信号を受け取るよう作動することができる。複数のカメラ104に対する1つ又はそれ以上の物体102のロケーションは、受け取った1つ又はそれ以上の信号に基づいて決定することができる。1つ又はそれ以上のプロセッサは、複数のセンサ106から受け取った1つ又はそれ以上の信号に基づいて、複数のカメラ104に対する1つ又はそれ以上の物体102の方向及び距離を決定するよう作動することができる。
複数のセンサ106は、オーディオセンサ、位置センサ、無線個体識別(RFID)センサ、赤外線(IR)センサ、Bluetoothセンサ、グローバル・ポジショニング・システム(GPS)センサ、紫外線(UV)センサ、又はセルラーネットワーク信号を検出するよう作動するセンサを含むことができる。1つ又はそれ以上のプロセッサは、受け取った1つ又はそれ以上の信号に基づいて、複数のセンサ106から第1のセンサ106a(図1)のようなセンサを選択するよう作動することができる。1つ又はそれ以上のプロセッサは、選択されたセンサから受け取った信号に基づいて選択された第1のカメラセットによって1つ又はそれ以上の物体102の追跡を可能にするよう作動することができる。選択された第1のカメラセットに対する1つ又はそれ以上の物体102の方向及び距離は、選択されたセンサから受け取った信号に基づいて決定することができる。
1つ又はそれ以上のプロセッサは、追跡される1つ又はそれ以上の物体102、追跡される1つ又はそれ以上の物体102の方向及び距離、及び/又は複数のセンサ106のレンジのうちの1つ又はそれ以上に基づいて複数のセンサ106からセンサを選択するよう作動することができる。
1つ又はそれ以上のプロセッサは、追跡される1つ又はそれ以上の物体102、及び/又は選択された第1のカメラセットに対する1つ又はそれ以上の物体102の方向及び距離のうちの1つ又はそれ以上に基づいて、選択された第1のカメラセットの位置を変えるように作動することができる。
1つ又はそれ以上のプロセッサは、追跡される1つ又はそれ以上の物体102、1つ又はそれ以上の物体102のロケーション、選択された第1のカメラセットに対する1つ又はそれ以上の物体102の方向及び距離、及び/又は制御装置108に関連するユーザによって提供された1つ又はそれ以上の命令のうちの1つ又はそれ以上に基づいて、選択された第1のカメラセットの1つ又はそれ以上のパラメータを制御するよう作動することができる。選択された第1のカメラセットの1つ又はそれ以上のパラメータは、選択された第1のカメラセットのカメラズーム、カメラチルト、カメラパン及び/又は位置を含むことができる。
選択された第1のカメラセットは、1つ又はそれ以上の予め定められた基準を満たすことができる。予め定められた基準は、1つ又はそれ以上の物体102の画像が取り込まれることになる角度、画像の品質、複数のカメラ104からの1つ又はそれ以上の物体102の距離、複数のカメラ104の視野、及び/又は1つ又はそれ以上の物体102の画像を取り込むため複数のカメラ104により必要とされるズーム、パン、及び/又はチルトの度合いを含むことができる。
1つ又はそれ以上のプロセッサは、ネットワークの外部にある1つ又はそれ以上の装置の作動及び/又は設定を動的に制御するよう作動することができる。1つ又はそれ以上の外部装置は、追跡される1つ又はそれ以上の物体102に対して所定の近接範囲内に配置される。1つ又はそれ以上のプロセッサは、追跡される1つ又はそれ以上の物体102、1つ又はそれ以上の外部装置に対する1つ又はそれ以上の物体102のロケーション、選択された第1のカメラセットにより必要とされる設定、及び/又は制御装置108に関連するユーザの選好のうちの1つ又はそれ以上に基づいて、1つ又はそれ以上の外部装置を動的に制御するよう作動することができる。
メタデータは、1つ又はそれ以上の物体102の名称、1つ又はそれ以上の物体102の画像、1つ又はそれ以上の物体102に関連する一意の識別子、1つ又はそれ以上の物体102に関連する音、及び/又は1つ又はそれ以上の物体102に関連する視聴覚識別子のうちの1つ又はそれ以上を含むことができる。1つ又はそれ以上のプロセッサは、画像における1つ又はそれ以上の物体102の位置に基づいて、選択された第1のカメラセットによって取り込まれた画像をトリミングするよう作動することができる。
本開示の他の実施形態は、マシン及び/又はコンピュータによって実行可能であり、これによりマシン及び/又はコンピュータが複数の物体に関連するメタデータを受け取ることを含むステップを実行するようにする、少なくとも1つのコードセクションを有するマシンコード及び/又はコンピュータプログラムを格納した、非一時的なコンピュータ可読媒体及び/又は記憶媒体、及び/又は非一時的機械可読媒体及び/又は記憶媒体を提供する。メタデータは、複数の物体を識別する。複数のカメラからの第1のカメラセットは、受け取ったメタデータに基づいて複数の物体を追跡するのに選択することができる。複数の物体は、選択された第1のカメラセットによって追跡することができる。
従って、本開示は、ハードウェア、又はハードウェアとソフトウェアの組み合わせで実現することができる。本開示は、少なくとも1つのコンピュータに集中方式で、又は、複数の相互接続されたコンピュータシステムにわたって異なる要素が分散することができる分散方式で実現することができる。本明細書で記載される方法を実施するよう適合されたあらゆる種類のコンピュータシステム又は他の装置も好適とすることができる。ハードウェアとソフトウェアの組み合わせは、ロード及び実行されたときに、本明細書で記載される方法を実施するようコンピュータシステムを制御できるコンピュータプログラムを備えた汎用コンピュータシステムとすることができる。本開示は、他の機能も実施する集積回路の一部を含むハードウェアで実現することができる。
本開示はまた、コンピュータプログラム製品に内蔵することができ、これは、本明細書で記載される方法の実施を可能にする全ての特徴要素を含み、また、コンピュータシステムにロードされたときにこれらの方法を実施することができる。本発明の関連におけるコンピュータプログラムは、情報処理能力を有するシステムが特定の機能を、直接又は、以下の何れかもしくは両方、a)別の言語、コード又は表記法への変換、b)異なるマテリアル形式での複製の後に実施するようにすることを意図した命令セットのあらゆる言語、コード又は表記法での何れかの表現を意味する。
本開示を特定の実施形態に関して説明してきたが、当業者には、本開示の範囲から逸脱することなく、種々の変更を行うことができ、均等物で置き換えることができることが理解されるであろう。加えて、本開示の範囲から逸脱することなく、本開示の教示に対して特定の状況又は材料に適合するよう多くの修正を行うことができる。従って、本開示は、開示された特定の実施形態に限定されず、添付の請求項の範囲内にある全ての実施形態を含むものとする。
102a〜102c:物体
104a〜104c:カメラ
106a:センサ1
106b:センサ2
106c:センサ3
108:制御装置
110:通信ネットワーク

Claims (22)

  1. 1つ又はそれ以上の物体を追跡するシステムであって、
    複数のカメラ、複数のセンサ、及び制御装置を通信可能に結合できるネットワークを備え、前記制御装置における1つ又はそれ以上のプロセッサが、
    前記1つ又はそれ以上の物体に関連付けられて前記1つ又はそれ以上の物体を識別するメタデータを受け取り、
    前記受け取ったメタデータに基づいて、前記1つ又はそれ以上の物体を追跡するため前記複数のカメラから第1のカメラセットを選択し、
    前記選択された第1のカメラセットにより前記1つ又はそれ以上の物体の追跡を可能にする、
    ように作動する、システム。
  2. 前記1つ又はそれ以上のプロセッサは、前記1つ又はそれ以上の物体が前記選択された第1のカメラセットのうちの1つ又はそれ以上のカメラの視野の外に移動したときに、前記1つ又はそれ以上の物体を追跡するため前記複数のカメラから第2のカメラセットを選択するように作動する、請求項1に記載のシステム。
  3. 前記1つ又はそれ以上のプロセッサが、
    前記複数のセンサから1つ又はそれ以上の信号を受け取り、該受け取った1つ又はそれ以上の信号に基づいて前記複数のカメラに対する前記1つ又はそれ以上の物体のロケーションを決定し、
    前記複数のセンサから受け取った前記1つ又はそれ以上の信号に基づいて前記複数のカメラに対する前記1つ又はそれ以上の物体の方向及び距離を決定する、
    ように作動する、請求項1に記載のシステム。
  4. 前記複数のセンサが、オーディオセンサ、位置センサ、無線個体識別(RFID)センサ、赤外線(IR)センサ、Bluetoothセンサ、グローバル・ポジショニング・システム(GPS)センサ、紫外線(UV)センサ、又はセルラーネットワーク信号を検出するよう作動するセンサを含む、請求項3に記載のシステム。
  5. 前記1つ又はそれ以上のプロセッサが、
    前記受け取った1つ又はそれ以上の信号に基づいて、前記複数のセンサからセンサを選択し、
    前記選択されたセンサから受け取った信号に基づいて、前記選択された第1のカメラセットによって前記1つ又はそれ以上の物体の追跡を可能にする、
    ように作動し、前記選択された第1のカメラセットに対する前記1つ又はそれ以上の物体の方向及び距離が、前記選択されたセンサから受け取った前記信号に基づいて決定される、請求項3に記載のシステム。
  6. 前記1つ又はそれ以上のプロセッサが、追跡される前記1つ又はそれ以上の物体、追跡される前記1つ又はそれ以上の物体の方向及び距離、並びに前記複数のセンサのレンジのうちの1つ又はそれ以上に基づいて、前記複数のセンサから前記センサを選択するよう作動する、請求項5に記載のシステム。
  7. 前記1つ又はそれ以上のプロセッサが、追跡される前記1つ又はそれ以上の物体、並びに前記選択された第1のカメラセットに対する前記1つ又はそれ以上の物体の方向及び距離のうちの1つ又はそれ以上に基づいて、前記選択された第1のカメラセットの位置を変えるよう作動する、請求項5に記載のシステム。
  8. 前記1つ又はそれ以上のプロセッサが、追跡される前記1つ又はそれ以上の物体、前記1つ又はそれ以上の物体のロケーション、並びに前記選択された第1のカメラセットに対する前記1つ又はそれ以上の物体の方向及び距離のうちの1つ又はそれ以上に基づいて、前記選択された第1のカメラセットの1つ又はそれ以上のパラメータを制御するよう作動する、請求項5に記載のシステム。
  9. 前記1つ又はそれ以上のプロセッサが、前記制御装置に関連するユーザにより提供される1つ又はそれ以上の命令に基づいて、前記選択された第1のカメラセットの1つ又はそれ以上のパラメータを制御するよう作動する、請求項5に記載のシステム。
  10. 前記選択された第1のカメラセットの1つ又はそれ以上のパラメータが、前記選択された第1のカメラセットのカメラズーム、カメラチルト、カメラパン、及び位置を含む、請求項8に記載のシステム。
  11. 前記選択された第1のカメラセットが、1つ又はそれ以上の予め定められた基準を満たす、請求項1に記載のシステム。
  12. 前記予め定められた基準が、前記1つ又はそれ以上の物体の画像が取り込まれることになる角度、前記画像の品質、前記複数のカメラからの前記1つ又はそれ以上の物体の距離、前記複数のカメラの視野、並びに前記1つ又はそれ以上の物体の画像を取り込むために前記複数のカメラによって必要とされるズーム、パン、及び/又はチルトの度合いを含む、請求項11に記載のシステム。
  13. 前記1つ又はそれ以上のプロセッサが、前記ネットワークの外部にある1つ又はそれ以上の装置の作動及び/又は設定を動的に制御するよう作動し、前記1つ又はそれ以上の外部装置が、追跡される前記1つ又はそれ以上の物体に対して所定の近接の範囲内に位置する、請求項1に記載のシステム。
  14. 前記1つ又はそれ以上のプロセッサが、追跡される前記1つ又はそれ以上の物体、前記1つ又はそれ以上の外部装置に対する前記1つ又はそれ以上の物体のロケーション、前記選択された第1のカメラセットによって必要とされる設定のうちの1つ又はそれ以上に基づいて、前記1つ又はそれ以上の外部装置を動的に制御するよう作動する、請求項13に記載のシステム。
  15. 前記1つ又はそれ以上のプロセッサが、前記制御装置に関連するユーザの選好に基づいて、前記1つ又はそれ以上の外部装置を動的に制御するよう作動する、請求項13に記載のシステム。
  16. 前記メタデータが、前記1つ又はそれ以上の物体の名称、前記1つ又はそれ以上の物体の画像、前記1つ又はそれ以上の物体に関連する一意の識別子、前記1つ又はそれ以上の物体に関連する音、及び前記1つ又はそれ以上の物体に関連する視聴覚識別子のうちの1つ又はそれ以上を含む、請求項1に記載のシステム。
  17. 前記1つ又はそれ以上のプロセッサが、前記選択された第1のカメラセットによって取り込まれる画像における前記1つ又はそれ以上の物体の位置に基づいて、前記画像をトリミングするよう作動する、請求項1に記載のシステム。
  18. 制御装置によって複数の物体を追跡する方法であって、複数のカメラと、複数のセンサと、前記制御装置とを通信可能に結合できるネットワークにおいて、
    前記複数の物体に関連付けられて前記複数の物体を識別するメタデータを受け取るステップと、
    前記受け取ったメタデータに基づいて、前記複数の物体を追跡するため前記複数のカメラから第1のカメラセットを選択するステップと、
    前記選択された第1のカメラセットにより前記複数の物体の追跡を可能にするステップと、
    を含む、方法。
  19. 前記複数の物体のうちの1つ又はそれ以上の物体が前記選択された第1のカメラセットのうちの1つ又はそれ以上のカメラの視野の外に移動したときに、前記1つ又はそれ以上の物体を追跡するため前記複数のカメラから第2のカメラセットを選択するステップを更に含む、請求項18に記載の方法。
  20. 前記複数のセンサから受け取った1つ又はそれ以上の信号に基づいて前記複数のセンサからセンサを選択し、前記受け取った1つ又はそれ以上の信号に基づいて前記複数のカメラに対する前記複数の物体のロケーションを決定するステップと、
    前記選択されたセンサから受け取る信号に基づいて、前記選択された第1のカメラセットにより前記複数の物体の追跡を可能にし、前記選択されたセンサから受け取られた前記信号に基づいて、前記選択された第1のカメラセットに対する前記複数の物体のロケーションを決定するステップと、
    を更に含む、請求項18に記載の方法。
  21. 追跡される前記複数の物体間の距離に基づいて、前記選択された第1のカメラセットの1つ又はそれ以上のパラメータを制御するステップを更に含む、請求項18に記載の方法。
  22. 前記選択された第1のカメラセットによって取り込まれた画像に対する前記複数の物体の相対位置に基づいて、前記画像をトリミングするステップを更に含む、請求項18に記載の方法。
JP2014214375A 2013-10-30 2014-10-21 物体を追跡するためのシステム及び方法 Pending JP2015089119A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/067,671 2013-10-30
US14/067,671 US20150116501A1 (en) 2013-10-30 2013-10-30 System and method for tracking objects

Publications (1)

Publication Number Publication Date
JP2015089119A true JP2015089119A (ja) 2015-05-07

Family

ID=52994954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214375A Pending JP2015089119A (ja) 2013-10-30 2014-10-21 物体を追跡するためのシステム及び方法

Country Status (4)

Country Link
US (1) US20150116501A1 (ja)
JP (1) JP2015089119A (ja)
CN (1) CN104601878A (ja)
BR (1) BR102014026563A2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094317A1 (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
KR20170091026A (ko) * 2016-01-29 2017-08-08 캐논 가부시끼가이샤 제어장치, 제어방법, 및 기억매체
JP2017139725A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
WO2022103236A1 (ko) * 2020-11-16 2022-05-19 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR20220066760A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR20220066759A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170111593A1 (en) * 2005-06-21 2017-04-20 Cedar Crest Partners Inc. System, method and apparatus for capture, conveying and securing information including media information such as video
CN103607538A (zh) * 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 拍摄方法及拍摄装置
US10025987B2 (en) 2013-11-08 2018-07-17 Performance Lab Technologies Limited Classification of activity derived from multiple locations
CN103685946B (zh) * 2013-11-30 2017-08-08 北京智谷睿拓技术服务有限公司 一种拍照方法和控制设备
JP2015128254A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
US9948902B1 (en) * 2014-03-07 2018-04-17 Alarm.Com Incorporated Video camera and sensor integration
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
US11875657B2 (en) 2014-04-03 2024-01-16 Inpixon Proactive loss prevention system
US9998665B2 (en) * 2014-07-21 2018-06-12 Lenovo (Singapore) Pte. Ltd. Camera mode selection based on context
US9871830B2 (en) * 2014-10-07 2018-01-16 Cisco Technology, Inc. Internet of things context-enabled device-driven tracking
SG10201407100PA (en) * 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
US9813605B2 (en) * 2014-10-31 2017-11-07 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product for tracking items
US10674117B2 (en) * 2014-11-28 2020-06-02 Inpixon Canada, Inc. Enhanced video system
US11301685B2 (en) * 2015-04-02 2022-04-12 Sportsmedia Technology Corporation Automatic determination and monitoring of vehicles on a racetrack with corresponding imagery data for broadcast
US20160292865A1 (en) * 2015-04-02 2016-10-06 Sportvision, Inc. Automated framing and selective discard of parts of high resolution videos of large event space
KR102360453B1 (ko) * 2015-04-10 2022-02-09 삼성전자 주식회사 카메라 설정 방법 및 장치
CN104898489A (zh) * 2015-05-29 2015-09-09 上海发那科机器人有限公司 一种视觉定位系统连接结构
WO2017007735A1 (en) * 2015-07-03 2017-01-12 H4 Engineering, Inc. Tracking camera network
US20170019574A1 (en) * 2015-07-17 2017-01-19 Amaryllo International B.V. Dynamic tracking device
CN105071962A (zh) * 2015-08-05 2015-11-18 成都君禾天成科技有限公司 一种采用物联网技术设计的监控定位系统
US9811697B2 (en) 2015-09-04 2017-11-07 International Business Machines Corporation Object tracking using enhanced video surveillance through a distributed network
CN105223694B (zh) * 2015-09-28 2017-12-15 大连楼兰科技股份有限公司 智能眼镜应用于汽车维保过程中的室内定位及图像识别的方法
KR102432806B1 (ko) * 2015-10-26 2022-08-12 한화테크윈 주식회사 감시 시스템 및 그 제어 방법
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
US9758246B1 (en) * 2016-01-06 2017-09-12 Gopro, Inc. Systems and methods for adjusting flight control of an unmanned aerial vehicle
US20170206664A1 (en) * 2016-01-14 2017-07-20 James Shen Method for identifying, tracking persons and objects of interest
CN107093171B (zh) * 2016-02-18 2021-04-30 腾讯科技(深圳)有限公司 一种图像处理方法及装置、系统
CN105854264B (zh) * 2016-06-06 2018-08-10 刘庆斌 一种足球守门员的扑救、出击与反击技战术智能教学、训练和比赛系统和方法
CN105833502B (zh) * 2016-06-06 2018-01-19 刘庆斌 一种足球阵型的进攻与防守技战术智能教学、训练和比赛的系统和方法
US10616396B2 (en) * 2016-06-28 2020-04-07 Adam Gersten Danger detection system
IL248062B (en) * 2016-09-26 2020-04-30 Verint Systems Ltd A system and method for associating an identifier of a mobile communication terminal with a wanted person, by means of video surveillance
CN107967499A (zh) * 2016-10-20 2018-04-27 北京计算机技术及应用研究所 一种利用射频识别控制摄像机的装置
KR102117686B1 (ko) 2016-11-01 2020-06-01 주식회사 케이티 영상 제공 서버, 영상 제공 방법 및 사용자 단말
CN106878922A (zh) * 2017-01-05 2017-06-20 深圳英飞拓科技股份有限公司 一种室内定位方法及其系统
WO2018164932A1 (en) * 2017-03-08 2018-09-13 Vid Scale, Inc. Zoom coding using simultaneous and synchronous multiple-camera captures
CN107734426A (zh) * 2017-08-28 2018-02-23 深圳市金立通信设备有限公司 音频信号处理方法、终端及计算机可读存储介质
US10873846B2 (en) * 2018-11-30 2020-12-22 Comcast Cable Communications, Llc Peripheral video presence detection
EP3944086B1 (en) * 2019-03-18 2023-09-06 JVCKenwood Corporation Information delivery device, information delivery method, and information delivery program
JP7403967B2 (ja) * 2019-04-11 2023-12-25 キヤノン株式会社 情報処理装置、映像生成装置、画像処理システム、それらの制御方法及びプログラム
CN110187367A (zh) * 2019-05-23 2019-08-30 哈尔滨工业大学 一种越野滑雪运动轨迹跟踪与视频采集方法及系统
FR3096854B1 (fr) 2019-06-03 2021-11-12 Genetec Inc Système de commande du zoom d'un ensemble de cameras et procedé de commande d’un ensemble de caméras
CN110505397B (zh) * 2019-07-12 2021-08-31 北京旷视科技有限公司 相机选择的方法、装置及计算机存储介质
CN111432115B (zh) * 2020-03-12 2021-12-10 浙江大华技术股份有限公司 基于声音辅助定位的人脸追踪方法、终端及存储装置
CN112771854A (zh) * 2020-04-14 2021-05-07 深圳市大疆创新科技有限公司 基于多个摄像装置的投影显示方法、系统、终端及存储介质
CN111787341B (zh) * 2020-05-29 2023-12-05 北京京东尚科信息技术有限公司 导播方法、装置及系统
US11514590B2 (en) 2020-08-13 2022-11-29 Toca Football, Inc. System and method for object tracking
US11710316B2 (en) 2020-08-13 2023-07-25 Toca Football, Inc. System and method for object tracking and metric generation
CN113449627B (zh) * 2021-06-24 2022-08-09 深兰科技(武汉)股份有限公司 基于ai视频分析的人员跟踪方法及相关装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088485A (ja) * 2002-08-27 2004-03-18 Nec Tohoku Ltd 追跡監視システム
JP2006086591A (ja) * 2004-09-14 2006-03-30 Canon Inc 移動体追跡システム、撮影装置及び撮影方法
JP2008059260A (ja) * 2006-08-31 2008-03-13 Fujitsu Ltd 移動検出画像生成装置
JP2009159648A (ja) * 2002-12-03 2009-07-16 Sensormatic Electronics Corp イベント駆動型ビデオ追跡システム
JP2011155692A (ja) * 2011-04-27 2011-08-11 Casio Computer Co Ltd 撮像装置及びそのプログラム
JP2011227851A (ja) * 2010-04-23 2011-11-10 Rf Logitech Kk 映像記録システム
JP2013073459A (ja) * 2011-09-28 2013-04-22 Oki Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、および画像処理システム
JPWO2011145141A1 (ja) * 2010-05-19 2013-07-22 三菱電機株式会社 車両後方監視装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030067542A1 (en) * 2000-10-13 2003-04-10 Monroe David A. Apparatus for and method of collecting and distributing event data to strategic security personnel and response vehicles
US20030210329A1 (en) * 2001-11-08 2003-11-13 Aagaard Kenneth Joseph Video system and methods for operating a video system
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
CN101119478A (zh) * 2007-05-09 2008-02-06 上海天卫通信科技有限公司 双镜头视频监控中的视角自动配置系统和方法
CN101465033B (zh) * 2008-05-28 2011-01-26 丁国锋 一种自动追踪识别系统及方法
US8199194B2 (en) * 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
JP4715909B2 (ja) * 2008-12-04 2011-07-06 ソニー株式会社 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
TWI459332B (zh) * 2012-05-15 2014-11-01 Ind Tech Res Inst 整合多攝影機影像的車輛追蹤方法及系統
CN102695045B (zh) * 2012-06-14 2014-05-14 北京航天通联物网科技有限公司 Rfid视频智能追踪系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088485A (ja) * 2002-08-27 2004-03-18 Nec Tohoku Ltd 追跡監視システム
JP2009159648A (ja) * 2002-12-03 2009-07-16 Sensormatic Electronics Corp イベント駆動型ビデオ追跡システム
JP2006086591A (ja) * 2004-09-14 2006-03-30 Canon Inc 移動体追跡システム、撮影装置及び撮影方法
JP2008059260A (ja) * 2006-08-31 2008-03-13 Fujitsu Ltd 移動検出画像生成装置
JP2011227851A (ja) * 2010-04-23 2011-11-10 Rf Logitech Kk 映像記録システム
JPWO2011145141A1 (ja) * 2010-05-19 2013-07-22 三菱電機株式会社 車両後方監視装置
JP2011155692A (ja) * 2011-04-27 2011-08-11 Casio Computer Co Ltd 撮像装置及びそのプログラム
JP2013073459A (ja) * 2011-09-28 2013-04-22 Oki Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、および画像処理システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11025808B2 (en) 2015-12-02 2021-06-01 Sony Corporartion Control apparatus and control method
WO2017094317A1 (ja) * 2015-12-02 2017-06-08 ソニー株式会社 制御装置、制御方法、およびプログラム
KR20170091026A (ko) * 2016-01-29 2017-08-08 캐논 가부시끼가이샤 제어장치, 제어방법, 및 기억매체
US11043091B2 (en) 2016-01-29 2021-06-22 Canon Kabushiki Kaisha Method for controlling an image capturing device that captures an image to be displayed or stored by a terminal device from among a plurality of image capturing devices
KR102082690B1 (ko) * 2016-01-29 2020-02-28 캐논 가부시끼가이샤 제어장치, 제어방법, 및 기억매체
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
JP2017139725A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
WO2022103236A1 (ko) * 2020-11-16 2022-05-19 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR20220066760A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR20220066759A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR102458938B1 (ko) * 2020-11-16 2022-10-25 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR102544972B1 (ko) 2020-11-16 2023-06-20 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
US11688166B2 (en) 2020-11-16 2023-06-27 Fitogether Inc. Method for tracking sports participants, device for tracking sports participants, and system for tracking sports participants

Also Published As

Publication number Publication date
US20150116501A1 (en) 2015-04-30
BR102014026563A2 (pt) 2016-10-11
CN104601878A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
JP2015089119A (ja) 物体を追跡するためのシステム及び方法
JP5888172B2 (ja) データ記憶装置およびプログラム
US10909384B2 (en) Monitoring system and monitoring method
WO2018068689A1 (zh) 音量调节方法及装置
JP6091669B2 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
JP6758918B2 (ja) 画像出力装置、画像出力方法及びプログラム
US10354678B2 (en) Method and device for collecting sounds corresponding to surveillance images
JP2016100696A (ja) 画像処理装置、画像処理方法、及び画像処理システム
JP2003274360A (ja) 撮像装置、撮像方法、撮像管理装置、撮像管理システム
KR20150018125A (ko) 전자 디바이스 및 전자 디바이스와 통신하는 단말기
US20150207976A1 (en) Control apparatus and storage medium
US10225650B2 (en) Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method
US20210152750A1 (en) Information processing apparatus and method for controlling the same
JP2011087218A (ja) 拡声システム
KR20060130535A (ko) 바닥센서부를 이용한 방범시스템
KR101841993B1 (ko) 사물 인터넷 기반의 실내형 자가촬영사진지원 카메라 시스템
KR100689287B1 (ko) 바닥센서부를 이용한 강사추적카메라시스템
JP2022078741A (ja) ロボット
JP2003528548A (ja) ハンドフリー家庭用映像製作カムコーダ
JP6845121B2 (ja) ロボットおよびロボット制御方法
JP6381285B2 (ja) 撮像装置、通信装置、およびそれらの制御方法、システム、並びにプログラム
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
KR101131469B1 (ko) 지역방범시스템 및 이의 운영방법
CN112788229A (zh) 基于物联网的室内型自拍支援摄像头系统
JP2003329762A (ja) 対象物定位システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151019

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170501