JP2015216635A - 環境における物体を追跡する方法及びシステム - Google Patents

環境における物体を追跡する方法及びシステム Download PDF

Info

Publication number
JP2015216635A
JP2015216635A JP2015084185A JP2015084185A JP2015216635A JP 2015216635 A JP2015216635 A JP 2015216635A JP 2015084185 A JP2015084185 A JP 2015084185A JP 2015084185 A JP2015084185 A JP 2015084185A JP 2015216635 A JP2015216635 A JP 2015216635A
Authority
JP
Japan
Prior art keywords
track
image
frame rate
sensor
rgb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015084185A
Other languages
English (en)
Other versions
JP6395656B2 (ja
JP2015216635A5 (ja
Inventor
ティム・マークス
Marks Tim
マイケル・ジェイ・ジョーンズ
J Jones Michael
スレン・クマール
Kumar Suren
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015216635A publication Critical patent/JP2015216635A/ja
Publication of JP2015216635A5 publication Critical patent/JP2015216635A5/ja
Application granted granted Critical
Publication of JP6395656B2 publication Critical patent/JP6395656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Image Analysis (AREA)
  • Air Conditioning Control Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】変化する外観、遮蔽、カメラ及び物体の動き、照明の変動、並びに背景散乱等の環境における物体を追跡する方法及びシステムを提供する。【解決手段】方法及びシステムが、第1のフレームレートを有する可視光カメラ110を用いて環境の第1の画像シーケンスを取得するとともに、第2のフレームレートを有する熱赤外線センサ120を用いて第2の画像シーケンスを取得することによって、環境における物体を追跡する。第2のフレームレートは、第1のフレームレートよりも大幅に低い。物体は、第1の画像シーケンスにおいて追跡されて、トラックが取得される。第2の画像シーケンスにおける温暖領域が検出されて、検出物が取得される。これらのトラック及び検出物は、空間的及び時間的に位置合わせされ、位置合わせ後にこれらのトラック及び検出物が一致するか否かを判断するために検証される。【選択図】図1A

Description

本発明の分野は、包括的には、コンピュータービジョンに関し、より詳細には、画像シーケンスにおいて人物をオンライン及びリアルタイムで追跡することに関する。
人物追跡は、コンピュータービジョンにおける基本的な問題のうちの1つである。RGB(赤緑青)カメラとも呼ばれる可視光ビデオカメラを用いて人物及び他の物体を追跡することに関して広範な研究が行われてきた。多くの進展にもかかわらず、人物追跡は、変化する外観、遮蔽、カメラ及び物体の動き、照明の変動、並びに背景散乱等の要因に起因して大部分が未解決の問題のままである。外観の曖昧さに対処するために、スパース表現(sparse representation)、テンプレートの選択及び更新、部分空間ベースの追跡、並びに特徴記述子等の技法に基づく様々な方法が存在する。
外観の曖昧さに対する根本的に異なる手法は、複数の方式(modalities:モダリティ)のセンシングを用いることに基づいている。複数方式(multimodal:マルチモーダル)の人物追跡のための1つの選択肢は、熱赤外線(IR)カメラをRGBカメラと組み合わせて用いることである。しかしながら、熱撮像の普及(広範囲に及ぶ採用)は、熱赤外線カメラの法外に高いコストによって妨げられてきた。本明細書において、「赤外線」という用語及びその省略形「IR」は、専ら熱赤外線信号のみを指すのに用いられ、近赤外線(NIR)信号を指すのには用いられない。「RGBカメラ」という用語は、電磁スペクトルの可視域において動作するビデオカメラを指すのに用いられる。「RGBカメラ」という用語は、カラーカメラだけでなく、モノクロカメラ又はグレイスケールカメラも包含するのに用いられる。
種々の方式にわたる情報融合は、様々なレベルで行うことができる。例えば、低レベルの融合手法は、特徴量が求められる前に、RGB情報及びIR情報をピクセルレベルで組み合わせることができる。しかしながら、RGBカメラ及びIRセンサの空間解像度及び時間解像度の間に大きな相違がある場合、低レベルの情報を融合することが妨げられる。高レベルの融合手法では、2つの方式における完全に独立した追跡を適用した後に大局的な決定に達する場合がある。
次に、3つのタイプのセットアップ、すなわち、RGBカメラ単独(RGBカメラのみの追跡)、IRセンサ単独、又はIRセンサ及びRGBカメラの双方の組み合わせ(RGB+IR)を用いた追跡の従来技術の手法を説明する。
RGBカメラのみの追跡
ここでは、RGBカメラのみの追跡の3つの基本的な手法を説明する。視覚的追跡として知られている第1の手法では、追跡される単一の物体が、ビデオシーケンスの最初の画像において手動でマーキングされる。次に、後続のビデオ画像とともに、最初の画像におけるその物体及び背景の外観を用いて、そのシーケンスにわたって、その物体が追跡される。しかしながら、視覚的追跡方法は、トラック(tracks:軌跡)の自動的な初期化を含まず、このことは、多くの実世界の用途にとって問題である。さらに、視覚的追跡方法は、通常、一時に1つの物体しか追跡せず、長いシーケンスにおいては対象物体からいつの間にか離れる傾向がある。
RGBカメラのみの追跡の第2の手法である「検出による追跡」手法は、複数人物追跡のためのより完全な解決策を提供する。検出による追跡方法は、画像において人物を検出し、次いで、外観及び他のキューを用いてこれらの検出物(detections)をトラックに組み合わせる人物検出器に依拠している。そのような方法は、多くの場合、比較的低速の(リアルタイムでない)人物検出器を用い、オフラインプロセスでトラックを組み合わせる。
RGBカメラのみの追跡のための代替的なパラダイム(paradigm)は、検出及び追跡を、オンライン手順と、より密接に統合するものである。この第3のパラダイムの例には、「検出及び追跡」手法が含まれる。この手法は、背景モデルを用いて追跡候補の物体を検出し、検出及び追跡をフィードバックループにおいて連結する。
IRのみの追跡
熱IR撮像は、温度差によって人物を背景から区別する際に利点を提供する。広く採用されている最も単純な手法は、強度閾値処理及び形状解析を用いて、人物を検出及び追跡する。勾配方向ヒストグラム(HoG:Histograms of oriented Gradients)等のRGB画像において従来用いられていた特徴量及び他の不変の特徴量は、人物検出用のIR画像に適合されている。赤外線による背景モデル化をグルーピング解析と組み合わせて長期占有解析を行うことができる。
RGB+IRを用いた追跡
従来技術の手法は、IRストリーム及びRGBストリームからの情報が組み合わされるレベルが異なる。非特許文献1は、RGB情報及びIR情報を低レベルにおいて組み合わせるシステムを記載している。彼らのシステムは、RGBカメラ及び熱IRカメラからの入力を用いて組み合わされた背景モデルを構築し、歩行者を追跡する。
これとは対照的に、非特許文献2のシステムは、RGB情報及びIR情報を中間レベルにおいてマージする。彼らのシステムは、都市部の設定における永続的な物体の検出に熱画像及び可視画像を用いる。熱領域における統計的背景差分が用いられて、初期対象領域(ROI:Regions-of-Interest)が特定される。色情報及び強度情報が、これらのエリア内で用いられて、可視領域における対応する対象領域が取得される。各領域内において、入力及び背景勾配情報が組み合わされて、輪郭顕著性マップ(contour saliency map)が形成される。
更に別の手法において、非特許文献3は、まず、ブロッブ(blobs)をIRカメラの出力及びRGBカメラの出力において独立に追跡し、次いで、それらの情報を高レベルにおいてマージして、組み合わされたトラッカーを取得する。
RGBカメラ及びIRカメラを用いて追跡するこれらの従来技術の手法のそれぞれにおいて、IRカメラは、RGBカメラとほぼ同じ高速フレームレートを有する。
特許文献1は、動きセンサを用いて、ライトをON及びOFFにする。しかしながら、その方法は、人物の動きを室内の他の動きと区別することもできなければ、室内の人物の数を求めることもできない。
特許文献2は、ファン(fan)に取り付けられた可視光カメラを用いて人物を検出し、それに応じて、ファンをON及びOFFにする。
特許文献3は、赤外線カメラを用いて室内の人物を検出し、それに応じて、空調システムを制御する。
米国特許第4,636,774号 米国特許第8,634,961号 米国特許第5,331,825号
Leykin及びHammoud、「Pedestrian tracking by fusion of thermal-visible surveillance videos」、Machine Vision and Applications、2008年 Davis他、「Fusion-Based Background-Subtraction using Contour Saliency」、CVPR Workshop、2005年 Zhao他、「Human Segmentation by Fusing Visible-light and Thermal Imagery」、ICCV Workshop、2009年
本発明の実施の形態は、主として、機器、例えば暖房換気空調(HVAC)システムの制御を改善する目的で、室内環境における人物を検出して追跡する方法を提供する。本方法は、低フレームレートの赤外線(IR)センサ及び相対的に高いフレームレートの可視光(RGB)ビデオカメラによって取得された画像を用いる。赤外線センサのフレームレートは、可視光カメラのフレームレートよりもはるかに低く(例えば、1800倍又は3桁低く)することができ、例えば、30フレーム毎秒に対して約1フレーム毎分とすることができる。
可視光画像は、背景モデルを用いて物体、例えば人物を追跡するのに用いられる。赤外線画像は、温暖領域を検出するのに用いられる。例えば、室内環境の標準的な周囲温度は、通常、摂氏20度〜摂氏25度の範囲にある。したがって、温暖領域は、摂氏25度等の閾値の値よりも高い温度を有する。
物体のトラック及び温暖領域の検出物は、時空間的に位置合わせされる。この位置合わせによって、トラック及び検出物の一致を検証することが可能になる。これによって、誤検知(false positive:偽陽性)のトラックをなくすことが可能になり、静的なトラックの境界が改善され、幾つかの状況では、新たなトラックが生成され、検知漏れ(false negative:偽陰性)をなくすことができるようにモデルが更新される。
本実施の形態は、RGBカメラと同じ場所に配置されたスキャン型の低コストで低解像度の熱赤外線(IR)センサを用いた人物追跡フレームワークを記述している。このIRセンサは、低い時間的解像度及び空間的解像度のために、動く人物を追跡することができず、人物以外の温暖領域を検出する傾向がある。したがって、このIRセンサのみを用いたIRのみの追跡(IR-only tracking)は問題がある。
しかしながら、このIRセンサのこの限られた能力にもかかわらず、このIRセンサは、リアルタイムのRGBカメラベースのトラッカーの誤りを訂正するのに効果的に用いることができる。カメラ及びIRセンサからの信号は、これらの2つの方式間のピクセルごとの幾何学的対応関係を求めることによって空間的に位置合わせされる。これらの信号は、スキャン型IRセンサの時間的ダイナミクスをモデル化することによって時間的に位置合わせされる。この空間的及び時間的な位置合わせによって、基本的な推論の賢明な適用に基づく、追跡に対する複数方式の改良が可能になる。
このRGB+IRの組み合わせシステムは、誤検知の排除と、追跡される物体のセグメンテーションの改良と、カメラのみのトラッカーによって見逃された人物の新たなトラックを開始することによる検知漏れの訂正とによって、RGBカメラのみの追跡(RGB camera-only tracking)を改良する。RGB情報及び熱情報は、RGBカメラベースのトラックのレベルにおいて組み合わされるので、本方法は、特定のカメラベースのトラッカーに限定されない。本方法は、RGBカメラの入力のみを用いる任意のトラッカーの結果を改善することができる。
本実施の形態は、非常に低コストの温度センサであっても、低コストのRGBビデオカメラとともに用いられると、人物追跡を大幅に改良することができるという認識に基づいている。1つの実施の形態では、温度センサは、垂直ラインに配列された32個の熱IR受信機のアレイを備える。このアレイは、モーターによって94個の離散的なステップで前後に部分的に回転されて、1分の継続時間にわたって140度の(広い)視野のIR画像を作成する。したがって、本発明のセンサは、1フレーム毎分(0.0166fps)のレートで32×94ピクセルの赤外線画像を作成する。
高価なIRカメラを用いると、熱IR画像のみを用いて追跡を行うことができる。しかしながら、本実施の形態は、低解像度で且つ極めて低いフレームレートのためにIR情報のみを用いた追跡の可能性が妨げられている非常に低コストの熱赤外線センサを用いて何を行うことができるのかを検討している。
本システムは、RGBカメラを用いたリアルタイムの追跡をIRセンサからの情報と組み合わせて、双方の方式の利点を活用するとともにそれらの不利な点を最小にしている。RGBトラッカーは、背景のモデル化をテンプレート追跡と組み合わせる。RGBトラッカーは、動く人物を検出することに優れている。IRセンサは、その極めて低いフレームレートに起因して、複数の人物が部屋を動き回っているときにそれらの人物を検出又は追跡するのに役立たず、また、IRセンサは、その低い空間解像度に起因して、静止した人物を他の静止した暖かい物体と容易に区別することができない。しかしながら、IRセンサは、静止した人物を常に熱源として示す点で極めて信頼性が高い。
熱IRセンサからの低頻度の情報をRGBトラッカーからの高レベルのトラックと賢明な方法で組み合わせることによって、本システムは、RGBカメラのみのトラッカーを多くの状況において改良し、様々な誤検知及び検知漏れをなくし、真の検出物の領域境界を改善する。
本実施の形態の焦点は、室内シーンにおいて人物を追跡することにある。室内シーンには、人物に加えて、コンピューター、モニター及びTVスクリーン、ホットドリンク、並びにルームヒーター等の多くの暖かい無生物の物体が存在する可能性がある。IRセンサの低い空間的、時間的、及び熱的な解像度、並びに衣服に起因した人物の温度プロファイルの変動を考えると、IR画像における単純な背景差分を用いて人物のロケーションを求めることはできない。
本発明の実施形態による人物を追跡する方法の流れ図である。 熱IR画像、対応する可視光(RGB)画像、IR画像における温暖領域のバウンディングボックス、及びRGB画像における対応する領域を示す図である。 本発明の実施形態による、(a)モーターによって回転された垂直ラインに配列された熱IR受信機のアレイを備える温度センサの概略図、および、(b)2つの時間インスタンスにおいて取得されたRGB画像である。 本発明の実施形態に従って用いられる較正手順の概略図である。 本発明の実施形態による、RGB画像とIR画像との間の重複部分の量を求めるための手順の流れ図である。
図1Aは、本発明の実施形態による、環境102において人物101を検出及び追跡する方法及びシステムを示している。この環境の第1の画像シーケンス111は、第1のフレームレートを有する可視光(RGB)カメラ110によって取得される。この環境の第2の画像シーケンス121は、第2のフレームレートを有する赤外線(IR)センサ120によって取得される。第2のフレームレートは、第1のフレームレートよりも大幅に低い。幾つかの実施形態では、IRセンサからの画像の解像度は、RGBカメラからの画像の解像度よりもはるかに低い。1つの実施形態では、温度センサは、垂直ラインに配列された32個の熱IR受信機のアレイを備える。このアレイは、モーターによって94個の離散的なステップで前後に部分的に回転されて(200)、1分の継続時間にわたって140度の視野のIR画像を作成する(図2(a)参照)。これらのRGBカメラ及びIRセンサは、実質的に同じ場所に配置されている。
物体、例えば人物は、背景モデル(M)113を用いて第1の画像シーケンスにおいて追跡され(112)、(人物)トラック114が取得される。温暖領域が第2の画像シーケンスにおいて検出され(122)、(熱)検出物124が取得される。これらのトラック及び検出物は、時空間的に位置合わせされて、位置合わせされたトラック及び検出物が取得される(131)。
次に、位置合わせされたトラック及び検出物が一致するか否かが検証される(140)。検証されたトラックのバウンディングボックスは、対応する検出バウンディングボックスに等しくなるように更新される(150)。検証されていないトラックは削除される(160)。この結果、新たな現在のトラック170のセットが得られる。次に、背景モデルが、現在のトラックの外部にあるあらゆるピクセルについて更新される(180)。これによって、新たな背景モデル113が得られる。
この方法のステップは、当該技術分野において知られているように、バスによってメモリ及び入力/出力インターフェースに接続されたプロセッサにおいて実行することができる。
トラックは、環境内の機器、例えば、暖房換気空調(HVAC)システム105を制御するのに用いることができる。
利点として、これらの実施形態によるシステムは、安価なビデオカメラ及び安価な低フレームレート赤外線センサを用いるが、それでも、正確な結果が取得される。赤外線カメラのフレームレートは、可視光カメラのフレームレートよりも大幅に低い。赤外線センサは、一時に1つの垂直スキャンラインを取得する。このスキャンラインは、対応する時間においてカメラによって取得された画像内のピクセルの少数の列に対応する。
位置合わせは、非線形マッピング及び線形ホモグラフィーマッピングの組み合わせを用いる。これらのマッピングは、以下で説明するワンタイム較正フェーズ中に取得することができる。時間の対応関係が、ビデオカメラ及び温度センサのタイプスタンプと、各センサの速度及び解像度の知識とを用いて求められる。
2つのセンサ間の空間及び時間の対応関係が得られると、人物のトラックのロケーション及び時間と重複するロケーション及び時間における熱画像内の温暖領域を調べることによって、ビデオカメラからの人物のトラックを検証することができる。ビデオカメラからのトラックと温度センサからの温暖領域との間に十分な重複部分が得られると、トラックのサイズ及び位置が、バウンディングボックスを用いて、温度センサからの温暖領域の周囲にぴったりと適合するように調整される。これによって、トラックがシーン内の追跡される人物の周囲にぴったりと適合するように精度が改善される。
図1Bは、熱画像161及び対応する可視光画像162を示している。熱画像161内の4つの温暖領域171〜174は、可視光画像162に示されるように、ラップトップコンピューター、人物、パーソナルコンピューターボックス、及びホットドリンクカップにそれぞれ対応する。これらの温暖領域は、或る閾値、例えば摂氏25度よりも高い温度を有する。
時空間的位置合わせ
RGB+IR追跡における従来技術の研究は、比較的高価なIRカメラが、RGBカメラのフレームレートに匹敵するか又は同一となるフレームレートを有するセットアップを用いている。したがって、この分野における従来技術の研究は、空間的位置合わせのみを考慮し、おそらく、RGBフレームと、対応するIRフレームとの、単純な照合以外の時間的位置合わせを考慮していない。
図2(a)及び図2(b)に示すような本発明におけるセットアップでは、非常に低コストのIRセンサは、RGBカメラよりも約1800倍低速である。したがって、カメラ及びIRセンサからの信号(画像)の時間的位置合わせが必要とされる。さらに、本発明におけるIRセンサは、左右に非常に低速でスキャンを行い、カメラが複数の画像を取得するのと同じ時間量でIR画像の単一の列を取得する。その結果、本発明の時間的位置合わせは、図2(a)に示すような各IR画像の1つ1つの列を、図2(b)に示すような複数のRGB画像の対応する列と実際に位置合わせする。
例えば、1分間に、IRセンサは、左から右にわたって全て通過して、IR画像の94個の列を収集する。これらの列のうちの2つ(t=0及びt=80)が強調表示されている。t=0において取得された対応するRGB画像(201)及びt=80において取得された対応するRGB画像(202)が図示されている。時間t=0において取得されたIR情報(IR画像の左端の列)は、上部のRGB画像の強調表示された垂直のストライプに対応する。時間t=80において取得されたIR情報は、下部のRGB画像の強調表示された垂直のストライプに対応する。
空間的位置合わせ
RGBカメラ及びIRセンサによって取得された画像は、空間的に位置合わせされる。RGB+IR追跡に関するこれまでの研究のほとんどにおいて、RGBカメラ及びIRカメラの出力は、線形カメラモデルによって良好に近似され、そのため、空間的位置合わせは、それらの2つの画像間のホモグラフィー(3×3線形射影変換)を用いて行うことができる。
本発明のセットアップでは、RGBカメラ及びIRセンサの双方が、大きな径方向歪を有する広角のセンサである。このため、単純なホモグラフィーは、カメラ及びセンサからの画像を見当合わせするのに十分でない。奥行きの不一致に起因した位置合わせ問題を最小にするために、RGBカメラ110及びIRセンサ120は、ほぼ同じ位置に配置される。すなわち、これらの2つのセンサは、互いに可能な限り物理的に接近して配置される(図2(a)参照)。
図3に示すように、RGBカメラからの画像301及びIRセンサからの画像302に用いられる較正基板は、5×3の白熱灯のグリッドを備える。それらの白熱灯は、ONであるとき加熱するので、本発明の低コストで低解像度の温度センサにも容易に可視である。白熱灯の中心は、白熱灯の既知の空間的配列によって制約された高強度(明るい又は暖かい)領域を見つけるための手順によってRGB画像及びIR画像の双方において自動的に見つけられる。
較正基板の画像内の15個の対応する点を用いて、まず、RGBカメラ及びIRセンサが個々に較正され、それらの径方向歪パラメーター及び接線方向歪パラメーターが推定される。これによって、生のRGB画像又はIR画像のピクセルを対応する無歪の画像におけるピクセルにマッピングする非線形マッピングdrgb及びdirが得られる。
次に、これらの画像は、推定された歪パラメーターを用いて湾曲されて、無歪のIR画像304及びRGB画像303が作成される。ここで、各無歪の画像は、線形カメラモデルに従う。次に、無歪のRGB画像と無歪のIR画像との間の15個の対応関係が用いられて、ホモグラフィー行列Hが突き止められる。RGBカメラ及びIRセンサは、ほぼ同じ位置に配置されているので、Hは、無限のホモグラフィーを表し、これらのホモグラフィーは、均等スケーリングを有する直接線形変換(DLT:Direct Linear Transformation)を用いて求められる。
IR画像からRGB画像への順方向マッピングは、以下の式で示されるFとして表される。
Figure 2015216635
ここで、xrgbは、IR画像におけるピクセルロケーションxirに対応する、RGB画像におけるピクセルのロケーションである。
時間的位置合わせ
おそらく、これまでの研究では、異なる方式に用いられるセンサは、通常、同様のフレームレートを有することから、IR撮像方式及びRGB撮像方式からのデータの時間的位置合わせに関する研究は、非常に限られたものである。1つの方法は、ジェネレータロッキング(generator locking)を用いて、2つのカメラフレームのクロックを同期させることを可能にする。しかしながら、そのようなハードウェア手法は、本発明のIRセンサのフレームレートが非常に低いので、本発明のシステムに適用することができない。本発明の赤外線センサは、左から右に移動する離散的なステップでシーンをスキャンして、1つの140度の視野画像を得て、これに続いて、右から左にスキャンして第2の140度の視野画像を得る単一列の32個のIRセンサを用いる。
センサに対する本発明のインターフェースは、IR画像の各列が検知されると、この各列を送信するのではなく、1分間の長さのスキャン全体(フルIR画像)の終了まで待機することを要する。この終了時点において、IR画像全体が送信される。均一な速度プロファイルを有するIRカメラの動的な動きがモデル化され、IR画像及びRGB画像のタイムスタンプが、上記で説明した空間的位置合わせとともに用いられて、各IR画像の各列が、対応するRGB画像の対応する垂直のストライプにマッピングされる。本発明の方法は、IR画像の各列を、検知後に別々に送信するIRセンサとともに用いこともできることが理解される。
RGBカメラとIRセンサとの間の正確な時空間の対応関係が、本発明者らの手法には必要である。例えば、或る人物がシーン内に歩いて入ってきて、着座するものと仮定する。この人物は、RGBトラッカーによって静的なトラックとして表される。次のIR画像が届くと、システムは、そのIR画像内の対応する領域を用いてあらゆる静的なRGBトラックを検証する。静的なRGBトラックは、IRにおける温暖領域に対応する場合には実際に静止した人物であり、そうでない場合には誤検知である。IR画像が届いたとき、本発明のシステムは、IRセンサが静的なトラックのロケーションを、そのトラックがそのロケーションに到着した後にスキャンした場合にのみ、この検証を実行すべきである。このタイプの推論は、精密な時空間の対応関係を必要とする。
RGBトラッカー
本発明者らのシステムは、RGBカメラベースのトラッカーからの高レベルの情報をIRストリームからの中間レベルの情報(領域)と統合する。RGBトラッカーからの情報は、高レベル(トラックレベル)で統合されるので、用いられる特定のRGBトラッカーの詳細はそれほど重要ではない。本発明のRGB+IR融合方法は、用いられる特定のRGBトラッカーに限定されるものではない。本方法は、様々なリアルタイムのオンラインRGBトラッカーとともに機能することができる。したがって、用いられる特定のRGBトラッカーの網羅的な説明についてはここでは行わない。
しかしながら、本発明のRGBトラッカーの基本的な理解を与えるために、ここで本発明のRGBトラッカーを手短に説明することにする。本発明のRGBトラッカーは、室内の生活空間の長いビデオシーケンスに対する使用を目的としたスタンドアローン型のリアルタイム追跡システムに由来している。そのような環境は、追跡及び人物検出のための標準的なデータセットに存在しない特定の課題(challenges)を提起する。これらの課題には、長椅子に着座している人物又は横になっている人物等の通常でない姿勢にある人物、長い時間期間の間静止している人物、例えば、TVを鑑賞している人物又は眠っている人物、通常でない視点、例えば、部屋の後方の高所にある広角カメラから視認される人物、並びに不十分な照明及び/又は素早く変化する照明が含まれる。
そのようなビデオシーケンスは、多くの従来のトラッカー及び人物検出器を機能しなくさせる。生活環境において取得された長いビデオシーケンスに対する実験では、本発明のRGBトラッカーが、多くの従来技術の追跡システムよりも性能が優れていることが判明している。
ピクセル単位のガウス背景モデルを用いて、RGB画像における前景物体が検出される。検出された前景物体は、テンプレートトラッカーを用いて追跡される。この背景モデルは、あらゆる新たな画像を用いて更新されるが、人物のトラック内にないピクセルについてのみ更新される。前景の検出物は、重複部分の量に基づいてテンプレートトラックに関連付けられる。存在するトラックと重複しないいずれの前景検出物も新たな検出物として扱われる。一組の視覚的キューを用いて、追跡したい前景物体である人物が、追跡したくない、部屋に持ち込まれた新たな物体、移動された家具等の他の前景物体と区別される。主な視覚的キューは動きである。物体が、(動いていない物体又はファン若しくははためいているカーテン等の所定の場所で動く物体とは対照的に)当初、部屋を動き回っている場合、その物体は人物であると仮定される。
人物として分類される全ての前景物体は、色ヒストグラム等の関連付けられたアイデンティティ記述子(identity descriptor)を有する。以前のアイデンティティ記述子と一致するものは、別の視覚的キューである。新たに検出された前景物体が動いていない場合、その前景物体は、人物として分類されて追跡され続けるためには、記憶されたアイデンティティ記述子と一致しなければならない。この視覚的キューは、或る人物が、歩いて部屋に入ってきて、動きを止め、前方を通過する別の人物によって遮られて、その後、この遮りが解除される間、静止したままである場合を取り扱う。この人物が、前方を通過する人物による遮りを解除された直後、この静止した人物は、背景モデルと一致しないので、前景として新たに検出される。このトラックは、部屋を動き回っていないので、人物として分類されるためには、記憶されたアイデンティティ記述子と一致することが必要となる。これとは対照的に、記憶されたアイデンティティ記述子と一致しない新たに検出された静的な前景物体は、人物以外のもの(non-people)として分類されて、追跡されない。
これらは、本発明のトラッカーが用いる主な視覚的キューであるが、あまり重要でない他の幾つかのものがある。これらの視覚的キューを用いると、本発明のRGBトラッカーは、室内環境における人物を確実に追跡することができる。さらに、これらのキューを用いることは、本発明者らのシステムを従来の人物検出器よりも正確にするとともに、はるかに計算効率を良くするのに役立つ。
RGB追跡の改善のためのIRの組み込み
本発明のRGBトラッカーは、ほとんどの場合に良好に機能するが、人物以外の物体を追跡する場合(誤検知)及びトラック用のバウンディングボックスが人物の周囲にぴったりと適合しない場合がある。また、幾つかの場合には、本発明のトラッカーは、人物を追跡しない場合があり、これは、「検知漏れ」として知られている。これらの機能不良モードのそれぞれについて、低コストのIRセンサからの情報を用いて、その問題を訂正することができる。
1つの実施形態では、IRカメラは、32×94ピクセルの解像度を有し、毎分1つの画像を生成する。RGBカメラは、480×640の解像度を有し、例えば、10フレーム毎秒で動作する。新たな各IR画像が(例えば、毎分1回)届くと、そのIR情報は、追跡に組み込まれる。他のフレームレート及び他の解像度も用いることができることが理解されるべきである。ただし、IRセンサのフレームレート(例えば、1フレーム毎分)は、RGBカメラのフレームレート(例えば、数フレーム毎秒(several frames per second)(3フレーム以上、例えば、30フレーム毎秒))よりも、はるかに低いことに留意すべきである。
一般に、本発明のシステムは、RGBカメラを用いてリアルタイムで追跡を行う。新たなIR画像が(例えば、毎分1回)利用可能になると、このIR画像において検出された温暖領域を用いて、静的なトラックの境界が検証されて改善され、幾つかの状況では、新たなトラックが生成される。IRセンサは、そのような低フレームレートを有するので、静的なトラックにしか適用することができない。IR画像は、動く物体のトラックを検証又は改善するのに用いることはできない。なぜならば、動く物体は、比較的低速のIRセンサによっては取得されないか、又はIR画像では深刻な時間的エイリアシング(aliasing)を生み出すからである。
trは特定のトラックを表すものとし、以下の式は、画像iにおけるトラックtr用のバウンディングボックスを表すものとする。
Figure 2015216635
ここで(x,y)、w、及びhは、それぞれバウンディングボックスの中心、幅、及び高さを表す。RGBカメラからの最後のp個の画像にわたるトラックtrの動きを以下の式として定義する。
Figure 2015216635
ここで、||・||は、Lノルムを表し、fは、RGBカメラからの現在のフレーム(画像)のインデックスである。(本発明の実験では、pを、RGBカメラのフレームレートとIRセンサのフレームレートとの比の2分の1に設定した。)動きが閾値よりも小さいどのトラックも、静的なトラックとして分類される。
人物以外のトラック(Non-Person Track)の排除
背景モデルベースの追跡方法は、場合によっては、車輪を転がして入ってきてから停止した無人のオフィスチェア等の人物以外の物体の動きに由来する誤検知を有することがある。これまで動いていた物体が静止すると、その物体の静止したトラックが、センサから届く次のIR画像を用いて検証される。次のIR画像が届くと、RGB+IRシステムは、そのトラックを人物以外の物体(誤検知)として排除する。なぜならば、対応する温暖なIR領域が存在しないからである。
図4に示すように、新たなIR画像401が熱IRセンサから取得されるごとに、RGBビデオストリーム402に現在存在するあらゆる静的なトラック412が、このIR画像を用いて、温暖領域411がIR画像内の対応するロケーションにおいて検出されるか否かを調べることによって検証される。IR画像において温暖領域を見つけるために、IR画像のピクセルが閾値処理され、閾値を超えるピクセルの接続された領域が見つけられる。
各温暖領域について、IR画像における最小包囲バウンディングボックス
Figure 2015216635
が見つけられる。これは、空間的マッピングFによって、RGB画像における対応するバウンディングボックス
Figure 2015216635
にマッピングされる。
Figure 2015216635
が矩形のバウンディングボックスとなることを確保するために、空間的マッピングFによってIRバウンディングボックスを変換した後、
Figure 2015216635
は、変換されたIRバウンディングボックスの外接する矩形バウンディングボックスに等しくなるように設定される。
どのIR領域(もし存在する場合)が各静的なトラック412に関連付けられるのかを見つけるために、IR画像におけるどの領域jについて、RGB画像における対応するバウンディングボックス
Figure 2015216635
が、トラックのバウンディングボックスbbtrと最大の重複比ovを有するのかが判断される(420)。下側閾値及び上側閾値を用いた重複部分の量に応じて、RGBトラックを排除することもでき(421)、あるいは、RGBトラックを検証することもでき(422)、あるいは、RGBトラックを検証してそのバウンディングボックスを改良することもできる(423)。
各トラックtrについて、現在のIR画像におけるn個のIR領域のセットからの対応するIR領域jは、以下の式によって与えられる。
Figure 2015216635
ここで、ovは、以下の式によって与えられる、バウンディングボックスの重複比である。
Figure 2015216635
最良の領域jが、
Figure 2015216635
を有する場合、トラックtrは排除される(421)。ここで、τは、第1の閾値を表す(例えば、τ=0.1)。
より良好なバウンディングボックス
IR情報は、背景からの追跡される人物のより良好なセグメンテーションを取得するのに用いることもできる。RGBトラッカーは、背景差分を用いるので、局所的な背景と非常に類似した色を有する幾つかの前景領域、照明の変化、及び動きぶれ等の問題に起因して、不正確なバウンディングボックスを有する可能性がある。不正確なトラックバウンディングボックスを改善する(423)ために、重複比
Figure 2015216635
が第2の閾値τ(例えば、τ=0.3)よりも大きい場合には、RGBトラッカーからのバウンディングボックスbbtrは、対応するIR領域の変換されたバウンディングボックス
Figure 2015216635
に取り替えられる。
新たなトラックの追加
IR情報は、新たなトラックを生成するのに用いることもできる。これは、2人以上の人物が、それらの人物の前景領域が重複又は接触するようにともに入ってくる室内状況において特に必要である。本発明のRGBトラッカーにおけるトラックの境界は背景差分から得られるので、シーンに入ってくるときに互いに遮り合う人物の群は、単一のバウンディングボックスとして追跡される。そのような状況は、室内環境において一般に発生する可能性がある。
例えば、2人の人物が、ともに入ってきて長椅子に着座し、その後、それらの人物の一方は立ち去るが、他方の人物は長椅子に静止したままである。RGBトラッカーは、残っている前景物体が実際に人物であると推論することができない。なぜならば、その物体は、置き忘れた物体である場合があるからである。例えば、RGBトラッカーは、この状況を、単一の人物がスーツケースを運び込み、着座し、その後、立ち去ったが、彼のスーツケースをシーン内に残したままにしている状況と区別することができない。残っている人物は動いておらず、その人物は個別に追跡されてきたわけではないので、その人物のアイデンティティ記述子を突き止める機会はない。
そのような場合の特徴は、トラックが2つ(以上)の部分に分離し、それらの部分のうちの1つが静的であり、記憶されたどのアイデンティティ記述子とも一致しないということである。これらの場合、本発明のRGB+IRシステムは、その静的な部分のロケーションにフラグを付け、そのバウンディングボックスを記憶する。次のIR画像が届くと、システムは、記憶されたバウンディングボックスと交差する(重複する)IR領域が存在するか否かを調べる。存在する場合、システムは、それが人物に違いないと結論付け、そのロケーションにおいて新たなトラックを開始する。これは、起こりそうもないシナリオのように見えるかもしれないが、実際には、生活環境においてかなり一般的に起こることである。

Claims (22)

  1. 環境における物体を追跡する方法であって、
    第1のフレームレートを有するカメラを用いて前記環境の第1の画像シーケンスを取得することであって、前記カメラは可視光カメラであることと、
    第2のフレームレートを有するセンサを用いて前記環境の第2の画像シーケンスを取得することであって、前記センサは熱赤外線(IR)センサであり、前記第2のフレームレートは、前記第1のフレームレートよりも低いことと、
    前記第1の画像シーケンスにおける物体を追跡してトラックを取得することと、
    前記第2の画像シーケンスにおける温暖領域を検出して検出物を取得することと、
    前記トラック及び前記検出物を空間的及び時間的に位置合わせすることと、
    前記位置合わせの後に、前記トラック及び前記検出物が一致するか否かを検証することと
    を含む、環境における物体を追跡する方法。
  2. 前記センサは、垂直ラインに配列された熱受信機のアレイを備え、前記方法は、
    前記アレイを離散的なステップで回転させることであって、前記第2の画像シーケンス用のIR画像を作成すること、
    を更に含む、請求項1に記載の方法。
  3. 前記カメラ及び前記センサは、実質的に同じ場所に配置されている、請求項1に記載の方法。
  4. 前記トラック及び前記検出物に従って制御対象の機器を制御すること、
    を更に含む、請求項1に記載の方法。
  5. 前記機器は、暖房換気空調(HVAC)システムである、請求項4に記載の方法。
  6. 前記物体の前記追跡は、背景モデル及びテンプレートトラッカーを用いる、請求項1に記載の方法。
  7. 検出物と一致しないトラックを削除すること、
    を更に含む、請求項1に記載の方法。
  8. トラックが検出物と一致する場合、前記トラックのバウンディングボックスが前記検出物のバウンディングボックスと等しくなるように、前記トラックのバウンディングボックスを更新すること、
    を更に含む、請求項7に記載の方法。
  9. 前記第1のフレームレートは数フレーム毎秒であり、前記第2のフレームレートは1フレーム毎分である、請求項1に記載の方法。
  10. 位置合わせすることは、非線形マッピング及び線形ホモグラフィーマッピングの組み合わせを用いる、請求項1に記載の方法。
  11. 人物として分類される前景物体は、関連付けられたアイデンティティ記述子を有する、請求項1に記載の方法。
  12. 前記アイデンティティ記述子のそれぞれは、色ヒストグラムである、請求項11に記載の方法。
  13. 前記アイデンティティ記述子のうちのいずれとも一致しない新たに検出された静的な前景物体は、人物以外のものとして分類され、追跡されない、請求項11に記載の方法。
  14. 特定のトラックをtrによって表し、画像iにおけるバウンディングボックスbbtr
    Figure 2015216635
    によって表し、最後のp個の画像にわたるトラックtrの動きを
    Figure 2015216635
    として表すこと、
    を更に含み、ここで、(x,y)、w、及びhは、それぞれ、前記バウンディングボックスの中心、幅、及び高さを表し、Tは転置演算子であり、||・||は、Lノルムを表し、fは、前記第1のシーケンスにおける現在の画像のインデックスであり、pは、前記動きが計算される前記第1のシーケンスにおける画像の数であり、前記動きが閾値よりも小さな全てのトラックは、静的なトラックとして分類される、請求項1に記載の方法。
  15. 前記温暖領域は、所定の閾値よりも大きい値を有する複数のピクセルの接続された領域を含む、請求項1に記載の方法。
  16. 前記検証することは、前記トラックのバウンディングボックスと前記検出物のバウンディングボックスとの重複比を求めることを含む、請求項1に記載の方法。
  17. 前記重複比に従って前記トラックは排除されるか又は検証される、請求項16に記載の方法。
  18. 前記IR画像は、広視野を有する、請求項1に記載の方法。
  19. 前記第2のシーケンスにおける画像の解像度は、前記第1のシーケンスにおける画像の解像度よりも低い、請求項1に記載の方法。
  20. トラックが2つ以上の部分にいつ分離するのかを判断することであって、前記部分のうちの1つは、静的な部分であり、前記アイデンティティ記述子のうちのいずれにも一致しないことと、
    前記静的な部分のバウンディングボックスを記憶することと、
    前記検出物のうちのいずれかが前記バウンディングボックスと一致する場合に、前記バウンディングボックスのロケーションにおける新たなトラックを初期化することと、
    を更に含む、請求項11に記載の方法。
  21. 前記pは、前記第1のフレームレートと前記第2のフレームレートとの比の2分の1である、請求項14に記載の方法。
  22. 環境における物体を追跡するためのシステムであって、
    第1のフレームレートを有し、前記環境の第1の画像シーケンスを取得するように構成されたカメラであって、該カメラは可視光カメラである、カメラと、
    第2のフレームレートを有し、前記環境の第2の画像シーケンスを取得するように構成されたセンサであって、該センサは熱赤外線(IR)センサであり、前記第2のフレームレートは、前記第1のフレームレートよりも低い、センサと、
    前記第1の画像シーケンスにおける物体を追跡してトラックを取得し、前記第2の画像シーケンスにおける温暖領域を検出して検出物を取得し、前記トラック及び前記検出物を空間的及び時間的に位置合わせし、前記位置合わせの後に前記トラック及び前記検出物が一致するか否かを検証するように構成されたプロセッサと、
    を備える、環境における物体を追跡するためのシステム。
JP2015084185A 2014-05-09 2015-04-16 環境における物体を追跡する方法及びシステム Active JP6395656B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/274,073 2014-05-09
US14/274,073 US9245196B2 (en) 2014-05-09 2014-05-09 Method and system for tracking people in indoor environments using a visible light camera and a low-frame-rate infrared sensor

Publications (3)

Publication Number Publication Date
JP2015216635A true JP2015216635A (ja) 2015-12-03
JP2015216635A5 JP2015216635A5 (ja) 2018-02-22
JP6395656B2 JP6395656B2 (ja) 2018-09-26

Family

ID=54368105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084185A Active JP6395656B2 (ja) 2014-05-09 2015-04-16 環境における物体を追跡する方法及びシステム

Country Status (2)

Country Link
US (1) US9245196B2 (ja)
JP (1) JP6395656B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018073848A1 (ja) * 2016-10-19 2018-04-26 日本電気株式会社 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
CN108224684A (zh) * 2018-01-17 2018-06-29 苏州亮磊知识产权运营有限公司 一种基于公共场所的智能空调方法及其系统
JP2018142356A (ja) * 2018-04-27 2018-09-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
JP2019158614A (ja) * 2018-03-13 2019-09-19 三菱電機株式会社 照度推定装置、プログラム
WO2019202713A1 (ja) * 2018-04-19 2019-10-24 三菱電機株式会社 制御管理装置、機器制御装置、機器制御システム及び機器制御方法
CN111089390A (zh) * 2019-12-16 2020-05-01 宁波奥克斯电气股份有限公司 一种可变色空调器
CN111486820A (zh) * 2019-01-25 2020-08-04 学校法人福冈工业大学 测量系统、测量方法以及存储介质
US10825158B2 (en) 2017-02-28 2020-11-03 Panasonic Intellectual Property Management Co., Ltd. Moving object monitoring device, server device, and moving object monitoring system
WO2023223704A1 (ja) * 2022-05-20 2023-11-23 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9922271B2 (en) * 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
FR3039461B1 (fr) * 2015-07-30 2018-12-07 Valeo Systemes Thermiques Systeme de commande pour installation de conditionnement d'air d'un vehicule automobile
US20170068863A1 (en) * 2015-09-04 2017-03-09 Qualcomm Incorporated Occupancy detection using computer vision
KR102153607B1 (ko) 2016-01-22 2020-09-08 삼성전자주식회사 영상에서의 전경 검출 장치 및 방법
US11134848B2 (en) 2016-04-25 2021-10-05 Samsung Electronics Co., Ltd. Mobile hyperspectral camera system and human skin monitoring using a mobile hyperspectral camera system
US11328152B2 (en) 2019-06-17 2022-05-10 Pixart Imaging Inc. Recognition system employing thermal sensor
US9961261B2 (en) * 2016-06-20 2018-05-01 Gopro, Inc. Image alignment using a virtual gyroscope model
US10574909B2 (en) 2016-08-08 2020-02-25 Microsoft Technology Licensing, Llc Hybrid imaging sensor for structured light object capture
GB201615776D0 (en) * 2016-09-16 2016-11-02 Rolls Royce Plc Spatiotemporal registation of image streams
US10701244B2 (en) 2016-09-30 2020-06-30 Microsoft Technology Licensing, Llc Recolorization of infrared image streams
TWI584227B (zh) 2016-09-30 2017-05-21 晶睿通訊股份有限公司 影像處理方法、影像處理裝置及影像處理系統
US10768682B2 (en) * 2017-01-20 2020-09-08 Flir Systems, Inc. Detection-based wakeup of detection devices
CN106911914A (zh) * 2017-02-28 2017-06-30 中国科学院城市环境研究所 红外热成像动物活动追踪系统
CN109508588A (zh) 2017-09-15 2019-03-22 杭州海康威视数字技术股份有限公司 监控方法、装置、系统、电子设备及计算机可读存储介质
RU2679218C1 (ru) * 2018-02-06 2019-02-06 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Система и способ контроля перемещения людей
US10449895B2 (en) * 2018-03-20 2019-10-22 Rockwell Collins, Inc. Object tracking illumination system
EP3762909A1 (en) * 2018-05-28 2021-01-13 Greenwave Systems PTE. LTD. Area monitoring and communication
CN110631706B (zh) * 2018-06-22 2021-04-27 杭州海康微影传感科技有限公司 红外图像的校正方法、装置及存储介质
CN110858892B (zh) * 2018-08-24 2021-07-16 中国电子科技集团公司第二十七研究所 岸岛观测系统
CN112313472B (zh) * 2018-10-29 2023-12-26 松下知识产权经营株式会社 信息提示方法、信息提示装置、以及信息提示系统
WO2020097128A1 (en) * 2018-11-06 2020-05-14 Flir Commercial Systems, Inc. Automatic co-registration of thermal and visible image pairs
EP3899874A4 (en) * 2018-12-20 2022-09-07 Packsize, LLC SYSTEMS AND METHODS FOR SIZING OBJECTS BASED ON PARTIAL VISUAL INFORMATION
KR20200084164A (ko) * 2019-01-02 2020-07-10 엘지이노텍 주식회사 사육장 환경 관리 장치
CN109828596A (zh) * 2019-02-28 2019-05-31 深圳市道通智能航空技术有限公司 一种目标跟踪方法、装置和无人机
US11532093B2 (en) 2019-10-10 2022-12-20 Intermap Technologies, Inc. First floor height estimation from optical images
US11022495B1 (en) * 2020-03-06 2021-06-01 Butlr Technologies, Inc. Monitoring human location, trajectory and behavior using thermal data
WO2021260598A1 (en) * 2020-06-23 2021-12-30 Immervision Inc. Infrared wide-angle camera
DE102020208089A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Bildverarbeitungsvorrichtung zum Detektieren von zumindest einem Objekt in einem optischen Bild einer Kamera
CN112560617B (zh) * 2020-12-05 2023-08-01 江苏爱科赛尔云数据科技有限公司 基于阵列相机的大场景行人轨迹跟踪方法
US11551366B2 (en) * 2021-03-05 2023-01-10 Intermap Technologies, Inc. System and methods for correcting terrain elevations under forest canopy
US11775132B1 (en) 2022-05-18 2023-10-03 Environments by LE, Inc. System and method for the management and use of building systems, facilities, and amenities using internet of things devices and a metaverse representation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (ja) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd 画像処理装置と画像処理装置を用いた応用機器
JP2009087326A (ja) * 2007-09-27 2009-04-23 Mitsubishi Electric Research Laboratories Inc 画像において物体の位置を特定する方法及びシステム
JP2010159887A (ja) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp 空気調和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4636774A (en) 1983-11-08 1987-01-13 American District Telegraph Company Variable sensitivity motion detector
CN1056225C (zh) 1992-03-07 2000-09-06 三星电子株式会社 空调系统
US5555512A (en) 1993-08-19 1996-09-10 Matsushita Electric Industrial Co., Ltd. Picture processing apparatus for processing infrared pictures obtained with an infrared ray sensor and applied apparatus utilizing the picture processing apparatus
US9077915B2 (en) * 2010-04-07 2015-07-07 Projectiondesign As Interweaving of IR and visible images
US8780161B2 (en) * 2011-03-01 2014-07-15 Hewlett-Packard Development Company, L.P. System and method for modifying images
TWI428508B (zh) 2011-04-12 2014-03-01 Hon Hai Prec Ind Co Ltd 風扇控制系統、方法及具有該系統的風扇

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (ja) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd 画像処理装置と画像処理装置を用いた応用機器
JP2009087326A (ja) * 2007-09-27 2009-04-23 Mitsubishi Electric Research Laboratories Inc 画像において物体の位置を特定する方法及びシステム
JP2010159887A (ja) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp 空気調和装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018073848A1 (ja) * 2016-10-19 2018-04-26 日本電気株式会社 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
US11288817B2 (en) 2016-10-19 2022-03-29 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
US11049260B2 (en) 2016-10-19 2021-06-29 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
JPWO2018073848A1 (ja) * 2016-10-19 2019-06-27 日本電気株式会社 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体
US10885641B2 (en) 2016-10-19 2021-01-05 Nec Corporation Image processing device, stationary object tracking system, image processing method, and recording medium
US10825158B2 (en) 2017-02-28 2020-11-03 Panasonic Intellectual Property Management Co., Ltd. Moving object monitoring device, server device, and moving object monitoring system
CN108224684A (zh) * 2018-01-17 2018-06-29 苏州亮磊知识产权运营有限公司 一种基于公共场所的智能空调方法及其系统
JP2019158614A (ja) * 2018-03-13 2019-09-19 三菱電機株式会社 照度推定装置、プログラム
WO2019202713A1 (ja) * 2018-04-19 2019-10-24 三菱電機株式会社 制御管理装置、機器制御装置、機器制御システム及び機器制御方法
JP2018142356A (ja) * 2018-04-27 2018-09-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム
CN111486820A (zh) * 2019-01-25 2020-08-04 学校法人福冈工业大学 测量系统、测量方法以及存储介质
JP2020118614A (ja) * 2019-01-25 2020-08-06 学校法人福岡工業大学 計測システム、計測方法および計測プログラム
CN111486820B (zh) * 2019-01-25 2022-05-31 学校法人福冈工业大学 测量系统、测量方法以及存储介质
CN111089390A (zh) * 2019-12-16 2020-05-01 宁波奥克斯电气股份有限公司 一种可变色空调器
WO2023223704A1 (ja) * 2022-05-20 2023-11-23 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP6395656B2 (ja) 2018-09-26
US20150324656A1 (en) 2015-11-12
US9245196B2 (en) 2016-01-26

Similar Documents

Publication Publication Date Title
JP6395656B2 (ja) 環境における物体を追跡する方法及びシステム
Kumar et al. Improving person tracking using an inexpensive thermal infrared sensor
Kellnhofer et al. Gaze360: Physically unconstrained gaze estimation in the wild
US8929592B2 (en) Camera-based 3D climate control
JP2015216635A5 (ja)
WO2014155979A1 (ja) 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
Dai et al. Towards privacy-preserving recognition of human activities
Biresaw et al. Tracker-level fusion for robust Bayesian visual tracking
WO2019122883A1 (en) Analysis of a captured image to determine a test outcome
US9400924B2 (en) Object recognition method and object recognition apparatus using the same
US9886769B1 (en) Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems
KR102144394B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
Nie et al. Single/cross-camera multiple-person tracking by graph matching
Ellmauthaler et al. A visible-light and infrared video database for performance evaluation of video/image fusion methods
US20230079693A1 (en) Elevated temperature screening systems and methods
WO2008132741A2 (en) Apparatus and method for tracking human objects and determining attention metrics
Brenner et al. RGB-D and thermal sensor fusion: a systematic literature review
Rogez et al. Exploiting projective geometry for view-invariant monocular human motion analysis in man-made environments
Verstockt et al. Multi-modal time-of-flight based fire detection
Zhang et al. Build your own hybrid thermal/EO camera for autonomous vehicle
Cai et al. Assembling convolution neural networks for automatic viewing transformation
Zhao et al. Human segmentation by fusing visible-light and thermal imaginary
Dornaika et al. Image registration for foveated panoramic sensing
Mehltretter et al. Multimodal dense stereo matching
Gutfeter et al. Fusion of depth and thermal imaging for people detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180115

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180828

R150 Certificate of patent or registration of utility model

Ref document number: 6395656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250