WO2014181726A1 - 背景差分抽出装置及び背景差分抽出方法 - Google Patents

背景差分抽出装置及び背景差分抽出方法 Download PDF

Info

Publication number
WO2014181726A1
WO2014181726A1 PCT/JP2014/061826 JP2014061826W WO2014181726A1 WO 2014181726 A1 WO2014181726 A1 WO 2014181726A1 JP 2014061826 W JP2014061826 W JP 2014061826W WO 2014181726 A1 WO2014181726 A1 WO 2014181726A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
background
camera
information
unit
Prior art date
Application number
PCT/JP2014/061826
Other languages
English (en)
French (fr)
Inventor
寛雅 奥
恵子 横山
正俊 石川
Original Assignee
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京大学 filed Critical 国立大学法人東京大学
Priority to US14/890,150 priority Critical patent/US9924104B2/en
Priority to CN201480025487.7A priority patent/CN105210368B/zh
Publication of WO2014181726A1 publication Critical patent/WO2014181726A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 視点が移動するカメラで取得した画像を用いた背景差分の取得を可能にするための技術が提供される。まず、カメラ11により、対象物を含まない画像である背景画像を取得する。カメラ11の視線方向及び視点位置の情報を用いて、背景画像における画素の位置情報を、固定座標系における極座標情報に変換する。背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録部3に記録する。つぎに、カメラ11により、対象物を含む画像である実画像を取得する。カメラ11の視線方向及び視点位置の情報を用いて、実画像における画素の位置情報を、固定座標系における極座標情報に変換する。実画像における画素の極座標情報を用いて、実画像に対応する角度領域での背景画像を対象背景として特定する。実画像と対象背景とを比較することによって、それらの間の差分を抽出する。

Description

背景差分抽出装置及び背景差分抽出方法
 本発明は、画像データどうしを比較することによって背景差分を抽出するための技術に関するものである。
 被写体を継続的に撮影するためには、カメラの視線を対象に向け続ける必要がある。多くの場合この作業は撮影者が手動で行うが、ボールの跳躍のような高速かつ不規則な運動に完璧に追従するのは難しい。このため、カメラの視線方向を機械で自動制御するシステム(いわゆるアクティブビジョン;下記非特許文献1参照)の研究は様々な分野で盛んとなっている。
 通常のアクティブビジョンの技術では、カメラ自体を駆動雲台に取り付けて動かしているため、視線方向の移動についての応答速度が遅い。これでは、急激な加速度変化を含む運動対象(例えば球技で用いられているボール)をトラッキングすることは難しい。高速カメラのフレームレートが、速いものでは100万fpsに達する事や、GPUによって画像処理が高速化されている現状を考えると、視線制御速度は、様々なトラッキングシステムにおいて速度面でのボトルネックとなっていると言える。
 この問題を解決するために、カメラ前方に配置した小型駆動鏡面によって高速にカメラの視線変更を行うサッカードミラー(Saccade Mirror)と呼ばれる光学系が提案されている(下記非特許文献2参照)。この技術では、2軸のガルバノミラーを用いることによって、高速な視線変更ができるようになっている。もし、制御系において、常に画面中心で対象物をとらえるように視線の制御ができれば、他に類を見ないダイナミックな撮像が可能になると考えられる。
 ところで、対象物をトラッキングするには、画像中の対象物を抽出し、その方向にカメラの視線を向ける必要がある。画像中の対象物を抽出する方法としては、例えば:
(1)画像中の特徴量を抽出した後、事前学習で得た学習データとの比較によって画像中の対象物を特定する方法;
(2)背景画像をあらかじめ取得しておき、対象物を含む画像(実画像)との比較によって対象物を特定する方法(いわゆる背景差分法)
などが存在する。前記(1)の方法は、背景画像の取得が不要であるという利点はあるが、画像処理の時間が長くなるので、実時間での対象物特定には不向きである。また、この方法は、学習データの内容にもよるが、対象物の特定精度も不十分となりがちである。
 前記(2)の背景差分法は、高速な対象物特定が可能であるという利点がある。しかしながら、従来から提案されている背景差分法(例えば下記非特許文献3及び4)は、視点固定カメラで得られた画像を前提としている。これらの技術は、視点が動くカメラに直接適用することは難しいと考えられる。
J. Aloimonos, I. Weiss and A. Bandyopadhyay: "Active Vision", Int'l Journal of Computer Vision, vol. 1, no. 4, pp. 333.356 (1988). K. Okumura, H. Oku and M. Ishikawa: "High-Speed Gaze Controller for Millisecond-order Pan/tilt Camera", Proc. of IEEE Int'l Conf. on Robotics and Automation, pp. 6186. 6191 (2011). T. Wada and T. Matsuyama: "Appearance Sphere: Background model for pan-tilt-zoom camera", Proc. of 13th Int'l Conf. of Pattern Recognition, pp. A718.722 (1996). K. Yachi, T. Wada and T. Matsuyama: "Human Head Tracking using Adaptive Appearance Model with a Fixed-viewpoint Pan-tilt-zoom Camera", Proc. of IEEE Intl' Conf. on Automatic Face and Gesture Recognition, pp. 150.155 (2000).
 本発明は、前記の状況に鑑みてなされたものである。本発明は、視点が移動するカメラで取得した画像を用いた背景差分の取得を可能にするための技術を提供することを目的としている。
 前記した課題を解決する手段は、以下の項目のように記載できる。
 (項目1)
 視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するための装置であって、
 撮像部と、極座標算出部と、記録部と、対象背景抽出部と、差分抽出部とを備えており、
 前記撮像部は、カメラと、駆動部とを備えており、
 前記カメラは、対象物を含まない画像である背景画像、あるいは、対象物を含む画像である実画像を取得できる構成となっており、
 前記駆動部は、前記カメラの視線方向及び視点位置を変更できる構成となっており、
 前記極座標算出部は、視線方向取得部と、視点位置取得部と、座標変換部とを備えており、
 前記視線方向取得部は、前記カメラにおける視線方向を取得する構成となっており、
 前記視点位置取得部は、前記カメラにおける視点位置を取得する構成となっており、
 前記座標変換部は、取得された前記視線方向及び視点位置を用いて、前記背景画像あるいは前記実画像における画素の位置情報を、固定座標系における極座標情報に変換する構成となっており、
 前記記録部は、前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録する構成となっており、
 前記対象背景抽出部は、前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定する構成となっており、
 前記差分抽出部は、前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出する構成となっている
 背景差分抽出装置。
 (項目2)
 前記座標変換部における、前記極座標情報への変換は、
 前記背景画像あるいは前記実画像における画素の位置情報を、視点が固定された仮想カメラにおける仮想画像上での、当該画素の位置情報である仮想位置情報に変換する処理と、
 前記仮想位置情報を、前記固定座標系における極座標情報に変換する処理と
 によって行われる構成となっている
 項目1に記載の背景差分抽出装置。
 (項目3)
 さらに量子化部を備えており、
 前記量子化部は、前記座標変換部で得られた前記極座標情報を量子化する構成とされており、
 さらに、前記量子化部は、前記カメラにおける視線方向が前記固定座標系における基準方向からずれるほど、量子化単位としての角度範囲を増やす構成とされており、
 前記記録部は、前記画素の極座標情報として、量子化された前記極座標情報を用いる構成とされている
 項目1又は2に記載の背景差分抽出装置。
 (項目4)
 さらに、ブラー生成部を備えており、
 前記ブラー生成部は、前記対象背景を、前記視線方向が移動する方向に沿って複数枚特定し、特定された複数枚の前記対象背景を合成することによって、ブラーを有する合成対象背景を生成する構成とされており、
 前記差分抽出部は、前記実画像と前記合成対象背景とを比較することによって、前記差分を抽出する構成とされている
 項目1~3のいずれか1項に記載の背景差分抽出装置。
 (項目5)
 前記カメラの視線方向は、パン方向角度とチルト方向角度とによってあらわされている
 項目1~4のいずれか1項に記載の背景差分抽出装置。
 (項目6)
 前記駆動部は、前記カメラの視線方向をパン方向とチルト方向とに変化させる鏡面光学系を備えている
 項目1~5のいずれか1項に記載の背景差分抽出装置。
 (項目7)
 さらに、背景更新部を備えており、
 前記背景更新部は、前記実画像のうち、前記差分抽出部において前記差分とされなかった部分を新たな背景画像として特定して、前記記録部における前記背景画像における画素の色情報を更新する構成とされている
 項目1~6のいずれか1項に記載の背景差分抽出装置。
 (項目8)
 前記駆動部は、前記差分抽出部によって差分として抽出された部分に前記カメラの視線方向を向ける構成とされている
 項目1~7のいずれか1項に記載の背景差分抽出装置。
 (項目9)
 視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するための方法であって、
 前記カメラにより、対象物を含まない画像である背景画像を取得するステップと、
 前記カメラの視線方向及び視点位置の情報を用いて、前記背景画像における画素の位置情報を、前記固定座標系における極座標情報に変換するステップと、
 前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録部に記録するステップと、
 前記カメラにより、対象物を含む画像である実画像を取得するステップと、
 前記カメラの視線方向及び視点位置の情報を用いて、前記実画像における画素の位置情報を、固定座標系における極座標情報に変換するステップと、
 前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定するステップと、
 前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出するステップと
 を備えることを特徴とする背景差分抽出方法。
 (項目10)
 視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するためのコンピュータプログラムであって、
 対象物を含まない画像である背景画像をカメラに取得させるステップと、
 前記カメラの視線方向及び視点位置の情報を用いて、前記背景画像における画素の位置情報を、固定座標系における極座標情報に変換するステップと、
 前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録部に記録するステップと、
 対象物を含む画像である実画像を前記カメラに取得させるステップと、
 前記カメラの視線方向及び視点位置の情報を用いて、前記実画像における画素の位置情報を、前記固定座標系における極座標情報に変換するステップと、
 前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定するステップと、
 前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出するステップと
 をコンピュータに実行させるためのコンピュータプログラム。
 このコンピュータプログラムは、適宜な記録媒体(例えばCD-ROMやDVDディスクのような光学的な記録媒体、ハードディスクやフレキシブルディスクのような磁気的記録媒体、あるいはMOディスクのような光磁気記録媒体)に格納することができる。このコンピュータプログラムは、インターネットなどの通信回線を介して伝送されることができる。
 本発明によれば、視点が移動するカメラで取得した画像を用いた背景差分の取得が可能となる。したがって、例えば、取得した背景差分を対象物とみなして、この対象物を追跡するためにカメラの視線制御を行うことが可能となる。
本発明の第1実施形態における背景差分抽出装置の概略的な構成を示すブロック図である。 撮像部の具体的な構成例を示す説明図である。 図1の装置を含むトラッキングシステムの概略的な説明図である。 図1の装置を用いた背景差分抽出方法の概略的な手順を示すフローチャートである。 背景情報を登録する手順を示すフローチャートである。 座標変換手順を説明するための前提となる座標系及び視点位置の説明図である。 座標変換手順を説明するための前提となる座標系及び画素位置の説明図であって、図(a)は仮想カメラ座標系の説明図、図(b)は固定座標系におけるパン角とチルト角の説明図である。 極座標を算出する手順を示すフローチャートである。 量子化された極座標情報を説明するための説明図である。 実画像の情報を算出するための手順を示すフローチャートである。 本発明の第2実施形態における背景差分抽出装置の概略的な構成を示すブロック図である。
 以下、添付図面を参照しながら、本発明の第1実施形態に係る背景差分抽出装置について説明する。本実施形態の装置は、後述する対象物トラッキングシステムにおいて用いられるものである。
 (第1実施形態の構成)
 本実施形態の背景差分抽出装置は、図1に示されるように、撮像部1と、極座標算出部2と、記録部3と、対象背景抽出部4と、差分抽出部5とを有している。さらに、この装置は、背景更新部6を有している。
 撮像部1は、カメラ11と、駆動部12とを備えている。さらに撮像部1は、瞳転送部13を備えている。撮像部1の具体的構成例を図2に示す。
 カメラ11は、対象物のトラッキングのために適切なフレームレートで画像を取得する構成となっている。例えば、対象物が高速に移動する場合は、1フレーム当たり1msのサイクルでデジタル画像を取得するものを用いることができるが、これはあくまで一例であり、用途に応じて異なるフレームレートを使用することができる。カメラ11の画素数は、トラッキングの目的に即して決定することができ、原理的には特段の制約はない。カメラ11の視線方向を、図2において矢印で示している。後述するように、カメラ11は、対象物を含まない画像である背景画像、あるいは、対象物を含む画像である実画像を取得できる構成となっている。すなわち、カメラ11は、背景画像情報の登録時には背景画像を撮影し、対象物のトラッキングの際には実画像(対象物を含む画像)を撮影するものである。もちろん、本実施形態において、背景画像撮影用のカメラと実画像撮影用のカメラとを別々に備えることも可能である。なお、カメラ11としては、可視光カメラに限らず、赤外光やその他の波長域の電磁波(テラヘルツ波やミリ波を含む)を撮像するカメラであってもよい。要するに、カメラ11としては、デジタル画像を取得できるものであればよく、いわゆるレンジファインダであってもよい。また、カメラ11としては、単一波長の光を撮像するカメラ(モノクロカメラ)であってもよい。この場合、得られた画像の画素値は輝度値のみとなる。本明細書では、画素の輝度値自体も「画素の色情報」の一例に対応するものとする。
 駆動部12は、カメラ11の視線方向をパン方向とチルト方向とに変化させる鏡面光学系を備えている。より具体的には、図2に示されるように、駆動部12は、パンミラー121とチルトミラー122とを備えている。パンミラー121及びチルトミラー122は、いずれも、図示しない駆動手段、例えば制御モータにより、所定の軸を中心として、パン方向あるいはチルト方向にそれぞれ回動できるようになっている。また、本実施形態では、図示しない制御部により、パン角度及びチルト角度を制御できるようになっている。さらに本実施形態では、実際のパン角度及びチルト角度を取得して、制御部側にフィードバックすることができるようになっている。
 後述するように、瞳転送部13により転送された瞳の位置(つまり視点位置)は、パン角度あるいはチルト角度の変更に伴って変動する。これにより、駆動部12は、カメラ11の視線方向及び視点位置を変更できる構成となっている。なお、本明細書において、カメラ11の視線方向は、パン方向角度とチルト方向角度とによって表されるものとする。
 さらに、本実施形態の駆動部12は、差分抽出部5によって差分として抽出された部分にカメラ11の視線方向を向けるように、図示しない制御部によって制御されるものである。
 瞳転送部13は、図2に示す瞳転送光学系により構成されている。瞳転送部13は、パンミラー121とチルトミラー122との間に、カメラ11の瞳位置を転送するようになっている。
 極座標算出部2は、視線方向取得部21と、視点位置取得部22と、座標変換部23とを備えている。さらに、本実施形態の極座標算出部2は、量子化部24を備えている。
 視線方向取得部21は、カメラ11における視線方向を取得する構成となっている。具体的には、視線方向取得部21は、駆動部12におけるパンミラー121及びチルトミラー122の傾斜角度の情報(実際の角度であることが好ましいが制御指令値であってもよい)を撮像部1(又は図示しない制御部)から取得して、視線方向を算出するようになっている。
 視点位置取得部22は、カメラ11における視点位置を取得する構成となっている。具体的には、視点位置取得部22は、視線方向取得部21と同様に、駆動部12におけるパンミラー121及びチルトミラー122の傾斜角度の情報を撮像部1から取得して、視点位置を算出するようになっている。
 座標変換部23は、取得された視線方向及び視点位置を用いて、背景画像あるいは実画像における画素の位置情報を、固定座標系(いわゆるワールド座標系)における極座標情報に変換するものである。
 本実施形態では、座標変換部23における極座標情報への変換が、
(1)背景画像あるいは実画像における画素の位置情報を、視点が固定された仮想カメラにおける仮想画像上での、当該画素の位置情報である仮想位置情報に変換する処理;及び
(2)仮想位置情報を、固定座標系における極座標情報に変換する処理
 によって実行されるようになっている。
 量子化部24は、座標変換部23で得られた極座標情報を量子化するものである。量子化部24は、カメラ11における視線方向が固定座標系における基準方向からずれるほど、量子化単位としての角度範囲を増やす構成とされている。
 極座標算出部2における詳しい処理は、本実施形態の動作の説明において詳しく述べる。極座標算出部2は、例えばコンピュータのハードウエア及びソフトウエアの組み合わせにより構成することができる。
 記録部3は、背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録する構成となっている。本実施形態の記録部3は、この記録部3に記録されるべき画素の極座標情報として、量子化部24によって量子化された極座標情報を用いるものとなっている。
 記録部3は、例えばコンピュータで利用可能な揮発性あるいは不揮発性メモリであるが、具体的な記録媒体に制約はない。記録部3は、ネットワークを介してコンピュータにより利用可能な記録装置であってもよい。また、画素の色空間としては、特に制約はなく、RGBやHSVなど、必要に応じて適切な色空間を用いることができる。また、色空間としては、輝度情報のみでもよく、また、必要に応じて、輝度情報以外の色彩情報のみであってもよい。
 対象背景抽出部4は、実画像における画素の極座標情報を用いて、実画像に対応する角度領域での背景画像を対象背景として特定するものである。
 差分抽出部5は、実画像と対象背景とを比較することによって、それらの間の差分を抽出するものである。
 背景更新部6は、実画像のうち、差分抽出部5において差分とされなかった部分を新たな背景画像として特定して、記録部3における背景画像の画素の色情報を更新する構成とされている。
 本実施形態の背景差分抽出装置におけるさらに具体的な構成は、後述の動作の説明において詳しく述べる。
 (第1実施形態の動作)
 以下、本実施形態の背景差分抽出装置の動作について説明する。以下の説明の前提として、本実施形態の背景差分抽出装置が組み込まれるトラッキングシステムの全体的な構成例を図3により説明する。このトラッキングシステムは、コンピュータ100を備えており、このコンピュータ100(すなわちハードウエア及びソフトウエアの組み合わせ)により、極座標算出部2、記録部3、対象背景抽出部4、差分抽出部5及び背景更新部6の機能が実現されている。また、コンピュータ100の制御部(図示せず)から制御指令を駆動部12に送ることでパンミラー121及びチルトミラー122の傾斜角度(パン角度及びチルト角度)を制御して、追跡対象物200に視線を合わせる(つまり追跡する)ことができるようになっている。さらに、この装置では、パンミラー121及びチルトミラー122の実際の傾斜角度をセンサ(図示せず)により取得して、コンピュータ100に戻し、例えば極座標算出部2により利用できるようになっている。
 以下、図4のフローチャートを参照しながら、本例の背景差分抽出方法を説明する。
 (図4のステップSA-1)
 本実施形態の背景差分抽出方法では、まず、対象物を含まない画像である背景画像を登録する処理を行う。背景画像登録処理の具体例を、図5を参照して詳しく説明する。
 (図5のステップSB-1)
 まず、カメラ11により、背景画像を取得する。ここで、本実施形態では、カメラ11で取得可能な全ての領域における背景の画像(本明細書では「全背景画像」と称する)を取得する。すなわち、本実施形態では、駆動部12によりカメラ11の視線方向を変更できるので、視線方向の最大可変範囲に対応して、カメラ11で取得可能な全背景画像を取得する。ただし、全背景画像を一度に取得する必要はなく、所定の画角で撮影された背景画像ごとに、以降の極座標算出処理や登録処理を行うこととしてもよい。もちろん、全背景画像を取得した後に、以降の処理を行うことも可能である。また、全背景画像は、以降の背景差分抽出処理に使用されると予想される角度範囲(あるいは視線方向範囲)で取得されればよいので、全ての視線方向範囲に対応した背景画像を取得することは必須ではない。取得された背景画像の情報(画素情報及び画像上の画素位置情報)は、座標変換部23に送られる。
 (図5のステップSB-2)
 一方、パンミラー121及びチルトミラー122の実際の傾斜角度(背景画像取得時のもの)は、駆動部12から視線方向取得部21及び視点位置取得部22に送られる。視線方向取得部21及び視点位置取得部22では、パンミラー121及びチルトミラー122の傾斜角度の情報を用いて、視線方向及び視点位置を算出する。なお、この算出において、パンミラー121及びチルトミラー122の実際の傾斜角度に代えて、これらへの傾斜角度の指示値を用いることも可能である。ただし、実際の傾斜角度を用いることによりトラッキング精度の向上を期待できる。以下において、視線方向取得部21及び視点位置取得部22における、パンミラー121及びチルトミラー122の傾斜角度の情報を用いた、視線方向及び視点位置の算出方法を説明する。
 (視線方向及び視点位置の算出)
 固定座標系(世界座標と呼ぶこともある)に対するカメラ11、パンミラー121及びチルトミラー122の位置関係を図6に示す。前記した通り、パンミラー121及びチルトミラー122によって、カメラ11の視線方向を制御できるようになっている。また、瞳転送部13により、カメラ11の瞳位置を光学的にこれらのミラーの中間に転送するようになっている。これにより充分な画角を保ちつつ、駆動部12の小型化が可能となり、しかも高速な視線方向制御が可能となっている。瞳転送部13によりパンミラー121とチルトミラー122との間に転送された瞳は、対象物から見れば、図6において符号pの位置(つまりパンミラー121により瞳の鏡像となる位置)に見える。この位置は、カメラ11の視点位置と光学的に等価なので、以下の説明では視点として扱う。また、視点を原点として対象物に向く視線方向をz軸とするカメラ座標系を(x,y,z)と定義する(図6参照)。カメラ座標(x,y,z)と固定座標(X,Y,Z)との変換は、下記式(1)のように表現できる。
Figure JPOXMLDOC01-appb-I000001
 ここで、計算の便宜上、二つのミラー121及び122の中心間距離をlとし、瞳転送部13によるカメラ11の瞳の転送先を、チルトミラー122からの光軸上距離がl/2となる位置とする(図6参照)。さらに、カメラ11とパン・チルトミラー121・122とがなす平面(より具体的には、カメラ11の元々の視点位置と両ミラーの中心点との三点を通る平面)とカメラ座標系上のz軸とが直交する場合のカメラ座標は、世界座標と一致することになる。
 視線がパン・チルト方向にそれぞれθ,φだけ回転したとき(このときのパン・チルトミラー回転量はそれぞれθ/2,φ/2)における、両座標系の間の変換は前記式(1)と同様の形で表される。ここでRはパンミラーおよびチルトミラーによる視線の回転行列Rを用いて
R=R      (2)
と書ける。
 ここで、各回転行列Rは以下のように表せる。
Figure JPOXMLDOC01-appb-I000002

 また前記した視点位置pは、以下のように書ける。

Figure JPOXMLDOC01-appb-I000003
 したがって、視点位置取得部22では、この計算を用いて、パンミラー121及びチルトミラー122の傾斜角度の情報(すなわちカメラの視線方向θとφ)から、視点位置を算出できる。つまり、前記したように、瞳転送部13で転送された瞳の位置(視点位置)は、パン角度あるいはチルト角度の変更に伴って変動する。なお、視線方向取得部21は、パン・チルトミラーの回転角を用いて、カメラ11の視線方向(つまりθとφ)を簡単に取得できる。
 (図5のステップSB-3)
 ついで、座標変換部23は、カメラ11の視線方向及び視点位置の情報(つまりθとφ)を用いて、背景画像における画素の位置情報を、固定座標系(X,Y,Z)における極座標情報に変換する。以下、この変換手順の一例を説明する。
 (極座標情報の算出)
 前提として、カメラ11の焦点距離をf、画像平面をπとおく。また図7(a)に示すように、視点移動における並進成分を0と仮定した場合の、下記のカメラ座標系(以下「仮想カメラ座標系」という)を考える。
Figure JPOXMLDOC01-appb-I000004
 この仮想カメラ座標系に対応する画像平面(いわば仮想カメラ上の仮想画像)をπ'とする。背景上のある点をPとおき、点Pを通り平面πおよびπ'に平行な平面をΠとおく(図7(a)参照)。
 (図8のステップSC-1~SC-2)
 以下、極座標の算出手順を、図8のフローチャートを参照しながら説明する。点Pが平面π上に投影される点を(u,v)、平面π'上に投影される点を(u',v')とする。ただし(u,v)および(u',v')の原点はそれぞれzおよびz'上にとる。Lを視点pから平面Πまでの距離とすると、|z'-z|はLに対して充分に小さいと考えられるため、画像π上の画素位置(u,v)から、仮想画像π'上の画素位置(u',v')を、近似的に以下のように導くことができる。
Figure JPOXMLDOC01-appb-I000005
 (図8のステップSC-3)
 このように算出した点(u',v')を用いると、XYZ固定座標系における点Pの極座標表示角度(θ,φ)は以下のように表される(図7(b))。
Figure JPOXMLDOC01-appb-I000006
 以上より、距離Lが既知ならば式(5)および(6)を用いて、任意視線で得たカメラ画像における画素位置(u,v)を極座標角度(θ,φ)で表せる。以下、Lが既知であれば問題ないが、仮に既知でなくとも所定条件の下では支障がない。以下、並進成分の取り扱いについて補足して説明する。
 (並進成分の取り扱い)
 式(5)の右辺第二項に示された並進成分は、距離Lが充分に大きい場合には、無視出来る程小さい。つまり、背景が充分遠くにある場合には視点移動は問題にならない。具体的には、距離Lが下記条件を満たすならば、並進に伴う画素のずれはサブピクセル単位に収まる。
Figure JPOXMLDOC01-appb-I000007
 ただしこの式においてw,hは画像の横/縦画素数、γとγはそれぞれ横/縦方向の画角を表す。
 一方、背景までの距離が、並進を無視できない程に小さい場合は、距離Lを既知として計算するために弱透視投影(Weak perspective projection)(参考文献:J. Aloimonos: "Perspective approximations", Image and Vision Computing, vol. 8, no. 3, pp. 179.192 (1990).)の仮定を用いることができる。弱透視投影の下では、全ての物体は距離Lの平面上に一度正投影される。言い方を変えれば、全ての物体は距離L ̄の平面上にあると仮定される。この時、仮定による誤差がサブピクセル単位になるために実際の距離Lが満たすべき条件は以下のようになる。
Figure JPOXMLDOC01-appb-I000008
 以上により、背景画像の各画素について、極座標情報を取得することができる。前記の処理は、全ての背景画像について同様に行うことができるので、全背景画像についての極座標情報を取得することができる。
 (図8のステップSC-4)
 ついで、本実施形態では、量子化部24が、座標変換部23で得られた極座標情報を量子化する処理を行う。ここで、量子化部24は、カメラ11における視線方向が固定座標系における基準方向(本例ではZ軸方向)から外れるほど、量子化単位としての角度範囲を増やすように量子化を行う。以下、量子化処理の具体例を説明する。
 (量子化処理)
 実際には、背景情報は連続的ではなく離散的な画素値として得られるため、極座標上に登録されるデータには密度的な偏りが生じ得る。つまり、極座標上において同じ角度幅であっても、パン角あるいはチルト角の大小によって、担うべき情報量(画素数)が違ってきてしまう。1画素に対応する(u,v)の単位変化量をΔuおよびΔvとすると、これらに相当する(θ,φ)の変化量は、式(6)より次のように求まる。
Figure JPOXMLDOC01-appb-I000009
 極座標上のデータの密度分布は、可能な限り均一であることが望ましい。不均一であると、角度範囲ごとに担う情報量が異なってしまう。また、不均一であるということは、ある角度範囲においては不必要に多い情報量を保存するということでもあるので、メモリの利用効率が悪くなる。そのため、ΔuおよびΔvを、例えば以下のように定義することが出来るであろう。
Figure JPOXMLDOC01-appb-I000010
 これらの定義に基づいて、背景情報登録のための量子化角度
θmn=mΔθ(φ),φ=nΔφ(m,nは整数)
を決定することができる。
 ここで、m,nは、基準方向(前記の例では固定座標系でのZ方向)からのずれ量と考えることができる。したがって、量子化角度は、基準方向からの視線のずれが大きいほど広くなる。前記のようにして量子化した場合の量子化単位の概念図を図9に示す。チルト角が大きくなると、単位当たりのパン角が受け持つ画素量が多くなるので、量子化単位を一定幅で書けば、矩形の画像が「たる型」に変形することになる。なお、前記の式においてm,nは負の値をとることもできる。また、Δu,Δvの定義によっては、背景情報登録時には、特定の量子化角度範囲に属するデータがないという可能性があるが、その場合は、適宜にデータを補間することにより、空データの参照を防ぐことが好ましい。
 (図5のステップSB-4)
 ついで、記録部3は、背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録する。ここで、記録部3は、画素の極座標情報として、量子化部24で量子化された極座標情報を用いる。
 (図4のステップSA-2)
 ついで、実画像情報を算出する。実画像情報算出の手順を、図10のフローチャートを参照しながら説明する。
 (図10のステップSD-1)
 まず、撮像部1により、対象物を含む画像である実画像を取得する。画像の取得方法自体は背景画像の場合と同様である。ただし、対象物を視線が追跡する場合は、1回の実画像取得ごとに以下の差分抽出処理を行うことが望ましい。
 (図10のステップSD-2)
 一方、視線方向取得部21及び視点位置取得部22により、カメラ11の視線方向及び視点位置を取得する。これについても、背景画像の場合と同様でよい。
 (図10のステップSD-3)
 ついで、座標変換部23により、カメラ11の視線方向及び視点位置の情報を用いて、実画像における画素の位置情報を、固定座標系における極座標情報に変換する。この座標変換処理も、前記した背景画像と同様に行うことができる。得られた極座標情報は、対象背景抽出部4に送られる。
 (図4のステップSA-3)
 次に、対象背景抽出部4は、実画像における画素の極座標情報を用いて、実画像に対応する角度領域での背景画像を対象背景として特定する。さらに具体的には、対象背景抽出部4は、実画像の極座標情報(実際には量子化されている)に基づいて、実画像が撮影した領域に対応する領域での背景画像を特定することができる。したがって、対象背景抽出部4は、実画像に対応する範囲を特定する極座標情報を記録部3に送り、その極座標情報に対応する対象背景の画像(つまり画素情報)を指定あるいは取得することができる。
 (図4のステップSA-4)
 次に、差分抽出部5は、実画像と対象背景とを比較することによって、それらの間の差分を抽出する。実画像と対象背景とは、実空間(図7(a)における平面Πと言ってもよい)における同じ領域の画像となっているので、それらの画素どうしの情報(色情報)を比較することによって、背景差分を抽出することができる。
 ここで、背景差分の抽出においては、画像平面上での画素位置を基準とする方法(つまり画像空間内で行う方法)と、極座標上での画素位置を基準とする方法(つまり極座標空間内で行う方法)とがある。画像平面上での画素位置を基準とする場合は、極座標と画像平面上の画素位置との対応関係(この対応関係は極座標算出時に算出されている)を使って、画素位置を基準として、同一位置の画素どうしを比較することができる。一方、極座標上での画素位置を基準とする場合は、同じ極座標に対応する画素どうしを比較すればよい。なお、前記した通り、本実施形態においては、極座標情報を量子化したので、量子化された極座標ごとの比較が行われる。また、画像空間内で抽出を行う場合も、極座標が量子化されているので、結果的には位置情報が量子化されていることになる。
 なお、背景か対象物かを判定する場合、画素単位で比較するよりも、当該画素の周辺の画素情報を加味して判断することが妥当であると考えられる。これは、つぎの理由による:
・照明のフリッカやカメラのノイズによって画素値がある程度変動すると予想されること;
・実際の視線方向のブレ、量子化時の丸め誤差、あるいは各種の機械的誤差のために、全視野背景から抽出した背景画像と実際の背景との間には多少のずれが生じると予想されること。
 そのため、例えば極座標を基準として判定する場合、対象の画素位置に対応する極座標(θmn,φ)を中心とする周辺、つまり
(θ(m+k)(n+l),φ(n+l))(ここで|k|,|l|<2~3程度)
に登録された画素値全てについて実画像と背景画像とを比較して、背景か否かを判断するのが妥当と考えられる。画像上の座標を基準とする場合は、これらの極座標に対応する画像座標を算出して、差分抽出を行うことができる。なお、本実施形態においては、前記した背景差分による対象抽出に加えて、画像特徴を利用した対象抽出を行うこともできる。つまり、背景差分による対象抽出と、画像特徴を利用した対象抽出のAND条件により、対象の位置を精度よく特定することが可能である。
 (図4のステップSA-5)
 ついで、差分抽出部5は、得られた差分情報(つまり対象物の位置情報)を、図示しない制御部に送る。制御部では、カメラ11の視線方向が対象物の位置を向くように、駆動部12を制御する。これにより、対象物をカメラ11で追跡することができる。前記した各処理が十分高速であれば、移動する対象物をカメラ画像のほぼ中心に配置することが可能となる。
 (図4のステップSA-6)
 差分抽出部5で抽出された差分以外の部分は、背景を表す情報(つまり背景情報)として利用可能である。そこで、本実施形態の差分抽出部5は、背景情報を背景更新部6に送る。背景情報は、背景に相当する部分の位置情報(この例では量子化された極座標情報)と、その位置における画素の色情報とを含む。背景更新部6は、背景情報を用いて、記録部3における背景画素情報を極座標情報により特定して更新することができる。これにより、背景情報を最新のものに更新できるので、背景差分の抽出精度を向上させることができる。なお、背景情報の更新は、背景差分が抽出されるたびに行う必要はなく、所定時間間隔ごとに行うことも可能である。あるいは、背景差分抽出による背景情報の更新処理を省略することもでき、例えば、所定時間ごとに、全背景情報を再取得して更新してもよい。
 (図4のステップSA-7)
 ついで、カメラ11により新しい実画像を取得した場合は、ステップSA-2に戻り、前記した処理を繰り返す。そうでなければ処理を終了する。
 本実施形態によれば、視点が移動するカメラを用いた場合において、背景差分抽出を高速で、かつ精度よく行うことが可能となる。例えばリアルタイムでの球技の中継放送において、ボール自体を常に追跡する画像を提供することが可能となる。例えば、常にボールを中心においた動画(例えば、卓球において、あたかもボールの背後から常に周囲を見ているかのような動画)のように、新たな付加価値を持つ画像を提供できるという利点がある。また、本実施形態の装置は、医療やファクトリーオートメーションやロボットビジョンなど、各種の分野において応用可能であると考えられる。
 (第2実施形態)
 次に、本発明の第2実施形態に係る背景差分抽出装置を、主に図11を参照しながら説明する。この第2実施形態の説明においては、前記した第1実施形態の背景差分抽出装置と基本的に共通する構成要素については、同一の符号を付すことにより、説明の煩雑を避ける。
 第2実施形態の装置は、ブラー生成部7を追加的に備えている点で、第1実施形態の装置と相違している。ブラー生成部7は、対象背景を、視線方向が移動する方向に沿って複数枚特定し、特定された複数枚の対象背景を合成することによって、ブラーを有する合成対象背景を生成する処理を行う機能要素である。また、第2実施形態の差分抽出部5は、実画像と合成対象背景とを比較することによって、差分を抽出する構成とされている。さらに、この第2実施形態では、背景更新部6を省略しており、逐次の背景更新は行わないものとされている。したがって、記録部3に記録されている背景画像は、初期に取得された全背景の画像(あるいはその後に再取得された全背景の画像)となっている。
 モーションブラー(この明細書においては単に「ブラー」と称する)とは、被写体もしくはカメラ自体が露光中に動くことによって生じる画像のぶれである。追跡対象が常に画像内の固定位置に撮影されるように撮影すると、対象の移動速度によっては、露光時間を短くしても風景部分に大きなぶれ(すなわちブラー)を生じることがある。一方、記録部3に記録されている背景画素情報は、通常、静止状態を前提としているので、背景画像にはブラーは存在しない。したがって、このようなぶれを生じると、背景差分を正確に抽出することが一般的には難しくなるという問題がある。そこで、背景画像にも画像処理によりブラーを生じさせることが考えられる。しかしながら、従来から提案されているブラーカーネルを用いたブラー除去(参考文献:P. Hansen and J. N. D. Oleary: "Deblurring Images: Matrices, Spectra, and Filtering", SIAM Press (2006).)は多くの計算量を要するため、実時間システムへの組み込みには適さない。そこで本実施形態では、カメラ11の視線方向が既知という条件を利用して「ブラーを含んだ背景画像」を合成し、背景差分を行う。
 以下、ブラー生成処理の具体例について詳しく説明する。
 (ブラー生成処理)
 カメラから得られる映像は、露光中に各受像素子に入射する光の総和として得られる。つまり、時刻tからΔt秒間の露光によって得られる画像I(t)は以下の式で表現できる。
Figure JPOXMLDOC01-appb-I000011
 ここでi(θ,φ)は、視線方向(θ,φ)における静止時の画像を表す。ただし、システムの実装においてはi(θ,φ)は連続的ではなく離散的に取得されるため、露光中のサンプリング回数をnとして、下記I^を推定値として得ることができる。
Figure JPOXMLDOC01-appb-I000012
 ここで(θ[k],φ[k])は、k回目のサンプリング時(時刻t+(k/n)Δt)における視線方向を表す。この処理は、「対象背景を、視線方向が移動する方向に沿って複数枚特定し、特定された複数枚の対象背景を合成することによって、ブラーを有する合成対象背景I^を生成する処理」に相当する。以上の説明から明らかなように、露光中の各時刻における視線方向を決定できれば、全視野背景に基づいて、モーションブラーを含んだ背景画像を合成することができる。
 背景画像にモーションブラーを生成できれば、差分抽出の精度を向上させることが期待できる。
 なお、前記のブラー生成処理において、ブラー生成のために合成する画像枚数は、基本的には、視線の移動速度によって決定することができる。すなわち、画像取得のサンプリング間隔とカメラの露光時間Δtとは通常一定であるが、一定の露光時間Δt内で取得された画像のうち、何枚を用いてブラー生成を行うかを、視線の移動速度によって決めることができる。例えば、視線移動速度が低いときは、Δt内での全取得画像を用いるのではなく、ある程度の画像を間引いて合成することが考えられる。このように、視線移動速度に応じて、ブラー生成に用いる画像枚数を変更することができる。
 第2実施形態の装置における他の構成及び利点は、前記した第1実施形態と同様なので、これ以上詳しい説明は省略する。
 なお、本発明の内容は、前記各実施形態に限定されるものではない。本発明は、特許請求の範囲に記載された範囲内において、具体的な構成に対して種々の変更を加えうるものである。
 例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。
 また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティング又はクラウドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。
 さらに、前記した実施形態においては、いわゆるサッカードミラーを用いてカメラの視点を動かす例を説明したが、これに限らず、視点が可動なカメラであれば、本発明を適用することが可能であると考えられる。

Claims (10)

  1.  視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するための装置であって、
     撮像部と、極座標算出部と、記録部と、対象背景抽出部と、差分抽出部とを備えており、
     前記撮像部は、カメラと、駆動部とを備えており、
     前記カメラは、対象物を含まない画像である背景画像、あるいは、対象物を含む画像である実画像を取得できる構成となっており、
     前記駆動部は、前記カメラの視線方向及び視点位置を変更できる構成となっており、
     前記極座標算出部は、視線方向取得部と、視点位置取得部と、座標変換部とを備えており、
     前記視線方向取得部は、前記カメラにおける視線方向を取得する構成となっており、
     前記視点位置取得部は、前記カメラにおける視点位置を取得する構成となっており、
     前記座標変換部は、取得された前記視線方向及び視点位置を用いて、前記背景画像あるいは前記実画像における画素の位置情報を、固定座標系における極座標情報に変換する構成となっており、
     前記記録部は、前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録する構成となっており、
     前記対象背景抽出部は、前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定する構成となっており、
     前記差分抽出部は、前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出する構成となっている
     背景差分抽出装置。
  2.  前記座標変換部における、前記極座標情報への変換は、
     前記背景画像あるいは前記実画像における画素の位置情報を、視点が固定された仮想カメラにおける仮想画像上での、当該画素の位置情報である仮想位置情報に変換する処理と、
     前記仮想位置情報を、前記固定座標系における極座標情報に変換する処理と
     によって行われる構成となっている
     請求項1に記載の背景差分抽出装置。
  3.  さらに量子化部を備えており、
     前記量子化部は、前記座標変換部で得られた前記極座標情報を量子化する構成とされており、
     さらに、前記量子化部は、前記カメラにおける視線方向が前記固定座標系における基準方向からずれるほど、量子化単位としての角度範囲を増やす構成とされており、
     前記記録部は、前記画素の極座標情報として、量子化された前記極座標情報を用いる構成とされている
     請求項1又は2に記載の背景差分抽出装置。
  4.  さらに、ブラー生成部を備えており、
     前記ブラー生成部は、前記対象背景を、前記視線方向が移動する方向に沿って複数枚特定し、特定された複数枚の前記対象背景を合成することによって、ブラーを有する合成対象背景を生成する構成とされており、
     前記差分抽出部は、前記実画像と前記合成対象背景とを比較することによって、前記差分を抽出する構成とされている
     請求項1~3のいずれか1項に記載の背景差分抽出装置。
  5.  前記カメラの視線方向は、パン方向角度とチルト方向角度とによってあらわされている
     請求項1~4のいずれか1項に記載の背景差分抽出装置。
  6.  前記駆動部は、前記カメラの視線方向をパン方向とチルト方向とに変化させる鏡面光学系を備えている
     請求項1~5のいずれか1項に記載の背景差分抽出装置。
  7.  さらに、背景更新部を備えており、
     前記背景更新部は、前記実画像のうち、前記差分抽出部において前記差分とされなかった部分を新たな背景画像として特定して、前記記録部における前記背景画像における画素の色情報を更新する構成とされている
     請求項1~6のいずれか1項に記載の背景差分抽出装置。
  8.  前記駆動部は、前記差分抽出部によって差分として抽出された部分に前記カメラの視線方向を向ける構成とされている
     請求項1~7のいずれか1項に記載の背景差分抽出装置。
  9.  視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するための方法であって、
     前記カメラにより、対象物を含まない画像である背景画像を取得するステップと、
     前記カメラの視線方向及び視点位置の情報を用いて、前記背景画像における画素の位置情報を、前記固定座標系における極座標情報に変換するステップと、
     前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録部に記録するステップと、
     前記カメラにより、対象物を含む画像である実画像を取得するステップと、
     前記カメラの視線方向及び視点位置の情報を用いて、前記実画像における画素の位置情報を、固定座標系における極座標情報に変換するステップと、
     前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定するステップと、
     前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出するステップと
     を備えることを特徴とする背景差分抽出方法。
  10.  視線方向及び視点位置が移動可能なカメラで得られた画像を用いて背景差分を抽出するためのコンピュータプログラムであって、
     対象物を含まない画像である背景画像をカメラに取得させるステップと、
     前記カメラの視線方向及び視点位置の情報を用いて、前記背景画像における画素の位置情報を、固定座標系における極座標情報に変換するステップと、
     前記背景画像における画素の色情報と、当該画素の極座標情報との対応関係を記録部に記録するステップと、
     対象物を含む画像である実画像を前記カメラに取得させるステップと、
     前記カメラの視線方向及び視点位置の情報を用いて、前記実画像における画素の位置情報を、前記固定座標系における極座標情報に変換するステップと、
     前記実画像における画素の極座標情報を用いて、前記実画像に対応する角度領域での前記背景画像を対象背景として特定するステップと、
     前記実画像と前記対象背景とを比較することによって、それらの間の差分を抽出するステップと
     をコンピュータに実行させるためのコンピュータプログラム。
PCT/JP2014/061826 2013-05-09 2014-04-28 背景差分抽出装置及び背景差分抽出方法 WO2014181726A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/890,150 US9924104B2 (en) 2013-05-09 2014-04-28 Background-differential extraction device and background-differential extraction method
CN201480025487.7A CN105210368B (zh) 2013-05-09 2014-04-28 背景差分提取装置以及背景差分提取方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-099408 2013-05-09
JP2013099408A JP6090786B2 (ja) 2013-05-09 2013-05-09 背景差分抽出装置及び背景差分抽出方法

Publications (1)

Publication Number Publication Date
WO2014181726A1 true WO2014181726A1 (ja) 2014-11-13

Family

ID=51867207

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/061826 WO2014181726A1 (ja) 2013-05-09 2014-04-28 背景差分抽出装置及び背景差分抽出方法

Country Status (4)

Country Link
US (1) US9924104B2 (ja)
JP (1) JP6090786B2 (ja)
CN (1) CN105210368B (ja)
WO (1) WO2014181726A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9924104B2 (en) 2013-05-09 2018-03-20 The University Of Tokyo Background-differential extraction device and background-differential extraction method
JP2018088065A (ja) * 2016-11-28 2018-06-07 株式会社Nttファシリティーズ 情報可視化システム、情報可視化方法、及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147498A1 (ja) * 2015-03-17 2016-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP3370414A4 (en) * 2015-10-28 2019-06-05 Kyocera Corporation IMAGING DEVICE, IMAGING SYSTEM, INDIVIDUAL SURVEILLANCE SYSTEM, AND CONTROL METHOD FOR IMAGING DEVICE
JP6489649B2 (ja) * 2015-11-16 2019-03-27 株式会社 日立産業制御ソリューションズ モーションブラー補償装置、撮像システム、および、モーションブラー補償方法
CN106570832A (zh) * 2016-10-31 2017-04-19 北京尚水信息技术股份有限公司 一种基于最小值背景差分的piv图像处理方法
CN108540782B (zh) * 2017-03-03 2020-09-22 株式会社理光 获取差分图像的方法和装置
KR102549503B1 (ko) * 2017-12-20 2023-06-30 삼성전자주식회사 저전력 상태에서 이미지들의 출력 타이밍을 동기화하기 위한 디스플레이 구동 회로
CN108171706B (zh) * 2018-01-22 2021-08-17 井冈山大学 一种计算机图像处理方法
JP2019152980A (ja) 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6452875B1 (ja) * 2018-03-29 2019-01-16 株式会社日立製作所 移動体撮像システム、及び、移動体撮像方法
US20230087312A1 (en) * 2020-02-28 2023-03-23 Nec Corporation Measuring method, measuring apparatus, and measuring system
KR102558294B1 (ko) 2020-12-31 2023-07-24 한국과학기술연구원 임의 시점 영상 생성 기술을 이용한 다이나믹 영상 촬영 장치 및 방법
CN113110542B (zh) * 2021-04-16 2022-07-15 东北大学 一种基于单轴云台的四旋翼无人机目标追踪系统
CN113296546B (zh) * 2021-04-22 2023-01-06 杭州晟冠科技有限公司 一种轮船联动跟踪定位误差的补偿方法
CN113627323B (zh) * 2021-08-09 2024-05-07 上海擎朗智能科技有限公司 一种图像处理方法、机器人及介质
JP2023122677A (ja) * 2022-02-24 2023-09-05 東レエンジニアリング株式会社 ウエーハ検査装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021407A (ja) * 1996-06-28 1998-01-23 Osaka Kagaku Gijutsu Center 動き検出装置
JP2009236569A (ja) * 2008-03-26 2009-10-15 Zynas Corp 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP2010244207A (ja) * 2009-04-02 2010-10-28 Univ Of Tokyo 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
CA2563478A1 (en) * 2004-04-16 2005-10-27 James A. Aman Automatic event videoing, tracking and content generation system
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
CN100583126C (zh) 2008-01-14 2010-01-20 浙江大学 基于快速图像配准的视角变化条件下视频前景提取方法
US8405720B2 (en) * 2008-08-08 2013-03-26 Objectvideo, Inc. Automatic calibration of PTZ camera system
CN102025981B (zh) * 2010-12-23 2013-12-04 北京邮电大学 一种监控视频中的前景检测的方法
CN102034240A (zh) * 2010-12-23 2011-04-27 北京邮电大学 一种静态前景检测和跟踪方法
CN103077520B (zh) * 2013-01-04 2016-02-24 浙江大学 一种针对移动摄像机的背景减除方法
JP6090786B2 (ja) 2013-05-09 2017-03-08 国立大学法人 東京大学 背景差分抽出装置及び背景差分抽出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021407A (ja) * 1996-06-28 1998-01-23 Osaka Kagaku Gijutsu Center 動き検出装置
JP2009236569A (ja) * 2008-03-26 2009-10-15 Zynas Corp 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP2010244207A (ja) * 2009-04-02 2010-10-28 Univ Of Tokyo 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KEIKO YOKOYAMA ET AL.: "Kosoku Shisen Seigyo System o Mochiita Buttai Tsuiseki no Tameno Haikei Jokyo Algorithm", THE 13TH SICE SYSTEM INTEGRATION DIVISION ANNUAL CONFERENCE ( SI 2012), KOEN RONBUNSHU, THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, 18 December 2012 (2012-12-18), pages 2237 - 2240 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9924104B2 (en) 2013-05-09 2018-03-20 The University Of Tokyo Background-differential extraction device and background-differential extraction method
JP2018088065A (ja) * 2016-11-28 2018-06-07 株式会社Nttファシリティーズ 情報可視化システム、情報可視化方法、及びプログラム

Also Published As

Publication number Publication date
CN105210368B (zh) 2018-10-26
JP2014219874A (ja) 2014-11-20
CN105210368A (zh) 2015-12-30
US9924104B2 (en) 2018-03-20
JP6090786B2 (ja) 2017-03-08
US20160088231A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP6090786B2 (ja) 背景差分抽出装置及び背景差分抽出方法
JP6768156B2 (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
US10594941B2 (en) Method and device of image processing and camera
US8848035B2 (en) Device for generating three dimensional surface models of moving objects
CN108363946B (zh) 基于无人机的人脸跟踪系统及方法
US20160328882A1 (en) Pass-through display of captured imagery
WO2011105044A1 (en) Information processing method and information processing apparatus
JP2020506487A (ja) シーンから深度情報を取得するための装置および方法
CN101140661A (zh) 一种以动态投影为背景的实时目标识别方法
JP2012222743A (ja) 撮像装置
CN110544273B (zh) 运动捕捉方法、装置以及系统
CN110544278B (zh) 刚体运动捕捉方法及装置、agv位姿捕捉系统
CN110060295B (zh) 目标定位方法及装置、控制装置、跟随设备及存储介质
WO2020257999A1 (zh) 图像处理方法、装置、云台和存储介质
Hu et al. Omnidirectional panoramic video system with frame-by-frame ultrafast viewpoint control
CN112640419B (zh) 跟随方法、可移动平台、设备和存储介质
EP4071713A1 (en) Parameter calibration method and apapratus
CN115278049A (zh) 拍摄方法及其装置
WO2021149509A1 (ja) 撮像装置、撮像方法、及び、プログラム
CN115222793A (zh) 深度图像的生成及显示方法、装置、系统、可读介质
CN114241127A (zh) 全景图像生成方法、装置、电子设备和介质
CN112308972A (zh) 一种大规模电缆隧道环境模型重构方法
Peng et al. A low-cost implementation of a 360 vision distributed aperture system
US20230031480A1 (en) System for tracking camera and control method thereof
US20240029283A1 (en) Image depth prediction method, electronic device, and non-transitory storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14794401

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14890150

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14794401

Country of ref document: EP

Kind code of ref document: A1