JP6821398B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6821398B2
JP6821398B2 JP2016218966A JP2016218966A JP6821398B2 JP 6821398 B2 JP6821398 B2 JP 6821398B2 JP 2016218966 A JP2016218966 A JP 2016218966A JP 2016218966 A JP2016218966 A JP 2016218966A JP 6821398 B2 JP6821398 B2 JP 6821398B2
Authority
JP
Japan
Prior art keywords
image
captured
image processing
processing device
adapter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016218966A
Other languages
English (en)
Other versions
JP2018077674A (ja
Inventor
秀憲 伊藤
秀憲 伊藤
究 小林
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016218966A priority Critical patent/JP6821398B2/ja
Priority to US15/803,532 priority patent/US10552980B2/en
Publication of JP2018077674A publication Critical patent/JP2018077674A/ja
Application granted granted Critical
Publication of JP6821398B2 publication Critical patent/JP6821398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数視点画像から仮想視点コンテンツを生成する技術により、ユーザは、例えば、サッカー等のハイライトシーンを様々な角度から視聴することができる。特許文献1には、複数のカメラで同一の範囲を取り囲むように配置して、その同一の範囲を撮影した画像を用いて、任意の仮想視点画像を生成、表示することが記載されている。
特開2014−215828号公報
しかしながら、複数の視点の撮像画像をサーバなどの画像処理装置に集約して仮想視点画像の生成を行なうと、撮像画像の伝送データ量が多くなるという問題がある。例えば、サーバと複数のカメラとをデイジーチェーン接続した場合においても、各カメラによる撮像画像のすべてをサーバが受信する構成とすれば、撮像画像の伝送データ量が多くなる。伝送データ量の増大により、通信路にも負荷がかかるし、サーバの受信処理に係る負荷も増大する。なお、上記の課題では複数のカメラからの撮像画像を用いて仮想視点画像を生成する場合の課題について述べたが、複数のマイクからの収音データを用いて仮想視点音声を含む仮想視点コンテンツを生成する場合にも同様の課題が発生し得る。
本発明はこのような問題点に鑑みなされたもので、複数の視点の撮像画像を用いて仮想視点コンテンツの生成を行うシステムにおいて、装置間の伝送データ量を削減することを目的とする。
そこで、本発明は、撮像装置に対応して設けられた画像処理装置であって、前記撮像装置により撮像された第1の撮像画像を取得する取得手段と、前記画像処理装置に接続された第1の画像処理装置に対応して設けられた撮像装置により撮像された第2の撮像画像を前記第1の画像処理装置から受信し、さらに前記第1の画像処理装置に接続された第2の画像処理装置に対応した撮像装置により撮像された第3の撮像画像と前記第2の撮像画像とに基づいて生成された画像であり、前記第2の撮像画像の前景画像の生成に用いられる画像であり、かつ前記第3の撮像画像に比べてデータ量の少ない画像である、第1の処理画像を前記第1の画像処理装置から受信する受信手段と、前記第2の撮像画像と、前記第1の撮像画像と、前記第1の処理画像と、に基づいて、前記第2の撮像画像の前記前景画像を生成する第1の生成手段とを有することを特徴とする。
本発明によれば、複数の視点の撮像画像を用いて仮想視点画像の生成を行うシステムにおいて、装置間の伝送データ量を削減することができる。
画像処理システムの全体図である。 アダプタの構成図である。 装置間のデータフローの説明図である。 前景分離処理の説明図である。 アダプタによる処理を示したフローチャートである。 アダプタ間のデータフローを示した図である。 アダプタ間のデータの授受を示す図である。 アダプタによる処理を示したフローチャートである。 アダプタ間のデータフローを示した図である。 アダプタ間のデータの授受を示す図である。 アダプタのハードウェア構成の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、画像処理システム100の全体図である。画像処理システム100は、撮像対象170を取り囲むように配置された複数のカメラ110a〜110pと、各カメラ110a〜110pに接続したアダプタ120a〜120pと、サーバ装置150とを有している。ここで、カメラ110a〜110pは、撮像装置の一例である。また、アダプタ120a〜120pは、それぞれカメラ110a〜110pに対応して設けられた画像処理装置の一例である。各カメラ110a〜110pとそれぞれに対応するアダプタ120a〜120pの間は、それぞれ伝送ケーブル130a〜130pで接続されている。伝送ケーブル130a〜130pは、例えばSDI(Serial Digital Interface)ケーブルにより実現する。アダプタ120a〜120pは、伝送ケーブル160を介してデイジーチェーン接続している。さらに、サーバ装置150は、伝送ケーブル160を介して、アダプタ120a、120pと接続している。なお、伝送ケーブル160は、例えばEthernetケーブルで実現する。
カメラ110a、アダプタ120a及び伝送ケーブル130aで構成した単位をまとめてセンサシステム140aと称する。同様に、カメラ110b〜110p、アダプタ120a〜120p及び伝送ケーブル130b〜130pで構成された単位をセンサシステム140b〜140pと称する。画像処理システム100は、撮像対象170の周囲に配置された複数のセンサシステム140a〜140pにより撮像対象170を全方位から撮像し、撮像した画像群に画像処理を施すことで、任意の視点からの映像を再構成してユーザに提供するシステムである。この映像の再構成処理は、アダプタ120a〜120pとサーバ装置150により行う。なお、画像処理システム100は、センサシステムを複数有していればよく、その数は、実施形態に限定されるものではない。また、以下、複数のカメラ110a〜110pはいずれも同一の装置であり、これらを区別する必要がない場合には、適宜、単にカメラ110と称する。同様に、アダプタ120a〜120pは、同一の装置であり、これらを区別する必要がない場合には、適宜、単にアダプタ120と称する。
映像の再構成のための処理ステップは、種々の方法があるが、本実施形態では、次の通りとする。アダプタ120においては、当該アダプタ120と対になるカメラ110の撮像画像及びその両隣に配置されたカメラ110の撮像画像を用いて、撮像対象170における前景画像を分離し、サーバ装置150への伝送処理を行う。サーバ装置150では、各アダプタ120から伝送された各カメラ110の撮像位置における前景画像群より、任意の視点からの映像の再構成処理を行う。
これらの処理を行うために、画像処理システム100は、撮像対象170の周囲に配置したセンサシステム140のアダプタ120を伝送ケーブル160によりデイジーチェーン接続した構成とする。そして、アダプタ120は、各カメラ110の撮像画像から前景画像を分離する処理に必要なデータと、各カメラ110の撮像画像から抽出した前景画像を伝送する。
図2は、センサシステム140内のアダプタ120の構成図である。アダプタ120は、撮像のための同期信号205をカメラ110に対して出力し、カメラ110は入力された同期信号205に合わせて撮像し、撮像画像206をアダプタ120に対して出力する。そして、アダプタ120は、伝送ケーブル160a、160bを介して、両隣のアダプタ120との間でデータの送受信を行う。
信号生成部201は、カメラ110に対して出力する同期信号205を生成する。同期信号205は、撮像タイミング及びタイムスタンプからなる。撮像タイミングは、画像処理システム100を構成する全てのカメラ110で同期して撮像するために生成されるものである。信号生成部201は、例えば全てのアダプタ120をPTPにより同期させ、同一時刻に撮像タイミングを生成する。ここで、PTPとは、Precision Time Protocolの略称である。各アダプタ120において同一時刻に生成した撮像タイミングに対して同一のタイムスタンプを付与する。これにより、複数のカメラ110が同一タイミングで撮像された撮像画像には、同一のタイムスタンプが付与される。なお、タイムスタンプの付与には、タイムコードが用いられる。タイムコードとしては、例えば、SMPTE(Society of Motion Picture & Television Engineers)12Mで規定されるLTC(Linear TimeCode)等が挙げられる。
カメラ110は、同期信号205を用いて撮像処理を行い、撮像画像206をアダプタ120に対して出力する。入力部202は、カメラ110の撮像画像206を受信し、撮像画像207として、分離部203及び送受信部204に対して出力する。分離部203は、撮像画像207と、他のセンサシステム140から伝送される伝送データ208を用いて、前景分離処理を行う。そして、分離部203は、処理結果を伝送データ209として、送受信部204に対して出力する。分離部203が授受するデータ及び分離部203が行う前景分離処理については後述する。
送受信部204は、入力部202及び分離部203から受信したデータを他のセンサシステム140に対して送信する処理、及び他のセンサシステムから受信したデータを分離部203に受け渡す処理を行う。データの送信及び受信は、その送信先、受信先に対して接続された伝送ケーブル160aもしくは伝送ケーブル160bを介して行う。送受信部204が授受するデータについても、上述の前景分離処理の説明と合わせて後述する。
なお、本実施形態においては、図2に示すアダプタ120の各部はハードウェアにより構成されるものとするが、他の例としては、図2に示す各部は、ソフトウェアにより実現されてもよい。この場合、アダプタ120は、CPU、RAM、ROM等を有し、CPUがROM格納されているプログラムを読み出し、このプログラムを実行することにより、図2に示す各部が実現される。アダプタ120が本実施形態の処理をCPUなどのハードウェアを用いて実行する場合のアダプタ120のハードウェア構成を図11に示す。図11に示すように、アダプタ120は、CPU1101、ROM1102、RAM1103、外部メモリ1104、及び、通信インタフェース1105が通信バス1107に接続されたハードウェア構成を採用しうる。この場合、CPU1101が、所定のプログラムをROM1102から読み出して実行することにより、図2に示した信号生成部201、入力部202、分離部203、及び送受信部204の処理が実現される。また、アダプタ120とカメラ110との通信、及び、アダプタ120と他のアダプタ120との間の通信は、CPU1101が通信インタフェース1105を動作させることで実現される。
図3は、センサシステム140間のデータフローと、センサシステム140とサーバ装置150の間のデータフローの説明図である。図3を参照し、複数のセンサシステム140n、140o、140pとサーバ装置150の間のデータフローについて説明する。画像処理システム100においては、サーバ装置150からより遠くに存在するアダプタ120から、サーバ装置150により近いアダプタ120に対して順番に、前景分離処理に必要なデータが伝送される。
図3の例では、アダプタ120nは、伝送ケーブル160を介して伝送データ300nをアダプタ120oに送信する。アダプタ120oは、伝送ケーブル160を介して伝送データ300oをアダプタ120pに送信する。アダプタ120pは、伝送ケーブル160を介して伝送データ300pをサーバ装置150に送信する。伝送データは、各カメラ110の撮像画像から前景部を分離した結果である前景画像と、前景画像を抽出するための前景分離処理に必要なデータとを含んでいる。前景分離処理に必要なデータについては、上述の前景分離処理の説明と合わせて後述する。
図4は、分離部203による前景分離処理の説明図である。ここでは、3つのカメラ401〜403で撮像した画像を用いて前景画像を分離する場合を例に説明する。図4(a)は、被写体400とカメラ401〜403の配置例を示す図である。カメラ401〜403は、被写体400を別々の方向から撮像する。また、この配置で撮像する際には、カメラ401の撮像画像に対して前景分離処理を行う。すなわち、前景分離処理においては、前景分離対象となる撮像画像を撮像するカメラ(カメラ401)の撮像画像と、その両隣に配置したカメラ(カメラ402とカメラ403)の撮像画像を用いる。
図4(b)は、3つのカメラ401〜403の撮像画像から、前景分離対象とした撮像画像の前景マスクを生成する処理を示す図である。処理には、カメラ401の撮像画像404、カメラ402の撮像画像405及びカメラ403の撮像画像406が用いられる。分離部203は、まずカメラ402の撮像画像405及びカメラ403の撮像画像406を、その撮像画像内の基準平面がカメラ401の撮像画像404と重なり合うように射影変換する。ここでいう基準平面とは、撮像対象物が位置する平面であり、例えば撮像対象がサッカーの試合であれば、撮像対象物はプレイヤー、平面はサッカーフィールドとなる。ただし、撮像対象はサッカーの試合に限定されるものではなく、撮像対象及び基準平面は撮像対象に応じて定められるものとする。
次に、分離部203は、カメラ401の撮像画像404とカメラ402の射影変換後の撮像画像407の差分画像409を生成する。差分画像とは、2つの画像を画素毎に比較し、差分のある画素に1ビットのフラグを立てた、2値画像である。この差分画像のデータサイズは、撮像画像に対して、画素数が同じで各画素のビット深度が「1/(撮像画像の1画素のビット深度)」となる。したがって、差分画像のデータサイズは、撮像画像のデータサイズに対して「1/(撮像画像の1画素のビット深度)」のデータサイズとなる。例えば、元画像が1画素あたりRGB各8ビットのデータを持つ画像であった場合、差分画像は元画像に対して1/24のサイズとなる。同様に、分離部203は、カメラ401の撮像画像404とカメラ403の射影変換後の撮像画像408の差分画像410を生成する。この差分画像は、カメラ401の撮像画像404における前景候補領域を示すものとなる。
次に、分離部203は、差分画像409、410よりマスク画像411を生成する。この処理では、分離部203は、2つの差分画像を画素毎に比較し、両方ともにフラグが立っている画素に対して1ビットのフラグを立てる。これらの処理によりマスク画像411は、カメラ401の撮像画像404における、基準平面そのもの以外の撮像内容の画素を示したマスク画像となる。このマスク画像が示す領域が、カメラ401の撮像画像404における前景領域となる。
図4(c)は、カメラ401の撮像画像404とマスク画像411より、カメラ401の前景画像412を生成する処理を示す図である。分離部203は、撮像画像404のうち、マスク画像411内でフラグが立っている画素を抜き出すことにより、カメラ401の前景画像412を生成する。
次に、まず、図5〜図7を参照しつつ、図4を参照しつつ説明した前景分離処理のすべてを1つのアダプタ120で行う場合のアダプタ120の処理について説明する。次に、図8〜図10を参照しつつ前景分離処理を、複数のアダプタ120で行う場合のアダプタ120の処理について説明する。なお、前者の処理については、後者の処理との比較のために説明する。
図5は、アダプタ120における1フレーム分の処理を示したフローチャートである。また、図6は、3つのアダプタ120(アダプタA〜C)の間のデータフローを示した図である。以下、図5及び図6を用いて、アダプタ120が行う1フレーム分の前景分離処理について説明する。
S501において、入力部202は、伝送ケーブル130により接続されたカメラ110、すなわち自装置に対応するカメラ110により得られた撮像画像を、対応するカメラ110から取得(受信)する。次に、S502において、送受信部204は、対応するカメラ110により得られた撮像画像を、伝送ケーブル160を介して、隣接するアダプタ120に送信する。なお、本実施形態においては、デイジーチェーン構成上の1つ先のアダプタ120に送信する。図6の例では、本処理により、図6(a)に示すように、アダプタAは、対応するカメラにより撮像された撮像画像Aを1つ先のアダプタBに送信する。同様に、アダプタBは、対応するカメラにより撮像された撮像画像BをアダプタCに送信する。
次に、S503において、送受信部204は、1つ手前のアダプタ120から送信された、1つ手前のアダプタ120に対応するカメラ110の撮像画像を受信する。本処理により、図6(a)に示すように、アダプタBは、1つ手前のアダプタAから撮像画像Aを受信する。同様に、アダプタCは、アダプタBから撮像画像Bを受信する。次に、S504において、送受信部204は、1つ手前のアダプタ120から受信した、1つ手前のアダプタ120に対応する撮像画像を、1つ先のアダプタ120に送信する。図6(b)の例では、アダプタBは、1つ手前のアダプタAに対応する撮像画像Aを、1つ先のアダプタCに送信する。
次に、S505において、送受信部204は、1つ手前のアダプタ120から送信された、2つ手前のアダプタ120に対応するカメラ110の撮像画像を受信する。なお、この時点において、1つ手前のアダプタ120は、2つ手前のアダプタ120に対応する撮像画像を2つ手前のアダプタ120から受信している。図6(c)は、S505の処理の完了後にアダプタA〜Cが保持する撮像画像を示している。アダプタCは、撮像画像Cの他、撮像画像B、Aを保持している。
次に、S506において、分離部203は、前景分離処理を行う。図6の例では、アダプタCは、撮像画像Cと撮像画像Bの差分画像を生成し、さらに撮像画像Aと撮像画像Bの差分画像を生成する。さらに、分離部203は、2つの差分画像に基づいて、撮像画像Bに対する前景画像を生成する。次に、S507において、送受信部204は、前景分離処理により得られた前景画像を、伝送ケーブル160を介してサーバ装置150に伝送する。以上で、1フレーム分の前景画像を抽出する処理が終了する。
図7は、図5の処理に対応した、アダプタ120間での撮像画像の授受を示す図である。アダプタAからアダプタBには、アダプタAに対応する撮像画像Aと、アダプタAの1つ上流(1つ手前)に位置するアダプタに対応する撮像画像Zの2つが送信される。同様に、アダプタBからアダプタCには、アダプタBに対応するカメラにより得られた撮像画像Bと、アダプタAに対応する撮像画像Aが送信される。このように、図4に示す処理を行う場合には、前景分離処理を行うためのデータとして各アダプタ間で2つの撮像画像が伝送される。
次に、図8〜図10を参照しつつ、前景分離処理を複数のアダプタ120で行う場合のアダプタ120の処理について説明する。図8は、アダプタ120における1フレーム分の処理を示したフローチャートである。また、図9は、3つのアダプタ120(アダプタA〜C)間のデータフローを示した図である。以下、図8及び図9を用いて、アダプタ120が行う1フレーム分の前景分離処理について説明する。
S801において、入力部202は、自装置に対応するカメラ110により得られた撮像画像を、対応するカメラ110から取得(受信)する。次に、S802において、送受信部204は、自装置に対応する撮像画像を、伝送ケーブル160を介して、1つ先のアダプタ120に送信する。図9の例では、図9(a)に示すように、アダプタAは、対応するカメラにより撮像された撮像画像Aを1つ先のアダプタBに送信する。同様に、アダプタBは、対応するカメラにより撮像された撮像画像BをアダプタCに送信する。
次に、S803において、送受信部204は、1つ手前のアダプタ120から送信された、1つ手前のアダプタ120に対応するカメラ110の撮像画像を受信する。本処理により、図9(a)に示すように、アダプタBは、1つ手前のアダプタAから撮像画像Aを受信する。同様に、アダプタCは、アダプタBから撮像画像Bを受信する。なお、S801〜S803の処理は、図5を参照しつつ説明したS501〜S503の処理と同様である。
次に、S804において、分離部203は、自装置に対応する撮像画像と、1つ手前のアダプタ120に対応する撮像画像の差分画像を生成する。ここで、差分画像は、1つ手前のアダプタ120に対応する撮像画像の前景画像の生成に用いられる処理画像の一例である。以下、S804において生成された差分画像を第1の差分画像と称する。次に、S805において、分離部203は、第1の差分画像を1つ先のアダプタ120に送信する。図9の例では、図9(b)に示すように、アダプタBは、撮像画像Aと撮像画像Bから第1の差分画像として差分画像ABを生成する。そして、アダプタBは、差分画像ABをアダプタCに送信する。なお、図9(b)に示すように、アダプタCは、撮像画像Bと撮像画像Cから第1の差分画像として差分画像BCを生成する。そして、アダプタCは、差分画像BCをアダプタD(不図示)に送信する。なお、アダプタCの次にアダプタDではなくサーバ装置150が接続される場合は、アダプタCは差分画像BCをサーバ装置150に送信する。
次に、S806において、送受信部204は、1つ手前のアダプタ120から送信された、1つ手前のアダプタ120により生成された差分画像を受信する。ここで、受信した差分画像は、1つ手前のアダプタに対応する撮像画像の前景画像の生成に用いられる処理画像の一例である。以下、S806において受信する差分画像を第2の差分画像と称する。図9の例では、図9(b)に示すように、アダプタCは、撮像画像Aと撮像画像Bから生成された差分画像ABをアダプタBから受信する。図9(c)は、S806の処理の完了後にアダプタA〜Cが保持する撮像画像及び差分画像を示している。アダプタCは、自装置に対応するカメラ110により撮像された撮像画像Cと、アダプタBに対応する撮像画像Bと、を保持している。アダプタCはさらに、S805にて撮像画像Bと撮像画像Cから第1の差分画像として生成した差分画像BCと、S806にてアダプタBから第2の差分画像として受信した差分画像ABと、を保持している。
次に、S807において、分離部203は、第1の差分画像と第2の差分画像に基づいて、1つ手前のアダプタに対応する撮像画像の前景画像を生成する。図9の例では、図9(c)に示すように、アダプタCは、第1の差分画像(差分画像BC)と、第2の差分画像(差分画像AB)とに基づいて、アダプタBに対応する撮像画像(撮像画像B)の前景画像を生成する。次に、S808において、送受信部204は、生成された前景画像を、伝送ケーブル160を介してサーバ装置150に送信する。なお、本実施形態において、アダプタ120とサーバ装置150との間に他のアダプタ120が接続されている場合、前景画像は、当該他のアダプタ120を介してサーバ装置150へ送信される。以上で、1フレーム分の前景画像を抽出する処理の説明を終了する。
図10は、図8に対応した、アダプタ120間での撮像画像と差分画像の授受を示す図である。アダプタAからアダプタBには、アダプタAに対応する撮像画像Aと、アダプタAとその1つ上流に位置するアダプタに対応する撮像画像Zとの差分画像である差分画像AZの2つが送信される。同様に、アダプタBからアダプタCには、アダプタBに対応する撮像画像Bと、アダプタBに対応する撮像画像BとアダプタAに対応する撮像画像Aとの差分画像ABの2つが送信される。
すなわち、図7の例においては、アダプタ120間で送受信されるデータは、2つの撮像画像であるのに対し、図10の例では、アダプタ120間で送受信されるデータは、1つの撮像画像と、1つの差分画像である。前述の通り、差分画像のデータサイズは、撮像画像のデータサイズの「1/(撮像画像の1画素のビット深度)」となる。すなわち、本実施形態に係る画像処理システム100においては、各アダプタ120が図7に示す処理を行うことにより、アダプタ120間の伝送データのデータ量を減少させることができる。すなわち、複数の視点の撮像画像を用いた処理を行うシステムにおいて、アダプタ間(装置間)の伝送データ量を削減する。
なお、本実施形態においては、処理画像は、撮像画像に比べてデータ量が少ない画像で、かつ前景画像の生成に用いられる画像であればよく、実施形態において例示した2値の差分画像に限定されるものではない。他の例としては、撮像画像に比べて階調の低い多値の差分画像であってもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
例えば、本実施形態ではカメラ110とアダプタ120が別の装置である場合の例を中心に説明したが、カメラ110とアダプタ120が一体となっていても良い。例えば、カメラ110が有するCPUが、図2にて示す信号生成部201や分離部203に係る処理を実行するようにしても良い。
さらに、本実施形態では、カメラ110とアダプタ120が1対1で接続される場合の例を中心に説明したが、この形態に限らない。例えば、2台のカメラごとに1台のアダプタ120が接続されるようにしても良い。このように、本実施形態の構成については、種々の変形を行うことが可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理システム
110 カメラ
120 アダプタ
150 サーバ装置

Claims (12)

  1. 撮像装置に対応して設けられた画像処理装置であって、
    前記撮像装置により撮像された第1の撮像画像を取得する取得手段と、
    前記画像処理装置に接続された第1の画像処理装置に対応して設けられた撮像装置により撮像された第2の撮像画像を前記第1の画像処理装置から受信し、さらに前記第1の画像処理装置に接続された第2の画像処理装置に対応した撮像装置により撮像された第3の撮像画像と前記第2の撮像画像とに基づいて生成された画像であり、前記第2の撮像画像の前景画像の生成に用いられる画像であり、かつ前記第3の撮像画像に比べてデータ量の少ない画像である、第1の処理画像を前記第1の画像処理装置から受信する受信手段と、
    前記第2の撮像画像と、前記第1の撮像画像と、前記第1の処理画像と、に基づいて、前記第2の撮像画像の前記前景画像を生成する第1の生成手段と
    を有することを特徴とする画像処理装置。
  2. 前記第1の処理画像は、前記第3の撮像画像と前記第2の撮像画像の差分の2値画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記第2の撮像画像と前記第1の撮像画像とに基づいて、前記第2の撮像画像の前記前景画像の生成に用いられる画像であり、前記第2の撮像画像に比べてデータ量の少ない画像である第2の処理画像を生成し、前記第1の処理画像と、前記第2の処理画像と、に基づいて、前記第2の撮像画像の前記前景画像を生成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第2の処理画像は、前記第1の撮像画像と前記第2の撮像画像の差分の2値画像であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の撮像画像と、前記第2の処理画像と、を前記画像処理装置に接続された第4の画像処理装置に送信する送信手段をさらに有することを特徴とする請求項3又は4に記載の画像処理装置。
  6. 請求項1乃至5の何れか1項に記載の前記画像処理装置と、前記画像処理装置に対応した撮像装置と、を複数有する画像処理システム。
  7. 前記前景画像を受信するサーバ装置をさらに有することを特徴とする請求項6に記載の画像処理システム。
  8. 撮像装置に対応した画像処理装置であって、
    前記画像処理装置に接続された第1の画像処理装置に対応した撮像装置により撮像された第1の撮像画像を受信する受信手段と、
    前記画像処理装置に対応した撮像装置により撮像された第2の撮像画像を取得する取得手段と、
    前記第2の撮像画像と、前記第1の撮像画像と、に基づいて、前記第2の撮像画像の前景画像の生成に用いられる画像であり、前記第1の撮像画像に比べてデータ量の少ない画像である処理画像を生成する生成手段と、
    前記第2の撮像画像と、前記処理画像と、を前記画像処理装置に接続された第2の画像処理装置に送信する送信手段と
    を有することを特徴とする画像処理装置。
  9. 撮像装置に対応して設けられた画像処理装置が実行する画像処理方法であって、
    前記撮像装置により撮像された第1の撮像画像を取得する取得ステップと、
    前記画像処理装置に接続された第1の画像処理装置に対応して設けられた撮像装置により撮像された第2の撮像画像を前記第1の画像処理装置から受信し、さらに前記第1の画像処理装置に接続された第2の画像処理装置に対応した撮像装置により撮像された第3の撮像画像と前記第2の撮像画像とに基づいて生成された画像であり、前記第2の撮像画像の前景画像の生成に用いられる画像であり、かつ前記第3の撮像画像に比べてデータ量の少ない画像である、第1の処理画像を前記第1の画像処理装置から受信する受信ステップと、
    前記第2の撮像画像と、前記第1の撮像画像と、前記第1の処理画像と、に基づいて、前記第2の撮像画像の前記前景画像を生成する第1の生成ステップと
    を含むことを特徴とする画像処理方法。
  10. 撮像装置に対応した画像処理装置が実行する画像処理方法であって、
    前記画像処理装置に接続された第1の画像処理装置に対応した撮像装置により撮像された第1の撮像画像を受信する受信ステップと、
    前記画像処理装置に対応した撮像装置により撮像された第2の撮像画像を取得する取得ステップと、
    前記第2の撮像画像と、前記第1の撮像画像と、に基づいて、前記第2の撮像画像の前景画像の生成に用いられる画像であり、前記第1の撮像画像に比べてデータ量の少ない画像である処理画像を生成する生成ステップと、
    前記第2の撮像画像と、前記処理画像と、を前記画像処理装置に接続された第2の画像処理装置に送信する送信ステップと
    を含むことを特徴とする画像処理方法。
  11. 撮像装置に対応して設けられた画像処理装置のコンピュータを、
    前記撮像装置により撮像された第1の撮像画像を取得する取得手段と、
    前記画像処理装置に接続された第1の画像処理装置に対応して設けられた撮像装置により撮像された第2の撮像画像を前記第1の画像処理装置から受信し、さらに前記第1の画像処理装置に接続された第2の画像処理装置に対応した撮像装置により撮像された第3の撮像画像と前記第2の撮像画像とに基づいて生成された画像であり、前記第2の撮像画像の前景画像の生成に用いられる画像であり、かつ前記第3の撮像画像に比べてデータ量の少ない画像である、第1の処理画像を前記第1の画像処理装置から受信する受信手段と、
    前記第2の撮像画像と、前記第1の撮像画像と、前記第1の処理画像と、に基づいて、前記第2の撮像画像の前記前景画像を生成する第1の生成手段と
    して機能させるためのプログラム。
  12. 撮像装置に対応した画像処理装置のコンピュータを、
    前記画像処理装置に接続された第1の画像処理装置に対応した撮像装置により撮像された第1の撮像画像を受信する受信手段と、
    前記画像処理装置に対応した撮像装置により撮像された第2の撮像画像を取得する取得手段と、
    前記第2の撮像画像と、前記第1の撮像画像と、に基づいて、前記第2の撮像画像の前景画像の生成に用いられる画像であり、前記第1の撮像画像に比べてデータ量の少ない画像である処理画像を生成する生成手段と、
    前記第2の撮像画像と、前記処理画像と、を前記画像処理装置に接続された第2の画像処理装置に送信する送信手段と
    して機能させるためのプログラム。
JP2016218966A 2016-11-09 2016-11-09 画像処理装置、画像処理方法及びプログラム Active JP6821398B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016218966A JP6821398B2 (ja) 2016-11-09 2016-11-09 画像処理装置、画像処理方法及びプログラム
US15/803,532 US10552980B2 (en) 2016-11-09 2017-11-03 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218966A JP6821398B2 (ja) 2016-11-09 2016-11-09 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018077674A JP2018077674A (ja) 2018-05-17
JP6821398B2 true JP6821398B2 (ja) 2021-01-27

Family

ID=62064611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218966A Active JP6821398B2 (ja) 2016-11-09 2016-11-09 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10552980B2 (ja)
JP (1) JP6821398B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821398B2 (ja) * 2016-11-09 2021-01-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020046944A (ja) * 2018-09-19 2020-03-26 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221794B1 (en) * 2000-12-18 2007-05-22 Sportsvision, Inc. Foreground detection
JP2003163929A (ja) 2002-08-23 2003-06-06 Mitsubishi Electric Corp 映像監視装置
AU2006201210A1 (en) * 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
KR101023207B1 (ko) * 2007-09-05 2011-03-18 한국전자통신연구원 영상 객체 추출 장치 및 그 방법
US8174611B2 (en) * 2009-03-26 2012-05-08 Texas Instruments Incorporated Digital image segmentation using flash
TWI390465B (zh) * 2009-06-19 2013-03-21 Primax Electronics Ltd 用於背景去除之影像處理方法
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video
US8532336B2 (en) * 2010-08-17 2013-09-10 International Business Machines Corporation Multi-mode video event indexing
TWI489395B (zh) * 2011-11-28 2015-06-21 Ind Tech Res Inst 前景偵測裝置及方法
KR101758685B1 (ko) * 2012-03-14 2017-07-14 한화테크윈 주식회사 카메라 템퍼링 감지 방법 및 시스템
US9551922B1 (en) * 2012-07-06 2017-01-24 Amazon Technologies, Inc. Foreground analysis on parametric background surfaces
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP2015206768A (ja) * 2014-04-23 2015-11-19 株式会社東芝 前景領域抽出装置、前景領域抽出方法及びプログラム
JP6385139B2 (ja) * 2014-05-28 2018-09-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
AU2015330646A1 (en) * 2014-10-10 2017-06-01 Livebarn Inc. System and method for optical player tracking in sports venues
JP6821398B2 (ja) * 2016-11-09 2021-01-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US20180295375A1 (en) * 2017-04-05 2018-10-11 Lyrical Labs Video Compression Technology, LLC Video processing and encoding
US10217195B1 (en) * 2017-04-17 2019-02-26 Amazon Technologies, Inc. Generation of semantic depth of field effect

Also Published As

Publication number Publication date
US10552980B2 (en) 2020-02-04
JP2018077674A (ja) 2018-05-17
US20180130232A1 (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP7179515B2 (ja) 装置、制御方法、及びプログラム
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
US8009200B2 (en) Multiple sensor input data synthesis
US11677925B2 (en) Information processing apparatus and control method therefor
EP3391639A1 (en) Generating output video from video streams
KR101821145B1 (ko) 영상 라이브 스트리밍 시스템
JP6821398B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JPWO2019186787A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR20190059712A (ko) 복수의 촬영 영상을 이용한 360 vr 영상 변환 시스템 및 방법
JP2011066882A (ja) イメージマッチングシステム及びイメージマッチング方法
US20190335085A1 (en) Control apparatus, control method, and non-transitory computer-readable storage medium
KR101792386B1 (ko) 스테레오 카메라 장치 및 그를 이용한 영상 처리 방법
JP2019020845A (ja) 画像処理装置及び方法、及び、画像処理システム
JP2019080183A (ja) 画像伝送装置、画像伝送方法、及びプログラム
US20240364852A1 (en) Image processing system, image processing apparatus, control method of image processing apparatus, and storage medium
JP2020042666A (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
KR20190140237A (ko) 스테레오 영상 생성 방법 및 장치
JP7253302B1 (ja) 情報処理システム、プログラム及び情報処理方法
US11622101B2 (en) Transmission processing apparatus, transmission processing method, and storage medium
JP2019075740A (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
EP3926949A1 (en) Control apparatus, control method, and program
WO2021153261A1 (ja) 制御装置、撮影システム、および3dモデルデータ生成方法
JP6582805B2 (ja) 符号化装置、符号化システム、符号化方法、及びプログラム
JP2020046944A (ja) 画像処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210106

R151 Written notification of patent or utility model registration

Ref document number: 6821398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151