JP2021047793A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2021047793A
JP2021047793A JP2019171443A JP2019171443A JP2021047793A JP 2021047793 A JP2021047793 A JP 2021047793A JP 2019171443 A JP2019171443 A JP 2019171443A JP 2019171443 A JP2019171443 A JP 2019171443A JP 2021047793 A JP2021047793 A JP 2021047793A
Authority
JP
Japan
Prior art keywords
image
silhouette
captured
captured image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019171443A
Other languages
English (en)
Inventor
知頼 岩尾
Tomoyori IWAO
知頼 岩尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019171443A priority Critical patent/JP2021047793A/ja
Publication of JP2021047793A publication Critical patent/JP2021047793A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】撮像中に微動するオブジェクトについて、精度よくシルエット画像を得る。【解決手段】撮像画像内に存在する微動オブジェクトについて、その基準シルエットを含む基準画像をまず取得する。そして、基準画像に含まれる基準シルエットに対して処理を行ってシルエット画像を生成する。【選択図】図4

Description

本発明は、オブジェクトの形状を示すシルエット画像を生成する技術に関する。
画像内のオブジェクト(被写体)について、形状推定を行ったり、輝度やコントラスト補正を行ったりする際には、その前段階の処理として、そのオブジェクトのシルエットを表す画像(「シルエット画像」と表記)を生成する必要がある。シルエット画像を生成する手法として、これまで様々な手法が考案されてきた。特許文献1には、以下のような手順でシルエット画像を生成して、高精度なマスクを生成する技術が開示されている。
1)オブジェクトの基準となるシルエットを準備する。
2)そのオブジェクトのエッジを算出する。
3)そのオブジェクトのエッジを、基準となるシルエットを収縮処理したシルエットに加算する。
4)クロージング処理を行って、エッジとシルエットとの間の空白を埋める。
特表2015−504560号公報
例えばサッカーやラグビーといった競技で用いられるゴールポストなど、オブジェクトの中には風などの影響によって微動するものも存在し得る。この点、上記特許文献1の方法では、微動の大きさや方向によって、シルエット画像が精度よく生成できなくなる。
そこで本発明では、撮像中に微動するオブジェクトのシルエット画像を精度よく生成することを目的とする。
本開示に係る画像処理装置は、撮像画像内のオブジェクトのシルエット画像を生成する画像処理装置であって、前記オブジェクトの基準シルエットを含む基準画像を取得する取得手段と、前記オブジェクトが微動オブジェクトである場合、前記基準画像に含まれる前記基準シルエットに対して処理を行うことにより前記シルエット画像を生成して出力する第1の処理手段と、を有し、前記撮像画像と基準画像とは同じ視点に対応する画像であり、前記微動オブジェクトとは、一定時間撮像を行って得られた撮像画像内のオブジェクトのシルエットが、前記基準画像に含まれる前記基準シルエットに対して重畳する所定の範囲内で移動するオブジェクトである、ことを特徴とする。
本発明によれば、撮像中に微動するオブジェクトであっても、精度よくそのシルエット画像を生成することができる。
仮想視点映像を生成する画像処理システムの構成の一例を示す図。 カメラアダプタの内部構成を示す機能ブロック図。 撮像画像の一例を示す図。 シルエット画像が生成されるまでの過程の一例を説明した図。 (a)〜(c) は、3種類のオブジェクトの定義を説明する図。 カメラアダプタ120の機能ブロック図。 シルエット画像生成処理の流れを示すフローチャート。 (a)〜(c)は、オブジェクト種毎に得られる種別判定用画像の一例を示す図。 中間値画像を用いて種別判定用画像を生成する場合の説明図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
[実施形態1]
また、本実施形態では、動画像から生成した微動するオブジェクト(以下、「微動オブジェクト」と呼ぶ。)のシルエット画像を、仮想視点映像の生成に利用するケースを例に説明を行うものとする。すなわち、微動オブジェクトについて得られたシルエット画像からその3次元形状データを生成し、仮想視点情報に基づいてその微動オブジェクト含んだ仮想視点映像を生成する、というユースケースを想定する。
(システム構成)
図1は、仮想視点映像を生成する画像処理システムの構成の一例を示す図である。画像処理システム100は、撮影モジュール110a〜110z、データベース(DB)250、サーバ270、制御装置300、スイッチングハブ180、及びエンドユーザ端末190を有する。すなわち、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは撮影モジュール110a〜110zを含み、データ保存ドメインはDB250とサーバ270を含み、映像生成ドメインは制御装置300及びエンドユーザ端末190を含む。
制御装置300は、画像処理システム100を構成するそれぞれのブロックに対してネットワークを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用ローカルエリアネットワーク等を組合せて構成されてもよい。また、これらに限定されず、他の種類のネットワークであってもよい。
最初に、撮影モジュール110a〜110zの26セット分の撮像画像を撮影モジュール110zからサーバ270へ送信する動作を説明する。撮影モジュール110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。以下では、撮影モジュール110a〜110zまでの26セットのシステムを区別せず、単に「撮影モジュール110」と記載する場合がある。各撮影モジュール110内の装置についても同様に、「カメラ112」、「カメラアダプタ120」と記載する場合がある。なお、撮影モジュール110の台数を26セットとしているが、あくまでも一例でありこれに限定されない。
撮影モジュール110a〜110zはデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。なお、接続形態は任意であり、例えば撮影モジュール110a〜110zがスイッチングハブ180にそれぞれ接続されて、スイッチングハブ180を経由して撮影モジュール110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
本実施形態では、各撮影モジュール110はカメラ112とカメラアダプタ120とで構成されているがこれに限定されない。例えば、マイク、雲台、外部センサを有していてもよい。また、本実施形態では、カメラ112とカメラアダプタ120とが分離された構成となっているが、同一筺体で一体化されていてもよい。撮影モジュール110a内のカメラ112aにて得られた撮像画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、撮影モジュール110bのカメラアダプタ120bに伝送される。同様に撮影モジュール110bは、カメラ112bにて得られた撮像画像を、撮影モジュール110aから取得した撮像画像と合わせて撮影モジュール110cに伝送する。このような動作を続けることにより、26セット分の撮像画像が、撮影モジュール110zからスイッチングハブ180に伝わり、その後、サーバ270へ伝送される。
なお、本実施形態では、個々のカメラアダプタ120内でシルエット画像の生成までを行うものとして説明する。ただし、このような態様に限定されるものではなく、26セット分の撮像画像を受け取ったサーバ270にて、個々の撮像画像に対応するシルエット画像の生成を行うような構成であってもよい。
(カメラアダプタの構成)
次に、カメラアダプタ120の詳細について説明する。図2は、カメラアダプタ120の内部構成を示す機能ブロック図である。カメラアダプタ120は、ネットワークアダプタ121、伝送部122、画像処理部123及びカメラ制御部124から構成される。
ネットワークアダプタ121は、他のカメラアダプタ120やサーバ270、制御装置300とデータ通信を行う。また、例えばIEEE1588規格のOrdinay Clockに準拠し、サーバ270との間で送受信したデータのタイムスタンプの保存や、サーバ270との時刻同期も行う。なお、他のEtherAVB規格や、独自プロトコルによってタイムサーバとの時刻同期を実現してもよい。本実施形態では、ネットワークアダプタ121としてNIC(Network Interface Card)を利用するが、これに限定されない。
伝送部122は、ネットワークアダプタ121を介してスイッチングハブ180等に対するデータの伝送を制御する。伝送部122は、送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行う機能と、圧縮されたデータを伸張する機能とを有している。また、受信したデータ及び画像処理部123で処理されたデータのルーティング先を決定する機能や、決定したルーティング先へデータを送信する機能を有している。また、画像データを、他のカメラアダプタ120またはサーバ270へ転送するためのメッセージを作成する機能も有している。メッセージには画像データのメタ情報が含まれる。このメタ情報には、画像撮影のサンプリング時のタイムコードまたはシーケンス番号、データ種別、及びカメラ112の識別子などが含まれる。なお、送信する画像データは圧縮されていてもよい。また、他のカメラアダプタ120からメッセージを受け取り、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズにフラグメントされたデータ情報を画像データに復元する。
画像処理部123は、カメラ制御部124の制御によりカメラ112が撮影した画像データに基づき、オブジェクトのシルエット画像を生成する処理を行う。また、動的キャリブレーションなどの処理も行う。シルエット画像の生成を複数のカメラアダプタ120それぞれが行うことで、画像処理システム100における負荷を分散させることができる。動的キャリブレーションは、撮影中に行うキャリブレーションで、カメラ毎の色のばらつきを抑えるための色補正処理や、カメラの振動に起因するブレに対して画像の位置を安定させるためのブレ補正処理(電子防振処理)などが含まれる。
カメラ制御部124は、カメラ112と接続し、カメラ112の制御、撮影画像取得、同期信号提供、時刻設定などを行う。カメラ112の制御には、例えば撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定など)の設定及び参照、カメラ112の状態情報(撮影中、停止中、同期中、及びエラーなど)の取得、撮影の開始及び停止や、ピント調整などがある。
(シルエット画像生成の概要)
続いて、本実施形態におけるシルエット画像生成の概要を説明する。ここで、「シルエット」とは、画像内のオブジェクトに対応する領域情報を意味する。シルエット画像は、マスク画像とも呼ばれる。本実施形態のシルエット画像は、画像内のオブジェクト形状を示す領域を“1”、それ以外の領域を“0”で表す二値の画素値を持つ画像とするが、さらにオブジェクト形状を示す領域の確からしさを表す値を加えた二値以上の画素値を持つ画像としてもよい。
いま、図3に示す撮像画像(動画像中の1フレームに相当)10には、円柱の形状を持つ均一色のオブジェクト11が写っている。なお、形状を円柱とし、かつ、均一色としているのは説明を簡単化するためであり、形状がより複雑であったり均一色でないオブジェクトの場合にも本実施形態は適用可能である。図4は、図3に示すオブジェクト11が微動オブジェクトである場合の、あるカメラ視点(撮像視点)からのシルエット画像が生成されるまでの過程の一例を説明した図である。図4に示すように、Step.1〜Step.5の5段階で微動オブジェクトについてのシルエット画像が生成される。
Step.1:微動オブジェクトの基準となるシルエットを含む画像と、撮像画像とを合成する。
Step.2:合成後の画像から、微動オブジェクトのシルエットとして不要な領域を削除する。
Step.3:撮像画像から微動オブジェクトのエッジを検出する。
Step.4:不要領域削除後のシルエットに対し、検出されたエッジを加算する。
Step.5:エッジ加算後のシルエットに対し、隙間を埋める穴埋め処理(クロージング処理)を行う。
本実施形態では、撮像画像内のオブジェクトを三種類に分類する。具体的には、人物など撮像中にその位置・形状が変化する動的オブジェクト、球技で用いられるゴールなど風等の影響によって僅かにその位置・形状が変化し得る微動オブジェクト、観客席や看板などその位置・形状が変化しない静的オブジェクトの3種類である。図5(a)〜(c)は、上記3種類のオブジェクトそれぞれの定義を図示したものである。図5(a)は動的オブジェクトの定義を示している。固定されたあるカメラ視点から一定時間撮像を行ったときに、時間経過と共に、基準となるシルエット(以下、「基準シルエット」と呼ぶ。)に対して任意のフレームにおけるシルエットが重畳することなく大きく移動する。図5(b)は微動オブジェクトの定義を示しており、同様の撮像を行った場合に基準シルエットに対して任意のフレームにおけるシルエットが重畳する範囲内で移動する。図5(c)は静的オブジェクトの定義を示しており、同様の撮像を行った場合に基準シルエットに対して任意のフレームにおけるシルエットが一致し移動しない。
なお、上述の通りシルエットの重畳の有無がオブジェクトの種類を区別する目安となるため、実際のオブジェクト種の判定処理では、後述のように重畳の程度(閾値処理)によって、どの種類のオブジェクトであるか特定できる。
(シルエット画像生成処理の詳細)
続いて、本実施形態に係る、カメラアダプタ120でのシルエット画像生成処理について、図6に示す機能ブロック図及び図7に示すフローチャートを参照して、詳しく説明する。図6に示すとおり、カメラアダプタ120は、シルエット画像の生成に関わる6つの機能部を有する。具体的には、画像入力部601、基準画像取得部602、種別判定用画像生成部603、静的オブジェクト処理部604、動的オブジェクト処理部605、微動オブジェクト処理部606を有する。そして、微動オブジェクト処理部606には、削除処理部607と追加処理部608が含まれる。また、図7のフローチャートに示す一連の処理は、カメラアダプタ120内の不図示のCPUが、所定のプログラムを不図示のワークメモリ(RAM)に展開して実行することで実現される。
S701では、画像入力部601が、カメラ112から撮像画像データの入力を受け付ける。前述の通り、入力される撮像画像は複数フレームからなる動画像である。例えば、60fpsのフレームレートで撮像された動画像データが10秒分入力された場合は、全600フレームの連番画像がストリームとして入力され、順に処理されることになる。入力撮像画像のデータは、カメラアダプタ120内のRAM等に保持される。
S702では、基準画像取得部602が、入力撮像画像に写っているオブジェクトの基準シルエットを含む画像(以下、「基準画像」と呼ぶ。)を取得する。ここでは、背景差分法を用いて取得する方法を説明する。背景差分法の場合、例えば競技会場の設営段階など対象オブジェクトが存在しない状態で撮像して得られた画像(背景画像)と、試合開始直前や試合中など対象オブジェクトが存在する状態で撮像された画像との差分をとることで、基準画像が得られる。この際、対象オブジェクトが存在する状態の画像としては、入力撮像画像とは別のタイミングで撮像されたスチル画像や、入力撮像画像における任意フレーム(先頭フレームや中間フレーム)を用いることができる。例えば、風によって時折振動するような微動オブジェクトについては、風が吹いていないときに撮像したスチル画像を、対象オブジェクトが存在する状態の画像として用いることができる。
S703では、種別判定用画像生成部603が、入力撮像画像内の注目フレームに存在する対象オブジェクトの種別を判定するための画像(以下、「種別判定用画像」と呼ぶ。)を生成する。具体的には、入力撮像画像の全フレームの中の特定フレームと注目フレームとの差分をとることで、種別判定用画像を生成する。この際の特定フレームは、上述のS702にて基準画像の生成に用いた任意フレームと同じフレームでもよいし、異なるフレームでもよい。あるいは注目フレームの直前のフレームを特定フレームとしてもよい。図8(a)〜(c)は、上記3種類のオブジェクトがいずれも前述の図3で示した円柱のオブジェクト11であったと仮定した場合の、オブジェクト種毎に得られる種別判定用画像の一例を示している。図中の白領域がオブジェクトに対応する領域である。そして、図8(a)はオブジェクト11が静的オブジェクトであった場合、同(b)は動的オブジェクトであった場合、同(c)は微動オブジェクトであった場合の種別判定用画像をそれぞれ示している。図8(a)に示すように、静的オブジェクトの場合は注目フレームと特定フレームとの間に差分が生じない若しくはあっても極僅かである。そのため、両者の差分として現れる白領域は限りなくゼロに近い。これに対して動的オブジェクトの場合は、図8(b)に示すように、注目フレームにおけるシルエットと特定フレームにおけるシルエットとに重複する部分がない。そのため、両者の差分として現れる白領域は非常に大きい。そして、微動オブジェクトの場合は、図8(c)に示すように、注目フレームにおけるシルエットと特定フレームにおけるシルエットとの重複部分が生じる。そのため、両者の差分として現れる白領域は、動的オブジェクトのときよりも小さくなり、かつ、静的オブジェクトのときよりも大きくなる。つまり、種別判定用画像におけるオブジェクト領域の構成画素数について、以下の関係式が成り立つことになる。
静的オブジェクトの場合<微動オブジェクトの場合<動的オブジェクトの場合
こうして、撮像対象のオブジェクトが、動的オブジェクト、微動オブジェクト、静的オブジェクトのいずれであるのかを識別するための種別判定用画像が、注目フレーム内のオブジェクトについて生成される。なお、S702における基準画像の生成に入力撮像画像における任意のフレームを用いた場合において、本ステップにて同じフレームを処理する場合は、生成済みの基準画像を種別判定用画像として用いればよい。
S704では、静的オブジェクト処理部604が、S703にて生成された種別判定用画像を用いて、注目フレームに存在する対象オブジェクトが静的オブジェクトであるかどうかを判定する。前述の通り、静的オブジェクトである場合に生成される種別判定用画像におけるシルエットは非常に小さい。そのため、例えば以下の式(1)及び/又は式(2)を用いて、静的オブジェクトであるか否かを判定する。
Figure 2021047793
Figure 2021047793
上記式(1)は基準画像と種別判定用画像との差分に基づき判定する場合の式であり、上記式(2)は種別判定用画像のみを用いて判定する場合の式である。上記式(1)におけるIbは基準画像を表し、上記式(1)及び(2)において共通のIkは種別判定用画像を表す。また、上記式(1)におけるthSは判定に用いる閾値を表し、例えば基準画像Ibにおける基準シルエット部分の画素数を用いる。上記式(1)及び(2)において共通のδは撮像時のノイズ等に依存する定数であり、ごく小さな値が設定される。いずれか一方の式を用いてその式を満たす場合に静的オブジェクトであると判定してもよいし、双方の式を用いていずれの式も満たす場合に静的オブジェクトであると判定してもよい。いま、基準画像Ibにおける基準シルエット部分の画素数(=閾値thSの値)が“70”、種別判定用画像Ikにおけるシルエット部分の画素数が“0”、δの値が“5”であったとする。上記式(1)に当て嵌めると、左辺の値は“70”、右辺が“75”となり、上記式(1)を満たすことになる。また、上記式(2)に当て嵌めると、左辺の値が“0”、右辺の値が“5”となり、上記式(2)も満たすことになる。よって、この場合は、静的オブジェクトと判定されることになる。
上記判定の結果、静的オブジェクトであればS705に進む。そして、S705では、静的オブジェクト処理部604が、S702で生成した基準画像を注目フレームに存在するオブジェクトのシルエット画像として出力する。出力後はS713に進む。一方、上記判定の結果、静的オブジェクトでなければ、S706に進む。
S706では、動的オブジェクト処理部605が、S703にて生成された種別判定用画像を用いて、注目フレームに存在する対象オブジェクトが動的オブジェクトであるかどうかを判定する。前述の通り、動的オブジェクトである場合に生成される種別判定用画像におけるシルエットは非常に大きい。そのため、例えば以下の式(3)及び/又は式(4)を用いて、動的オブジェクトであるか否かを判定する。
Figure 2021047793
Figure 2021047793
上記式(3)は基準画像と種別判定用画像との差分に基づき判定する場合の式であり、上記式(4)は種別判定用画像のみを用いて判定する場合の式である。上記式(1)と同様、上記式(3)におけるIbは基準画像を表し、上記式(3)及び(4)において共通のIkは種別判定用画像を表す。また、上記式(3)におけるthmは判定に用いる閾値を表し、上記式(1)におけるthSと同様、例えば基準画像Ibにおける基準シルエット部分の画素数を用いる。上記式(3)及び(4)において共通のδは撮像時のノイズ等に依存する定数であり、ごく小さな値が設定される。そして、上記式(3)及び式(4)を両方満たす場合に動的オブジェクトであると判定する。
いま、基準画像Ibにおける基準シルエット部分の画素数(=閾値thmの値)が“70”、種別判定用画像Ikにおけるシルエット部分の画素数が“140”、δの値が“5”であったとする。上記式(3)に当て嵌めると、左辺の値が“70”、右辺の値が“65”となり、上記式(3)を満たすことになる。また、上記式(4)に当て嵌めると、左辺の値が“140”、右辺の値が“135”となり、上記式(4)も満たすことになる。よって、この場合は、動的オブジェクトと判定されることになる。
上記判定の結果、動的オブジェクトであればS707に進む。そして、S707では、動的オブジェクト処理部605が、S703で生成した種別判定用画像に対し補正処理を行う。ここでの補正処理は、種別判定用画像から基準画像を差し引く処理である。上述のS703にて生成される種別判定用画像には、基準シルエットと、移動後のオブジェクトのシルエットの両方が含まれている。種別判定用画像が示すシルエットから基準シルエットに相当する部分を取り除くことで、移動後のオブジェクトのシルエットのみを含むシルエット画像が得られる。そして、S708において、動的オブジェクト処理部605は、補正処理によって得られた画像を、シルエット画像として出力する。出力後はS713に進む。一方、上記判定の結果、動的オブジェクトでなければ、S709に進む。
S709〜S712は、注目フレームに存在する対象オブジェクトが微動オブジェクトであった場合の処理であり、微動オブジェクト処理部606によって実行される。
まず、S709では、微動オブジェクト処理部606内の削除処理部607が、S702にて生成された基準画像に含まれる基準シルエットから、対象オブジェクトが微動することによって発生した、そのシルエットとして不要な領域を削除する処理を行う。基準シルエットから不要領域を削除する方法としては、基準画像と注目フレームとを合成し、合成後の画像から明らかにオブジェクトの色と異なる色の領域を基準シルエットから削除する方法がある。この場合において、オブジェクトの色が既知である場合は、そのオブジェクトの色との差分が大きい領域を削除すればよい。具体的には、以下の式(5)を用いて既知の色との差分が大きい領域を特定し、特定された領域を基準シルエットから削除する。
Figure 2021047793
上記式(5)におけるICは合成後の画像を表し、Cはオブジェクトの既知の色を表す。そして、thcは、色の差分が大きいかどうかを判定するための閾値である。一方、オブジェクト以外の色(背景色)が既知である場合は、その背景色に近い領域を上記と同様の方法を用いて特定し、特定された領域を基準シルエットから削除すればよい。
次のS710では、微動オブジェクト処理部606内の追加処理部608が、削減処理後のシルエットに対して、対象オブジェクトのシルエットとして必要な領域を追加する処理を行う。注目フレーム内の微動オブジェクトは、基準画像に含まれる基準シルエットの近傍に移動していると推測される。そこで、注目フレームに存在する微動オブジェクトのエッジを検出し、検出したエッジを削減処理後のシルエットに加算する。これにより、微動後のオブジェクトの輪郭を示す線が、削除処理後のシルエットに追加される。エッジ検出には、例えばソーベルフィルタ、ラプラシアンフィルタ、キャニーフィルタといった周知技術を適用すればよい。本ステップにおいて削除処理後のシルエットにエッジを足し合わせただけでは、削除処理後のシルエットとエッジとの間に隙間(空白)が発生する。そこで、隙間部分をシルエットの構成要素に変換する穴埋め処理(クロージング処理)が必要になる。
続くS711では、追加処理部608が、エッジが加算されたことによって生じた隙間を埋める穴埋め処理を行う。具体的な処理内容としては、エッジ加算後の画像に対して膨脹処理を数回行った後、同じ回数だけ収縮処理を行う。
S712では、微動オブジェクト処理部506が、穴埋め処理後の隙間のないシルエットを有する画像を、シルエット画像として出力する。出力後はS713に進む。
S713では、S701で受信した撮像画像を構成する全フレームについて処理が完了したか否かが判定される。未処理のフレームがあればS703に戻って次の注目フレームを決定して処理を続行する。一方、すべてのフレームの処理が完了していれば、本処理を終える。
以上が、本実施形態に係る、シルエット画像生成処理の流れである。なお、図7のフローでは、説明の簡単化のため、撮像画像内にオブジェクトが1つだけ存在するものとして説明を行ったが、複数のオブジェクトが含まれている場合には、上述のS703〜S712の各処理をオブジェクト単位の画像領域で繰り返せばよい。
<変形例1>
上述のS702の説明では、基準画像の生成に背景差分法を用いたがこれに限定されない。例えば、予め用意されたオブジェクトの三次元形状データを用いて、各カメラのカメラパラメータに基づき三次元形状を投影する手法を用いて、基準画像を生成してもよい。この手法は、規格が決まっているゴールやフラッグなどの構造物、スタジアムやビルなどの建築物など、その三次元空間上の位置と三次元形状が既知のオブジェクトの場合に有用である。ここで、カメラパラメータについて簡単に説明しておく。カメラパラメータには外部パラメータと内部パラメータとがある。外部パラメータは、回転行列と並進行列で構成されており、カメラの位置や姿勢を示す。内部パラメータは、カメラの焦点距離、光学的中心などを含み、カメラの画角や撮像センサの大きさなどを示す。カメラパラメータを取得するための作業はキャリブレーションと呼ばれる。キャリブレーションによって得られたカメラパラメータを基に、各カメラ視点からゴールなどその形状と位置が既知のオブジェクトを見た場合の基準画像を得ることができる。
また、図7のフローでは、S702は全フレームに共通の処理となっているが、フレーム毎に行ってもよい。この場合、最初に得られた基準画像をフレーム毎に補正する処理を行う。具体的には、最初に得た基準画像における基準シルエットに対応する注目フレーム内の領域の近傍領域から、色情報やエッジ情報などを用いてオブジェクトに対応していると見込まれる領域を探索し、見つかった領域を基準シルエットに組み込む処理を行う。
<変形例2>
上述のS703の説明では、特定フレームと注目フレームとの差分をとることで種別判定用画像を得ていた。特定フレームの代わりに中間値画像を用いてもよい。ここで、中間値画像とは、入力撮像画像を構成する複数フレーム間における対応する画素同士で画素値の中間値(平均値)を求め、得られた中間値の画素で構成される画像である。図9は中間値画像を用いて種別判定用画像を生成する場合の説明図である。フレーム間でオブジェクトの位置が大きく変化する場合(すなわち、動的オブジェクトの場合)は、オブジェクトに対応する領域のない中間値画像が得られる。また、フレーム間でオブジェクトの位置が変化しない場合(すなわち、静的オブジェクトの場合)は、オブジェクト全体に対応する領域を含む中間値画像が得られる。そして、フレーム間でオブジェクトの位置が僅かに変化する(すなわち、微動オブジェクトの場合)は、オブジェクトの一部(芯)に対応する領域を含む中間値画像が得られる。したがって、この中間値画像と注目フレームとの差分をとると、静的オブジェクトの場合に得られるシルエットは、限りなく小さくなる。一方、動的オブジェクトの場合に得られるシルエットは、オブジェクトの形状全体を示す領域とほぼ同じとなる。そして、微動オブジェクトの場合に得られるシルエットは、動的オブジェクトの場合よりも小さく、かつ、静的オブジェクトの場合よりも大きなものとなる。
そして、中間値画像を用いて種別判定用画像を生成した場合には、S706における判定処理では、前述の式(3)と式(4)に代えて、以下の式(3)’と式(4)’を用いればよい。
Figure 2021047793
Figure 2021047793
また、中間値画像を用いて生成された種別判定用画像においては、オブジェクトが移動した状態下のシルエットが現れているため補正処理を行う必要がない。そのため、S707はスキップされ、S708では種別判定用画像がそのままシルエット画像として出力されることになる。
<変形例3>
上述の削除処理部607における処理(S709)に関し、オブジェクトの色が既知でない場合の手法として、色のクラスタリングを利用する手法もある。この場合には、まず基準画像と特定フレームとを合成し、合成後の画像領域内の色をクラスタリングする。ここでの「特定フレーム」は、S703のそれと同じである。そして、クラスタリングした結果を基に、クラスタの要素数が大きい領域の色をオブジェクトの色として決定し、基準画像と注目フレームとを合成して得られたシルエットから、決定された色と異なる色を持つ画素を削除する。このような方法によって不要領域を削除してもよい。
また、必ずしも基準画像と特定フレームとを合成して、オブジェクトの色を決定しなくてもよい。例えば、基準画像と注目フレームとを合成して、合成後の画像領域内の色をクラスタリングし、クラスタの要素数が小さい領域を不要領域として削除してもよい。
<変形例4>
上述の追加処理部608では、オブジェクトのエッジを検出して加算(S710)した後、穴埋め処理を行なう(S711)ことでシルエットとして必要な領域を追加しているが、必要領域を追加する手法はこれに限定されない。具体的には、基準画像が示すシルエットの周辺画素のうち微動オブジェクトの色に近い色を持つ画素を、微動オブジェクトのシルエットを構成する画素に変更する処理を行う。この処理の場合、S711の穴埋め処理は不要となる。
以上説明したとおり、各変形例を含む本実施形態の手法によれば、微動オブジェクトのシルエット画像を高精度に生成することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
画像処理部 123
画像入力部 601
基準画像取得部 602
微動オブジェクト処理部 606

Claims (16)

  1. 撮像画像内のオブジェクトのシルエット画像を生成する画像処理装置であって、
    前記オブジェクトの基準シルエットを含む基準画像を取得する取得手段と、
    前記オブジェクトが微動オブジェクトである場合、前記基準画像に含まれる前記基準シルエットに対して処理を行うことにより前記シルエット画像を生成して出力する第1の処理手段と、
    を有し、
    前記撮像画像と基準画像とは同じ視点に対応する画像であり、
    前記微動オブジェクトとは、一定時間撮像を行って得られた撮像画像内のオブジェクトのシルエットが、前記基準画像に含まれる前記基準シルエットに対して重畳する所定の範囲内で移動するオブジェクトである、
    ことを特徴とする画像処理装置。
  2. 前記処理には、前記基準画像に含まれる前記基準シルエットに対し、前記オブジェクトのシルエットとして不要な領域を削除する処理及び必要な領域を追加する処理を含む、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の処理手段は、前記削除する処理において、前記基準画像と前記撮像画像とを合成し、合成後の画像において前記オブジェクトの色と異なる色の領域を前記基準シルエットから削除する、ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の処理手段は、前記追加する処理において、前記撮像画像から前記オブジェクトのエッジを検出し、不要領域を削除した後のシルエットに対して検出されたエッジを加算し、エッジ加算後のシルエットに対してクロージング処理を行う、ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の処理手段は、前記追加する処理において、前記基準画像に含まれる前記基準シルエットの周辺画素のうち前記微動オブジェクトの色に近い色を持つ画素を、前記オブジェクトのシルエットを構成する画素に変更する処理を行う、ことを特徴とする請求項3に記載の画像処理装置。
  6. 前記シルエット画像は、前記オブジェクトに対応する領域を示す、少なくとも二値以上の画素値を持つ画像である、ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記取得手段は、オブジェクトが存在しない状態で撮像された背景画像と前記撮像画像との差分に基づき前記基準画像を取得する、ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記取得手段は、予め用意された前記オブジェクトの三次元形状データを用いて、前記撮像画像を撮像する撮像装置の視点に前記オブジェクトの三次元形状を投影することで、前記基準画像を取得することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  9. 前記撮像画像を用いて、当該撮像画像内のオブジェクトの種別を判定するための判定用画像を生成する生成手段をさらに備え、
    前記第1の処理手段は、前記判定用画像に基づいて前記オブジェクトが微動オブジェクトであると判定された場合に、前記基準画像に含まれる前記基準シルエットに対して処理を行って、前記シルエット画像を生成する、
    ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記撮像画像は、動画像であり、
    前記判定用画像は、前記動画像を構成する複数フレームの中の予め定めた特定フレームと、前記シルエット画像の生成の対象となる注目フレームとの差分に相当する画像である、ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記特定フレームは、前記基準画像の取得に用いたフレーム、前記撮像画像の先頭フレーム、前記注目フレームの直前のフレームのいずれかであることを特徴とする請求項10に記載の画像処理装置。
  12. 前記撮像画像内のオブジェクトが動的オブジェクトである場合、前記判定用画像に含まれる前記オブジェクトのシルエットから前記基準シルエットを差し引く処理を行って、前記シルエット画像を生成して出力する第2の処理手段をさらに備え、
    前記動的オブジェクトとは、一定時間撮像を行ったときに前記撮像画像内のオブジェクトのシルエットが、前記基準画像に含まれる前記基準シルエットに対して重畳する範囲を超えて移動するオブジェクトである、
    ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記撮像画像内のオブジェクトが静的オブジェクトである場合、前記基準画像を前記シルエット画像として出力する第3の処理手段をさらに備え、
    前記静的オブジェクトとは、一定時間撮像を行ったときに前記撮像画像内のオブジェクトのシルエットが、前記基準画像に含まれる前記基準シルエットに対して一致するオブジェクトである、
    ことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記微動オブジェクトには、球技で用いられるゴールが含まれることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 撮像画像内のオブジェクトのシルエット画像を生成する画像処理方法であって、
    前記オブジェクトの基準シルエットを含む基準画像を取得する取得ステップと、
    前記オブジェクトが微動オブジェクトである場合、前記基準画像に含まれる前記基準シルエットに対して処理を行うことにより前記シルエット画像を生成して出力する第1の処理ステップと、
    を含み、
    前記基準画像に対応する視点は、前記撮像画像に対応する視点と同じであり、
    前記微動オブジェクトとは、一定時間撮像を行ったときに前記撮像画像内のオブジェクトの形状を示すシルエットが、前記基準画像に含まれる前記基準シルエットに対して重畳する所定の範囲内で移動するオブジェクトである、
    ことを特徴とする画像処理方法。
  16. コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2019171443A 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム Pending JP2021047793A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171443A JP2021047793A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171443A JP2021047793A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021047793A true JP2021047793A (ja) 2021-03-25

Family

ID=74876433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171443A Pending JP2021047793A (ja) 2019-09-20 2019-09-20 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021047793A (ja)

Similar Documents

Publication Publication Date Title
CN109690620B (zh) 三维模型生成装置以及三维模型生成方法
WO2018014730A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
US8872817B2 (en) Real-time three-dimensional real environment reconstruction apparatus and method
TWI537747B (zh) 動作啟始之時間同步技術
CN112001274B (zh) 人群密度确定方法、装置、存储介质和处理器
US11095871B2 (en) System that generates virtual viewpoint image, method and storage medium
EP1670237A2 (en) Matching un-synchronized image portions
US10742951B2 (en) Image generation apparatus and method of generating virtual view-point image
US11677925B2 (en) Information processing apparatus and control method therefor
JPWO2008126371A1 (ja) 映像合成方法、映像合成システム
JP6087947B2 (ja) 非同期センサに依存するシーンの3d再構成の方法
KR20170140168A (ko) 기능 확장 장치, 기능 확장 장치의 탈착 구조, 및 기능 확장 시스템
EP3762898A1 (en) Object segmentation in a sequence of color image frames by background image and background depth correction
JP2019050451A (ja) 画像処理装置及びその制御方法及びプログラム及び画像処理システム
JP2018207252A (ja) 画像処理システム、画像処理システムの制御方法、及び、プログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
KR20170093451A (ko) 텔레프레젠스 영상 합성 장치, 텔레프레젠스 영상 합성 시스템 및 원격지 촬영 장치
JP2020087005A (ja) 画像処理装置、画像生成方法およびプログラム
JP6821398B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101281003B1 (ko) 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법
JP2021047793A (ja) 画像処理装置、画像処理方法及びプログラム
JP7281923B2 (ja) 制御装置、画像処理システム、制御方法及びプログラム
WO2021087819A1 (zh) 信息处理方法、终端设备及存储介质
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
US10282633B2 (en) Cross-asset media analysis and processing