JP7513939B2 - 被写体抽出装置、被写体抽出方法及びプログラム - Google Patents

被写体抽出装置、被写体抽出方法及びプログラム Download PDF

Info

Publication number
JP7513939B2
JP7513939B2 JP2023532928A JP2023532928A JP7513939B2 JP 7513939 B2 JP7513939 B2 JP 7513939B2 JP 2023532928 A JP2023532928 A JP 2023532928A JP 2023532928 A JP2023532928 A JP 2023532928A JP 7513939 B2 JP7513939 B2 JP 7513939B2
Authority
JP
Japan
Prior art keywords
subject
value
unit
resolution
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023532928A
Other languages
English (en)
Other versions
JPWO2023281636A1 (ja
Inventor
誠 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2023281636A1 publication Critical patent/JPWO2023281636A1/ja
Application granted granted Critical
Publication of JP7513939B2 publication Critical patent/JP7513939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

本開示は、被写体抽出装置、被写体抽出方法及びプログラムに関する。
従来、スポーツの試合等の映像から選手等の被写体を抽出するために、映像を構成する個々のフレーム画像から被写体の部分を抽出することが行われている。スポーツ競技を遠隔地で中継するパブリックビューイングのような場面では、観客に試合の状況を生で伝えるために、撮影映像をリアルタイムに処理する必要があるため、個々のフレームの処理に充てることのできる処理時間は限られる。具体的には、例えば秒間フレーム60枚の映像であれば、1枚のフレームにかけられる処理時間は1/60秒となる。このような短時間で、画像から被写体を正しく抽出するのは、その画像が高精細であればあるほど困難となる。そのため、非特許文献1に示すように、従来技術では、一度、低い解像度に変換してから、その低解像度の画像で被写体抽出を行い、被写体又は非被写体に分類できない未分類領域を対象として、被写体であるかどうかを判定し、最終的に高解像度化された被写体部位を抽出する処理が行われている。
柿沼弘員、他5名、「機械学習を用いた任意背景リアルタイム被写体抽出技術」、NTT技術ジャーナル、第30巻第10号(通巻355号)、pp.16-20、2018年10月
しかしながら、被写体の数が多い、又は被写体の形が複雑であることにより未分類領域が大きくなると、未分類領域の判定の処理量が相対的に大きくなり、限られた時間内で処理を終えることが困難となる場合があった。例えば、図9のように、入力画像中の被写体の数が1つの場合と2つの場合とを比べると、被写体の数が2つの場合に生成される未分類領域の面積は、被写体の数が1つの場合に生成される未分類領域の面積の2倍になるので、未分類領域の判定の処理量も2倍となる。このような処理量の変化を考慮して、計算資源の割り当てを行う技術が望まれていた。
かかる事情に鑑みてなされた本開示の目的は、被写体部位の抽出に関する処理について、高効率な計算資源の割り当てを可能にする技術を提供することである。
本開示に係る被写体抽出装置は、画像を低解像度化して低解像度画像を生成する低解像度化部と、前記低解像度画像から被写体部位の候補を抽出する被写体候補抽出部と、前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定する高解像度化部と、前記被写体候補抽出部と前記高解像度化部とが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体候補抽出部に割り当てる計算資源の値を第1の値として、前記高解像度化部に割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体候補抽出部と前記高解像度化部とに前記計算資源を割り当てる計算資源割当部とを備える。
また、本開示に係る被写体抽出方法は、被写体抽出装置が実行する被写体抽出方法であって、画像を低解像度化して低解像度画像を生成する低解像度化ステップと、前記低解像度画像から被写体部位の候補を抽出する被写体候補抽出ステップと、前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定する高解像度化ステップと、前記被写体候補抽出ステップと前記高解像度化ステップとが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体候補抽出ステップに割り当てる計算資源の値を第1の値として、前記高解像度化ステップに割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体候補抽出ステップと前記高解像度化ステップとに前記計算資源を割り当てる計算資源割当ステップとを備える。
また、本開示に係るプログラムは、コンピュータを、本開示に係る被写体抽出装置として機能させる。
本開示によれば、被写体部位の抽出に関する処理について、高効率な計算資源の割り当てを可能にする技術を提供することができる。
本開示の一実施形態に係る被写体抽出装置の構成の一例を示す図である。 被写体の抽出の処理の流れを説明するための図である。 被写体の抽出の処理の流れを説明するための図である。 被写体の抽出の処理の流れを説明するための図である。 被写体の抽出の処理の流れを説明するための図である。 被写体の抽出の処理の流れを説明するための図である。 被写体の抽出の処理の流れを説明するための図である。 計算資源を割り当てた結果の例を示す図である。 本開示の一実施形態に係る被写体抽出装置の動作を示す図である。 第1の変形例に係る被写体抽出装置の構成の一例を示す図である。 第1の変形例に係る被写体抽出装置の動作を示す図である。 第2の変形例に係る被写体抽出装置の構成の一例を示す図である。 第2の変形例に係る被写体抽出装置の動作を示す図である。 従来の被写体の抽出の技法を説明するための図である。
以下、本開示の実施形態について適宜図面を参照しながら説明する。各図面中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。以下に説明する実施形態は本開示の構成の例であり、本発明は、以下の実施形態に制限されるものではない。
<被写体抽出装置10の構成>
図1から図4を参照して、本実施形態に係る被写体抽出装置10の構成の一例について説明する。図1に示すように、被写体抽出装置10は、制御部11と、記憶部12と、通信部13と、入力部14と、出力部15と、を備える。
記憶部12は、1つ以上のメモリを含み、例えば半導体メモリ、磁気メモリ、光メモリなどを含んでもよい。記憶部12に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部12は、被写体抽出装置10の動作に用いられる任意の情報を記憶する。記憶部12は、必ずしも被写体抽出装置10が内部に備える必要はなく、被写体抽出装置10の外部に備える構成としてもよい。
通信部13には、少なくとも1つの通信インタフェースが含まれる。通信インタフェースは、例えば、LANインタフェースである。通信部13は、被写体抽出装置10の動作に用いられる情報を受信し、また被写体抽出装置10の動作によって得られる情報を送信する。
通信部13は、被写体抽出装置10がネットワークを介して他の装置と情報の送受信を行うことを可能にする。ネットワークとは、インターネット、少なくとも1つのWAN(Wide Area Network)、少なくとも1つのMAN(Metropolitan Area Network)、又はこれらの組み合わせを含む。ネットワークは、少なくとも1つの無線ネットワーク、少なくとも1つの光ネットワーク、又はこれらの組み合わせを含んでもよい。無線ネットワークは、例えば、アドホックネットワーク、セルラーネットワーク、無線LAN(Local Area Network)、衛星通信ネットワーク、又は地上マイクロ波ネットワークである。
入力部14には、少なくとも1つの入力用インタフェースが含まれる。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン、又はマイクである。入力部14は、被写体抽出装置10の動作に用いられる情報を入力する操作を受け付ける。入力部14は、被写体抽出装置10に備えられる代わりに、外部の入力機器として被写体抽出装置10に接続されてもよい。接続方式としては、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又はBluetooth(登録商標)等の任意の方式を用いることができる。
入力部14は、画像データの入力を受け付ける。画像データは、例えばバドミントン等のスポーツの試合を写す画像であるが、これに限られず、被写体と非被写体とを含む任意の画像であってよい。
出力部15には、少なくとも1つの出力用インタフェースが含まれる。出力用インタフェースは、例えば、ディスプレイ又はスピーカである。ディスプレイは、例えば、LCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)ディスプレイである。出力部15は、VRゴーグル等のユーザが装着可能な装置を含んでよい。出力部15は、被写体抽出装置10の動作によって得られる情報を出力する。出力部15は、被写体抽出装置10に備えられる代わりに、外部の出力機器として被写体抽出装置10に接続されてもよい。接続方式としては、例えば、USB、HDMI(登録商標)、又はBluetooth(登録商標)等の任意の方式を用いることができる。
制御部11は、制御演算回路(コントローラ)により実現される。該制御演算回路は、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用のハードウェアによって構成されてもよいし、プロセッサによって構成されてもよいし、双方を含んで構成されてもよい。制御部11は、被写体抽出装置10の各部を制御しながら、被写体抽出装置10の動作に関わる処理を実行する。制御部11は、外部装置との情報の送受信を、通信部13及びネットワークを介して行うことができる。
制御部11は、低解像度化部111と、被写体候補抽出部112と、高解像度化部113と、計算資源割当部114とを備える。
制御部11は、被写体と非被写体とが映り込んだ画像を取得する。画像の取得は任意の手法によって行われてよい。図2Aは制御部11が取得した画像の例を示す図である。図2Aは、一例として、バドミントンのシングルスのゲームにおける片方のチームのコートを写した映像の1コマに相当する画像であり、被写体は1人の選手である。例えば入力画像がバドミントンのダブルスのゲームの映像である場合は、被写体は2人の選手となる。図2Aの入力画像において、被写体と非被写体とを簡易的に示す。図2Aのマス目は画素を示す。制御部11は、取得した画像を低解像度化部111へ出力する。
低解像度化部111は、画像を低解像度化して低解像度画像を生成する。図2Bは図2Aの入力画像を低解像度化して生成された低解像度画像の例である。図2Bでは、図2Aの入力画像の縦方向の解像度と横方向の解像度とがそれぞれ4分の1に削減され、被写体と非被写体とが低解像度化されていることがわかる。低解像度化部111は、生成した低解像度画像を被写体候補抽出部112へ出力する。
被写体候補抽出部112は、低解像度画像から被写体部位の候補FGを抽出する。さらに被写体候補抽出部112は、被写体部位の候補FG以外を非被写体部位の候補BGとして抽出する。被写体部位の候補FG及び非被写体部位の候補BGの抽出は、深層学習を含む機械学習に行われてよい。この場合、被写体候補抽出部112は、記憶部12又から学習済モデルを読み出して低解像度画像に適用する。被写体候補抽出部112は、通信部13を介して外部装置から学習済モデルを受信して適用してもよい。被写体候補抽出部112による抽出結果が出力部15を介してユーザに対して表示され、ユーザが入力部14を介して、抽出の修正を行ってよい。当該修正に応じて、被写体候補抽出部112が学習モデルを更新できてよい。
図2Cに示すように、被写体候補抽出部112は、図2Bの低解像度画像から被写体部位の候補FGと、非被写体部位の候補BGとを抽出する。図2Cを参照すると、図2Bの非被写体は非被写体部位の候補BGの一部として抽出されていることがわかる。被写体候補抽出部112は、抽出した結果を含む低解像度画像を、高解像度化部113に出力する。
高解像度化部113は、低解像度画像を高解像度化して、被写体部位の候補FGの少なくとも一部から、被写体部位と非被写体部位との境界部UNを生成する。図2Dは、高解像度化部113が高解像度化した画像を示す。図2Dにおいて、被写体候補抽出部112によって抽出された被写体部位の候補FGの範囲が破線で示される。
高解像度化部113はまず、被写体部位の候補FGのうち所定の領域を被写体部位FG’として特定する。被写体部位FG’とする領域の特定は、既知の手法により行われてよい。例えば高解像度化部113は、被写体部位の候補FGの範囲から所定の距離内側に存在領域を被写体部位FG’として特定してよい。図2Dにおいて、中央の十字の形の領域は、高解像度化部113が被写体部位FG’として特定した領域を示す。図2Dからわかるように、被写体部位の候補FGの範囲から2画素分内側にある領域が被写体部位FG’として特定されている。
さらに高解像度化部113は、被写体部位の候補FGの範囲を中心として一定の画素数の幅を持った領域を境界部UNとして生成する。高解像度化部113は、当該破線を中心として、当該破線に沿った4画素分の幅を有する領域を境界部UNとして生成する。このように高解像度化部113は、被写体部位と非被写体部位との境界部UNを高解像度化する。
高解像度化部113はまた、被写体部位FG’及び境界部UN以外の領域を、非被写体部位BG’として特定する。
高解像度化部113は、生成した境界部UNについて1画素ずつ被写体部位FG’であるかを判定し、判定結果に基づいて被写体部位FG’と非被写体部位BG’とを確定させる。本例では、図2Dで示される境界部UNについて1画素ずつ判定される。判定の手法は最近傍探索法が採用されてよい。具体的には、高解像度化部113は、境界部UNの任意の画素P1を選択し、画素P1と最も距離が近い、被写体部位FG’と特定されている領域の画素を探索し、当該二つの画素のそれぞれの輝度値、RGB値等の任意の値を取得する。当該値の差が一定閾値以下であれば、画素P1を被写体部位FG’として特定する。また、高解像度化部113は、境界部UNの任意の画素P2を選択し、画素P2と最も距離が近い、非被写体部位BG’と特定されている領域の画素を探索し、当該二つの画素のそれぞれの輝度値、RGB値等の任意の値を取得し、当該値の差が一定閾値以下であれば、画素P2を非被写体部位BG’として特定する。
図2Eは、境界部UNの各画素について、高解像度化部113が被写体部位FG’と非被写体部位BG’のいずれであるかを判定した結果を示す。図2Eを参照すると、図2Dの境界部UNの上部は非被写体部位BG’として判定されていることがわかる。
高解像度化部113は、特定していた被写体部位FG’及び非被写体部位BG’の領域のそれぞれに、上述のように判定した画素を加えて、被写体部位FG’及び非被写体部位BG’として確定する。図2Fは、確定された被写体部位FG’及び非被写体部位BG’を示す。高解像度化部113は、被写体部位FG’と非被写体部位BG’とを含む画像を記憶部12に格納する。高解像度化部113は、被写体部位FG’のみを含む画像を記憶部12に格納してもよい。
上述においては、高解像度化部113が、低解像度画像の全体を高解像度化して、最終的に被写体部位FG’と非被写体部位BG’とを含む画像を出力する例を示したが、高解像度化部113の処理はこれに限られない。高解像度化部113は、低解像度化された画像のうち、被写体部位の候補FGの範囲のみ高解像度化してもよい。この場合、高解像度化部113は、被写体部位の候補FGの範囲から所定の距離内側にある領域を被写体部位FG’として特定し、残りの被写体部位の候補FGの領域の各画素について、被写体部位FG’に含まれるかどうか判定する。高解像度化部113は、特定した被写体部位FG’に、被写体部位FG’に含まれると判定した画素を加えて、被写体部位FG’として確定する。高解像度化部113は、このようにして確定した被写体部位FG’のみを含む画像を出力できてもよい。
計算資源割当部114は、被写体候補抽出部112と高解像度化部113とが利用可能な計算資源の上限値を取得する。計算資源とは被写体抽出装置10のCPU又はメモリ等を含み、上限値とはこれらの空き容量である。上限値の取得は任意の手法によって行ってよい。計算資源割当部114は常に計算資源の使用量を監視及び予測することで、空き容量の上限値を取得してもよい。例えば、計算資源割当部114が取得した上限値が4の値であるとする。
次に計算資源割当部114は、被写体部位の数を示す情報を取得する。被写体部位の数を示す情報は任意の手法で取得されてよい。計算資源割当部114は、入力部14を介してユーザが入力した被写体部位の数を示す情報を取得してよい。例えば、入力映像がバドミントンのシングルスのゲームである場合、ユーザは被写体の数を1と入力し、入力映像がバドミントンのダブルスのゲームである場合、ユーザは被写体の数を2と入力する。計算資源割当部114は、当該値を被写体部位の数を示す情報として取得する。
計算資源割当部114は、取得した被写体部位の数を示す情報に応じて、高解像度化部113に割り当てる計算資源の値を、第2の値として決定する。ここで、計算資源割当部114は、取得した上限値以下となるように当該第2の値を決定する。
計算資源割当部114は、被写体部位の数が増加するほど、第2の値を増加して決定してよい。本例では、計算資源割当部114は、被写体部位の数に比例した値を第2の値として決定する。具体的には、計算資源割当部114は、取得した被写体部位の数が1である場合、1を第2の値として決定し、取得した被写体部位の数が2である場合、2を第2の値として決定する。このように、計算資源割当部114は取得した上限値の4未満の数を第2の値として決定する。
計算資源割当部114は、被写体候補抽出部112に割り当てる計算資源の値を取得する。計算資源割当部114は、被写体候補抽出部112に割り当てる値を、取得した上限値から上述の第2の値を減算した値を、被写体候補抽出部112に割り当てる第1の値として決定する。例えば、取得した上限値が4であって、第2の値が1である場合、計算資源割当部114は、第1の値として3の値を決定する。
計算資源割当部114は、決定した第1の値及び第2の値に基づいて、被写体候補抽出部112と高解像度化部113とに計算資源を割り当てる。図3は、計算資源割当部114が計算資源を割り当てた結果の例を、被写体部位の数が1であるシングルスの映像、及び被写体部位の数が2であるダブルスの映像の種類別に示す。
図3を参照すると、被写体候補抽出部112と高解像度化部113とが利用可能な計算資源の上限値として4の値が、合計割当量となっている。当該上限値から、高解像度化部113に割り当てる第2の値を減算した値として、シングルスの画像では3、ダブルスの画像では2の値が、被写体候補抽出部112へ割り当てる第1の値としてそれぞれ設定されている。図3に示すような計算資源の割り当てによれば、被写体候補抽出部112の処理速度は、ダブルスの画像では低下することとなるが、速度の低下はシングルスの画像の2/3にとどまる。これは、高解像度化部113による境界部UNの判定の処理量が、ダブルスの画像はシングルスの画像と比較して2倍であることを考慮すると、全体としての処理速度の低下はより小さく済んでいることを示す。
従来は、利用可能な計算資源の上限値が4である場合、被写体候補抽出部112と高解像度化部113とに割り当てる計算資源の値として、例えば以下の表1に示す値が設定されていた。
Figure 0007513939000001
表1に示すように、従来は割り当てる計算資源の値は固定的に設定されていた。本実施形態によれば、計算資源割当部114が被写体候補抽出部112と高解像度化部113とに割り当てる計算資源の値を別々に、映像種別に応じて動的に決定できるため、より効率的な計算資源の使用が実現できる。
計算資源割当部114は、当該結果を計算資源割当情報として記憶部12に格納してよい。制御部11は、ユーザの要求に応じて、当該計算資源割当情報を記憶部12から読み出し、出力部15を介してユーザに対して音声又は画像で表示できてよい。
計算資源割当部114は、予め設定された第1の値又は第2の値を示す情報を取得し、当該情報に応じて、計算資源を、被写体候補抽出部112と高解像度化部113とに対し割り当ててもよい。当該情報は、ユーザによって入力部14を介して入力されてもよいし、通信部13を介して、外部装置から取得されてもよい。
計算資源割当部114は、被写体抽出装置10とネットワークを介して通信可能な別の装置に含まれる構成であってもよい。この場合、計算資源割当部114は、複数の異なる被写体抽出装置10について、それぞれの被写体候補抽出部112と高解像度化部113とに対して割り当てられる計算資源の値を決定できる。
<プログラム>
上述した被写体抽出装置10として機能させるために、プログラム命令を実行可能なコンピュータを用いることも可能である。ここで、コンピュータは、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッドなどであってもよい。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。
コンピュータは、プロセッサと、記憶部と、入力部と、出力部と、通信インタフェースとを備える。プロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on a Chip)等であり、同種又は異種の複数のプロセッサにより構成されてもよい。プロセッサは、記憶部からプログラムを読み出して実行することで、上記各構成の制御及び各種の演算処理を行う。なお、これらの処理内容の少なくとも一部をハードウェアで実現することとしてもよい。入力部は、ユーザの入力操作を受け付けてユーザの操作に基づく情報を取得する入力インタフェースであり、ポインティングデバイス、キーボード、マウスなどである。出力部は、情報を出力する出力インタフェースであり、ディスプレイ、スピーカなどである。通信インタフェースは、外部の装置と通信するためのインタフェースである。
プログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性(non-transitory)の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROM、DVD-ROM、USBメモリなどであってもよい。また、このプログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
<被写体抽出装置10の動作>
次に、図2、図3、及び図4を参照して、本実施形態に係る被写体抽出装置10の動作について説明する。被写体抽出装置10の動作は、本実施形態に係る被写体抽出方法に相当する。
ステップS1において、制御部11は、被写体と非被写体とが映り込んだ画像を取得する。画像の取得は任意の手法によって行われてよい。図2Aは制御部11が取得した画像の例を示す図である。制御部11は、取得した画像を低解像度化部111へ出力する。
ステップS2において、低解像度化部111は、画像を低解像度化して低解像度画像を生成する。図2Bは図2Aの入力画像を低解像度化して生成された低解像度画像の例である。低解像度化部111は、生成した低解像度画像を被写体候補抽出部112へ出力する。
ステップS3において、計算資源割当部114は、被写体候補抽出部112と高解像度化部113とが利用可能な計算資源の上限値を取得する。上限値の取得は任意の手法によって行ってよい。
ステップS4において、計算資源割当部114は、被写体部位の数を示す情報を取得する。被写体部位の数を示す情報は任意の手法で取得されてよい。本例では、計算資源割当部114は、入力部24を介してユーザが入力した被写体部位の数を示す情報を取得する。本例では、計算資源割当部114は、値「1」を被写体部位の数を示す情報として取得する。
ステップS5において、計算資源割当部114は、取得した被写体部位の数を示す情報に応じて、高解像度化部113に割り当てる計算資源の値を、第2の値として決定する。計算資源割当部114は、被写体部位の数が増加するほど、第2の値を増加して決定してよい。本例では、計算資源割当部114は、被写体部位の数に比例した値を第2の値として決定する。本例では、ステップS4で取得した被写体部位の数が1である。計算資源割当部114は、値「1」を第2の値として決定する。
ステップS6において、計算資源割当部114は、被写体候補抽出部112に割り当てる計算資源の値を第1の値として決定する。計算資源割当部114は、被写体候補抽出部112に割り当てる値を、取得した上限値から上述の第2の値を減算した値を、第1の値として決定する。
ステップS7において、計算資源割当部114は、決定した第1の値及び第2の値に基づいて、被写体候補抽出部112と高解像度化部113とに計算資源を割り当てる。
ステップS8において、被写体候補抽出部112は、低解像度画像から被写体部位の候補FGを抽出する。さらに被写体候補抽出部112は、被写体部位の候補FG以外を非被写体部位の候補BGとして抽出する。被写体部位の候補FG及び非被写体部位の候補BGの抽出は、深層学習を含む機械学習に行われてよい。この場合、被写体候補抽出部112は、記憶部12又から学習済モデルを読み出して低解像度画像に適用する。
図2Cに示すように、被写体候補抽出部112は、図2Bの低解像度画像から被写体部位の候補FGと、非被写体部位の候補BGとを抽出する。被写体候補抽出部112は、抽出した結果を含む低解像度画像を、高解像度化部113に出力する。
ステップS9において、高解像度化部113は、低解像度画像を高解像度化して、被写体部位の候補FGの少なくとも一部から、被写体部位と非被写体部位との境界部UNを生成する。図2Dは、高解像度化部113が高解像度化した画像を示す。図2Dでは、ステップS7で抽出された被写体部位の候補FGの範囲が破線で示される。
高解像度化部113はまず、被写体部位の候補FGのうち所定の領域を被写体部位FG’として特定する。被写体部位FG’とする領域の特定は、既知の手法により行われてよい。例えば高解像度化部113は、被写体部位の候補FGの範囲から所定の距離内側に存在する領域を、被写体部位FG’として特定してよい。図2Dにおいて、中央の十字の形の領域は、高解像度化部113が被写体部位FG’として特定した領域を示す。
さらに高解像度化部113は、被写体部位の候補FGの範囲を中心として一定の画素数の幅を持った領域を境界部UNとして生成する。高解像度化部113は、当該破線を中心として、当該破線に沿った4画素分の幅を有する領域を境界部UNとして生成する。このように高解像度化部113は、被写体部位と非被写体部位との境界部UNを高解像度化する。
高解像度化部113はまた、被写体部位FG’及び境界部UN以外の領域を非被写体部位BG’として特定する。
ステップS10において、高解像度化部113は、生成した境界部UNについて1画素ずつ被写体部位FG’であるかを判定し、判定結果に基づいて被写体部位FG’と非被写体部位BG’とを確定させる。本例では、図2Dに示す境界部UNについて1画素ずつ判定される。判定の手法は最近傍探索法が採用されてよい。
図2Eは、境界部UNの各画素について、高解像度化部113が被写体部位FG’と非被写体部位BG’のいずれであるかを判定した結果を示す。
高解像度化部113は、ステップS9で特定していた被写体部位FG’及び非被写体部位BG’の領域のそれぞれに、上述のように判定した画素を加えて、被写体部位FG’及び非被写体部位BG’として確定する。図2Fは、確定された被写体部位FG’及び非被写体部位BG’とを示す。
ステップS11において、高解像度化部113は、被写体部位FG’と非被写体部位BG’とを含む画像を記憶部12に格納する。高解像度化部113は、被写体部位FG’のみを含む画像を記憶部12に格納してもよい。
ステップS12において、制御部11は、記憶部12から画像を読み出し、画像をユーザに対して表示する。その後、被写体抽出装置10の動作は終了する。
ユーザへの表示には任意の手法が採用されてよい。例えば、制御部11は、出力部15を介して画像をユーザに対して表示する。例えば、制御部11は、ユーザが使用する端末装置と通信部13を介して通信し、当該端末装置に画像を送信してもよい。ここで、端末装置は、携帯電話機、スマートフォン、ウェアラブル機器、若しくはタブレットなどのモバイル機器、又はPCを含む。「ウェアラブル機器」は具体的には、VRゴーグル等の、ユーザの身体に装着可能なモバイル機器である。端末装置が画像を受信して出力することで、画像がユーザに対し表示される。
上述のように、本実施形態にかかる被写体抽出装置10は、画像を低解像度化して低解像度画像を生成する低解像度化部111と、低解像度画像から被写体部位の候補を抽出する被写体候補抽出部112と、被写体部位の候補のうち、被写体部位と非被写体部位との境界部UNを高解像度化し、境界部UNについて1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて被写体部位と非被写体部位とを確定する高解像度化部113と、被写体候補抽出部112と高解像度化部113とが利用可能な計算資源の上限値を取得し、取得した上限値以下となるように、被写体候補抽出部112に割り当てる計算資源の値を第1の値として、高解像度化部113に割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した第1の値及び第2の値に基づいて、被写体候補抽出部112と高解像度化部113とに計算資源を割り当てる計算資源割当部114とを備える。
本実施形態によれば、被写体候補抽出部112が低解像度化した画像で被写体部位の抽出の処理を行い、高解像度化部113が、境界部UNに対してのみ被写体部位かどうかの判定の処理を行う。このような被写体候補抽出部112と高解像度化部113との併用により、画像中の被写体部位の範囲の確定を高速に行うことができる。計算資源割当部114は、入力画像に含まれる被写体の数、大きさ、複雑さに応じて被写体候補抽出部112と高解像度化部113とに割り当てる計算資源を、境界部UNの処理に必要な計算資源の多寡に応じて指定することができる。このように、被写体部位の抽出に関する処理について、高効率な計算資源の割り当てを可能にする技術を提供できる。
本開示を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本開示の範囲に含まれることに留意されたい。
(第1の変形例)
次に、本開示の実施形態の第2の変形例について説明する。図5に示すように、本変形例では、制御部11は、境界部計測部115をさらに備える。
本変形例の被写体抽出装置10においては、高解像度化部113が境界部UNを生成した後、境界部計測部115が境界部UNの面積を計測する。境界部計測部115は、計測した境界部UNの面積を計算資源割当部114に出力する。
計算資源割当部114は、境界部UNの面積に基づいて、高解像度化部113に割り当てる計算資源の値を第2の値としてさらに決定する。
計算資源割当部114は、被写体部位の数を示す情報に応じて決定していた第2の値を、境界部UNの面積に応じて決定した第2の値に修正してもよい。
また、予め設定された値の計算資源が高解像度化部113に割り当てられて、高解像度化部113が境界部UNを生成していたとする。この場合、上述した実施形態の第2の値に代えて、本変形例に記載の第2の値が決定されてもよい。
計算資源割当部114は、計測された境界部UNの面積が大きい程、第2の値を増加させて決定してよい。例えば計算資源割当部114は、境界部計測部115が計測した境界部UNの面積が100のときは値「1」を、境界部UNの面積が200のときは値「2」を、高解像度化部113に割り当てる第2の値として決定する。このように計算資源割当部114は、境界部UNの面積の1/100の値を、第2の値として決定してよい。このように計算資源割当部114は、計測された境界部UNの面積比に応じて第2の値を決定してよい。
以下、上述の実施形態に係る被写体抽出装置10の動作と本変形例に係る被写体抽出装置10の動作との差異を、図6を参照しながら説明する。
図6のステップS201からステップS209は、上述の実施形態に係る図4のステップS1からステップS9と同様であるため説明を省略する。
ステップS210において、境界部計測部115は、境界部UNの面積を計測する。ここで境界部計測部115は、計測した境界部UNの面積を計算資源割当部114に出力する。
ステップS211において、計算資源割当部114は、計測された境界部UNの面積に基づいて、高解像度化部113にさらに割り当てる計算資源の値を第2の値として決定する。計算資源割当部114は、計測された境界部UNの面積が大きい程、第2の値を増加させて決定してよい。
ステップS212において、計算資源割当部114は、ステップS211で決定した第2の値に基づいて高解像度化部113に計算資源をさらに割り当てる。
ステップS213からステップS215は、図4のステップS10からステップS12と同様であるため説明を省略する。
上述のように、第1の変形例に係る被写体抽出装置10は、境界部UNの面積を計測する境界部計測部115をさらに備え、計算資源割当部114は、境界部UNの面積に基づいて、高解像度化部113に割り当てる計算資源の値を第2の値として決定し、決定した第2の値に基づいて、高解像度化部113に計算資源を割り当てる。
本変形例によれば、高解像度化部113が、境界部UNについて1画素ずつ被写体部位FG’であるかを判定するための計算資源の量が、境界部UNの面積の大きさに基づいて決定される。計算資源を消費する境界部UNの判定の処理に必要な計算資源の値が、境界部UNの面積に応じて決定できるため、単純に被写体部位の数のみによって第2の値が決定される場合と比べて、より高効率な計算資源の割り当てが可能となる。
(第2の変形例)
次に、本開示の実施形態の第2の変形例について説明する。図7に示すように、本変形例では、制御部11は、画像種別解析部116をさらに備える。
画像種別解析部116は、制御部11が取得した画像を解析し、種別を推定する。推定方法は、既知の画像解析技術における物体検出手法、機械学習を用いたカテゴリ推定手法等を採用してよい。本変形例では、画像種別解析部116は、取得された画像から、バドミントンのシングルスのゲーム、またはダブルスのゲームであることを推定する。画像種別解析部116が推定できる画像種別はこれに限られず、人物、動物、建物、乗り物等あらゆる被写体が映った画像であってよい。画像種別解析部116は、推定の結果を示す情報を計算資源割当部114に出力する。
計算資源割当部114は、推定された画像の種別に応じて、被写体部位の数を決定し、当該被写体部位の数に応じて、高解像度化部113に割り当てる計算資源の値を第2の値として決定する。
例えば、画像種別解析部116が推定した画像の種別がバドミントンのシングルスのゲームである場合、計算資源割当部114は、被写体部位の数を1と決定し、高解像度化部113に割り当てる計算資源の値として値「1」を、第2の値として決定する。例えば、画像種別解析部116が推定した画像の種別がバドミントンのダブルスのゲームである場合、計算資源割当部114は、被写体部位の数を2と決定し、高解像度化部113に割り当てる計算資源の値として値「2」を、第2の値として決定する。
計算資源割当部114は、上述の実施形態と同様に、決定した第1の値及び第2の値に基づいて、被写体候補抽出部112と高解像度化部113とに計算資源を割り当てる。
以下、上述の実施形態に係る被写体抽出装置10の動作と本変形例に係る被写体抽出装置10の動作との差異を、図8を参照しながら説明する。
図8のステップS301からステップS303は、上述の実施形態に係る図4のステップS1からステップS3と同様であるため説明を省略する。
ステップS304において、画像種別解析部116は、制御部11が取得した画像を解析し、種別を推定する。推定方法は、既知の画像解析技術における物体検出手法、機械学習を用いたカテゴリ推定手法等を採用してよい。画像種別解析部116は、推定の結果を示す情報を計算資源割当部114に出力する。
ステップS305において、計算資源割当部114は、推定された画像の種別に応じて、被写体部位の数を決定し、当該被写体部位の数に応じて、高解像度化部113に割り当てる計算資源の値を第2の値として決定する。例えば、画像種別解析部116が推定した画像の種別がバドミントンのシングルスのゲームである場合、計算資源割当部114は、被写体部位の数を1と決定し、高解像度化部113に割り当てる計算資源の値として値「1」を、第2の値として決定する。
図8のステップS306からステップS312は、上述の実施形態に係る図4のステップS6からステップS12と同様であるため説明を省略する。
上述のように、第2の変形例に係る被写体抽出装置10は、画像の種別を解析する画像種別解析部116をさらに備え、計算資源割当部114は、種別に応じて、被写体部位の数を決定し、被写体部位の数に応じて、高解像度化部113に割り当てる計算資源の値を第2の値として決定する。
本変形例によれば、ユーザが入力せずとも、画像種別解析部116が入力画像の種別を推定し、当該推定の結果に基づいて、計算資源割当部114が被写体部位の数を決定できる。よって画像が入力されてから被写体部位が抽出されるまで、自動的に計算資源の割り当てを行って処理することができ、被写体部位の抽出の技術を改善することができる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記項1)
画像を低解像度化して低解像度画像を生成し、
前記低解像度画像から被写体部位の候補を抽出し、
前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定し、
前記被写体部位の候補の抽出と前記高解像度化とが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体部位の候補の抽出に割り当てる計算資源の値を第1の値として、前記高解像度化に割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体部位の候補の抽出と前記高解像度化とに前記計算資源を割り当てる制御部と
を備える、被写体抽出装置。
(付記項2)
前記制御部は、前記境界部の面積を計測し、
前記境界部の面積に基づいて、前記高解像度化に割り当てる計算資源の値を前記第2の値として決定し、決定した前記第2の値に基づいて、前記高解像度化に前記計算資源を割り当てる、付記項1に記載の被写体抽出装置。
(付記項3)
前記制御部は、画像の種別を解析し、
前記種別に応じて、前記被写体部位の数を決定し、前記被写体部位の数に応じて、前記高解像度化に割り当てる計算資源の値を前記第2の値として決定する、付記項1又は2に記載の被写体抽出装置。
(付記項4)
被写体抽出装置が実行する被写体抽出方法であって、
画像を低解像度化して低解像度画像を生成する低解像度化ステップと、
前記低解像度画像から被写体部位の候補を抽出する被写体候補抽出ステップと、
前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定する高解像度化ステップと、
前記被写体候補抽出ステップと前記高解像度化ステップとが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体候補抽出ステップに割り当てる計算資源の値を第1の値として、前記高解像度化ステップに割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体候補抽出ステップと前記高解像度化ステップとに前記計算資源を割り当てる計算資源割当ステップと
を備える、被写体抽出方法。
(付記項5)
前記境界部の面積を計測する境界部計測ステップをさらに備え、
前記計算資源割当ステップは、前記境界部の面積に基づいて、前記高解像度化ステップに割り当てる計算資源の値を前記第2の値として決定するステップと、決定した前記第2の値に基づいて、前記高解像度化ステップに前記計算資源を割り当てるステップとをさらに備える、付記項4に記載の被写体抽出方法。
(付記項6)
前記画像の種別を解析する画像種別解析ステップをさらに備え、
前記計算資源割当ステップは、前記種別に応じて、前記被写体部位の数を決定するステップと、前記被写体部位の数に応じて、前記高解像度化ステップに割り当てる前記計算資源の値を第2の値として決定するステップとをさらに備える、付記項4又は5に記載の被写体抽出方法。
(付記項7)
コンピュータを、付記項1から3のいずれか一項に記載の被写体抽出装置として機能させるためのプログラムを記憶した非一時的なコンピュータ読取り可能な媒体。
10 被写体抽出装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 出力部
111 低解像度化部
112 被写体候補抽出部
113 高解像度化部
114 計算資源割当部
115 境界部計測部
116 画像種別解析部

Claims (7)

  1. 画像を低解像度化して低解像度画像を生成する低解像度化部と、
    前記低解像度画像から被写体部位の候補を抽出する被写体候補抽出部と、
    前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定する高解像度化部と、
    前記被写体候補抽出部と前記高解像度化部とが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体候補抽出部に割り当てる計算資源の値を第1の値として、前記高解像度化部に割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体候補抽出部と前記高解像度化部とに前記計算資源を割り当てる計算資源割当部と
    を備える、被写体抽出装置。
  2. 前記境界部の面積を計測する境界部計測部をさらに備え、
    前記計算資源割当部は、前記境界部の面積に基づいて、前記高解像度化部に割り当てる計算資源の値を前記第2の値として決定し、決定した前記第2の値に基づいて、前記高解像度化部に前記計算資源を割り当てる、請求項1に記載の被写体抽出装置。
  3. 前記画像の種別を解析する画像種別解析部をさらに備え、
    前記計算資源割当部は、前記種別に応じて、前記被写体部位の数を決定し、前記被写体部位の数に応じて、前記高解像度化部に割り当てる計算資源の値を前記第2の値として決定する、請求項1又は2に記載の被写体抽出装置。
  4. 被写体抽出装置が実行する被写体抽出方法であって、
    画像を低解像度化して低解像度画像を生成する低解像度化ステップと、
    前記低解像度画像から被写体部位の候補を抽出する被写体候補抽出ステップと、
    前記被写体部位の候補のうち、前記被写体部位と非被写体部位との境界部を高解像度化し、前記境界部について1画素ずつ非被写体部位であるかを判定し、判定結果に基づいて前記被写体部位と前記非被写体部位とを確定する高解像度化ステップと、
    前記被写体候補抽出ステップと前記高解像度化ステップとが利用可能な計算資源の上限値を取得し、取得した前記上限値以下となるように、前記被写体候補抽出ステップに割り当てる計算資源の値を第1の値として、前記高解像度化ステップに割り当てる計算資源の値を第2の値としてそれぞれ決定し、決定した前記第1の値及び前記第2の値に基づいて、前記被写体候補抽出ステップと前記高解像度化ステップとに前記計算資源を割り当てる計算資源割当ステップと
    を備える、被写体抽出方法。
  5. 前記境界部の面積を計測する境界部計測ステップをさらに備え、
    前記計算資源割当ステップは、前記境界部の面積に基づいて、前記高解像度化ステップに割り当てる計算資源の値を前記第2の値として決定するステップと、決定した前記第2の値に基づいて、前記高解像度化ステップに前記計算資源を割り当てるステップとをさらに備える、請求項4に記載の被写体抽出方法。
  6. 前記画像の種別を解析する画像種別解析ステップをさらに備え、
    前記計算資源割当ステップは、前記種別に応じて、前記被写体部位の数を決定するステップと、前記被写体部位の数に応じて、前記高解像度化ステップに割り当てる前記計算資源の値を第2の値として決定するステップとをさらに備える、請求項4又は5に記載の被写体抽出方法。
  7. コンピュータを、請求項1から3のいずれか一項に記載の被写体抽出装置として機能させるためのプログラム。
JP2023532928A 2021-07-06 2021-07-06 被写体抽出装置、被写体抽出方法及びプログラム Active JP7513939B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/025521 WO2023281636A1 (ja) 2021-07-06 2021-07-06 被写体抽出装置、被写体抽出方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2023281636A1 JPWO2023281636A1 (ja) 2023-01-12
JP7513939B2 true JP7513939B2 (ja) 2024-07-10

Family

ID=84800510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023532928A Active JP7513939B2 (ja) 2021-07-06 2021-07-06 被写体抽出装置、被写体抽出方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7513939B2 (ja)
WO (1) WO2023281636A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149031A (ja) 1998-11-09 2000-05-30 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2019168417A (ja) 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070426A (ja) * 2013-09-27 2015-04-13 ソニー株式会社 画像処理装置および方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149031A (ja) 1998-11-09 2000-05-30 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2019168417A (ja) 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法

Also Published As

Publication number Publication date
JPWO2023281636A1 (ja) 2023-01-12
WO2023281636A1 (ja) 2023-01-12

Similar Documents

Publication Publication Date Title
TWI618409B (zh) 視頻中之局部變化偵測技術
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
WO2018103244A1 (zh) 直播视频处理方法、装置及电子设备
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
CN108229288B (zh) 神经网络训练及衣服颜色检测方法、装置、存储介质、电子设备
US10440284B2 (en) Determination of exposure time for an image frame
TWI607409B (zh) 影像優化方法以及使用此方法的裝置
JP5460793B2 (ja) 表示装置、表示方法、テレビジョン受信機及び表示制御装置
US10192473B2 (en) Display apparatus and method for image processing
KR20170066227A (ko) 복수의 비디오들을 제시하는 사용자 인터페이스를 생성하기 위한 방법
US9288463B2 (en) Interesting section identification device, interesting section identification method, and interesting section identification program
JPWO2016031203A1 (ja) 表示制御装置、および表示制御方法
CN111247517B (zh) 一种图像处理方法、装置及系统
JP7513939B2 (ja) 被写体抽出装置、被写体抽出方法及びプログラム
JP7513940B2 (ja) 被写体抽出装置、被写体抽出方法及びプログラム
CN110728167A (zh) 文本检测方法、装置及计算机可读存储介质
Hareva et al. Retracted: The smart device for healthcare service: Iris diagnosis application
US9413477B2 (en) Screen detector
CN110751120A (zh) 一种检测方法、装置及电子设备
CN112801997B (zh) 图像增强质量评估方法、装置、电子设备及存储介质
JP7373646B2 (ja) 表示制御システム、表示制御方法、およびプログラム
CN112489006A (zh) 图像处理方法、装置、存储介质及终端
CN113841389B (zh) 影像处理装置及影像处理方法
CN115240209A (zh) 水印识别方法和装置
CN115529484A (zh) 视频处理方法及装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528