JP7121470B2 - 画像処理システム、制御方法、及び、プログラム - Google Patents

画像処理システム、制御方法、及び、プログラム Download PDF

Info

Publication number
JP7121470B2
JP7121470B2 JP2017095842A JP2017095842A JP7121470B2 JP 7121470 B2 JP7121470 B2 JP 7121470B2 JP 2017095842 A JP2017095842 A JP 2017095842A JP 2017095842 A JP2017095842 A JP 2017095842A JP 7121470 B2 JP7121470 B2 JP 7121470B2
Authority
JP
Japan
Prior art keywords
cameras
camera
processing system
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017095842A
Other languages
English (en)
Other versions
JP2018195883A (ja
Inventor
友里 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017095842A priority Critical patent/JP7121470B2/ja
Priority to DE102018110338.7A priority patent/DE102018110338A1/de
Priority to US15/972,672 priority patent/US10979631B2/en
Priority to GB1807660.4A priority patent/GB2567268B/en
Publication of JP2018195883A publication Critical patent/JP2018195883A/ja
Application granted granted Critical
Publication of JP7121470B2 publication Critical patent/JP7121470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、被写体を複数の方向から撮影するための複数のカメラを含む画像処理システムに関するものである。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高い臨場感を与えることが出来る。複数視点画像に基づく仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、当該画像処理部にて、三次元モデル生成、レンダリングなどの処理を施し、ユーザ端末に伝送を行うことで実現できる。
一方、特許文献1では、撮影対象の動きを検出し、その動きベクトルに合わせて撮影フレームレートや、閲覧端末での表示解像度を調整する技術が開示されている。
特開2004-200989号公報
仮想視点コンテンツの閲覧の際、例えばゴールなどのハイライトシーンについては、ゴールやゴールを決めた選手周囲などの特定エリアのより精細な画像が望まれ得る。このような特定エリアのより精細な仮想視点コンテンツを生成する際には、特定エリアを撮影するカメラの撮影画像が高画質であることが必要である。しかしながら、特許文献1のように、単純に撮影対象の動きに合わせて画質を上下させる構成を、複数のカメラを備えた画像処理システムに適用した場合、複数のカメラの画質が一律に変更されることになる。そのため、動きが大きい場合には複数のカメラの画質が一律に高くなり、画像処理サーバが過負荷となる可能性がある。逆に動きが小さい場合には、複数のカメラの画質が一律に低下し、サーバの処理能力を余らせ、不必要に画像品質を下げてしまう可能性がある。
本発明は、複数のカメラからの撮影画像に基づいて仮想視点画像を生成する画像処理システムにおいて、任意のエリアに対してより高い画像品質を提供可能にすることを目的とする。
本発明の一態様による画像処理システムは以下の構成を有する。すなわち、
被写体を複数の方向から撮影するための複数のカメラと、
前記複数のカメラによる撮影により取得される複数の撮影画像から仮想視点画像を生成する生成装置と、を有する画像処理システムであって、
前記複数のカメラから前記生成装置へ伝送されるデータ量を配分して決定される前記複数のカメラのそれぞれの伝送データ量に係るパラメータを決定する決定手段と、
前記複数のカメラのうち少なくとも一つのカメラの撮影設定および/または伝送設定を、前記決定手段で決定されたパラメータに基づいて制御する制御手段と、を有し、
前記制御手段は、前記複数のカメラのうち、撮影設定および/または伝送設定に変更が生じたカメラを選択して前記変更を通知し、
前記複数のカメラは、撮影画像の解像度の異なる第1のカメラと第2のカメラを含み、
前記決定手段は、前記パラメータが未決定である複数のカメラの各々のパラメータの決定において、撮影画像における被写体の領域の占有率が小さいカメラ順に、前記生成装置への伝送に利用可能なデータ量から前記占有率に従って割り当てられるデータ量を越えないようにフレームレートを設定することにより前記パラメータを決定し、当該複数のカメラのうち前記パラメータが未決定であるカメラのフレームレートの設定において、前記パラメータが決定されたカメラに対して前記占有率に従って割り当てられたデータ量と前記パラメータが決定されたカメラに対して設定されたフレームレートから特定されるデータ量との差を、前記生成装置への伝送に利用可能なデータ量に加えて当該カメラのフレームレートの設定を行う
本発明によれば、複数のカメラからの撮影画像に基づいて仮想視点画像を生成する画像処理システムにおいて、任意のエリアに対してより高い画像品質を提供することが可能となる。
画像処理システムの構成例を示す図。 カメラアダプタの機能構成例を示すブロック図。 第1実施形態による制御ステーションの機能構成例を示すブロック図。 第1実施形態によるフレームレート調整の処理を示すフローチャート。 第1実施形態における注視点グループを説明する図。 第2実施形態による制御ステーションの機能構成例を示すブロック図。 第2実施形態によるフレームレート調整の処理を示すフローチャート。 第2実施形態における注視点グループを説明する図。 第3実施形態による制御ステーションの機能構成例を示すブロック図。 第3実施形態におけるフレームレート調整の処理を示すフローチャート。
以下に図面を参照して本発明の実施形態を詳細に説明する。ただし、本発明は以下の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。
<第1実施形態>
(画像処理システム)
競技場(スタジアム)やコンサートホールなどの施設に設置された複数のカメラ及びマイクを用いて撮影及び集音を行う実施形態の画像処理システムについて、図1のシステム構成図を用いて説明する。画像処理システム100は、センサシステム110a~センサシステム110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。
コントローラ300は制御ステーション310と仮想カメラ操作UI330を有する。制御ステーション310は画像処理システム100を構成するそれぞれのブロックに対してネットワーク310a~310c、180a、180b、及び170a~170yを通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
最初に、センサシステム110a~センサシステム110zからの26セットの画像及び音声をセンサシステム110zから画像コンピューティングサーバ200へ送信する動作を説明する。第1実施形態の画像処理システム100は、センサシステム110a~センサシステム110zがデイジーチェーンにより接続されている。
本実施形態において、特別な説明がない場合は、センサシステム110aからセンサシステム110zまでの26セットのセンサシステムを区別せずセンサシステム110と記載する。それぞれのセンサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、本実施形態では、センサシステムの台数として26セットと記載しているが、あくまでも一例であり、台数をこれに限定するものではない。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
センサシステム110a~センサシステム110zは、それぞれ1台ずつのカメラ112a~カメラ112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。なおこれに限らず、接続形態として、センサシステム110a~110zの各々がスイッチングハブ180に接続されて、スイッチングハブ180を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
また、図1では、デイジーチェーンとなるようセンサシステム110a~110zの全てがカスケード接続されている構成を示したがこれに限定されるものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ120がスイッチングハブに接続されて画像コンピューティングサーバ200へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいてとくに有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム110を配備する場合が考えられる。この場合、たとえば、設置されたセンサシステム110からの画像を、フロア毎、あるいはスタジアムの半周毎に、画像コンピューティングサーバ200へ入力することができる。したがって、全てのセンサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
また、デイジーチェーン接続されて画像コンピューティングサーバ200へ画像入力を行うカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。すなわち、センサシステム110が複数のグループに分割されているかどうかに応じて制御が切り替えられる。画像コンピューティングサーバ200への画像入力を行うカメラアダプタ120が1つの場合は、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成される。このため、画像コンピューティングサーバ200において全周の画像データが揃うタイミングは同期がとられている。すなわち、センサシステム110がグループに分割されていなければ、同期はとれる。
しかし、画像コンピューティングサーバ200への画像入力を行うカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合は、それぞれのデイジーチェーンのレーン(経路)によって遅延が異なる場合が考えられる。そのため、画像コンピューティングサーバ200において全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
センサシステム110aはマイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。なお、センサシステム110aはこの構成に限定されるものではなく、少なくとも1台のカメラアダプタ120aと、1台のカメラ112aまたは1台のマイク111aを有していれば良い。例えば、センサシステム110aは1台のカメラアダプタ120aと、複数のカメラ112aで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aで構成されてもよい。即ち、画像処理システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110aは、マイク111a、カメラ112a、雲台113a、及びカメラアダプタ120a以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120が一体となって構成されていてもよい。さらに、カメラアダプタ120の機能の少なくとも一部をフロントエンドサーバ230が有していてもよい。本実施形態では、センサシステム110b~110zについては、センサシステム110aと同様の構成とするが、全てのセンサシステム110がセンサシステム110aと同じ構成である必要はなく、其々のセンサシステム110が異なる構成でもよい。
マイク111aにて集音された音声と、カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、デイジーチェーン170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。同様にセンサシステム110bは、集音された音声と撮影された画像を、センサシステム110aから取得した画像及び音声と合わせてセンサシステム110cに伝送する。このような動作を続けることにより、センサシステム110a~センサシステム110zが取得した画像及び音声は、センサシステム110zからネットワーク180bを介してスイッチングハブ180に伝送される。そして、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
なお、本実施形態では、カメラ112とカメラアダプタ120が分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111は一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
次に、画像コンピューティングサーバ200の構成及び動作について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200はフロントエンドサーバ230、データベース250、バックエンドサーバ270、タイムサーバ290を有する。
タイムサーバ290は時刻及び同期信号を配信する機能を有し、スイッチングハブ180を介してセンサシステム110a~センサシステム110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a~120zは、それぞれ、カメラ112a~112zを時刻と同期信号をもとにGenlockさせ画像フレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制することができる。なお、本実施形態ではタイムサーバ290が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理をカメラ112又はカメラアダプタ120が独立して行ってもよい。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換する。フロントエンドサーバ230は、再構成されたデータを、カメラの識別子やデータ種別、フレーム番号に応じてデータベース250に書き込む。バックエンドサーバ270は、複数のカメラによる撮影画像から仮想視点画像を生成する。より具体的には、バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、受け付けた視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。
なお、画像コンピューティングサーバ200の構成はこれに限られるものではない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ200内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190および/または仮想カメラ操作UI330が有していてもよい。
レンダリング処理された仮想視点画像は、バックエンドサーバ270からエンドユーザ端末190に送信され、表示される。こうしてエンドユーザ端末190を操作するユーザは視点の指定に応じた画像閲覧及び音声視聴をすることが出来る。以上のように、バックエンドサーバ270は、複数のカメラ112により撮影された撮影画像(複数視点画像)と視点情報とに基づいて仮想視点コンテンツを生成する。より具体的には、バックエンドサーバ270は、例えば複数のカメラアダプタ120により複数のカメラ112による撮影画像から抽出された後述の所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。そしてバックエンドサーバ270は、生成した仮想視点コンテンツをエンドユーザ端末190に提供する。カメラアダプタ120による所定領域の抽出の詳細については後述する。
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、
・ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)、
・複数の候補からユーザが指定した視点に対応する画像、
・装置が自動で指定した視点に対応する画像、
が含まれる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。
バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG-DASHプロトコルを使ってエンドユーザ端末190へ送信する。あるいは、バックエンドサーバ270は、仮想視点画像を非圧縮でエンドユーザ端末190へ送信する。とくに圧縮符号化を行う前者はエンドユーザ端末190としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、バックエンドサーバ270は、エンドユーザ端末190の種別に応じて画像フォーマットを切り替えることが可能である。また、画像の送信プロトコルはMPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法が用いられても良い。
以上の様に、画像処理システム100は、画像収集ドメイン、データ保存ドメイン、及び画像生成ドメインという3つの機能ドメインを有している。すなわち、画像収集ドメインはセンサシステム110~110zを含む。データ保存ドメインはデータベース250、フロントエンドサーバ230及びバックエンドサーバ270を含む。画像生成ドメインは仮想カメラ操作UI330、エンドユーザ端末190、バックエンドサーバ270を含む。
なお上記の構成に限らず、例えば、仮想カメラ操作UI330が直接、センサシステム110a~110zから画像を取得する事も可能である。しかしながら、本実施形態では、センサシステム110a~110zから直接画像を取得する方法ではなくデータ保存機能を中間に配置する方法をとる。具体的には、フロントエンドサーバ230が、センサシステム110a~110zが生成した画像データや音声データ及びそれらのデータのメタ情報をデータベース250の共通スキーマ及びデータ型に変換している。これにより、センサシステム110a~110zのカメラ112が他機種のカメラに変化しても、変化した差分をフロントエンドサーバ230が吸収し、データベース250に登録することができる。このことによって、カメラ112が他機種カメラに変わった場合に、仮想カメラ操作UI330が適切に動作しない虞を低減できる。
また、仮想カメラ操作UI330は、直接、データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする構成である。バックエンドサーバ270で画像生成処理に係わる共通処理が行われ、操作UIに係わるアプリケーションの差分部分が仮想カメラ操作UI330で行われる。このことにより、仮想カメラ操作UI330の開発において、UI操作デバイスの開発、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力する事ができる。また、バックエンドサーバ270は、仮想カメラ操作UI330の要求に応じて画像生成処理に係わる共通処理を追加又は削除する事も可能である。このことによって仮想カメラ操作UI330の要求に柔軟に対応する事ができる。
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影に基づく画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。なお、本実施形態における画像処理システム100は、上記で説明した物理的な構成に限定される訳ではなく、論理的に構成されていてもよい。
(カメラアダプタ)
本実施形態におけるカメラアダプタ120の機能ブロックについて図2を利用して説明する。カメラアダプタ120は、ネットワークアダプタ121、伝送部122、画像処理部123及び、外部機器制御部124を備える。
ネットワークアダプタ121は、デイジーチェーン170、ネットワーク291、ネットワーク310aを介し、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、制御ステーション310と時刻同期をとり、データ通信を行う。
伝送部122は、ネットワークアダプタ121を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有する。具体的には、伝送部122は、
・ネットワークアダプタ121を介して送受信されるデータに対して所定の圧縮、伸張を行う機能と、
・伝送データのルーティングを決定し、送信を実行する機能と、
・他のカメラアダプタ120、フロントエンドサーバ230、制御ステーション310と送受信するデータに付与するメッセージを作成、または受け取ったメッセージに基づき所定の処理を実行する機能と、を有している。
メッセージには画像データ又は音声データ、及び各データのメタ情報が含まれる。本実施形態のメタ情報には画像の撮影または音声のサンプリングをした時のタイムコードまたはシーケンス番号、データ種別、及びカメラ112やマイク111の個体を示す識別子などが含まれる。
画像処理部123は、外部機器制御部124の制御によりカメラ112が撮影した画像データ及び他のカメラアダプタ120から受取った画像データに対して処理を行う機能を有する。その画像処理の1つである、前述の、カメラアダプタ120における所定領域の抽出の詳細について説明する。
画像処理部123は、カメラ112が撮影した撮影画像に対するオブジェクト検出の結果得られた画像を前景画像とし、これにより撮影画像を前景画像と背景画像に分離する機能を有している。所定領域は、例えば撮影画像に対するオブジェクト検出の結果得られる前景画像である。なお、オブジェクトとは、例えば人物である。ただし、オブジェクトが特定人物(選手、監督、及び/又は審判など)であっても良いし、ボールやゴールなど、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。
人物等の重要なオブジェクトを含む前景画像とそのようなオブジェクトを含まない背景領域を分離して処理することで、画像処理システム100において生成される仮想視点画像の上記のオブジェクトに該当する部分の画像の品質を向上できる。また、前景画像と背景画像の分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることができる。なお、所定領域は前景画像に限らず、例えば背景画像であってもよい。また、画像処理部123は、前景画像が撮影画像(分離前画像)に占める率(前景占有率)を算出する機能を有する。また、画像処理部123は、画像からオブジェクトの数を認識する機能を有する。また、画像処理部123は、画像から特定のオブジェクトを認識する機能を有する。
その他に、画像処理部123は、前述の画像処理により分離された前景画像及び他のカメラアダプタ120から受取った前景画像を利用して、例えば、
・ステレオカメラの原理を用いて三次元モデルに係わる画像情報を生成する機能、
・画像処理のために必要な種々のキャリブレーションを行う機能、
を有している。
外部機器制御部124は、カメラアダプタ120に接続する機器を制御する機能を有する。具体的には、
・カメラ112と接続し、カメラ112の制御、撮影画像の取得、同期信号の提供、時刻設定などを行う機能と、
・マイク111と接続し、マイク111の制御、収音の開始及び停止や収音された音声データの取得などを行う機能と、
・雲台113と接続し、雲台113のパン/チルト制御や状態取得などを行う機能と、
を有する。
また、外部機器制御部124は、外部センサ114と接続し、外部センサ114がセンシングしたセンサ情報を取得する機能を有する。例えば、外部センサ114としてジャイロセンサが利用される場合は、外部機器制御部124は、カメラ112の振動を表す情報を取得し、電子的に防振された画像データを生成することができる。その他、外部センサ114は、温度検知センサやGPSセンサ、カメラ112とは異なる補助的な画像センサ等であっても良い。
(制御ステーション310)
本実施形態における制御ステーション310の機能構成について、図3を利用して説明する。制御ステーション310は、たとえば、CPUおよびメモリを有するコンピュータ装置であり、図3に示される各機能部は、CPUがメモリに格納されたプログラムを実行することで実現され得る。ただし、各機能部の一部またはすべてが専用のハードウエアで実現されてもよい。なお、図3では、制御ステーション310が有する機能ブロックのうち、カメラアダプタ120に対する撮影パラメータ、伝送の制御に関わる部分について示している。ここで撮影パラメータとは、カメラ112のフレームレートや解像度である。このほかにも制御ステーション310は、フロントエンドサーバ230、データベース250、バックエンドサーバ270の制御や、その制御のために必要な種々の情報を保持する機能などを有するが、ここでは図示を省略する。以下、制御ステーション310が有するカメラアダプタ制御部710、ユーザ入力受付部720、対象情報保持部730、機器情報保持部740及び要求情報保持部750について説明する。
まず、カメラアダプタ制御部710の機能ブロックについて説明する。通信制御部711は、撮影で得られた情報をカメラアダプタ120からスイッチングハブ180を介して受信する。また通信制御部711は、カメラアダプタ120がそれに接続される外部機器を制御するための情報を、送信情報作成部715から受け取り、該当するカメラアダプタ120に送信する機能を有する。
占有率集計部712は、画像処理システム100内の複数のカメラアダプタ120から受信した前景画像の占有率(前景占有率データ)を集計する。撮影パラメータ作成部713は、集計された占有率に基づいて、カメラアダプタ120がそれに接続されるカメラ112を制御するために必要な撮影パラメータ(たとえば、フレームレート、解像度など)を作成する。伝送制御情報作成部714は、集計された占有率に基づいてカメラアダプタ120が伝送を制御するために必要な伝送制御情報(たとえば伝送圧縮率など)を作成する。送信情報作成部715は、撮影パラメータ作成部713および伝送制御情報作成部714で作成された情報を受け取り、各々のカメラアダプタ120について制御の変更が必要かどうかを判断する。そして、送信情報作成部715は、制御の変更が必要と判断したカメラアダプタ120に送信するための送信情報(撮影パラメータおよび伝送制御情報)を作成する。カメラアダプタ制御部710は、通信制御部711を介してこの送信情報を必要なカメラアダプタ120へ送信することにより、カメラ112の撮影設定および伝送部122の伝送設定を制御する。
ユーザ入力受付部720は、撮影のために必要な撮影対象情報、機器情報、撮影操作要求情報をユーザから受け付ける機能を有する。ユーザ入力受付部720で受け付けた撮影対象情報、機器情報、撮影操作要求情報は、それぞれ、対象情報保持部730、機器情報保持部740及び要求情報保持部750に保持される。また対象情報保持部730、機器情報保持部740、要求情報保持部750は、必要に応じて、カメラアダプタ制御部710、フロントエンドサーバ230、データベース250、バックエンドサーバ270の制御を行う機能ブロック(不図示)と通信を行う。
ここで撮影対象情報とは、撮影範囲に含まれる人、物、施設、音源、照明に関する、形状や配置などの情報である。機器情報とは、カメラ、雲台、レンズ及びマイク等の撮影機材、LAN、PC、サーバ及びケーブル等の情報機器、及び中継車に関する、機種名やスペック、特性値、さらに配置などの情報を指す。また撮影操作要求情報とは、予めもしくは撮影中にユーザが要求する、各種機材の制御値や制御方法に関する要求情報である。ただし必ずしもこれらすべての情報が入力されなければならないわけではない。またこれらの情報は、ユーザ入力に依らず、自動的に取得されるのでも良い。
(カメラアダプタ制御部710における撮影パラメータ、伝送調整)
以下では本実施形態において、カメラアダプタ制御部710が、前景占有率の集計から送信情報を送信するまでの処理について、図4のフローチャートを用いて説明する。本実施形態では、制御ステーション310が、複数のカメラから仮想視点画像を生成する画像コンピューティングサーバ200へ伝送される全データ量を、前景占有率に基づいて複数のカメラの各々に配分し、各カメラの伝送データ量を決定する。ここで、前景占有率に基づいて複数のカメラの各々に配分されるため、各カメラの伝送データ量は不均一になり得る。そして、制御ステーション310が、複数のカメラの各々の撮影設定および/または伝送設定を、決定された伝送データ量に基づいて制御する。本実施形態では、伝送データ量をフレームレートにより制御する例が示される。以下、より具体的に説明する。
カメラアダプタ120は、カメラ112で得られた画像について、前景占有率、すなわち前景画像の分離前画像に対する画素占有率を算出する(S401)。ここで前景画像のなかでも、たとえば選手やボールなど、特に被写体として注目されるオブジェクトに限定して占有率を算出するようにしても良い。
占有率集計部712は、画像処理システム100内の全てのカメラアダプタ120から前景占有率を受信し、集計し、複数のカメラ112間の前景占有率比を算出する(S402)。算出された前景占有率比に基づいて、撮影パラメータ作成部713は、カメラごとに、その後の撮影フレームレートを算出する(S403)。具体的には、前景占有率が大きいカメラほど高いフレームレートが決定される。ただし、全デイジーチェーンを介して画像コンピューティングサーバ200に集結される画像データ量が画像コンピューティングサーバ200で処理可能なデータ量の最大以下かつ最大近傍となるように、各カメラのフレームレートが決定される。
たとえば、カメラがカメラ112a~112cの全3台とした場合に、前景占有率の比がA:B:Cだったとする。このときのカメラ112aのフレームレート目安値Faは、Dを画像コンピューティングサーバ200における1秒当たりの許容最大データ量、Eaをカメラ112aの1フレームあたりのデータ量(解像度)として、以下の(1)式で求められる。
Fa=(D×A/(A+B+C))/Ea ...(1)
ここでFaは目安値であり、実際にカメラ112aに割り当てるフレームレートFa'は、目安値Fa以下かつカメラ112aで制御設定可能な整数値とする。
この際に、機器情報保持部740が保持するカメラ112aの制御設定可能な値を参照する。Fa≠Fa'の場合、(Fa-Fa')×Eaの分だけ、カメラ112aは本来使用可能なデータ量を余してしまうことになる。そこで、(Fa-Fa')×Eaを、他のカメラ112bまたは112cのフレームレート算出の際に加えることができる。従って、前景占有率が低いものから優先してフレームレートを算出すれば、前景占有率が高いカメラに、より高いフレームレートを割り当てることが可能になる。あるいは、フレームレートの下限値を設けて、それ以上となるように前景占有率が低いものからフレームレートを割り当てることにより、最低画像品質を保証するようにしてもよい。
送信情報作成部715は、上記によって決定されたフレームレートが、カメラ112における現在のフレームレートと異なるか否かを確認する(S404)。フレームレートが現在値と異なる場合、送信情報作成部715は、該当するカメラアダプタ120に送信する制御情報を作成し(S405)、該当するカメラアダプタ120に送信する(S406)。すなわち、複数のカメラのうち、撮影設定および/または伝送設定に変更が生じたカメラに対してのみ変更が通知される。なお、上記では、フレームレートの設定を変更する例を示したが、解像度の設定または圧縮率の設定を変更するようにしてもよい。あるいは、フレームレート、解像度、圧縮率のうちの2つ以上の組み合わせを変更するようにしてもよい。
なお、上記ではカメラ112ごとに撮影パラメータの設定(撮影設定)および/または伝送に関する調整(伝送設定)を行ったがこれに限られるものではない。複数のカメラ112を1つ以上のカメラからなる複数のカメラグループに分割し、カメラグループごとに撮影設定および/または伝送に関する調整を行うようにしてもよい。たとえば、画像処理システム100内に複数の注視点グループが存在する場合に、撮影パラメータ、伝送に関する調整を、注視点グループごとに調整するようにしても良い。ここで注視点グループとは、光軸が同じ注視点を向くように設置された1つ以上のカメラ112からなるカメラグループである。すなわち、複数のカメラのうち注視点が共通であるカメラにより構成されるカメラグループである。なお、注視点グループは、光軸が同じ領域を向くように設置された1つ以上のカメラ112からなるカメラグループであってもよい。また、注視点グループは、共通の領域を撮影可能な撮影範囲が設定されている1つ以上のカメラ112からからなるカメラグループとしてもよい。
図5は注視点502Aと注視点502Bの2つの注視点502が設定され、9台のカメラ(112a~112i)が設置された場合の例である。4台のカメラ(112a、112c、112e及び112g)は、注視点502Aを向いており、注視点グループ501Aに属する。また、残りの5台のカメラ(112b、112d、112f、112h及び112i)は、注視点502Bを向いており、注視点グループ501Bに属する。また破線で示される範囲エリアA、エリアBは、各注視点グループに属するカメラの共通撮影範囲の概略である。たとえばエリアAに存在するオブジェクトについて仮想視点画像を作成するためのデータは、注視点グループ501Aに属する4台のカメラ(112a、112c、112e及び112g)から取得される。このように注視点によってカメラ112がグループ化される場合、その注視点グループごとに仮想視点画像を生成する目的の撮影範囲は共通する。そのため、各注視点グループに属する複数のカメラ112のうち、代表的ないくつかのカメラ112を選出して前景占有率を算出し、その結果に基づき前述のフレームレート調整を、注視点グループごとに行ってもよい。これにより、カメラアダプタ制御部710における調整決定までの計算量を削減することが出来る。
また、この場合、画像処理システム100は、S402において各注視点グループで撮影可能なオブジェクトの数を計算し、その数に応じて注視点グループごとにフレームレート調整を行ってもよい。具体的には、画像処理システム100は、よりオブジェクトの数が多い注視点グループほど、フレームレートを高くする。このようにすることで、画像処理システム100は、オブジェクトの数が多い注視点グループにより撮影された画像に基づいて生成する仮想視点画像ほど高画質にすることができる。また、画像処理システム100は、S402において特定のオブジェクト(例えば、ボール、特定の人物)が存在するまたは特定のオブジェクトから近い注視点を有する注視点グループを判定し、その判定結果に応じてフレームレート調整を行ってもよい。具体的には、画像処理システム100は、特定のオブジェクトが存在するまたは特定のオブジェクトから近い注視点を有する注視点グループほど、フレームレートを高くする。このようにすることで、画像処理システム100は、注目すべきオブジェクトを撮影可能な注視点グループにより撮影された画像に基づいて生成する仮想視点画像ほど高画質にすることができる。
以上のように、第1実施形態では、前景占有率に基づいて、カメラごと、あるいはカメラグループごとに伝送データ量が不均一に配分され、フレームレートが調整される。これにより、前景占有率が高いところ、すなわち被写体として注目を集めるオブジェクト(たとえば選手など)が画像内により多く写っているところほど精細で高画質な仮想視点画像を生成することが可能である。また、これにより、注目を集めるオブジェクトを(より多く)撮影可能な注視点グループにより撮影された画像に基づいて生成する仮想視点画像ほど精細で高画質にすることができる。また、前景占有率に対するフレームレートを、あらかじめ取り決めた固定的比例とせず、画像処理システム内の全カメラの集計結果に基づき算出することで、画像コンピューティングサーバの能力を余すことなく最大限活用した画像品質の実現が可能になる。なお、前景画像のデータ量ではなく、占有率に基づくとするのは、カメラ毎に解像度が異なる場合であってもその影響を受けず、前景の画像内における分量を比較することが可能だからである。
また上記では撮影パラメータ、伝送データ量の調整としてフレームレートの決定について述べたがこれに限られるものではない。たとえば、前景占有率に基づき、解像度や伝送圧縮率を調整することによって、各々のカメラアダプタ120から画像コンピューティングサーバ200に送信されるデータ量の配分を調整するようにしても良い。また例えばフィールド競技において、選手がフィールド上の一部に偏って背景画像しか写らないなど、前景画像がゼロとなるカメラが存在する場合は、当該カメラからの伝送を行わないとしても良い。またそれら複数の調整を組み合わせても良い。また、カメラグループは、注視点グループに限られるものではなく、複数のカメラのうち撮影方向が所定の範囲に含まれるカメラで構成されてもよい。
<第2実施形態>
図6、図7、図8を用いて第2実施形態を説明する。第1実施形態では、撮影画像中の前景占有率に基づいて各カメラの撮影設定および/または伝送設定を決定することにより、たとえば、フレームレート、解像度、伝送圧縮率を制御した。第2実施形態では、マイク111から得られた音データに基づいて、各カメラの撮影設定および/または出力設定を決定する。すなわち、第2実施形態では、複数のカメラによる撮影空間における複数の箇所で集音を行い、集音された音データに基づいて得られる撮影空間における音の分布に基づいて複数のカメラの各々の伝送データ量の(不均一な)配分を決定する。なお、第2実施形態では、複数の注視点グループ(カメラグループ)が存在する場合について説明する。
図6は第2実施形態に係る制御ステーション310の機能ブロック図、図7は第2実施形態に係るカメラアダプタ制御部710が、カメラアダプタ120に対して行う撮影パラメータ、伝送の調整制御についてのフローチャートである。なお第1実施形態と同様の役割をなす機能ブロック、処理ステップ等については同符号を付してある。また図8は図5同様、2つの注視点グループ(502A、502B)をもつ画像処理システム100の概略図である。
第2実施形態において、カメラアダプタ120a~120i(図8)の各々は、接続されているマイク111a~111i(図8)により集音された音の強度、方向などの情報を得る(図7S701)。なお、集音した音のうち、周波数解析を行い、特定の声や楽器音に限定して音の強度、方向などの情報を得るようにしてもよい。
強度比算出部811は、画像処理システム100内の全てのカメラアダプタ120a~120i(図8)からの集音情報を受信、結合処理し、撮影対象内の空間的な音強度分布を算出する(S702)。たとえば、ステージ上などの空間範囲について、各箇所で生じた音の強度を3次元的に把握する。具体的には、マイク111としてたとえば指向性マイクやステレオマイクなどを用い、音強度分布を3次元的に把握する。次に強度比算出部811は、図8のエリアA、B内で生じた音強度を各々合算し、エリア間の音強度比を算出する(S703)。エリア間の音強度比に基づき、撮影パラメータ作成部713は、注視点グループごとのフレームレートを算出する(S704)。たとえば、(1)式を用いてフレームレートを算出することができる(A:B:Cを音強度比とする)。以降の処理(S404~S406)は第1実施形態と同様である。
なお、第2実施形態では複数のカメラアダプタ120の各々にマイク111が接続された場合について述べたが、マイク111がカメラアダプタ120とは分離されたシステムを形成し、撮影空間の音強度分布を3次元的に把握するのであってもよい。
以上のように、第2実施形態では、音の強度分布に基づいて各カメラのフレームレート、解像度、伝送圧縮率が調整される。これにより、第2実施形態では、カメラ間で前景占有率に大きな差は生じないが、被写体として注目される対象が移り変わるような場合にも、注目される撮影範囲ほど精細な仮想視点画像を生成することが可能である。たとえば、演劇において、前景となる多くの役者が舞台上に存在する中で、セリフを発している役者周辺に比重を置いて(伝送データ量が大きくなるようにフレームレート、解像度、伝送圧縮率を決定して)画像品質を高めたい場合に有効である。あるいは、オーケストラにおいて、やはり前景となる多くの奏者が常時固定的に存在する中で、演奏のメインパート奏者に比重を置いて画像品質を高めたい場合において有効である。
<第3実施形態>
図9、図10を用いて第3実施形態の説明をする。第3実施形態では、オブジェクトの空間的な位置を示す位置情報に基づいて複数のカメラへの伝送データ量の(不均一な)配分を決定し、各カメラの撮影設定および/または出力設定を決定する。第3実施形態においても、第2実施形態と同様に複数の注視点グループが存在する場合について説明する。図9は第3実施形態に係る制御ステーション310の機能ブロック図である。図10は第3実施形態に係る制御ステーション310が、カメラアダプタ120に対して行う撮影パラメータ、伝送の調整制御についてのフローチャートである。なお第1、第2実施形態と同様の役割をなす機能ブロック、フロー等については同符号が用いられている。
第3実施形態においては、被写体として注目されるオブジェクト(たとえば選手や監督、ボールなど)それぞれにGPS発信部911が設けられている。GPS受信部912は、GPS発信部911からのオブジェクトの位置情報を受信する(S901)。統合部913は、GPS受信部912で受信した全オブジェクトの位置情報と、対象情報保持部730から得た撮影空間情報(たとえばフィールド空間情報)を統合し、選手などのオブジェクトのフィールド上の位置を把握する(S902)。次に分布比算出部914は、各注視点グループのエリアごとにオブジェクトの数をカウントし、エリア間のオブジェクト数の比を算出する(S903)。エリア間のオブジェクト分布比に基づき、撮影パラメータ作成部713は、注視点グループごとのフレームレートを算出する(S904)。たとえば、(1)式を用いてフレームレートを算出することができる(A:B:Cをオブジェクト数の比とする)。以降の処理(S404~S406)は第1実施形態と同様である。
このように、GPSを用い、オブジェクト分布比に基づいて各カメラのフレームレート他、解像度や伝送を調整することで、前景占有率の算出が不要になり、より直接的に被写体として注目される対象の分布を把握することが出来る。たとえば、カメラと複数のオブジェクトが偶然直線的に並び、多くのオブジェクトがその撮影範囲に存在するにも関わらず、カメラからみたオブジェクトが重なりあい前景占有率が低く算出されるような場合でも、正確に対象の分布を把握できる。またさらに、GPSの個体識別を用いれば、画像による個体識別を行わなくとも、オブジェクトの中でも特定の選手やボールの位置を把握可能であり、それらオブジェクトを含むエリアに比重を置いて撮影パラメータや伝送を調整することも容易になる。
以上、第1~第3実施形態により、前景占有率、音強度、GPSの利用によって、被写体として注目されるオブジェクトの分布を把握し、カメラごと(カメラグループごと)の撮影設定および/または伝送設定を制御する構成を説明した。この他にも、カメラ112で得られる画像について、画像上で生じた動的変化量を検出し、変化量が大きいところ、たとえば選手が激しく動き回っているエリアに比重を置いて、撮影設定および/または伝送設定の調整を行うようにしてもよい。またカメラアダプタに接続された外部センサ114として、赤外線カメラやその他の温度検知センサを用い、被写体が発生する熱を検知して撮影対象内の生体分布を把握し、これに基づいて撮影設定および/または伝送設定を制御するようにしてもよい。
さらに、上述のように自動検出結果を元に比重を決定するのではなく、ユーザの要求にしたがって各カメラ(各カメラグループ)への伝送データ量の配分を決定し、撮影設定および/または伝送設定を制御するようにしてもよい。たとえば、ユーザが、撮影中にリアルタイムでより精細な仮想視点画像を要求する箇所を選択すると、その選択された個所を撮影するカメラ(カメラグループ)により多くの伝送データ量が配分され、撮影設定や伝送設定の調整が行われる。ここで、ユーザとは、たとえば、本画像処理システムを運用するユーザ、仮想視点画像を生成しようとするユーザ、あるいは仮想視点画像を視聴するユーザである。
またあらかじめ、時間による各エリアの比重の変化をプログラムして制御ステーション310に入力し、それに従って上述の調整を行ってもよい。これは、たとえば演劇、フィギュアスケートやシンクロナイズドスイミングなど、あらかじめ被写体の動きが決まっている場合などで有効である。また、あらかじめ各カメラグループの優先度を決めておき、優先度が高いカメラグループに属するカメラの伝送データ量が、優先度が低いカメラグループに属するカメラの伝送データ量よりも大きくなるように、各カメラの伝送データ量を決定してもよい。具体的には、各カメラグループの優先度の比を用いて、第1実施形態((1)式)で説明したような手法で、各カメラグループへのデータ量の配分を決定することができる。
また、上述したいくつかの比重の調整方法(各エリアの伝送データ量の調整方法)を組み合わせてもよい。たとえばスポーツイベントで、開会式では音強度に基づき、競技中は前景占有率に基づくなど、タイムスケジュールに合わせて切り替えるのでも良いし、いくつかのオブジェクトの自動検出を同時併用しても良い。
さらに前述の注視点を元にしたグルーピングではなく、それ以外のグルーピング法則によって形成したカメラグループごとに前述の調整を行うようにしても良い。たとえば、作成しようとする仮想視点の方向が事前、もしくは即時的に判断可能な場合であれば、その視点方向からの画像を取得するカメラ同士をグルーピングして、撮影パラメータや伝送の比重を高くするよう調整してもよい。あるいは、日射や照明状況を考慮して、順光または逆光となるカメラ同士をグルーピングするようにしてもよい。また、雨の降り方によってカメラレンズに雨粒などが当たる頻度がカメラの設置箇所によって異なる場合、その頻度ごとにグルーピングを行い、頻度が高いところほどフレームレートを上げ、雨粒などの画像ノイズを除去しやすくするようにしてもよい。
また撮影中にそれらのグルーピング法則を切り替えるようにしてもよい。たとえば通常時は注視点を元にグルーピングされており、要求があった場合だけ、前述の仮想視点方向に即したグルーピングに切り替えても良い。また天候の変化に合わせて、前述の日射を基準とするグルーピングから降雨を基準とするグルーピングに切り替えることにより、天候に合わせた最適な調整方法を適用することが可能になる。
また上記各実施形態では、オブジェクトの分布を把握する処理から、カメラまたはカメラグループごとの撮影設定、伝送設定までを一括して制御ステーション310で行うとしたがこれに限られるものではない。たとえば、それらの処理の一部またはすべてを、カメラアダプタ120、フロントエンドサーバ230、データベース250、バックエンドサーバ270のいずれかで行ってもよい。
以上、上述した実施形態によれば、複数のカメラ112を有する画像処理システム100において、システムの画像処理能力を最大限生かしながら、任意の撮影範囲に対して画質を高めた仮想視点画像を得るための撮影コントロールが可能である。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110:センサシステム、111:マイク、112:カメラ、113:雲台、120:カメラアダプタ、180:スイッチングハブ、190:エンドユーザ端末、230:フロントエンドサーバ、250:データベース、270:バックエンドサーバ、290:タイムサーバ、310:制御ステーション、330:仮想カメラ操作UI、710:カメラアダプタ制御部、720:ユーザ入力受付部、730:対象情報保持部、740:機器情報保持部、750:要求情報保持部

Claims (22)

  1. 被写体を複数の方向から撮影するための複数のカメラと、
    前記複数のカメラによる撮影により取得される複数の撮影画像から仮想視点画像を生成する生成装置と、を有する画像処理システムであって、
    前記複数のカメラから前記生成装置へ伝送されるデータ量を配分して決定される前記複数のカメラのそれぞれの伝送データ量に係るパラメータを決定する決定手段と、
    前記複数のカメラのうち少なくとも一つのカメラの撮影設定および/または伝送設定を、前記決定手段で決定されたパラメータに基づいて制御する制御手段と、を有し、
    前記制御手段は、前記複数のカメラのうち、撮影設定および/または伝送設定に変更が生じたカメラを選択して前記変更を通知し、
    前記複数のカメラは、撮影画像の解像度の異なる第1のカメラと第2のカメラを含み、
    前記決定手段は、前記パラメータが未決定である複数のカメラの各々のパラメータの決定において、撮影画像における被写体の領域の占有率が小さいカメラ順に、前記生成装置への伝送に利用可能なデータ量から前記占有率に従って割り当てられるデータ量を越えないようにフレームレートを設定することにより前記パラメータを決定し、当該複数のカメラのうち前記パラメータが未決定であるカメラのフレームレートの設定において、前記パラメータが決定されたカメラに対して前記占有率に従って割り当てられたデータ量と前記パラメータが決定されたカメラに対して設定されたフレームレートから特定されるデータ量との差を、前記生成装置への伝送に利用可能なデータ量に加えて当該カメラのフレームレートの設定を行うことを特徴とする画像処理システム。
  2. 前記決定手段は、前記複数のカメラを1つ以上のカメラからなる複数のカメラグループに分割し、カメラグループごとに前記伝送データ量を決定することを特徴とする請求項1に記載の画像処理システム。
  3. 前記カメラグループは、前記複数のカメラのうち注視点が共通であるカメラにより構成されることを特徴とする請求項2に記載の画像処理システム。
  4. 前記カメラグループは、前記複数のカメラのうち、撮影方向が所定の範囲に含まれるカメラにより構成されることを特徴とする請求項2に記載の画像処理システム。
  5. 前記決定手段は、撮影中に、前記複数のカメラを前記複数のカメラグループに分割するときのグルーピング法則を変更することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理システム。
  6. 前記制御手段は、前記複数のカメラのうち少なくとも一つのカメラにおける撮影のフレームレートを制御することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理システム。
  7. 前記制御手段は、前記複数のカメラのうち少なくとも一つのカメラにおける撮影の解像度を制御することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理システム。
  8. 前記制御手段は、前記複数のカメラのうち少なくとも一つのカメラから前記生成装置への画像の伝送圧縮率を制御することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理システム。
  9. 前記制御手段は、前記複数のカメラのうちの少なくとも一つのカメラから前記生成装置への画像の伝送を停止することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理システム。
  10. 前記被写体を検出する検出手段をさらに有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  11. 前記検出手段は、撮影画像から前記被写体の領域を検出することを特徴とする請求項10に記載の画像処理システム。
  12. 前記検出手段は、前記複数のカメラによる撮影空間における複数の箇所で集音を行い、
    前記決定手段は、前記検出手段で集音された音データに基づいて得られる前記撮影空間における音の分布に基づいて前記複数のカメラのうち少なくとも一つのカメラの伝送データ量を決定することを特徴とする請求項10または11に記載の画像処理システム。
  13. 前記検出手段は、被写体の位置情報を取得し、
    前記決定手段は、前記被写体の前記位置情報に基づいて前記複数のカメラのうち少なくとも一つのカメラの伝送データ量を決定することを特徴とする請求項10乃至12のいずれか1項に記載の画像処理システム。
  14. 前記検出手段は、前記複数のカメラによる撮影画像から被写体の動きを検出し、
    前記決定手段は、前記検出手段で検出された被写体の動きに基づいて前記複数のカメラのうち少なくとも一つのカメラの伝送データ量を決定することを特徴とする請求項10乃至13のいずれか1項に記載の画像処理システム。
  15. 前記検出手段は、被写体から発生する熱を検出し、
    前記決定手段は、前記検出手段で検知された熱に基づいて複数のカメラのうち少なくとも一つのカメラの伝送データ量を決定することを特徴とする請求項10乃至14のいずれか1項に記載の画像処理システム。
  16. 前記決定手段は、あらかじめ定められたプログラムに従って、複数のカメラのうち少なくとも一つのカメラの伝送データ量を変更することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  17. 前記決定手段は、ユーザからの要求に応じて、複数のカメラのうち少なくとも一つのカメラの伝送データ量を変更することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  18. 前記複数のカメラから前記生成装置へ伝送されるデータ量は、前記生成装置が処理可能なデータ量の最大以下となるように設定されることを特徴とする請求項1乃至17のいずれか1項に記載の画像処理システム。
  19. 前記複数のカメラから前記生成装置へ伝送されるデータ量は、前記生成装置が処理可能なデータ量の最大以下かつ最大近傍となるように設定されることを特徴とする請求項1乃至18のいずれか1項に記載の画像処理システム。
  20. 前記決定手段は、優先度が高いカメラグループに属するカメラの伝送データ量が、優先度が低いカメラグループに属するカメラの伝送データ量よりも大きくなるように、カメラの伝送データ量を決定することを特徴とする請求項2に記載の画像処理システム。
  21. 被写体を撮影し、仮想視点画像の生成に用いられる複数の撮影画像を取得する複数のカメラを制御する制御方法であって、
    前記複数のカメラから伝送されるデータ量を配分して決定される前記複数のカメラのそれぞれの伝送データ量に係るパラメータを決定する決定工程と、
    前記複数のカメラのうち少なくとも一つのカメラの撮影設定および/または伝送設定を、前記決定工程で決定されたパラメータに基づいて制御する制御工程と、を有し、
    前記制御工程において、前記複数のカメラのうち、撮影設定および/または伝送設定に変更が生じたカメラが選択され、前記選択されたカメラに前記変更が通知され、
    前記複数のカメラは、撮影画像の解像度の異なる第1のカメラと第2のカメラを含み、
    前記決定工程において、前記パラメータが未決定である複数のカメラの各々のパラメータの決定において、撮影画像における被写体の領域の占有率が小さいカメラ順に、伝送に利用可能なデータ量から前記占有率に従って割り当てられるデータ量を越えないようにフレームレートを設定することにより前記パラメータが決定され、当該複数のカメラのうち前記パラメータが未決定であるカメラのフレームレートの設定において、前記パラメータが決定されたカメラに対して前記占有率に従って割り当てられたデータ量と前記パラメータが決定されたカメラに対して設定されたフレームレートから特定されるデータ量との差を、前記伝送に利用可能なデータ量に加えて当該カメラのフレームレートの設定が行われることを特徴とする制御方法。
  22. 請求項21に記載された制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2017095842A 2017-05-12 2017-05-12 画像処理システム、制御方法、及び、プログラム Active JP7121470B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017095842A JP7121470B2 (ja) 2017-05-12 2017-05-12 画像処理システム、制御方法、及び、プログラム
DE102018110338.7A DE102018110338A1 (de) 2017-05-12 2018-04-30 Bildverarbeitungssystem, vorrichtung und steuerverfahren
US15/972,672 US10979631B2 (en) 2017-05-12 2018-05-07 Image processing system, apparatus, and control method
GB1807660.4A GB2567268B (en) 2017-05-12 2018-05-11 Image processing system, apparatus, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017095842A JP7121470B2 (ja) 2017-05-12 2017-05-12 画像処理システム、制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2018195883A JP2018195883A (ja) 2018-12-06
JP7121470B2 true JP7121470B2 (ja) 2022-08-18

Family

ID=62623211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017095842A Active JP7121470B2 (ja) 2017-05-12 2017-05-12 画像処理システム、制御方法、及び、プログラム

Country Status (4)

Country Link
US (1) US10979631B2 (ja)
JP (1) JP7121470B2 (ja)
DE (1) DE102018110338A1 (ja)
GB (1) GB2567268B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP6482696B2 (ja) * 2017-06-23 2019-03-13 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
KR102645340B1 (ko) * 2018-02-23 2024-03-08 삼성전자주식회사 전자 장치 및 그의 녹화 방법
US10659514B2 (en) * 2018-03-28 2020-05-19 Arlo Technologies, Inc. System for video monitoring with adaptive bitrate to sustain image quality
JP6727515B2 (ja) * 2018-07-31 2020-07-22 株式会社コナミデジタルエンタテインメント ゲームシステム、及びそれに用いるコンピュータプログラム
US10841509B2 (en) * 2018-10-22 2020-11-17 At&T Intellectual Property I, L.P. Camera array orchestration
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
JP7281923B2 (ja) * 2019-03-01 2023-05-26 キヤノン株式会社 制御装置、画像処理システム、制御方法及びプログラム
JP7067513B2 (ja) * 2019-03-25 2022-05-16 日本電信電話株式会社 映像同期装置、映像同期方法、プログラム
JP7250588B2 (ja) * 2019-03-28 2023-04-03 キヤノン株式会社 画像処理装置、送信方法、及びプログラム
US11012675B2 (en) 2019-04-16 2021-05-18 At&T Intellectual Property I, L.P. Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations
US11153492B2 (en) 2019-04-16 2021-10-19 At&T Intellectual Property I, L.P. Selecting spectator viewpoints in volumetric video presentations of live events
US11074697B2 (en) 2019-04-16 2021-07-27 At&T Intellectual Property I, L.P. Selecting viewpoints for rendering in volumetric video presentations
US10970519B2 (en) 2019-04-16 2021-04-06 At&T Intellectual Property I, L.P. Validating objects in volumetric video presentations
CN113826378B (zh) 2019-05-16 2024-05-07 佳能株式会社 布置确定装置、系统、布置确定方法和存储介质
CN114762355B (zh) * 2019-12-09 2024-08-02 索尼集团公司 信息处理装置和方法、程序以及信息处理系统
US11468904B2 (en) * 2019-12-18 2022-10-11 Audio Analytic Ltd Computer apparatus and method implementing sound detection with an image capture system
JP7322191B2 (ja) * 2020-01-22 2023-08-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JP7508277B2 (ja) * 2020-06-03 2024-07-01 キヤノン株式会社 伝送処理装置、伝送処理方法、及びプログラム
US11760281B2 (en) * 2020-11-17 2023-09-19 Ford Global Technologies, Llc Battery-powered vehicle sensors
US11953586B2 (en) 2020-11-17 2024-04-09 Ford Global Technologies, Llc Battery-powered vehicle sensors
US11951937B2 (en) 2021-03-12 2024-04-09 Ford Global Technologies, Llc Vehicle power management
US11916420B2 (en) 2021-03-12 2024-02-27 Ford Global Technologies, Llc Vehicle sensor operation
US11912235B2 (en) 2021-03-12 2024-02-27 Ford Global Technologies, Llc Vehicle object detection
CN113132796B (zh) * 2021-03-29 2023-04-07 合安科技技术有限公司 基于pid算法的ai边缘端安全播放方法及相关设备
CN113260040B (zh) * 2021-05-31 2021-10-22 深圳市爱图仕影像器材有限公司 时间码同步方法及网络系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148327A (ja) 2004-11-17 2006-06-08 Olympus Corp 画像生成装置
WO2008035745A1 (en) 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
JP2008283230A (ja) 2007-05-08 2008-11-20 Hitachi Kokusai Electric Inc 画像処理システム
JP2012060531A (ja) 2010-09-10 2012-03-22 Hitachi Plant Technologies Ltd 画像ネットワークシステム、画像送信システム及び画像取得システム
JP2012222780A (ja) 2011-04-14 2012-11-12 Mitsubishi Electric Corp 記録配信装置、記録配信方法及び監視システム
JP2015204512A (ja) 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472479B2 (ja) * 1998-05-22 2003-12-02 シャープ株式会社 画像処理装置
US6269483B1 (en) * 1998-12-17 2001-07-31 International Business Machines Corp. Method and apparatus for using audio level to make a multimedia conference dormant
CA2302461A1 (en) * 2000-03-27 2001-09-27 William Martin Snelgrove Wireless local loop
JP3608518B2 (ja) * 2001-02-28 2005-01-12 日本電気株式会社 移動通信システム
JP2004200989A (ja) 2002-12-18 2004-07-15 Fuji Photo Film Co Ltd 撮影装置及び監視システム
JP4069855B2 (ja) * 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
US7914468B2 (en) * 2004-09-22 2011-03-29 Svip 4 Llc Systems and methods for monitoring and modifying behavior
US20060065844A1 (en) * 2004-09-30 2006-03-30 Zelakiewicz Scott S Systems and methods for dynamic optimization of image
KR100827119B1 (ko) * 2006-12-13 2008-05-06 삼성전자주식회사 입체 영상 서비스 시스템 및 방법과 입체 영상 생성 장치 및 입체 영상 출력장치
FR2920085B1 (fr) * 2007-08-24 2012-06-15 Univ Grenoble 1 Systeme d'imagerie pour l'observation tridimensionnelle d'un champ operatoire
JP5157329B2 (ja) * 2007-08-31 2013-03-06 株式会社セガ ゲーム装置
US8451265B2 (en) 2007-11-16 2013-05-28 Sportvision, Inc. Virtual viewpoint animation
JP2009271577A (ja) * 2008-04-30 2009-11-19 Panasonic Corp 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP4758502B2 (ja) * 2008-12-10 2011-08-31 シャープ株式会社 画像処理装置、画像読取装置、画像送信装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
US8235900B2 (en) * 2009-03-23 2012-08-07 Imsonic Medical, Inc. Method and apparatus for an automatic ultrasound imaging system
JP5390322B2 (ja) * 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
JP5220780B2 (ja) * 2010-02-05 2013-06-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
US20160220169A1 (en) * 2010-10-15 2016-08-04 Brain Sentinel, Inc. Method and Apparatus for Detecting Seizures Including Audio Characterization
US8964998B1 (en) * 2011-06-07 2015-02-24 Sound Enhancement Technology, Llc System for dynamic spectral correction of audio signals to compensate for ambient noise in the listener's environment
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme
CN103903246A (zh) * 2012-12-26 2014-07-02 株式会社理光 物体检测方法和装置
US20150046676A1 (en) * 2013-08-12 2015-02-12 Qualcomm Incorporated Method and Devices for Data Path and Compute Hardware Optimization
JP2015126457A (ja) * 2013-12-27 2015-07-06 ブラザー工業株式会社 サーバ装置のプログラム、サーバ装置及び遠隔会議方法
JP2015126456A (ja) * 2013-12-27 2015-07-06 ブラザー工業株式会社 通信端末装置のプログラム、通信端末装置、サーバ装置のプログラム、サーバ装置及び遠隔会議システム
JP5815167B1 (ja) * 2014-04-09 2015-11-17 パナソニック株式会社 情報端末の制御方法及びプログラム
US10216762B2 (en) * 2014-06-04 2019-02-26 Panasonic Corporation Control method and non-transitory computer-readable recording medium for comparing medical images
US10068373B2 (en) * 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information
EP3021583B1 (en) * 2014-11-14 2019-10-23 Axis AB Method of identifying relevant areas in digital images, method of encoding digital images, and encoder system
US10477095B2 (en) * 2015-05-14 2019-11-12 Sri International Selecting optimal image from mobile device captures
CN106560827B (zh) * 2015-09-30 2021-11-26 松下知识产权经营株式会社 控制方法
KR20180084952A (ko) * 2015-12-21 2018-07-25 로베르트 보쉬 게엠베하 다중 카메라 차량 시스템들을 위한 동적 이미지 혼합
US10599390B1 (en) * 2015-12-28 2020-03-24 Amazon Technologies, Inc. Methods and systems for providing multi-user recommendations
US20170262606A1 (en) * 2016-03-14 2017-09-14 Cornell University Health monitoring using social rhythms stability
JP6735592B2 (ja) * 2016-04-08 2020-08-05 キヤノン株式会社 画像処理装置及びその制御方法、画像処理システム
CN106101072A (zh) * 2016-05-30 2016-11-09 上海小蚁科技有限公司 用于在网络上传送视频数据的系统和方法
US10261747B2 (en) * 2016-09-09 2019-04-16 The Boeing Company Synchronized side-by-side display of live video and corresponding virtual environment images
US10325407B2 (en) * 2016-09-15 2019-06-18 Microsoft Technology Licensing, Llc Attribute detection tools for mixed reality
US9955253B1 (en) * 2016-10-18 2018-04-24 Harman International Industries, Incorporated Systems and methods for directional loudspeaker control with facial detection
US10389935B2 (en) * 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148327A (ja) 2004-11-17 2006-06-08 Olympus Corp 画像生成装置
WO2008035745A1 (en) 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
JP2008283230A (ja) 2007-05-08 2008-11-20 Hitachi Kokusai Electric Inc 画像処理システム
JP2012060531A (ja) 2010-09-10 2012-03-22 Hitachi Plant Technologies Ltd 画像ネットワークシステム、画像送信システム及び画像取得システム
JP2012222780A (ja) 2011-04-14 2012-11-12 Mitsubishi Electric Corp 記録配信装置、記録配信方法及び監視システム
JP2015204512A (ja) 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法

Also Published As

Publication number Publication date
US20180332218A1 (en) 2018-11-15
DE102018110338A1 (de) 2018-11-15
GB2567268B (en) 2020-11-04
GB2567268A (en) 2019-04-10
GB201807660D0 (en) 2018-06-27
US10979631B2 (en) 2021-04-13
JP2018195883A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP7121470B2 (ja) 画像処理システム、制御方法、及び、プログラム
RU2704244C1 (ru) Способ генерирования изображения виртуальной точки обзора и устройство обработки изображений
RU2718119C1 (ru) Устройство обработки информации, способ генерации изображения, способ управления и носитель данных
RU2704608C1 (ru) Устройство управления, способ управления и носитель данных
RU2713238C1 (ru) Устройство управления, способ управления и программа
KR102129792B1 (ko) 정보 처리 장치, 화상 생성 방법, 제어 방법 및 프로그램
JP2018207336A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2019103067A (ja) 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP2019197348A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021119459A (ja) 生成装置、生成方法
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP2018191251A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2019008429A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2020092301A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2021077120A (ja) 画像処理システム、制御装置およびその制御方法、画像伝送方法、プログラム
JP2019096926A (ja) 画像処理装置、画像処理方法およびプログラム
JP2019080183A (ja) 画像伝送装置、画像伝送方法、及びプログラム
US11184557B2 (en) Image generating system, image generation method, control apparatus, and control method
JP2018191236A (ja) 情報処理システム、情報処理方法、装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R151 Written notification of patent or utility model registration

Ref document number: 7121470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151