JP6971624B2 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
JP6971624B2
JP6971624B2 JP2017094856A JP2017094856A JP6971624B2 JP 6971624 B2 JP6971624 B2 JP 6971624B2 JP 2017094856 A JP2017094856 A JP 2017094856A JP 2017094856 A JP2017094856 A JP 2017094856A JP 6971624 B2 JP6971624 B2 JP 6971624B2
Authority
JP
Japan
Prior art keywords
data
information processing
image
transmission
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017094856A
Other languages
English (en)
Other versions
JP2018191251A (ja
Inventor
孝之 小峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094856A priority Critical patent/JP6971624B2/ja
Priority to US15/973,805 priority patent/US20180332291A1/en
Publication of JP2018191251A publication Critical patent/JP2018191251A/ja
Application granted granted Critical
Publication of JP6971624B2 publication Critical patent/JP6971624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理装置制御方法、およびプログラムに関するものである。
相互に異なる位置に設置された複数のカメラが同期して撮影を行い、当該撮影により得られる複数の視点で撮影された画像を用いて仮想視点コンテンツを生成する技術がある。かかる技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
一方、複数の視点で撮影された画像に基づく仮想視点コンテンツの生成および閲覧を行う際には、まず、複数のカメラで撮影された画像をサーバ等の画像処理部に集約する。次に、画像処理部は、複数のカメラで撮影された画像を用いて、三次元モデルの生成と、レンダリング等の処理とを行うことにより仮想視点コンテンツを生成し、ユーザ端末に伝送する。
複数のカメラで撮影された画像を集約する技術として、特許文献1に記載の技術がある。特許文献1には、次の技術が開示されている。即ち、複数のカメラを、当該カメラとペアとなる制御ユニットを介して光ファイバで相互に接続する。制御ユニットは、当該制御ユニットとペアとなるカメラで撮影された画像フレームを蓄積する。画像生成部は、各制御ユニットに蓄積された画像フレームを使って連続的な動きを表現する画像を出力する。
米国特許第7106361号明細書
仮想視点コンテンツの生成には、複数のカメラでそれぞれ撮影されたオブジェクトの画像が必要になる。従って、撮影対象となるオブジェクトが増えた場合、その数に応じてネットワークの伝送負荷が増加しうる。よって、各カメラで撮影された画像等のデータを伝送する際に、システムの状況により通信帯域が不足し、仮想視点コンテンツの生成に必要なデータの伝送ができない虞がある。
本発明は、このような問題点に鑑みてなされたものであり、撮影画像の伝送のための通信帯域が不足することを抑制することを目的とする。
本発明の情報処理装置は、情報処理装置であって、撮影装置が被写体を撮影することにより得られる撮影画像に基づいて、仮想視点画像の生成に使用される画像データを生成する生成手段と、前記情報処理装置に接続される第1の他の情報処理装置から、前記仮想視点画像の生成に使用される画像データを取得する取得手段と、前記情報処理装置と接続される第2の他の情報処理装置に対するデータの伝送が伝送帯域により制限される場合、前記生成手段により生成される画像データと、前記取得手段により取得される画像データとを含む伝送対象データのデータ量削減する処理を行う処理手段と、前記処理手段によりデータ量を削減する処理が行われた前記伝送対象データを、前記第2の他の情報処理装置に伝送する伝送手段と、を有することを特徴とする。
本発明によれば、撮影画像の伝送のための通信帯域が不足することを抑制することが出来る。
画像処理システムの構成を示す図である。 カメラアダプタの構成を示す図である。 画像処理システムの設置例を示す図である。 カメラアダプタ間のデータの流れを示す図である。 データ選択処理部の処理を説明するフローチャートである。 データ量の時間変化の第1の例を示す図である。 データベースに送信されるデータの変化の第1の例を説明する図である。 データベースに送信されるデータの変化の第2の例を説明する図である。 図5のS5015の処理を説明するフローチャートである。 データ量の時間変化の第2の例を示す図である。
以下に図面を参照して、実施形態を詳細に説明する。
<第1の実施形態>
まず、第1の実施形態を説明する。
図1は、画像処理システム100の構成の一例を示す図である。本実施形態では、競技場(スタジアム)やコンサートホール等の施設に、複数のカメラおよび複数のマイクを設置する場合を例に挙げて説明する。画像処理システム100は、複数のカメラおよび複数のマイクを用いて、撮影および集音を行う。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、およびエンドユーザ端末190を有する。本実施形態では、例えば、画像処理システム100により情報処理システムの一例が実現される。
コントローラ300は、制御ステーション310と仮想カメラ操作UI330とを有する。制御ステーション310は、画像処理システム100を構成するそれぞれのブロックに対して、ネットワーク310a〜310c、180a〜180b、170a〜170yを通じて、動作状態の管理およびパラメータの設定等を行う。ここで、ネットワークは、ローカルエリアネットワークでも良いし、インターコネクト(Infiniband等)を組み合せて構成されても良い。また、ネットワークは、これらに限定されず、他の種別のネットワークであっても良い。
最初に、センサシステム110a〜110zの26セットで得られる画像および音声を、センサシステム110zから画像コンピューティングサーバ200へ送信する動作の一例を説明する。本実施形態では、センサシステム110a〜110zがデイジーチェーンで相互に接続される場合を例に挙げて説明する。
本実施形態において、特別な説明がない場合には、センサシステム110a〜110zの26セットを区別せず、センサシステム110と記載する。各センサシステム110内の装置やネットワークについても同様に、特別な説明がない場合には、これらを区別せず、マイク111、カメラ112、雲台113、カメラアダプタ120、ネットワーク170と記載する。
尚、本実施形態では、センサシステム110の数を26セットとするが、これは一例であり、センサシステム110の数は26セットに限定されない。また、本実施形態では、特に断りがない限り、画像は、動画および静止画の概念を含むものとして説明する。即ち、本実施形態の画像処理システム100は、静止画および動画の何れについても処理することが可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツに、仮想視点画像と仮想視点音声とが含まれる例を中心に説明する。しかしながら、仮想視点コンテンツは、これに限定されない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近い位置にあるマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての詳細な説明を省略するが、基本的に音声は画像と共に処理されるものとする。
センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士は、デイジーチェーンで相互に接続される。
尚、複数のセンサシステム110の接続形態は、デイジーチェーンに限定されない。例えば、スター型のネットワークを用いて良い。スター型のネットワークを用いる場合、全てのセンサシステム110a〜110zがスイッチングハブ180に接続される。この場合、スイッチングハブ180を経由してセンサシステム110a〜110z間のデータ送受信が行われる。
また、図1では、デイジーチェーン接続となるようにセンサシステム110a〜110zの全てがカスケード接続される構成を示した。しかしながら、必ずしも、センサシステム110a〜110zの全てがカスケード接続される必要はない。例えば、複数のセンサシステム110を複数のグループに分割しても良い。このようにする場合、分割したグループ単位でデイジーチェーン接続となるようにセンサシステム110を接続しても良い。また、分割したグループ単位の終端となるカメラアダプタ120がスイッチングハブ180に接続し、スイッチングハブ180が、各カメラ112で撮影された画像を画像コンピューティングサーバ200に出力しても良い。このような構成は、画像処理システム100をスタジアムに適用する場合に特に有効である。例えば、スタジアムが複数のフロアを有し、フロア毎にセンサシステム110を配備する場合が考えられる。このような場合に前述した構成を採用すれば、例えば、フロア毎、或いは、スタジアムの半周毎に、カメラ112で撮影された画像を画像コンピューティングサーバ200へ入力することが出来る。従って、全てのセンサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも、センサシステム110の設置の簡便化と、システムの柔軟化とを図ることが出来る。
また、デイジーチェーンで接続されて画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。即ち、センサシステム110が複数のグループに分割されているか否かに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が1つの場合、デイジーチェーンで接続されたセンサシステム110間で画像が伝送され、終端のカメラアダプタ120から画像コンピューティングサーバ200に画像が伝送される。そして、画像コンピューティングサーバ200で競技場の全周の画像が生成される。このため、画像コンピューティングサーバ200において競技場の全周の画像データが揃うタイミングは同期がとられている。即ち、センサシステム110がグループに分割されていなければ、画像コンピューティングサーバ200において必要な画像データが揃うタイミングの同期をとることが出来る。
一方、画像コンピューティングサーバ200へ画像を出力するカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合、其々のデイジーチェーンのレーン(経路)によって、伝送時の画像データの遅延が異なる場合がある。そのため、画像コンピューティングサーバ200は、競技場の全周の画像データが揃うまで待って、各画像データの同期をとることによって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
本実施形態では、センサシステム110aは、マイク111a、カメラ112a、雲台113a、およびカメラアダプタ120aを有する。尚、センサシステム110aの構成は、この構成に限定されない。センサシステム110aは、少なくとも1台のカメラアダプタ120aと、少なくとも1台のカメラ112aとを有していれば良い。例えば、センサシステム110aは、1台のカメラアダプタ120aと、複数のカメラ112aとで構成されても良いし、1台のカメラ112aと複数のカメラアダプタ120aとで構成されても良い。即ち、画像処理システム100内の少なくとも1つのカメラ112と少なくとも1つのカメラアダプタ120は、N対M(NとMは共に1以上の整数)で対応する。また、センサシステム110は、マイク111a、カメラ112a、雲台113a、およびカメラアダプタ120a以外の装置を含んでいても良い。また、カメラ112aとカメラアダプタ120aとが一体となって構成されていても良い。更に、カメラアダプタ120aの機能の少なくとも一部をフロントエンドサーバ230が有していても良い。本実施形態では、センサシステム110b〜110zの構成は、センサシステム110aの構成と同じであるので、センサシステム110b〜110zの詳細な説明を省略する。尚、センサシステム110b〜110zは、センサシステム110aと同じ構成に限定されず、其々のセンサシステム110が異なる構成でも良い。
カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、ネットワーク170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。マイク111aにて集音された音声も、ネットワーク170aを介してセンサシステム110bのカメラアダプタ120bに伝送される。センサシステム110bは、マイク111bにて集音された音声と、カメラ112bにて撮影された画像とを、センサシステム110aから取得した画像および音声と合わせてセンサシステム110cに伝送する。
センサシステム110c〜110zでも前述した動作を続ける。これにより、センサシステム110a〜110zで取得された画像および音声は、センサシステム110zからネットワーク180bを介してスイッチングハブ180に伝送され、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
尚、本実施形態では、カメラ112a〜112zとカメラアダプタ120a〜120zとが分離された構成を例に挙げて示す。しかしながら、これらは、同一筺体で一体化されていても良い。その場合、マイク111a〜111zは、カメラアダプタ120a〜120zと一体化されたカメラ112a〜112zに内蔵されていても良いし、カメラ112a〜112zの外部に接続されていても良い。
次に、画像コンピューティングサーバ200の構成および動作の一例について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250、バックエンドサーバ270、およびタイムサーバ290を有する。
タイムサーバ290は、時刻および同期信号を配信する機能を有する。タイムサーバ290は、スイッチングハブ180を介してセンサシステム110a〜110zに時刻および同期信号を配信する。時刻および同期信号を受信したカメラアダプタ120a〜120zは、時刻および同期信号に基づいてカメラ112a〜112zにより撮影された画像データをGenlockさせ画像データのフレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112a〜112zの撮影タイミングを同期させる。また、画像処理システム100は、複数のカメラ112a〜112zで撮影された画像データにタイムコード等の情報を付加することにより、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成することが出来る。このため、撮影タイミングのずれによる仮想視点画像の品質の低下を抑制することが出来る。尚、本実施形態では、タイムサーバ290が複数のカメラ112の時刻同期を管理するものとする。しかしながら、必ずしも、タイムサーバ290が複数のカメラ112の時刻同期を管理する必要はない。例えば、時刻同期のための処理を各カメラ112または各カメラアダプタ120が独立して行っても良い。
フロントエンドサーバ230は、センサシステム110zから取得した画像データおよび音声データから、セグメント化された伝送パケットを再構成してデータ形式を変換する。フロントエンドサーバ230は、データ形式を変換した画像データおよび音声データを、カメラの識別子、データ種別、およびフレーム番号等と関連付けてデータベース250に書き込む。
データベース250は、センサシステム110zから取得した、各センサシステム110からの各画像データ(フレーム)および当該画像データの受信状況を状態管理テーブルで管理する。例えば、情報管理テーブルは、時刻毎およびカメラ112毎にフラグを記憶する。フロントエンドサーバ230は、各時刻と各カメラ112について、画像データが届いていなければ0、届いていれば1のフラグを立てる。また、情報管理テーブルは、所定の時間毎(例えば、1秒間)およびカメラ112毎にフラグを記憶するものでも良い。この場合、フロントエンドサーバ230は、所定の時間毎にカメラ112から全ての画像データが届いていれば1、届いていなければ0のフラグを立てる。
バックエンドサーバ270は、仮想カメラ操作UI330から仮想的な視点の指定を受け付ける。バックエンドサーバ270は、仮想カメラ操作UI330から受け付けられた視点に基づいて、仮想カメラ操作UI330から受け付けられた視点に対応する画像データおよび音声データをデータベース250から読み出す。バックエンドサーバ270は、データベース250から読み出した画像データおよび音声データに対してレンダリング処理を行って仮想視点画像を生成する。このとき、データベース250は、バックエンドサーバ270からの読み出し要求に対して、状態管理テーブルに記憶されている受信状況に合わせてバックエンドサーバ270に画像データおよび音声データを提供する。
レンダリング処理された仮想視点画像および仮想視点音声は、バックエンドサーバ270からエンドユーザ端末190に送信される。エンドユーザ端末190を操作するユーザは、視点の指定に応じた画像の閲覧および音声の視聴が出来る。即ち、バックエンドサーバ270は、複数のカメラ112により撮影された画像(複数の仮想視点画像)と仮想視点情報とに基づく仮想視点コンテンツを生成する。
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、仮想カメラ操作UI330により指定された視点における見えを表す画像であるとも言える。視点は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。
また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信しても良い。
このように、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、および映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインは、センサシステム110a〜110zを含む。データ保存ドメインは、データベース250、フロントエンドサーバ230、およびバックエンドサーバ270を含む。映像生成ドメインは、仮想カメラ操作UI330およびエンドユーザ端末190を含む。尚、画像処理システム100の構成は、このような構成に限定されない。例えば、仮想カメラ操作UI330が直接センサシステム110a〜110zから画像データを取得する事も可能である。しかしながら、本実施形態では、センサシステム110a〜110zから直接画像データを取得する方法ではなく、映像収集ドメインと映像生成ドメインとの間にデータ保存ドメインを配置する。具体的に、フロントエンドサーバ230は、センサシステム110a〜110zで生成された画像データ、音声データ、およびそれらのデータのメタ情報を、データベース250の共通スキーマおよびデータ型に変換する。
また、本実施形態では、仮想カメラ操作UI330は、直接データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする。画像生成処理に係わる共通処理をバックエンドサーバ270で行い、操作UIに係わるアプリケーションの差分部分の処理を仮想カメラ操作UI330で行う。このことにより、仮想カメラ操作UI330を開発する際に、UI(ユーザインターフェース)となる操作デバイスや、生成したい仮想視点画像を操作するUIの機能に対する開発に注力する事が出来る。また、バックエンドサーバ270は、仮想カメラ操作UI330からの要求に応じて画像生成処理に係わる共通処理を追加または削除することも可能である。このことによって仮想カメラ操作UI330からの要求に柔軟に対応することが出来る。
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112により撮影された画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。尚、本実施形態における画像処理システム100は、前述した物理的な構成に限定される訳ではなく、論理的に構成されていても良い。なお、画像処理システム100は、複数の装置により構成されても、1台の装置により構成されてもよい。
本実施形態では、例えば、カメラアダプタ120a〜120zを用いることにより、複数の情報処理装置の一例が実現される。また、仮想カメラ操作UI330は、被写体に対する視点を設定する。また、バックエンドサーバ270は、複数の方向から撮影された複数の撮影画像に含まれる被写体の領域の画像を用いて、仮想カメラ操作UI330により設定された視点から見た場合の当該被写体の画像を生成する。
(カメラアダプタ)
次に、本実施形態におけるカメラアダプタ120の機能ブロックの一例について図2を利用して説明する。図2は、カメラアダプタ120の機能的な構成の一例を示す図である。尚、カメラアダプタ120の機能ブロック間でのデータの流れの詳細は図3を用いて後述する。
カメラアダプタ120は、ネットワークアダプタ6110、伝送部6120、画像処理部6130、および、外部機器制御部6140を有する。
ネットワークアダプタ6110は、データ送受信部6111および時刻制御部6112を有する。
データ送受信部6111は、ネットワーク170、291、310aを介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、および制御ステーション310とデータ通信を行う。例えば、データ送受信部6111は、カメラ112により撮影された画像から前景背景分離部6131により分離された前景画像と背景画像とを、別のカメラアダプタ120に対して出力する。前景画像および背景画像の出力先となるカメラアダプタ120は、画像処理システム100内のカメラアダプタ120のうち、予め定められた順序において当該カメラアダプタ120の次の順序のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。尚、撮影画像から分離された前景画像を出力して背景画像は出力しないカメラアダプタ120が存在しても良い。また、前景画像と背景画像との分離は後述する画像コンピューティングサーバ200の内部で行っても良い。
時刻制御部6112は、例えばIEEE1588規格のOrdinay Clockに準拠し、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ290と時刻同期を行う機能とを有する。尚、時刻同期のためのプロトコルは、IEEE1588に限定されず、例えば、他のEtherAVB規格や、独自のプロトコルでも良い。本実施形態では、ネットワークアダプタ6110としてNIC(Network Interface Card)を利用するが、ネットワークアダプタ6110は、NICに限定されず、他のInterfaceを利用しても良い。また、IEEE1588は、IEEE1588−2002、IEEE1588−2008のように標準規格として更新されている。後者は、PTPv2(Precision Time Protocol Version2)とも呼ばれる。
伝送部6120は、ネットワークアダプタ6110を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有し、以下の機能部を有する。
時刻同期制御部6121は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有する。尚、時刻同期を行うためのプロトコルは、PTPに限定されず、他の同様のプロトコルを利用して時刻同期を行っても良い。
画像・音声伝送処理部6122は、画像データおよび音声データを、データ送受信部6111を介して他のカメラアダプタ120またはフロントエンドサーバ230へ転送するためのメッセージを作成する機能を有する。メッセージには、画像データおよび音声データと、各データのメタ情報とが含まれる。本実施形態のメタ情報には、画像の撮影をした時および音声のサンプリングをした時のタイムコードまたはシーケンス番号と、データ種別と、カメラ112、マイク111の個体を示す識別子等が含まれる。また、画像・音声伝送処理部6122は、他のカメラアダプタ120からデータ送受信部6111を介してメッセージを受け取る。そして、画像・音声伝送処理部6122は、他のカメラアダプタ120から受け取ったメッセージに含まれるデータ種別に応じて、伝送プロトコルに規定されるパケットサイズにフラグメントされたデータ情報を画像データ、音声データに復元する。
帯域監視部6123は、自身が属するカメラアダプタ120よりもネットワーク170の上流から送信されるデータのデータ量を監視し、この結果を後述する画像処理部6130に通知する。
画像処理部6130は、カメラ制御部6141の制御によりカメラ112が撮影した画像データに対して処理を行う機能を有し、以下の機能部を有する。
前景背景分離部6131は、カメラ112が撮影した画像データを前景画像と背景画像とに分離する機能を有する。即ち、前景背景分離部6131は、自身が属するカメラアダプタ120に対応するカメラ112により撮影された画像データから所定領域を抽出する。所定領域は、例えば、撮影画像に対するオブジェクトの検出結果として得られる前景画像の領域である。前景背景分離部6131は、この所定領域の抽出結果に基づいて、撮影画像を前景画像と背景画像とに分離する。尚、オブジェクトとは、例えば、人物などの被写体である。ただし、オブジェクトは、特定人物(選手、監督、及び/又は審判等)であっても良いし、ボールやゴール等、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。人物等の重要なオブジェクトを含む前景画像と、そのようなオブジェクトを含まない背景領域とを分離して処理することで、画像処理システム100において生成される仮想視点画像のオブジェクトに該当する部分の画像の品質を向上することが出来る。また、前景画像と背景画像との分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることが出来る。尚、所定領域は、前景画像に限定されず、例えば背景画像であっても良い。
データ選択処理部6132は、前景背景分離部6131で分離された前景画像および背景画像のデータ量を計測する。データ選択処理部6132は、この計測したデータ量と、自身が属するカメラアダプタ120よりも上流のネットワーク170から送信されるデータのデータ量との和が所定のデータ量を超えるか否かを判定する。尚、自身が属するカメラアダプタ120よりも上流のネットワークから送信されるデータのデータ量は、帯域監視部6123から通知される。
この判定の結果、このデータ量が所定のデータ量を超える場合、データ選択処理部6132は、このデータ量を当該所定のデータ量以下に制限する。そのために、まず、データ選択処理部6132は、前景背景分離部6131で分離された前景画像および背景画像から、送信するデータを選択する。そして、データ選択処理部6132は、この選択したデータを伝送部6120へ送ると共に、送信しなかったデータを記憶部6133へ送る。一方、このデータ量が所定のデータ量を超えない場合、データ選択処理部6132は、記憶部6133に記憶されているデータを読み出し、これを加えて伝送部6120へ送る。データ選択処理部6132の処理の詳細に関しては後述する。
外部機器制御部6140は、カメラアダプタ120に接続される機器を制御する機能を有し、以下の機能部を有する。
カメラ制御部6141は、カメラ112と接続し、カメラ112の制御、カメラ112で撮影された画像データの取得、同期信号の提供、および時刻設定等を行う機能を有する。
カメラ112の制御には、例えば、撮影パラメータ(画素数、色深度、フレームレート、およびホワイトバランスの設定等)の設定および参照が含まれる。さらに、カメラ112の制御には、カメラ112の状態(撮影中、停止中、同期中、およびエラー等)の取得と、撮影の開始および停止と、ピント調整等が含まれる。
同期信号の提供は、時刻同期制御部6121で得られる、タイムサーバ290と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。
時刻設定は、時刻同期制御部6121で得られる、タイムサーバ290と同期した時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112から受け取る画像データに、カメラ制御部6141から提供されるタイムコードが付与されることになる。尚、タイムコードのフォーマットはSMPTE12Mに限定されず、他のフォーマットであっても良い。また、カメラ制御部6141は、カメラ112に対するタイムコードの提供をせず、カメラ112から受け取った画像データに自身がタイムコードを付与しても良い。
マイク制御部6142は、マイク111と接続し、マイク111の制御と、マイク111での収音の開始および停止と、マイク111で収音された音声データの取得等を行う機能を有する。
雲台制御部6143は、雲台113と接続し、雲台113の制御を行う機能を有する。雲台113の制御には、例えば、パン・チルト制御や、雲台113の状態の取得等が含まれる。
本実施形態の画像処理システム100においては、前景画像および背景画像が、デイジーチェーンで接続された複数のカメラアダプタ120間を伝送してフロントエンドサーバ230に入力される。ここで、撮影画像内で前景領域が極端に多くなる場合には、伝送される前景画像のデータ量が膨大になる。
本実施形態の画像処理システム100をサッカースタジアムに設置した例を、図3を用いて説明する。図3において、カメラアダプタ120をデイジーチェーンで接続するネットワーク170は、ネットワーク170A、170Bの2系統に分けられる。それぞれのネットワーク170A、170Bに接続されたカメラアダプタ120に対応するカメラ112は、それぞれのゴール前をカバーするように注目領域3010Aまたは3010Bを撮影するように設置される。図3に示す例では、それぞれの注目領域3010A、3010Bに対して、画像処理システム100が1つずつ設置される。サッカー等の団体スポーツの性格として、ボール3020のあるサイドに位置するプレーヤの数は多くなる。このことから、ボール3020のあるサイドの注目領域3010Aを撮影しているセンサシステム110では、前景画像となるオブジェクトが多くなり、送信するデータのデータ量は増加する。一方、ボール3020のないサイドに位置するプレーヤの数は少なくなる。このことから、ボールのないサイドの注目領域3010Bを撮影しているセンサシステム110では、前景画像となるオブジェクトが少なくなり、送信するデータのデータ量は減少する。注目領域内の選手の数が増えた場合、当該注目領域を撮影するセンサシステム110から出力されるデータのデータ量は増加する。このため、センサシステム110がこのままデータを送信すると、デイジーチェーンで接続されたネットワーク170の下流に接続されたセンサシステム110では、上流から送信されるデータで通信帯域が飽和してしまい、データを送信できない状態となる。
そこで、本実施形態では、注目領域に選手が集まり、センサシステム110から出力されるデータのデータ量が増加した場合に、デイジーチェーンで伝送されるデータのデータ量が予め設定された伝送帯域を超過しないようにする。例えば、センサシステム110毎に送信可能な帯域を割り当てることにより、データ量が予め設定された伝送帯域を超過しないようにする。このようにする方法の一例を、図4および図5を用いて説明する。
図4は、カメラアダプタ120a、120bおよび120c間のデータの流れの一例を示す図である。カメラアダプタ120aとカメラアダプタ120bとが相互に接続され、カメラアダプタ120bとカメラアダプタ120cとが相互に接続される。また、カメラアダプタ120bにはカメラ112bが接続されており、カメラアダプタ120cは、フロントエンドサーバ230と相互に接続される。以下に、カメラアダプタ120bの画像処理部6130のデータ出力処理の一例を説明する。
カメラアダプタ120bの伝送部6120には、カメラ112bで撮影された画像データ6720に対して画像処理部6130で画像処理およびデータ量の調整が行われたデータと、カメラアダプタ120aから送信されたデータ6721とが入力される。また、伝送部6120には、画像データ6720に対するタイムコードを含むメタ情報が入力される。伝送部6120は、入力された画像データやメタ情報に対して、パケット化等の処理を行って、当該処理を行ったデータをネットワークアダプタ6110に出力する。
図4に示すカメラ112bで撮影された画像データ6720は、当該情報処理装置に接続される撮影装置により撮影された撮影画像に含まれる被写体の画像を含むデータの一例である。また、例えば、カメラアダプタ120aにより、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置の一例が実現される。また、例えば、カメラアダプタ120aから送信されたデータ6721により、予め決められた順序において当該情報処理装置の1つ前の順序になる前記情報処理装置から伝送された被写体の画像を含むデータの一例が実現される。また、例えば、カメラアダプタ120cにより、予め決められた順序において当該情報処理装置の次の順序になる前記情報処理装置の一例が実現される。
次に、図5のフローチャートを参照しながら、カメラアダプタ120bから出力するデータを選択する際のデータ選択処理部6132の処理の一例を説明する。図5のフローチャートは、カメラアダプタ120bから出力するデータ毎に繰り返し実行される。
データ選択処理部6132は、前景背景分離部6131から出力されるデータのデータ量を取得する(S5001)。次に、データ選択処理部6132は、カメラアダプタ120aから送信されるデータ6721のデータ量を帯域監視部6123から取得する(S5002)。次に、データ選択処理部6132は、S5001、S5002で取得したデータ量に基づいて、カメラアダプタ120cへ出力するデータのデータ量を導出する(S5003)。
本実施形態では、データ選択処理部6132は、S5001、S5002において、撮影画像に含まれる被写体の画像を含むデータであって、外部装置に伝送する対象となるデータである伝送対象データのデータ量を取得する。伝送対象データは、例えば、前景背景分離部6131から出力されるデータと、カメラアダプタ120aから送信されるデータ6721とである。
次に、データ選択処理部6132は、S5003で導出されたデータ量と、予め指定された伝送帯域制約量とを比較し、伝送可能性を確認する。具体的にデータ選択処理部6132は、伝送部6120へ出力するデータ量が予め指定された伝送帯域制約量を超えるか否かを判定する(S5004)。尚、S5003で導出されたデータ量と、予め指定された伝送帯域制約量との比較はデータ種別毎(ここでは、例えば、前景画像、背景画像)に行っても良い。
本実施形態では、データ選択処理部6132は、S500において、前記伝送対象データのデータ量が閾値を超えるか否かを判定する。また、S5004でYesの場合が、前記伝送対象データのデータ量が閾値を超える場合の一例であり、S5004でNoの場合が、前記伝送対象データのデータ量が閾値を超えない場合の一例である。また、例えば、伝送帯域制約量により、閾値の一例が実現される。
S5004の判定の結果、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超える場合(S5004でYesの場合)、データ選択処理部6132は、出力データ量オーバ時の処理方法の選択設定を取得する(S5005)。この選択設定は、コントローラ300から設定されても良い。また、選択設定は、対象とするエンドユーザ端末190の種別や、競技の種別によって決定されても良い。例えば、エンドユーザ端末190の種別が、解像度の低い種別であれば解像度を落とす処理が選択設定として決定される。データ選択処理部6132は、S5005で取得した出力データ量オーバ時の処理方法の選択設定に基づいて、以下で説明する複数の処理の何れかを選択する(S5006)。
選択設定が、フレームレートを落とす設定を示す場合、データ選択処理部6132は、画像データを出力するフレームレートを落として伝送部6120に出力する処理を行う(S5007)。この処理では、前景画像と背景画像とを含むフレームを間引いて伝送することによりデータ量が削減される。伝送部6120は、ネットワークアダプタ6110を介して、S5007で処理されたデータの送信を行う。そして、データ選択処理部6132は、間引かれたフレームのデータを、メタ情報と共に、記憶部6133に記憶する(S5008)。
選択設定が、解像度を落とす設定を示す場合、データ選択処理部6132は、画像データの解像度を落として伝送部6120に出力する処理を行う(S5009)。伝送部6120は、ネットワークアダプタ6110を介して、S5009で処理されたデータの送信を行う。そして、データ選択処理部6132は、解像度を落とす前の画像データと解像度を落とした画像データとの差分をメタ情報と共に記憶部6133に記憶する(S5010)。
選択設定が、圧縮処理を行う設定を示す場合、データ選択処理部6132は、画像データに対して圧縮処理を行って伝送部6120に出力する処理を行う(S5011)。伝送部6120は、ネットワークアダプタ6110を介して、S5011で処理されたデータの送信を行う。データ選択処理部6132は、通常は可逆圧縮を行い画像データのデータ量を削減するが、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超える場合、圧縮率を上げるために非可逆圧縮に切り替えてデータ量を削減する。非可逆圧縮が行われた場合、データ選択処理部6132は、元画像に復元するための情報(例えば非圧縮画像)をメタ情報と共に記憶部6133に記憶する(S5012)。元画像に復元するための情報はこれに限定されず、非可逆圧縮を行った結果、その劣化を補正するデータを符号化した情報でも構わない。また、データ選択処理部6132は、可逆圧縮した画像を記憶部6133に記憶しても良い。
選択設定が、重要度の高い画像データを選択する設定を示す場合、データ選択処理部6132は、次の処理を行う。即ち、データ選択処理部6132は、前景画像および背景画像の重要度に応じて、送信する前景画像および背景画像の少なくとも何れか一方を選択してメタ情報と共に伝送部6120に出力する処理を行う(S5013)。伝送部6120は、ネットワークアダプタ6110を介して、S5013で処理されたデータの送信を行う。そして、データ選択処理部6132は、S5013で選択しなかった前景画像・背景画像の画像データをメタ情報と共に記憶部6133に記憶する(S5014)。
本実施形態では、データ選択処理部6132は、S5007、S5009、S5011、S5013において、前記伝送対象データを調整する。また、S5007、S5009、S5013において、前記伝送対象データから、前記外部装置に伝送するデータが選択される。また、例えば、S5007、S5009、S5013が、それぞれ、フレームの単位、画素の単位、オブジェクトに基づいて定まる領域の単位で、前記伝送対象データから、前記外部装置に伝送するデータを選択することの一例である。オブジェクトに基づいて定まる領域は、例えば、前景画像、背景画像の領域に対応する。また、例えば、S5011が、前記伝送対象データを圧縮することの一例である。また、本実施形態では、データ選択処理部613は、S5008、S5010、S5012、S5014において、調整された前記伝送対象データを元の前記伝送対象データに近づけるためのデータを記憶する。
データ選択処理部6132での処理および記憶部6133に記憶するデータは、前述した例に限定されない。例えば、データ選択処理部6132は、予め指定されたデータ量の閾値N内に、送信するデータ量に抑える選択処理を行い、送信したデータを選択前のデータに復元可能な、またはできるだけ復元可能なデータを、メタ情報と共に記憶部6133に記憶すれば良い。また、データ選択処理部6132は、送信したデータを使用して復元が不可能な場合には、元のデータの全てを記憶部6133に記憶しても良い。
一方、S5003で導出されたデータ量が、予め指定された伝送帯域制約量を超えない場合(S5004でNoの場合)、データ選択処理部6132は、次の処理を行う。即ち、データ選択処理部6132は、S5003で導出されたデータ量と、予め指定された伝送帯域制約量との差に収まるデータを記憶部6133から読み出す(S5015)。そして、データ選択処理部6132は、伝送部6120に読み出したデータを出力する。伝送部6120は、ネットワークアダプタ6110を介して、S5015で読み出されたデータと、伝送帯域制約量を超えないデータ(S5001、S5002でデータ量が取得されたデータ)の送信を行う。
本実施形態では、例えば、伝送部6120およびネットワークアダプタ6110は、S5015において、調整された前記伝送対象データを伝送した後に、調整された当該伝送対象データを元の当該伝送対象データに近づけるためのデータを伝送する。
図6は、データ量の時間変化の一例を示す図である。具体的に図6は、前景背景分離部6131から出力されるデータのデータ量と、ネットワークの上流から送信されるデータのデータ量とを加えた値の時間変化の一例を示す図である。図6では、予め指定された伝送帯域制約量をNで表す。各カメラアダプタ120における伝送帯域制約量Nを、例えば、以下の値にすることが出来る。即ち、デイジーチェーンにおける伝送量を、画像処理システム100に設置したセンサシステム110の台数で割った値に、自身よりもデイジーチェーンの上流に接続されたセンサシステム110の台数+1を掛けた値にすることが出来る。ただし、各カメラアダプタ120における伝送帯域制約量Nは、これに限定されない。尚、デイジーチェーンにおける伝送量とは、ネットワークに伝送することが出来る所定のデータ量であり、例えば、ネットワークに伝送することが出来る最大のデータ量である。
各カメラアダプタ120から出力されるデータのデータ量が予め指定された伝送帯域制約量Nを超える場合、そのままデータを出力してしまうと通信帯域がデイジーチェーンの下流側で飽和してしまう可能性が高い。このため、ネットワークの下流に接続されたセンサシステム110ではデータを送信できない状態となる。そこで、データ選択処理部6132は、自身が属するカメラアダプタ120から出力されるデータのデータ量が伝送帯域制約量N以内に収まるよう、出力するデータを選択する。このようにしてデータ選択処理部6132から伝送部6120に出力されるデータは、データ610からデータ620に削減される。そして、データ選択処理部6132は、自身が属するカメラアダプタ120から出力されなかったデータを記憶部6133に記憶する。そして、データ選択処理部6132は、出力するデータのデータ量が予め指定された伝送帯域制約量Nを超えないと判定すると、この空いている帯域(図6の斜線部分)を利用して記憶部6133からデータを読み出し、それらのデータを一緒に送信する。
次に、図7および図8を用いて、前述したデータ選択処理の結果としてデータベース250に送信されるデータの変化を、時間経過も含めて説明する。
まず、図7を用いて、データ選択処理部6132で導出したデータが、予め指定された伝送帯域制約量Nを超えるため、フレームレートを4分の1に落としてデータを送信する場合を例に挙げて、データベース250に送信されるデータの変化の一例を説明する。尚、本説明は、図5のS5006で、S5007の処理が選定された場合の処理の説明である。図7において、A・B・C・Dはセンサシステム110を表し、t1・t2・t3・t4・t5は時刻を表す。丸は時刻t1〜t5でカメラ112により撮影されたフレームのデータを表す。
データ選択処理部6132は、自身が属するカメラアダプタ120に接続されるカメラ112で撮影した際に、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えると判定する(S5004のYesを参照)。そして、データ選択処理部6132は、図7の状態710の実線の丸で表すフレームデータを選択し(S5007)、伝送部6120へ出力する。また、データ選択処理部6132は、図7の状態710の破線の丸で表すフレームデータを記憶部6133に記憶する(S5008)。これによりデータ選択処理部6132から伝送部6120へ出力するデータのデータ量は、データ選択処理部6132から本来伝送部6120へ出力するデータのデータ量に対して4分の1に削減される。
その後、データ選択処理部6132は、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定すると、記憶部6133に記憶した破線の丸で表すフレームデータを読み出す(S5015)。そして、データ選択処理部6132は、この読み出したフレームデータを前景背景分離部6131から出力されたデータに加えて伝送部6120へ出力する。この結果、伝送部6120から送信されるフレームデータ(実線の丸で表されるフレームデータ)は、時間の経過と共に徐々に増える(図7の状態710→状態720→状態730→状態740を参照)。そして、最終的には全てのフレームデータが伝送部6120から送信される。実際には、伝送帯域に空きがあるときに送信されるフレームデータの送信が完了するまでの時間には、センサシステム110間でばらつきがある。図7に示す例では、データ選択処理部6132は、時刻t1、t5のフレームデータ→t3のフレームデータ→t2のフレームデータ→t4のフレームデータの順番で、伝送部6120へ出力するフレームデータを選択する。このようにすれば、フレームデータを送信している途中で、送信が完了したフレームがなるべく均等となるようにすることが出来る。
データベース250では、各時刻で各センサシステム110からの1フレームのフレームデータの受信が完了したか否かと、その時刻の全てのセンサシステム110のフレームデータが揃っているか否かを、状態管理テーブルで管理する。そして、データベース250は、バックエンドサーバ270からのフレームデータの要求に対して、状態管理テーブルに沿って、そのフレームデータの提供を行うか否かを決定する。このため、バックエンドサーバ270で生成される仮想視点画像は、撮影直後には15fpsの画像となるが、時間が経過してデータが揃うことにより徐々にフレームレートが上がり、最終的には60fpsの仮想視点画像になる。
次に、図8を用いて、データ選択処理部6132で導出したデータが、予め指定された伝送帯域制約量Nを超えるため、解像度を縦横2分の1に落としてデータを送信する場合を例に挙げて、データベース250に送信されるデータの変化の一例を説明する。尚、本説明は、図5のS5006で、S5009の処理が選定された場合の処理の説明である。図8において、x1〜x5は画素のx座標を表し、y1〜y5は画素のy座標を表し、丸は各座標の画素データを表す。
データ選択処理部6132は、自身が属するカメラアダプタ120に接続されるカメラ112で撮影した時に、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えると判定する(S5004のYesを参照)。そして、データ選択処理部6132は、図8の状態810の実線の丸で表す画素データを選択し(S5009)、伝送部6120へ出力する。また、データ選択処理部6132は、図8の状態810の破線の丸で表す画素データを記憶部6133に記憶する(S05010)。これによりデータ選択処理部6132から伝送部6120へ出力するデータのデータ量は、データ選択処理部6132から本来伝送部6120へ出力するデータのデータ量に対して4分の1に削減される。
その後、データ選択処理部6132は、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定すると、記憶部6133に記憶した破線の丸で表す画素データ読み出す(S5015)。そして、データ選択処理部6132は、この読み出した画素データを、前景背景分離部6131から出力されたデータに加えて伝送部6120へ出力する。この結果、伝送部6120から送信される画素データ(実線の丸で表される画素データ)は、時間の経過と共に徐々に増える(図8の状態810→状態820→状態830→状態840を参照)。そして、最終的には全ての画素データが伝送部6120から送信される。実際には、伝送帯域に空きがあるときに送信される画素データの送信が完了するまでの時間には、センサシステム110間でばらつきがある。図8に示す例では、データ選択処理部6132は、奇数列・奇数行の画素データ→偶数列・偶数行の画素データ→偶数列・奇数行の画素データ→奇数列・偶数行の画素データの順番で、伝送部6120へ出力する画素データを選択する。このようにすれば、画素データを送信している途中で、送信が完了した画素がなるべく均等となるようにすることが出来る。
データベース250では、各センサシステム110からの各フレームの画素データの受信状況を状態管理テーブルで管理する。そして、データベース250は、バックエンドサーバ270からのフレームデータの要求に対して、不足している画素データがある場合には、状態管理テーブルに沿って必要となる画素を補完して、画素データを提供する。このため、バックエンドサーバ270で生成される仮想視点画像は、撮影直後には縦横の解像度が2分の1に低下しているが、時間が経過してデータが揃うことにより徐々に解像度が上がり、最終的には本来の解像度の仮想視点画像になる。
図7および図8では、説明を分かり易くするために、データ量を4分の1に減らす場合を例に挙げて説明した。しかしながら、データを減らす量は、伝送部6120へ出力するデータのデータ量が、伝送帯域制約量N(カメラアダプタ120で送信可能なデータ量)をどのくらい超えるかによって決定される。
また、本実施形態では、デイジーチェーンで接続されたネットワーク170を例に挙げて説明した。しかしながら、カメラアダプタ120の接続形態は、デイジーチェーン接続に限定されない。例えば、スター型のネットワークでも各センサシステム110から出力されるデータのデータ量を制限する必要がある場合にも適用可能である。例えば、フロントエンドサーバ230のネットワークから入力するデータの帯域に上限がある場合や、データベース250で入力するデータの帯域に上限がある場合等が考えられる。この場合、上流からのデータのデータ量を帯域監視部6123で監視する必要がなくなるだけの違いで、前述したデイジーチェーン接続された場合と同様に、本実施形態の手法を適用することが可能である。
また、本実施形態では、記憶部6133の容量が十分なものとして説明した。しかしながら、記憶部6133として、ある程度の容量のものを使用せざるを得ない状況になることがある。この場合、データ選択処理部6132は、記憶部6133の内容を消去して新たな画像データを格納する必要がある。このため、データ選択処理部6132は、例えば、タイムコードが古いものから順次消去する。ただし、容量に制限がある場合に記憶部6133に必要なデータを記憶するための手法は、これに限定されない。例えば、データ選択処理部6132は、背景画像から消去する等、画面内のデータの重要度に基づいて、記憶部6133から消去するデータを決定しても構わない。
以上のように本実施形態では、データ選択処理部6132は、通信帯域に制約があり送信するデータを選択する必要がある場合、選択したデータを送信すると決定すると共に、選択しなかったデータを記憶部6133に記憶する。その後、データ選択処理部6132は、通信帯域に空きがあるときに、記憶部6133に記憶しておいたデータを送信する。従って、仮想視点画像を生成するに際し、各カメラ112で撮影された画像の伝送のための通信帯域が不足すること乃至は圧迫することを抑制することが出来る。また、時間の経過と共に徐々に高画質な仮想視点画像を生成することが可能となる。
尚、本実施形態では、カメラアダプタ120から出力されるデータのデータ量が予め指定された伝送帯域制約量Nを超える場合の処理方法の選択を行う場合について説明したが、処理方法は、前述した方法に限定されない。図5に示したS5007〜S5008、S5009〜S5010、S5011〜S5012、S5013〜S5014の全ての処理を選択肢とする必要はなく、何れか一つを実施しても構わない。また、処理はこれらに限定されない。
<第2の実施形態>
次に、第2の実施形態を説明する。第1の実施形態では、センサシステム110毎に通信帯域を監視して、送信する通信帯域に空きがあるときに送信するデータを決定する場合を例に挙げて説明した。しかしながら、記憶部6133に記憶されたデータ容量に対して、通信帯域の空きが少ない場合には、送信するデータの優先順位を指示し、優先度の高いデータから送信したい場合がある。本実施形態では、このような場合について説明する。このように本実施形態と、第1の実施形態とは、データ選択処理部6132により、伝送部6120へ出力するデータのデータ量が伝送帯域制約量Nを超えない(S5004でNo)と判定される場合の処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図8に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態の画像処理システムの構成の一例は、図1に示した構成と同じである。コントローラ300は、操作者が重要であると判断したシーンを選んで決定したり、画像を自動解析して、重要であると判断したシーンを決定したりする。ここでの重要なシーンとは、例えば、サッカースタジアムに画像処理システムを適用した場合、ゴールシーンやシュートシーン等、ユーザが振り返って見たいと思うようなシーンを指す。本実施形態では、撮影時のタイムコード(開始時刻と終了時刻)でシーンを指定する場合を例に挙げて説明する。
このようにしてコントローラ300で決定されたシーン情報が、ネットワーク310a、180a、170を経由してセンサシステム110内のデータ選択処理部6132に通知される。
本実施形態では、データ選択処理部6132が、シーン情報を取得する。
次に、データの通信帯域に空きがある場合のデータ選択処理部6132の処理(図5のS5015の処理)の一例を、図9と図10とを用いて説明する。図9は、図5のS5015の処理の一例を説明するフローチャートである。図10は、データ量の時間変化の一例を示す図である。具体的に図10は、前景背景分離部6131から出力されるデータのデータ量と、ネットワークの上流から送信されるデータのデータ量とを加えた値の時間変化の一例を示す図である。図10では、予め指定された伝送帯域制約量をNで表す。
ここで、データ量が伝送帯域制約量Nを超える場合、データ選択処理部6132でデータの選択処理が行われ、この選択処理で選択されなかったデータが記憶部6133に記憶される。図10では、この記憶部6133に記憶される期間をD1〜D4で表し、データの通信帯域に余裕がある期間をE1〜E3で表す。また、コントローラ300は、重要なシーンを特定するためのシーン情報として、次の2つのシーン情報を指定する。まず、コントローラ300は、シーン情報P1を指定する。シーン情報P1には、最初の重要なシーンの開始時刻t1sおよび終了時刻t1eが含まれる。また、コントローラ300は、シーン情報P2を指定する。シーン情報P2には、次の重要なシーンの開始時刻t2sおよび終了時刻t2eが含まれる。
期間D1(時刻t0〜時刻t1)、D2(時刻t2〜時刻t3)、D3(時刻t4〜時刻t5)、D4(時刻t6〜時刻t7)では、データ量が伝送帯域制約量Nを超える。このため、S5008、S5010、S5012、S5014において、データ選択処理部6132は、時間情報を付加してデータを記憶部6133に記憶する。次に、データ量が伝送帯域制約量Nを下回った期間E1(時刻t1〜時刻t2)では、シーン情報がコントローラ300から指示されていない。このため、データ選択処理部6132は、シーン情報がコントローラ300から指示されていないと判定する(図9のS9001でNoと判定される)。従って、データ選択処理部6132は、期間D1で記憶したデータを記憶部6133から読み出し、当該データを送信する(図9のS9003を参照)。期間D1で記憶したデータ量と比較して、期間E1で送信できるデータ量が少ないことから、時刻t2の時点ではまだ記憶部6133内に、期間D1に記憶したデータが残っている。次に、期間D2(時刻t2〜時刻t3)では、再びデータ量が伝送帯域制約量Nを超える。このため、データ選択処理部6132は、時間情報を付加してデータを記憶部6133に記憶する。ここで、コントローラ300から優先して送信するためのシーン情報(開始時刻:t1s、終了時刻:t1e、シーン情報P1)が通知される。
時刻t3でデータ量が伝送帯域制約量Nを下回ると(S5004でNoと判定されると)、データ選択処理部6132は、シーン情報が指示されていると判定する(図9のS9001でYesと判定される)。そこで、データ選択処理部6132は、記憶部6133に記憶された順番(即ち時間的に古い順)で、期間D1に記憶されているデータではなく、シーン情報で指示されたデータを優先して記憶部6133から読み出す(図9のステップS9002、S9003)。具体的に、時刻t1s〜時刻t1eのデータが、記憶部6133から読み出される。本実施形態では、データ選択処理部6132は、S9002において、記憶されたデータから、データ特定情報により特定されるデータを選択する。
シーン情報で指示されたデータの読み出しが完了した後は、データ選択処理部6132は、再び記憶部6133に記憶されているデータを、記憶部6133に対する記憶が行われた順番で読み出す。また、時刻t7においても時刻t3と同様に、データ選択処理部6132は、データ量が伝送帯域制約量Nを下回ると判定する(S5004でNoと判定される)。この場合、データ選択処理部6132は、シーン情報で指示されたデータ(時刻t2s〜時刻t2eのデータ)を優先して記憶部6133から読み出す(図9のステップS9002、S9003)。
以上のように本実施形態では、データ選択処理部6132は、データの通信帯域に空きがある場合、コントローラ300から指定したシーンのデータを優先して選択し、伝送部6120に出力する。従って、第1の実施形態で説明した効果に加え、より優先度の高いシーンの仮想視点画像をより少ない時間の遅延で生成することが可能となる。
本実施形態では、撮影時のタイムコード(開始時刻と終了時刻)でシーンを指定する場合を例に挙げて説明した。しかしながら、シーンを指定する方法は、これに限定されず、シーンを特定することが出来ればよい。例えば、コントローラ300は、フレーム番号を指定しても良い。また、コントローラ300は、より重要度の高いシーンを優先して送信することが出来るように、重要なシーンを特定するためのシーン情報で特定される各シーンに対し優先度(優先順位)の情報を付加することが出来る。その他、本実施形態においても、第1の実施形態で説明した種々の変形例を採用することができる。本実施形態では、例えば、撮影時のタイムコードを用いることにより、データが得られた時刻情報の一例が実現され、フレーム番号を用いることにより、データの識別情報の一例が実現される。また、例えば、シーン情報P1、P2を用いることにより、複数のデータを特定するための情報の一例が実現される。また、例えば、シーン情報で特定される各シーンに対して付加される優先度(優先順位)の情報を用いることにより、記憶されたデータに対する優先順位を示す情報の一例が実現される。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110a〜110z:センサシステム、112a〜112z:カメラ、120a〜120z:カメラアダプタ、170a〜170y:ネットワーク

Claims (19)

  1. 情報処理装置であって、
    撮影装置が被写体を撮影することにより得られる撮影画像に基づいて、仮想視点画像の生成に使用される画像データを生成する生成手段と、
    前記情報処理装置に接続される第1の他の情報処理装置から、前記仮想視点画像の生成に使用される画像データを取得する取得手段と、
    前記情報処理装置と接続される第2の他の情報処理装置に対するデータの伝送が伝送帯域により制限される場合、前記生成手段により生成される画像データと、前記取得手段により取得される画像データとを含む伝送対象データのデータ量削減する処理を行う処理手段と、
    前記処理手段によりデータ量を削減する処理が行われた前記伝送対象データを、前記第2の他の情報処理装置に伝送する伝送手段と、
    有することを特徴とする情報処理装置
  2. 前記処理手段は、データの伝送が伝送帯域により制限される場合として、前記伝送対象データのデータ量が前記伝送帯域に基づく閾値よりも大きい合、当該伝送対象データを削減する処理を行うことを特徴とする請求項1に記載の情報処理装置。
  3. 前記処理手段は、データの伝送が伝送帯域により制限される場合、前記伝送対象データを削減する処理を行い、削減した前記伝送対象データを元の伝送対象データに近づけるためのデータを記憶手段に記憶し、
    前記伝送手段は、前記処理手段によりデータ量を削減する処理が行われた伝送対象データを伝送した後に、データの伝送が伝送帯域により制限されない状態になった合、前記伝送対象データと、前記記憶手段により記憶されたデータの少なくとも一部とを含むデータを、前記第2の他の情報処理装置に伝送することを特徴とする請求項1または2に記載の情報処理装置
  4. 前記処理手段によりデータ量を削減する処理が行われた前記伝送対象データを元の前記伝送対象データに近づけるためのデータは、前記伝送対象データのフレームの少なくとも一部、又は、前記伝送対象データの画素の少なくとも一部を含むことを特徴とする請求項に記載の情報処理装置
  5. 前記処理手段は、データ量を削減する処理として、前記伝送対象データの中ら前第2の他の情報処理装置に伝送するデータを選択する処理を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置
  6. 前記処理手段は、フレームごと、画素ごと、またはオブジェクトに基づいて定まる領域ごとに、前記伝送対象データの中から、前記第2の他の情報処理装置に伝送するデータを選択する処理を行うことを特徴とする請求項5に記載の情報処理装置
  7. 前記処理手段は、前記伝送対象データのうち選択されなかったデータを記憶手段に記憶することを特徴とする請求項またはに記載の情報処理装置
  8. 前記処理手段は、データ量を削減する処理として、前記伝送対象データを圧縮する処理を行うことを特徴とする請求項1〜の何れか1項に記載の情報処理装置
  9. 前記処理手段は、前記伝送対象データを圧縮する処理が行われる際の圧縮率よりも低い圧縮率で圧縮された前記伝送対象データ、または、前記伝送対象データを圧縮する処理が行われる前の前記伝送対象データを、記憶手段に記憶することを特徴とする請求項に記載の情報処理装置
  10. 前記記憶手段により記憶されたデータに含まれるデータを特定する特定手段と、
    前記記憶手段により記憶されたデータから、前記特定手により特定されるデータを選択する選択手段と、を有し、
    前記伝送手段は、前記選択手段により選択されたデータを伝送することを特徴とする請求項3,4,7及び9の何れか1項に記載の情報処理装置
  11. 記特手段は、データが得られた時刻情報またはデータの識別情報に基づいてデータを特定することを特徴とする請求項10に記載の情報処理装置。
  12. 記特手段は、前記記憶手段により記憶されたデータに含まれる複数のデータを特定することを特徴とする請求項10または11に記載の情報処理装置。
  13. 記特手段は、前記記憶手段により記憶されたデータに対する優先順位を示す情報に基づいてデータを特定することを特徴とする請求項1012の何れか1項に記載の情報処理装置
  14. 前記第2の他の情報処理装置に対するデータの伝送が伝送帯域により制限されるかを判定する判定手段を有することを特徴とする請求項1〜13の何れか1項に記載の情報処理装置
  15. 記情報処理装置、前記第1の他の情報処理装置、及び、前記第2の他の情報処理装置は、デイジーチェーン接続されることを特徴とする請求項1〜14の何れか1項に記載の情報処理装置
  16. 前記仮想視点画像を生成するための画像データは、前記撮影画像に基づいて生成される前景画像を含むことを特徴とする請求項1〜15の何れか1項に記載の情報処理装置。
  17. 請求項1〜16の何れか1項に記載の情報処理装置と、
    前記仮想視点画像に係る仮想視点を設定する設定手段と、
    前記情報処理装置により伝送される前記伝送対象データと、前記設定手段により設定された仮想視点とに基づいて、前記仮想視点画像を生成する生成手段と、
    を有することを特徴とする情報処理システム。
  18. 情報処理装置が行う制御方法であって、
    撮影装置が被写体を撮影することにより得られる撮影画像に基づいて、仮想視点画像の生成に使用される画像データを生成する生成工程と、
    前記情報処理装置に接続される第1の他の情報処理装置から、前記仮想視点画像の生成に使用される画像データを取得する取得工程と、
    前記情報処理装置と接続される第2の他の情報処理装置に対するデータの伝送が伝送帯域により制限される場合、前記生成工程において生成される画像データと、前記取得工程において取得される画像データとを含む伝送対象データのデータ量削減する処理を行う処理工程と、
    前記処理工程においてデータ量を削減する処理が行われた前記伝送対象データを、前記第2の他の情報処理装置に伝送する伝送工程と、
    有することを特徴とする制御方法。
  19. 請求項1〜16の何れか1項に記載の情報処理装置としてコンピュータを機能させるためのプログラム。
JP2017094856A 2017-05-11 2017-05-11 情報処理装置、制御方法、およびプログラム Active JP6971624B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017094856A JP6971624B2 (ja) 2017-05-11 2017-05-11 情報処理装置、制御方法、およびプログラム
US15/973,805 US20180332291A1 (en) 2017-05-11 2018-05-08 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094856A JP6971624B2 (ja) 2017-05-11 2017-05-11 情報処理装置、制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018191251A JP2018191251A (ja) 2018-11-29
JP6971624B2 true JP6971624B2 (ja) 2021-11-24

Family

ID=64097475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094856A Active JP6971624B2 (ja) 2017-05-11 2017-05-11 情報処理装置、制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US20180332291A1 (ja)
JP (1) JP6971624B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125303A (ja) * 2018-01-19 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7258605B2 (ja) * 2019-03-05 2023-04-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7491676B2 (ja) 2019-09-30 2024-05-28 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP2022049599A (ja) * 2020-09-16 2022-03-29 キオクシア株式会社 通信システム、デバイス及び通信方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69534896T2 (de) * 1994-10-24 2006-10-12 Intel Corp., Santa Clara Videoindexierungsprotokoll
JP2002094962A (ja) * 2000-09-12 2002-03-29 Matsushita Electric Ind Co Ltd 映像データ送受信システム、映像データ送受信方法および記録媒体
JP2003189274A (ja) * 2001-12-14 2003-07-04 Hitachi Ltd テレビ会議システム及び信号伝送装置
JP3955474B2 (ja) * 2002-01-11 2007-08-08 マリーンシステムアソシエイツ株式会社 蓄積型及びストリーミング併用データ伝送方法、伝送システム、配信装置及び伝送プログラム
KR20040079596A (ko) * 2003-03-08 2004-09-16 주식회사 성진씨앤씨 허브를 내장한 네트워크 카메라
JP2006067225A (ja) * 2004-08-26 2006-03-09 Matsushita Electric Works Ltd 緊急通報装置
JP4178477B2 (ja) * 2005-11-24 2008-11-12 船井電機株式会社 データ送信装置
US7996495B2 (en) * 2006-04-06 2011-08-09 General Electric Company Adaptive selection of image streaming mode
KR20080039315A (ko) * 2006-10-31 2008-05-07 삼성전자주식회사 광대역 무선 접속 시스템에서 멀티캐스트 및 브로드캐스트서비스 제공을 위한 헤더 압축 장치 및 방법
JP5196893B2 (ja) * 2007-07-10 2013-05-15 キヤノン株式会社 通信システム、通信装置及び通信システムの通信方法
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
US20090195382A1 (en) * 2008-01-31 2009-08-06 Sensormatic Electronics Corporation Video sensor and alarm system and method with object and event classification
JP5064305B2 (ja) * 2008-06-05 2012-10-31 株式会社日立製作所 ビットレート変換装置及び変換方法
US9788054B2 (en) * 2011-05-04 2017-10-10 Verint Americas Inc. Systems and methods for managing video transmission and storage
US20130251261A1 (en) * 2012-03-23 2013-09-26 Marvell World Trade Ltd. Method And Apparatus For Image Data Compression
JP6004391B2 (ja) * 2012-05-14 2016-10-05 日本電信電話株式会社 シンクノード装置、ストレージサーバ装置、データ収集システム、データ収集方法、及びプログラム
US20140005506A1 (en) * 2012-06-29 2014-01-02 Zoll Medical Corporation Rescue scene video transmission
US9462301B2 (en) * 2013-03-15 2016-10-04 Google Inc. Generating videos with multiple viewpoints
JP6299492B2 (ja) * 2014-07-03 2018-03-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10285187B2 (en) * 2015-05-05 2019-05-07 Qualcomm Incorporated Methods and apparatus for multiple user uplink

Also Published As

Publication number Publication date
JP2018191251A (ja) 2018-11-29
US20180332291A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
KR102208473B1 (ko) 상이한 프레임 레이트들로 전경 화상 및 배경 화상을 송신하는 카메라 어레이로부터, 유저에 의해 선택된 시점으로부터의 가상 화상을 생성하는 방법 및 장치
EP3466064B1 (en) Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with daisy chain connection
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
KR102129792B1 (ko) 정보 처리 장치, 화상 생성 방법, 제어 방법 및 프로그램
CN109565582B (zh) 控制装置及其控制方法和计算机可读存储介质
JP6971624B2 (ja) 情報処理装置、制御方法、およびプログラム
US11677925B2 (en) Information processing apparatus and control method therefor
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
US20230162435A1 (en) Information processing apparatus, information processing method, and storage medium
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
JP2022095791A (ja) 情報処理装置、生成方法、及び、プログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2021077120A (ja) 画像処理システム、制御装置およびその制御方法、画像伝送方法、プログラム
JP7134636B2 (ja) 制御装置、制御方法及びプログラム
JP2018191236A (ja) 情報処理システム、情報処理方法、装置およびプログラム
JP2021068373A (ja) 制御装置、画像処理システム、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R151 Written notification of patent or utility model registration

Ref document number: 6971624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151