JP6961747B2 - ビデオ処理のためのシステムおよび方法 - Google Patents

ビデオ処理のためのシステムおよび方法 Download PDF

Info

Publication number
JP6961747B2
JP6961747B2 JP2020078748A JP2020078748A JP6961747B2 JP 6961747 B2 JP6961747 B2 JP 6961747B2 JP 2020078748 A JP2020078748 A JP 2020078748A JP 2020078748 A JP2020078748 A JP 2020078748A JP 6961747 B2 JP6961747 B2 JP 6961747B2
Authority
JP
Japan
Prior art keywords
image stream
image
interframes
stream
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020078748A
Other languages
English (en)
Other versions
JP2020205581A (ja
JP2020205581A5 (ja
Inventor
ヨハン フェルベルク,
ハンプス リンス,
ソン ユアン,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2020205581A publication Critical patent/JP2020205581A/ja
Publication of JP2020205581A5 publication Critical patent/JP2020205581A5/ja
Application granted granted Critical
Publication of JP6961747B2 publication Critical patent/JP6961747B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/39Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving multiple description coding [MDC], i.e. with separate layers being structured as independently decodable descriptions of input picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明はビデオ処理に関する。特に、ビデオ処理は、シェイキングしているビデオカメラによって取り込まれるビデオデータを処理するときに、通信および/または記憶される必要があるデータの量を低減することを目的としている。
一部のビデオ取り込みアプリケーションの場合、取り込まれるビデオストリーム内の画像の安定化が、より観察可能なビデオストリームを得るために必要とされる。これは、特に、ビデオストリームを取り込むために使用されるビデオカメラが、乗り物などの移動物体上に搭載される、または、人によって装着されるビデオ取り込み状況に当てはまる。特定の例は、警官が装着するボディカメラである。取り込まれるビデオストリーム内の画像の安定化は、例えば、電子画像安定化、EIS(:electronic image stabilization)を使用して行うことができる。
一部のアプリケーションのために、例えば、警官が装着するボディカメラによって取り込まれるビデオストリームを使用するエビデンスのために)、安定化ビデオストリームおよび非安定化「オリジナル(original)」ビデオストリームが共に必要とされる。しかしながら、2つのビデオストリームを生成することは、ビデオストリームを通信するために必要とされる帯域幅およびビデオ情報を記憶するために必要とされる記憶空間を共に大幅に増加させることになる。したがって、「オリジナル」ビデオ情報と安定化ビデオ情報の両方について、通信および/または記憶される必要があるデータの量を低減するときの改善についての必要性が存在する。
当技術分野における上記で特定された欠点および不利益の1つまたは複数を単一でまたは組み合わせて軽減する、緩和する、またはなくし、また、上記で述べた問題を少なくとも部分的に解決することが目的である。
第1の態様によれば、ビデオ処理方法が提供される。ビデオ処理方法は、取り込まれるビデオデータの一連の画像に基づいて第1の画像ストリームおよび第2の画像ストリームを生成することであって、第1の画像ストリームは複数の画像フレームを含み、第2の画像ストリームは複数の画像フレームを含む、生成すること;第1の画像ストリームに画像安定化機能を適用することであって、それにより、安定化画像ストリームを形成する、適用すること;画像安定化機能から第2の画像ストリームをバイパスさせることであって、それにより、オリジナル画像ストリームを形成する、バイパスさせること;および、安定化画像ストリームとオリジナル画像ストリームの両方からの画像フレームに基づくエンコーデッドフレームを含むジョイントエンコーデッド画像ストリームとして安定化画像ストリームおよびオリジナル画像ストリームをエンコードすることを含み、ジョイントエンコーデッド画像ストリームは、イントラフレームおよびインターフレームを含み、ジョイントエンコーデッド画像ストリームのイントラフレームは、オリジナル画像ストリームの画像フレームに基づいて排他的にエンコードされる。
画像安定化機能は電子画像安定化機能とすることができる。そのような画像安定化機能は当技術分野でよく知られている。本発明は、安定化画像ストリームとオリジナルビデオストリームの両方からのビデオ情報を効率的にエンコードする方法を述べる。そうすることによって、安定化ビデオストリームおよびオリジナルの未修整または非安定化ビデオストリームを利用可能にすることができる。これは、安定化ビデオストリームおよびオリジナルビデオストリームを共に必要とする場合がある身体装着式警察カメラなどの或る科学捜査的状況において価値があるとすることができる。本発明は、安定化ビデオストリームおよびオリジナルビデオストリームが共に、厳しいビットレート予算に適合しながら利用可能であることを可能にする。これは、両方のビデオストリームが、1つのジョイントビデオストリームになるように結合され、「同じ(same)」イントラフレームに依存するからである。したがって、2つの別個のビデオストリームをエンコードする代わりに、両方を含むジョイントビデオストリームが形成される。
本発明によれば、インターフレーム(Pフレーム)の2つのシリーズ、オリジナルビデオストリームからの情報を含むシリーズ(シリーズO)および安定化ビデオストリームからの情報を含むシリーズ(シリーズS)は、イントラフレーム(Iフレーム)の各対の間でエンコードされることになる。シリーズOは、イントラフレームとしてオリジナル画像ストリームからのIフレームを使用してエンコードされる。これは、安定化なしの通常のエンコーディングに対応し、エンコーデッドオリジナルビデオストリームをもたらす。シリーズSは、イントラフレームとしてオリジナル画像ストリームからの同じIフレームを使用してエンコードされる。これは、エンコーデッド安定化ビデオストリームの一連のビデオフレームをもたらすことになる。イントラフレームとしてオリジナル画像ストリームからのIフレームを使用することによって、エンコーデッドシリーズSは、計算される動きベクトルについて正しい残差を有することになる。これは、品質損失をほとんどまたは全くもたらさない場合がある。同様に、ビットレートは、2つの完全に別個のストリームをコード化することと比較して節約されることになる。これは、シリーズOおよびSがIフレームを共有することができ、異なるPフレームを必要とするだけであるからである。シリーズOまたはSを、非表示としてマーク付けされる他のシリーズを有するデフォルトストリームとして指定することができる。ユーザーは、意のままにストリームを切り換えることができる。いずれにしても、両方のストリームが、必要である場合に後のポイントで観察するために利用可能である。
オリジナル画像ストリームの残りの画像フレームを、インターフレームになるようエンコードすることができる。
オリジナル画像ストリームの画像フレームを、ジョイントエンコーデッド画像ストリーム内で非表示フレームとして示すことができる。
第1の画像ストリームおよび第2の画像ストリームを生成するステップは、取り込まれるビデオデータの一連の画像を第1および第2の画像ストリームになるように複製することを含むことができる。
第1の画像ストリームおよび第2の画像ストリームを生成するステップは、ビデオデータの一連の画像の各画像から第1の画像ストリームを生成すること、および、取り込まれるビデオデータの一連の画像の画像のサブセットから第2の画像ストリームを生成することを含むことができる。
第1の画像ストリームおよび第2の画像ストリームを生成するステップは、取り込まれるビデオデータの一連の画像の画像のサブセットから第1の画像ストリームを生成すること、および、ビデオデータの一連の画像の各画像から第2の画像ストリームを生成することを含むことができる。
第1の画像ストリームおよび第2の画像ストリームを生成するステップは、取り込まれるビデオデータの一連の画像の画像の第1のサブセットから第1の画像ストリームを生成すること、および、ビデオデータの一連の画像の画像の第2のサブセットから第2の画像ストリームを生成することことを含むことができる。
第1のサブセットの画像を第1の画像ストリームに排他的に含むことができる。第2のサブセットの画像を第2の画像ストリームに排他的に含むことができる。
ジョイントエンコーデッド画像ストリーム内のオリジナル画像ストリームのインターエンコーデッドフレームは、ジョイントエンコーデッド画像ストリーム内のオリジナル画像ストリームの他のエンコーデッドフレームを排他的に参照することができる。
ジョイントエンコーデッド画像ストリーム内の安定化画像ストリームのインターエンコーデッドフレームは、ジョイントエンコーデッド画像ストリーム内の安定化画像ストリームの他のインターエンコーデッドフレームまたはイントラフレームを排他的に参照することができる。
第1の画像ストリームに画像安定化機能を適用するステップは、第1の画像ストリームの画像フレームの空間分解能と比較して、安定化画像ストリームの画像フレームの空間分解能を維持することを含むことができる。
安定化画像ストリームの画像フレームをジョイントエンコーデッド画像ストリーム内の非表示フレームとして示すことができる。
第2の態様によれば、非一時的コンピュータ可読記憶媒体が提供される。非一時的コンピュータ可読記憶媒体は、処理能力を有するデバイスによって実行されると、第1の態様による方法を実施する命令を記憶している。
第3の態様によれば、ビデオ処理システムが提供される。ビデオ処理システムは、ビデオ画像処理パイプラインおよびエンコーダーを備える。ビデオ画像処理パイプラインは、取り込まれるビデオデータの一連の画像を処理するように構成される。ビデオ画像処理パイプラインは、取り込まれるビデオデータに基づいて、第1および第2の画像ストリームであって、それぞれが複数の画像フレームを含む、第1および第2の画像ストリームを生成するように構成される画像ストリーム形成機能;および、第1の画像ストリームを画像安定化させ、それにより、安定化画像ストリームを形成するように構成される画像安定化機能を備える。画像ストリーム形成機能は、画像安定化機能から第2の画像ストリームをバイパスさせ、それにより、オリジナル画像ストリームを形成するようにさらに構成される。エンコーダーは、安定化画像ストリームとオリジナル画像ストリームの両方からの画像フレームに基づくエンコーデッドフレームを含むジョイントエンコーデッド画像ストリームとして安定化画像ストリームおよびオリジナル画像ストリームをエンコードするように構成され、ジョイントエンコーデッド画像ストリームは、イントラフレームおよびインターフレームを含み、ジョイントエンコーデッド画像ストリームのイントラフレームは、オリジナル画像ストリームの画像フレームに基づいて排他的にエンコードされる。
ビデオ処理システムは、ビデオカメラ、特に、デジタルビデオカメラに実装することができる。ビデオカメラはモニタリングカメラである。
第1の態様の上記で述べた特徴は、適用可能であるとき、この第3の態様にも適用される。不当な反復を回避するため、上記に対して参照が行われる。
本発明の適用性のさらなる範囲は、以下で示す詳細な説明から明らかになるであろう。しかしながら、本発明の範囲内の種々の変更および修正が、この詳細な説明から当業者に明らかになるため、詳細な説明および特定の例が、本発明の好ましい実施形態を示しながら、例証としてのみ示されることが理解されるべきである。
したがって、本発明が、述べるデバイスの特定のコンポーネント部品または述べる方法の行為に限定されず、なぜならば、そのようなデバイスおよび方法が変動する場合があるからであることが理解される。本明細書で使用される用語が、特定の実施形態を述べるためのものに過ぎず、制限的であることを意図されないことも理解される。本明細書および添付特許請求項で使用するとき、冠詞「1つの(a)」、「1つの(an)」、「その(the)」、「前記(said)」が、文脈が別途明確に指示しない限り、要素の1つまたは複数が存在することを意味することを意図されることが留意されなければならない。そのため、例えば、「1つのユニット(a unit)」または「そのユニット(the unit)」に対する言及は幾つかのデバイスおよび同様なものを含むことができる。さらに、言い回し「備えている(comprising)」、「含んでいる(including)」、「含んでいる(containing)」、および同様の言い回しは、他の要素またはステップを排除しない。
本発明の上記のまた他の態様は、添付図を参照して、ここでより詳細に述べられる。図は、制限的であると考えられるべきではなく;代わりに、図は、説明し理解するために使用される。
図に示すように、層および領域のサイズは、例証のために誇張され、したがって、一般的な構造を示すために提供することができる。同様の参照数字は、全体を通して同様の要素を指す。
ビデオ画像処理システムを概略的に示す図である。 図1のビデオ画像処理システムを備えるカメラを概略的に示す図である。 ジョイントエンコーデッドビデオストリームの異なるGOP構造のうちの1つのGOP構造を概略的に示す図である。 ジョイントエンコーデッドビデオストリームの異なるGOP構造のうちの1つのGOP構造を概略的に示す図である。 ジョイントエンコーデッドビデオストリームの異なるGOP構造のうちの1つのGOP構造を概略的に示す図である。 画像処理方法のブロックスキームである。
本発明が、ここで、発明の現在のところ好ましい変形がそこに示される添付図面を参照して、以降でより完全に述べられることになる。しかしながら、この発明は、多くの異なる形態で具現化することができ、また、本明細書で述べる実施形態に限定されるものと解釈されるべきでない;むしろ、これらの実施形態は、徹底性および完全性(thoroughness and completeness)のため、また、本発明の範囲を当業者に完全に伝えるために提供される。
図1aに関連して、ビデオ画像データを生成し処理するように構成されるビデオ画像処理システム100が論じられる。ビデオ画像処理システム100は、ビデオソース110、ビデオ画像処理パイプライン120、およびエンコーダー130を備える。図2に示すように、ビデオ画像処理システム100はビデオカメラ200に実装することができる。ビデオカメラ200はデジタルビデオカメラとすることができる。ビデオカメラ200はモニタリングカメラとすることができる。ビデオカメラ200は、乗り物などの移動物体上に搭載されるビデオカメラとすることができる。ビデオカメラ200を人が装着することができる。
ビデオソース110はビデオデータを取り込むように構成される。ビデオデータは一連の画像とすることができる。ビデオソース110は画像センサとすることができる。画像センサはビデオ画像データを取り込むように構成される。ビデオソース110は、取り込まれるビデオ画像データをビデオ画像処理パイプライン120に転送するように構成される。
ビデオ画像処理パイプライン120は、ビデオストリームの画像フレームになるようにビデオ画像データを処理するように構成される。ビデオ画像処理パイプライン120は複数の処理機能122を備える。各処理機能122はビデオ画像データを処理するように構成される。複数の処理機能122の幾つかは互いに依存することができる。したがって、それらは、次々に実行される必要がある。複数の処理機能122の幾つかは互いに独立しているとすることができる。したがって、それらは、並列に実行することができる。
ビデオ画像処理パイプライン120の特定の処理機能122は、汎用プロセッサ上で、あるいは、グラフィクス処理ユニット、フィールドプログラマブルゲートアレイ、固定機能特定用途向け集積回路、またはアナログ回路上で実行されるコンピュータソフトウェア部として実装することができる。複数の処理機能122の全ての1つの処理機能は、同じタイプの実装態様を使用して実装することができる。複数の処理機能122の異なる1つの処理機能は、処理機能122の異なる実装態様を使用して実装することができる。複数の処理機能122のサブセットは、同じタイプの実装態様を使用して実装することができる。したがって、ビデオ画像処理パイプライン120の特定の処理機能122は、ソフトウェア、専用ハードウェア、またはファームウェア、あるいは、専用ハードウェア、ファームウェア、および/またはソフトウェアの何らかの組み合わせとして実装することができる。
ビデオ画像処理システム100はシステムメモリ140をさらに備えることができる。システムメモリ140は、ビデオ画像データを処理しながら、ビデオ画像処理パイプライン120の処理機能122によって使用することができる。システムメモリ140は、ランダムアクセスメモリ、RAMなどの揮発性メモリを備えることができる。システムメモリ140は、エンコーディング中にエンコーダー130が使用することもできる。
ビデオ画像処理パイプライン120は、画像ストリーム形成機能122aおよび画像安定化機能122bを備える。画像安定化機能122bは、画像ストリーム形成機能122aの下流で実施される。画像ストリーム形成機能122aおよび画像安定化機能122bは本明細書で以下でより詳細に論じられる。
画像ストリーム形成機能122aおよび画像安定化機能122bに加えて、ビデオ画像処理パイプライン120は、1つまたは複数のさらなる処理機能122を備えることができる。1つまたは複数のさらなる処理機能122は、以下;画像センサ補正機能、ノイズ低減機能、画像スケーリング機能、ガンマ補正機能、画像強調機能、カラー空間変換機能、露光マージ機能(例えば、WDR/HDR)、およびクロマサブサンプリング機能の1つまたは複数とすることができる。
画像ストリーム形成機能122aは、取り込まれるビデオデータに基づいて、第1および第2の画像ストリームを作成するように構成される。第1および第2の画像ストリームのそれぞれは複数の画像フレームを含む。画像ストリーム形成機能122aは、第1および第2の画像ストリームになるようにビデオデータの一連の画像を複製することによって、第1および第2の画像ストリームを生成することができる。したがって、一連の画像の各画像は、第1および第2の画像ストリームの両方の画像として使用することができる。代替的に、画像ストリーム形成機能122aは、ビデオデータの一連の画像の各画像に基づいて第1の画像ストリームの画像フレームを生成し、ビデオデータの一連の画像の画像のサブセットに基づいて第2の画像ストリームの画像フレームを生成することができる。したがって、一連の画像の各画像は第1の画像ストリームの画像として使用することができ、一連の画像の画像のサブセットは第2の画像ストリームの画像として使用することができる。さらに代替的に、画像ストリーム形成機能122aは、ビデオデータの一連の画像の各画像に基づいて第2の画像ストリームの画像フレームを生成し、ビデオデータの一連の画像の画像のサブセットに基づいて第1の画像ストリームの画像フレームを生成することができる。したがって、一連の画像の各画像は第2の画像ストリームの画像として使用することができ、一連の画像の画像のサブセットは第1の画像ストリームの画像として使用することができる。さらに代替的に、画像ストリーム形成機能122aは、ビデオデータの一連の画像の画像の第1のサブセットに基づいて第1の画像ストリームの画像フレームを生成し、ビデオデータの一連の画像の画像の第2のサブセットに基づいて第2の画像ストリームの画像フレームを生成することができる。第1および第2のサブセットは、オーバーラップできるまたはオーバーラップできない。第1および第2のサブセットがオーバーラップしない場合、第1のサブセットは第1の画像ストリームに排他的に含まれることになり、第2のサブセットは第2の画像ストリームに排他的に含まれることになる。したがって、一連の画像の特定の画像は、第1の画像ストリームの画像または第2の画像ストリームの画像として使用することができる。
画像ストリーム形成機能122aは、第1の画像ストリームを画像安定化機能122bに提供するように構成される。したがって、第1の画像ストリームは、画像安定化機能122bによるさらなる処理のために画像安定化機能122bに送信される。画像ストリーム形成機能122aは、画像安定化機能122bから第2の画像ストリームをバイパスさせるように構成される。したがって、第2の画像ストリームは、画像安定化機能122bにおける処理からバイパスされる。バイパスされる画像ストリームはオリジナル画像ストリームと呼ばれることになる。オリジナル画像ストリームは非安定化画像ストリームである。
画像安定化機能122bは、画像安定化機能を第1の画像ストリームに適用するように構成される。好ましくは、画像安定化機能は電子画像安定化、EIS機能である。画像安定化機能122bによって処理された後に、結果として得られる画像ストリームは、安定化画像ストリームと呼ばれる。したがって、画像安定化機能122bは、第1の画像ストリームから安定化画像ストリームを形成するように構成される。
画像安定化機能122bは、第1の画像ストリームの画像フレームの空間分解能と比較して、安定化画像ストリームの画像フレームの空間分解能を維持するように設定することができる。したがって、安定化画像ストリームとオリジナル画像ストリームの両方の画像フレームの空間分解能は同じである。
エンコーダー130は、エンコーデッドビデオストリームになるようにビデオストリームの画像フレームをエンコードするように構成される。エンコーダー130は、任意の適したエンコーディングスキームを使用するように設定することができる。非制限的な例は、H.264、H.265、およびAV1である。
エンコーダー130は、安定化画像ストリームおよびオリジナル画像ストリームをジョイントエンコーデッド画像ストリームとしてエンコードするように構成される。ジョイントエンコーデッド画像ストリームは、安定化画像ストリームとオリジナル画像ストリームの両方からの画像フレームに基づくエンコーデッドフレームを含む。エンコーダーは、ジョイントエンコーデッド画像ストリームをエンコードして、イントラエンコーデッドフレームおよびインターエンコーデッドフレームを共に含むように構成される。エンコーダー130は、ジョイントエンコーデッド画像ストリームのイントラフレームをオリジナル画像ストリームの画像フレームに基づいて排他的にエンコードするように構成される。エンコーダー130は、インターフレームになるようにオリジナル画像ストリームの残りの画像フレームをエンコードするように構成することができる。エンコーダー130は、インターフレームになるように安定化画像ストリームの画像フレームをエンコードするように構成することができる。
図3a、図3b、図3cに関連して、ジョイントエンコーデッド画像ストリームのピクチャ群、GoP(Group of Picture)構造の3つの例が示される。イントラフレーム、Iフレームは、オリジナル画像ストリームの画像フレームに基づいてエンコードされ、これはIフレームとして示され、添え字Oは、Iフレームがオリジナル画像ストリームからの画像フレームに基づくことを示す。インターフレーム、Pフレームは、安定化画像ストリームからの画像フレームに基づいてエンコードされ、これらのPフレームはPフレームとして示され、SはPフレームが安定化画像ストリームからの画像フレームに基づくことを示す、または、オリジナル画像ストリームからの画像フレームに基づいてエンコードされ、これらのPフレームはPフレームとして示され、OはPフレームがオリジナル画像ストリームからの画像フレームに基づくことを示す。Pフレームの順序的に最初のものは、イントラフレーム、すなわちIフレームをエンコードするために使用されるオリジナルフレームの画像安定化バージョンのエンコーデッドバージョンとすることができる。この順序的に最初のPフレームは、図3a、図3b、および図3cにおいて、その特別な性質を示すP’フレームとして示される。
図3aに示すように、エンコーダー130は、Pフレームが別のPフレームまたはIフレームを排他的に参照するように、また、Pフレームが別のPフレームまたはIフレームを排他的に参照するように構成することができる。
図3bに示すように、エンコーダー130は、Pフレームが別のPフレームまたはIフレームを排他的に参照するように、また、PフレームがPフレームまたはIフレームを排他的に参照するように構成することができる。
図3cに示すように、エンコーダー130は、Pフレームが別のPフレームまたはIフレームを排他的に参照するように、また、PフレームがPフレームまたはIフレームとPフレームを参照するように構成することができる。
上記で、インターフレームがPフレームとしてエンコードされることが論じられた。しかしながら、Pフレームの1つまたは複数をBフレームとしてエンコードすることも可能である。
エンコーダー130は、ジョイントエンコーデッド画像ストリーム内のオリジナル画像ストリーム非表示フレームの画像フレームを示すように構成することができる。そうして、ジョイントエンコーデッド画像ストリームをデコードするデコーダーセットは、安定化画像ストリームの画像フレームを表示するだけであるように、したがって、Pフレーム(P’フレームを含む)のデコーデッドバージョンを表示するだけであるように指示されることになる。
図4に関連して、ビデオ処理方法400が論じられる。ビデオ処理方法は、取り込まれるビデオデータをエンコードするように構成される。ビデオ処理方法は以下のステップ/行為を含む。
第1の画像ストリームおよび第2の画像ストリームを生成する(S402)。第1の画像ストリームおよび第2の画像ストリームの生成は、取り込まれるビデオデータの一連の画像に基づく。第1の画像ストリームは、複数の画像フレームを含むように生成される。第2の画像ストリームは、複数の画像フレームを含むように生成される。第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)は、第1および第2の画像ストリームになるように、取り込まれるビデオデータの一連の画像を複製することを含むことができる。第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)は、ビデオデータの一連の画像の各画像から第1の画像ストリームを生成すること、および、取り込まれるビデオデータの一連の画像の画像のサブセットから第2の画像ストリームを生成することを含むことができる。第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)は、取り込まれるビデオデータの一連の画像の画像のサブセットから第1の画像ストリームを生成すること、および、ビデオデータの一連の画像の各画像から第2の画像ストリームを生成することを含むことができる。第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)は、取り込まれるビデオデータの一連の画像の画像の第1のサブセットから第1の画像ストリームを生成すること、および、ビデオデータの一連の画像の第2のサブセットから第2の画像ストリームを生成することを含むことができる。第1のサブセットの画像を、第1の画像ストリームに排他的に含むことができる。第2のサブセットの画像を、第2の画像ストリームに排他的に含むことができる。
第1の画像ストリームに画像安定化機能を適用し(S404)、それにより、安定化画像ストリームを形成する。第1の画像ストリームに画像安定化機能を適用すること(S404)は、第1の画像ストリームの画像フレームの空間分解能と比較して、安定化画像ストリームの画像フレームの空間分解能を維持することを含むことができる。
画像安定化機能から第2の画像ストリームをバイパスさせ(S406)、それにより、オリジナル画像ストリームを形成する。
ジョイントエンコーデッド画像ストリームとして安定化画像ストリームおよびオリジナル画像ストリームをエンコードする(S408)。ジョイントエンコーデッド画像ストリームは、安定化画像ストリームとオリジナル画像ストリームの両方からの画像フレームに基づくエンコーデッドフレームを含む。ジョイントエンコーデッド画像ストリームは、イントラフレームおよびインターフレームを含む。ジョイントエンコーデッド画像ストリームのイントラフレームは、オリジナル画像ストリームの画像フレームに基づいて排他的にエンコードされる。オリジナル画像ストリームの残りの画像フレームは、インターフレームになるようエンコードすることができる。安定化画像ストリームの画像フレームは、インターフレームになるようエンコードすることができる。エンコードする(S408)間、オリジナル画像ストリームの画像フレームは、非表示フレームとして示すことができる。エンコードすること(S408)は、ジョイントエンコーデッド画像ストリーム内でオリジナル画像ストリームのインターエンコーデッドフレームをエンコードするとき、ジョイントエンコーデッド画像ストリーム内のオリジナル画像ストリームの他のエンコーデッドフレームを排他的に参照することを含むことができる。エンコードすること(S408)は、ジョイントエンコーデッド画像ストリーム内で安定化画像ストリームのインターエンコーデッドフレームをエンコードするとき、ジョイントエンコーデッド画像ストリーム内の安定化画像ストリームの他のインターエンコーデッドフレームまたはイントラフレームを排他的に参照することを含むことができる。
本発明が上記で述べた好ましい実施形態に決して限定されないことを当業者は認識する。逆に、多くの修正および変形が、添付特許請求項の範囲内で可能である。
例えば、エンコーダー130は、ジョイントエンコーデッド画像ストリーム内の安定化画像ストリーム非表示フレームの画像フレームを示すように構成することができる。したがって、エンコードしている間、安定化画像ストリームの画像フレームは非表示フレームとして示すことができる。そうして、ジョイントエンコーデッド画像ストリームをデコードするデコーダーセットは、オリジナル画像ストリームの画像フレームを表示するだけであるように指示されることになる。
さらに、開示される実施形態に対する変形を、図面、開示、および添付特許請求項の調査から、特許請求される発明を実施するときに当業者が理解し、実施することができる。

Claims (6)

  1. ビデオ処理方法であって、
    取り込まれるビデオデータの一連の画像に基づいて、前記取り込まれるビデオデータの前記一連の画像を第1の画像ストリームおよび第2の画像ストリームになるように複製することによって、第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)であって、前記第1の画像ストリームは複数の画像フレームを含み、前記第2の画像ストリームは複数の画像フレームを含む、第1の画像ストリームおよび第2の画像ストリームを生成すること(S402)、
    前記第1の画像ストリームに画像安定化機能を適用すること(S404)であって、それにより、安定化画像ストリームを形成する、画像安定化機能を適用すること(S404)、
    前記画像安定化機能から前記第2の画像ストリームをバイパスさせること(S406)であって、それにより、オリジナル画像ストリームを形成する、前記第2の画像ストリームをバイパスさせること(S406)、および、
    エンコーダー(130)であって、エンコーダー(130)に対する入力データとして前記安定化画像ストリームおよび前記オリジナル画像ストリームを使用する、エンコーダー(130)において、ジョイントエンコーデッド画像ストリームとして前記安定化画像ストリームおよび前記オリジナル画像ストリームの両方の画像フレームからのビデオ情報をエンコードすること(S408)であって、前記ジョイントエンコーデッド画像ストリームのピクチャ群がイントラフレーム(IO)、第1の一連のインターフレーム(PO)および第2の一連のインターフレーム(P’S,PS)を含むように、エンコードすること、
    を含み
    前記イントラフレーム(IO)および前記第1の一連のインターフレーム(PO)は前記オリジナル画像ストリームの画像フレームからのビデオ情報をエンコードし、前記第2の一連のインターフレーム(P’S,PS)は前記安定化画像ストリームの画像フレームからのビデオ情報をエンコードし、
    前記第2の一連のインターフレーム(P’S,PS)内の第1のインターフレーム(P’S)は前記イントラフレーム(IO)を排他的に参照し、前記第2の一連のインターフレーム内の後続のインターフレーム(PS)は、前記第2の一連のインターフレーム(P’S,PS)内の他のインターフレーム(P’S,PS)を排他的に参照し、
    前記第1の一連のインターフレーム(PO)の第1のインターフレームはイントラフレーム(IO)を排他的に参照し、前記第1の一連のインターフレーム(PO)内の後続のインターフレームは、前記第1の一連のインターフレーム(PO)内の他のインターフレーム(PO)を排他的に参照する、ビデオ処理方法。
  2. 前記オリジナル画像ストリームの前記画像フレームは、前記ジョイントエンコーデッド画像ストリーム内非表示フレームとして示される、請求項1に記載のビデオ処理方法。
  3. 前記安定化画像ストリームの前記画像フレームは前記ジョイントエンコーデッド画像ストリーム内の非表示フレームとして示される、請求項1または2に記載のビデオ処理方法。
  4. 処理能力を有するデバイスによって実行されると、請求項1からのいずれか一項に記載のビデオ処理方法を実施する命令を記憶している、非一時的コンピュータ可読記憶媒体。
  5. ビデオ処理システム(100)であって、
    オリジナル画像ストリームおよび安定化画像ストリームになるように、取り込まれるビデオデータの一連の画像を処理するように構成されるビデオ画像処理パイプライン(120)であって、
    前記取り込まれるビデオデータに基づいて、それぞれが複数の画像フレームを含む第の画像ストリームおよび第2の画像ストリームを生成するように構成される画像ストリーム形成機能(122a)、および、
    前記第1の画像ストリームを画像安定化させ、それにより、前記安定化画像ストリームを形成するように構成される画像安定化機能(122b)
    を備え、
    前記画像ストリーム形成機能(122a)は、前記画像安定化機能(122b)から前記第2の画像ストリームをバイパスさせ、それにより、前記オリジナル画像ストリームを形成するようにさらに構成される、ビデオ画像処理パイプライン(120)と、
    エンコーダー(130)であって、入力データとして前記安定化画像ストリームおよび前記オリジナル画像ストリームを使用して、ジョイントエンコーデッド画像ストリームとして前記安定化画像ストリームおよび前記オリジナル画像ストリームの両方の画像フレームからのビデオ情報をエンコードするように構成される、エンコーダー(130)と
    を備え、前記エンコードは、前記ジョイントエンコーデッド画像ストリームのピクチャ群がイントラフレーム(IO)、第1の一連のインターフレーム(PO)および第2の一連のインターフレーム(P’S,PS)を含むようになされ、
    前記イントラフレーム(IO)および前記第1の一連のインターフレーム(PO)は前記オリジナル画像ストリームの画像フレームからのビデオ情報をエンコードし、前記第2の一連のインターフレーム(P’S,PS)は前記安定化画像ストリームの画像フレームからのビデオ情報をエンコードし、
    前記第2の一連のインターフレーム(P’S,PS)内の第1のインターフレーム(P’S)は前記イントラフレーム(IO)を排他的に参照し、前記第2の一連のインターフレーム内の後続のインターフレーム(PS)は、前記第2の一連のインターフレーム(P’S,PS)内の他のインターフレーム(P’S,PS)を排他的に参照し、
    前記第1の一連のインターフレーム(PO)の第1のインターフレームはイントラフレーム(IO)を排他的に参照し、前記第1の一連のインターフレーム(PO)内の後続のインターフレームは、前記第1の一連のインターフレーム(PO)内の他のインターフレーム(PO)を排他的に参照する、ビデオ処理システム(100)。
  6. ビデオカメラ(200)に実装される、請求項に記載のビデオ処理システム。
JP2020078748A 2019-05-29 2020-04-28 ビデオ処理のためのシステムおよび方法 Active JP6961747B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19177238.3A EP3745706B1 (en) 2019-05-29 2019-05-29 System and method for video processing with picture stabilization and predictive compression
EP19177238.3 2019-05-29

Publications (3)

Publication Number Publication Date
JP2020205581A JP2020205581A (ja) 2020-12-24
JP2020205581A5 JP2020205581A5 (ja) 2021-07-26
JP6961747B2 true JP6961747B2 (ja) 2021-11-05

Family

ID=66677013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020078748A Active JP6961747B2 (ja) 2019-05-29 2020-04-28 ビデオ処理のためのシステムおよび方法

Country Status (4)

Country Link
US (1) US11172124B2 (ja)
EP (1) EP3745706B1 (ja)
JP (1) JP6961747B2 (ja)
CN (1) CN112019703B (ja)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100683849B1 (ko) 2000-06-28 2007-02-15 삼성전자주식회사 디지털 영상 안정화기능을 갖는 디코더 및 디지털영상안정화방법
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
JP2006109060A (ja) 2004-10-05 2006-04-20 Sharp Corp 画像符号化情報を利用した手ぶれ補正方法及び装置
US7706626B2 (en) * 2005-12-20 2010-04-27 Carestream Health, Inc. Digital image reconstruction using inverse spatial filtering
KR101101965B1 (ko) * 2006-10-16 2012-01-02 노키아 코포레이션 멀티뷰 비디오 코딩에 대한 병렬 디코딩가능 슬라이스들을 이용하기 위한 시스템 및 방법
TW200917824A (en) 2007-10-12 2009-04-16 Univ Nat Taiwan Shockproof method for digital imaging
CN102473172A (zh) 2009-07-24 2012-05-23 数字标记公司 改进的音频/视频方法和系统
US8982209B2 (en) * 2009-10-30 2015-03-17 Verint Systems Inc. Method and apparatus for operating a video system
US9124804B2 (en) 2010-03-22 2015-09-01 Microsoft Technology Licensing, Llc Using accelerometer information for determining orientation of pictures and video images
US20170134746A1 (en) 2015-11-06 2017-05-11 Intel Corporation Motion vector assisted video stabilization
EP3200456A1 (en) * 2016-01-28 2017-08-02 Axis AB Video encoding method and video encoder system for temporal noise reduction
US9967465B2 (en) * 2016-05-18 2018-05-08 Realtek Singapore Pte Ltd Image frame processing method
EP3379830B1 (en) * 2017-03-24 2020-05-13 Axis AB A method, a video encoder, and a video camera for encoding a video stream
EP3396952B1 (en) * 2017-04-25 2019-04-17 Axis AB Method and image processing unit for forming a video stream
EP3474548A1 (en) * 2017-10-18 2019-04-24 Axis AB Method and encoder for encoding a video stream in a video coding format supporting auxiliary frames

Also Published As

Publication number Publication date
EP3745706B1 (en) 2021-06-30
CN112019703A (zh) 2020-12-01
EP3745706A1 (en) 2020-12-02
JP2020205581A (ja) 2020-12-24
CN112019703B (zh) 2022-03-08
US20200382699A1 (en) 2020-12-03
US11172124B2 (en) 2021-11-09

Similar Documents

Publication Publication Date Title
EP2091255B1 (en) Shared block comparison architechture for image registration and video coding
EP0853436B1 (en) Digital video signal filtering and encoding method and apparatus
JP2007067796A (ja) 符号化方法
WO2010100672A1 (ja) 圧縮動画符号化装置、圧縮動画復号化装置、圧縮動画符号化方法および圧縮動画復号化方法
KR20200019854A (ko) 게임-생성된 모션 벡터들을 위한 시스템들 및 방법들
JP6867362B2 (ja) 符号器を用いた効率的なブレンディング
TW202226813A (zh) 基於相機動作產生替代影像訊框
JP7282849B2 (ja) プライバシーマスクを含む画像をエンコードする方法
JP6961747B2 (ja) ビデオ処理のためのシステムおよび方法
TWI379594B (en) Apparatus and method for processing a picture frame
JP2007329678A (ja) 輝度マスキング及び輝度補償を用いた超解像処理方法及び装置
JP7125446B2 (ja) 歪み画像フレームをエンコードするための方法、デバイス、およびコンピュータプログラム製品
JP2010004142A (ja) 動画像符号化装置、復号化装置、符号化方法及び復号化方法
WO2022090738A1 (en) Selective video modification
JP2020205581A5 (ja)
CN112911296B (zh) 帧间编码的方法、存储介质、视频处理装置和摄像机
JP7309676B2 (ja) ビデオ符号化方法およびそのような方法を実行するように構成されたビデオエンコーダ
JP2000270336A (ja) 動画像符号化方法及び撮影形態の推定方法
Boudechiche et al. Refinement of the Side Information of Distributed Video Coding with Deep Learning
JPH11113001A (ja) 信号処理方法及び信号再生装置
Ma et al. Frame loss error concealment for spatial scalability using hallucination
JP2023120155A (ja) オーバレイを含むビデオストリームの符号化
Sun et al. A novel layered DVC structure for wireless surveillance system
JP2008022444A (ja) 動画像符号化装置及び動画像符号化方法
JP2007074129A (ja) 動画像データ圧縮装置および動画像データ圧縮プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R150 Certificate of patent or registration of utility model

Ref document number: 6961747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150