JP2021170727A - Device, image processor, imaging device, mobile body, program, and method - Google Patents

Device, image processor, imaging device, mobile body, program, and method Download PDF

Info

Publication number
JP2021170727A
JP2021170727A JP2020073147A JP2020073147A JP2021170727A JP 2021170727 A JP2021170727 A JP 2021170727A JP 2020073147 A JP2020073147 A JP 2020073147A JP 2020073147 A JP2020073147 A JP 2020073147A JP 2021170727 A JP2021170727 A JP 2021170727A
Authority
JP
Japan
Prior art keywords
image
trained neural
quality deterioration
coding
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020073147A
Other languages
Japanese (ja)
Inventor
数史 佐藤
Kazufumi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2020073147A priority Critical patent/JP2021170727A/en
Publication of JP2021170727A publication Critical patent/JP2021170727A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To provide an image processor which improves image degradations by using a learned neural network.SOLUTION: In an imaging device, a controller has a decryption unit which stores a plurality of learned neural networks for processing a decrypted image in relation to the amount of image degradations by coding, acquires coded data generated by coding an image and the image degradation amount generated by the coding of the image, generates a decrypted image by decrypting the coded data, selects one of the plurality of learned neural networks that is related to the acquired image degradation amount, and processes the decrypted image by using the learned neural networks.SELECTED DRAWING: Figure 7

Description

本発明は、装置、画像処理装置、撮像装置、移動体、プログラム及び方法に関する。 The present invention relates to an apparatus, an image processing apparatus, an imaging apparatus, a moving body, a program and a method.

非特許文献1及び2には、動画像の符号化装置において、動き予測ループ内に機械学習によるフィルタを挿入した構成が記載されている。非特許文献3には、構造的類似性(Structual Similarity)に基づいて画質を評価する技術が記載されている。
[先行技術文献]
[特許文献]
[非特許文献1]Lulu Zhou, Xiaodan Song, Jiabao Yao, Li Wang, Fangdong Chen, "JVET−I0022: Convolutional neural network filter (CNNF) for intra frame", Joint Video Exploration Team (JVET) 9th Meeting: Gwangju, Korea, 2018年1月
[非特許文献2]Jiabao Yao, Xiaodan Song, Shuqing Fang, Li Wang, "AHG9: Convolutional Neural Network Filter for inter frame", ISO/IEC JTC1/SC29 WG11, JVET−K0222, 2018年7月
[非特許文献3]Zhou Wang, Alan C. Bovik, Hamid R. Sheikh, Eero P. Simoncelli, "Image Quality Assessment: From Error Visibility to Structural Similarity", IEEE Trans on Image Processing, Vol 13, No 4, 2004年4月
Non-Patent Documents 1 and 2 describe a configuration in which a filter by machine learning is inserted in a motion prediction loop in a moving image encoding device. Non-Patent Document 3 describes a technique for evaluating image quality based on structural similarity.
[Prior art literature]
[Patent Document]
[Non-Patent Document 1] Lulu Zhou, Xiaodan Song, Jiabao Yao, Li Wang, Fangdong Chen, "JVET-I0022: Convolutional neural network Video filter (CNNF) for Korea, January 2018 [Non-Patent Document 2] Jiabao Yao, Xiaodan Song, Shuqing Fang, Li Wang, "AHG9: Convolutional Neural Network, Network, Network, 20S July [Non-Patent Document 3] Zhou Wang, Alan C.I. Bobik, Hamid R. Sheikh, Eero P.M. Simoncelli, "Image Quality Assessment: From Error Visibility to Structural Similarity", IEEE Trans on Image Processing, April 200, No. 4, Vol. 13, No. 4, No.

本発明の第1の形態に係る装置は、符号化による画質劣化量に対応づけて、復号化した画像を処理するための複数の学習済みニューラルネットワークを記憶するように構成される回路を備える。回路は、画像の符号化により生成された符号化データ及び画像の符号化により生じた画質劣化量を取得するように構成される。回路は、符号化データを復号化することにより、復号化画像を生成するように構成される。回路は、複数の学習済みニューラルネットワークのうち取得した画質劣化量に対応づけられた学習済みニューラルネットワークを選択するように構成される。回路は、選択した学習済みニューラルネットワークを用いて、復号化画像を処理するように構成される。 The apparatus according to the first aspect of the present invention includes a circuit configured to store a plurality of learned neural networks for processing the decoded image in correspondence with the amount of image quality deterioration due to coding. The circuit is configured to acquire the coded data generated by the coding of the image and the amount of image quality deterioration caused by the coding of the image. The circuit is configured to generate a decoded image by decoding the coded data. The circuit is configured to select a trained neural network associated with the acquired image quality deterioration amount from a plurality of trained neural networks. The circuit is configured to process the decoded image using the trained neural network of choice.

画質劣化量は、符号化前の画像及び復号化画像から算出される(i)ピーク信号対雑音比(Peak Signal to Noise Ratio)、(ii)構造的類似性(SSIM)及び(iii)平均二乗誤差(Mean Square Error)の少なくとも一つであってよい。 The amount of image quality deterioration is calculated from the unencoded image and the decoded image (i) Peak signal-to-noise ratio (Peek Signal to Noise Radio), (ii) Structural similarity (SSIM) and (iii) Mean squared error. It may be at least one of the errors (Mean Squared Error).

画像は、動画を構成する動画構成画像であってよい。符号化データは、動画構成画像のインター予測又はイントラ予測によって得られた動画構成画像の予測差分情報を量子化することによって得られた量子化差分情報を含んでよい。回路は、符号化データから取得した量子化差分情報の逆量子化を含む処理によって得られた予測差分情報に基づいて差分画像を生成し、差分画像にインター予測画像又はイントラ予測画像を加算することにより、復号化画像を生成するように構成される。回路は、選択した学習済みニューラルネットワークを用いて、復号化画像を処理するように構成される。 The image may be a moving image constituting a moving image. The coded data may include quantization difference information obtained by quantization of the predicted difference information of the moving image constituent image obtained by inter-prediction or intra-prediction of the moving image. The circuit generates a difference image based on the predicted difference information obtained by a process including inverse quantization of the quantization difference information acquired from the coded data, and adds an inter-predicted image or an intra-predicted image to the difference image. Is configured to generate a decoded image. The circuit is configured to process the decoded image using the trained neural network of choice.

画像は、動画を構成する動画構成画像であってよい。回路は、動画構成画像のピクチャ種別にさらに対応づけて、複数の学習済みニューラルネットワークを記憶するように構成される。回路は、複数の学習済みニューラルネットワークのうち、動画構成画像のピクチャ種別と、取得した画質劣化量とに対応づけられた学習済みニューラルネットワークを選択するように構成される。 The image may be a moving image constituting a moving image. The circuit is configured to store a plurality of trained neural networks in association with the picture type of the moving image. The circuit is configured to select a trained neural network associated with the picture type of the moving image constituent image and the acquired image quality deterioration amount from the plurality of trained neural networks.

ニューラルネットワークは、学習用画像と学習用画像の符号化データとを学習データとして用いて、符号化による画質劣化量に応じて機械学習を行うことによって得られた畳み込みニューラルネットワークであってよい。 The neural network may be a convolutional neural network obtained by using the learning image and the coded data of the learning image as training data and performing machine learning according to the amount of image quality deterioration due to coding.

本発明の第2の態様に係る装置は、符号化による画質劣化量に対応づけて、復号化された画像データを処理するための複数の学習済みニューラルネットワークを記憶するように構成された回路を備える。回路は、符号化対象画像をインター予測又はイントラ予測を含む符号化処理により符号化することによって、符号化データを生成するように構成される。回路は、符号化データを復号化することによって復号化画像を生成するように構成される。回路は、符号化対象画像と復号化画像に基づいて、符号化対象画像の符号化により生じた画質劣化量を算出するように構成される。回路は、符号化データ及び算出した画質劣化量を出力するように構成される。回路は、複数の学習済みニューラルネットワークのうち算出した画質劣化量に対応づけられた学習済みニューラルネットワークを選択するように構成される。回路は、選択した学習済みニューラルネットワークを用いて、生成した復号化画像を処理することによって、インター予測又はイントラ予測に用いられる参照用画像を生成するように構成される。 The apparatus according to the second aspect of the present invention comprises a circuit configured to store a plurality of learned neural networks for processing the decoded image data in correspondence with the amount of image quality deterioration due to coding. Be prepared. The circuit is configured to generate encoded data by encoding the image to be encoded by a coding process including inter-prediction or intra-prediction. The circuit is configured to generate a decoded image by decoding the coded data. The circuit is configured to calculate the amount of image quality deterioration caused by the coding of the coded image based on the coded image and the decoded image. The circuit is configured to output the coded data and the calculated image quality deterioration amount. The circuit is configured to select a trained neural network associated with the calculated image quality deterioration amount from the plurality of trained neural networks. The circuit is configured to generate a reference image used for inter-prediction or intra-prediction by processing the generated decoded image using a selected trained neural network.

本発明の第3の態様に係る画像処理装置は、第1の態様に係る装置と、第2の態様に係る装置とを備える。 The image processing apparatus according to the third aspect of the present invention includes an apparatus according to the first aspect and an apparatus according to the second aspect.

本発明の第4の態様に係る撮像装置は、上記の装置と、画像を生成するイメージセンサとを備える。 The image pickup apparatus according to the fourth aspect of the present invention includes the above-mentioned apparatus and an image sensor for generating an image.

本発明の第5の態様に係る移動体は、上記の撮像装置を備えて移動する。 The moving body according to the fifth aspect of the present invention moves with the above-mentioned imaging device.

移動体は、無人航空機であってよい。 The moving body may be an unmanned aerial vehicle.

本発明の第6の態様に係るプログラムは、コンピュータを上記の装置として機能させる。プログラムは、非一時的記録媒体に記録されてよい。 The program according to the sixth aspect of the present invention causes the computer to function as the above-mentioned device. The program may be recorded on a non-temporary recording medium.

本発明の第7の態様に係る方法は、符号化による画質劣化量に対応づけて、復号化した画像を処理するための複数の学習済みニューラルネットワークを記憶する段階を備える。方法は、画像の符号化により生成された符号化データ及び画像の符号化により生じた画質劣化量を取得する段階を備える。方法は、符号化データを復号化することにより、復号化画像を生成する段階を備える。方法は、複数の学習済みニューラルネットワークのうち取得した画質劣化量に対応づけられた学習済みニューラルネットワークを選択する段階を備える。方法は、選択した学習済みニューラルネットワークを用いて、復号化画像を処理する段階を備える。 The method according to the seventh aspect of the present invention includes a step of storing a plurality of trained neural networks for processing the decoded image in association with the amount of image quality deterioration due to coding. The method includes a step of acquiring the coded data generated by the coding of the image and the amount of image quality deterioration caused by the coding of the image. The method comprises the step of generating a decoded image by decoding the encoded data. The method includes a step of selecting a trained neural network corresponding to the acquired image quality deterioration amount from a plurality of trained neural networks. The method comprises processing the decoded image using the trained neural network of choice.

本発明の第8の態様に係る方法は、符号化による画質劣化量に対応づけて、復号化された画像データを処理するための複数の学習済みニューラルネットワークを記憶する段階を備える。方法は、符号化対象画像をインター予測又はイントラ予測を含む符号化処理により符号化することによって、符号化データを生成する段階を備える。方法は、符号化データを復号化することによって復号化画像を生成する段階を備える。方法は、符号化対象画像と復号化画像に基づいて、符号化対象画像の符号化により生じた画質劣化量を算出する段階を備える。方法は、符号化データ及び算出した画質劣化量を出力する段階を備える。方法は、複数の学習済みニューラルネットワークのうち算出した画質劣化量に対応づけられた学習済みニューラルネットワークを選択する段階を備える。方法は、選択した学習済みニューラルネットワークを用いて、生成した復号化画像を処理することによって、インター予測又はイントラ予測に用いられる参照用画像を生成する段階を備える。 The method according to the eighth aspect of the present invention includes a step of storing a plurality of trained neural networks for processing the decoded image data in association with the amount of image quality deterioration due to coding. The method comprises a step of generating encoded data by encoding the image to be encoded by a coding process including inter-prediction or intra-prediction. The method comprises the step of generating a decoded image by decoding the encoded data. The method includes a step of calculating the amount of image quality deterioration caused by the coding of the coded image based on the coded image and the decoded image. The method includes a step of outputting the coded data and the calculated image quality deterioration amount. The method includes a step of selecting a trained neural network corresponding to the calculated image quality deterioration amount from a plurality of trained neural networks. The method comprises the step of generating a reference image used for inter-prediction or intra-prediction by processing the generated decoded image using the selected trained neural network.

本発明の上記の態様によれば、画像の符号化又は復号化を適切に行うことができる。 According to the above aspect of the present invention, the image can be appropriately encoded or decoded.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. Sub-combinations of these feature groups can also be inventions.

本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。It is a figure which shows an example of the external perspective view of the image pickup apparatus 100 which concerns on this embodiment. 本実施形態に係る撮像装置100の機能ブロックを示す図である。It is a figure which shows the functional block of the image pickup apparatus 100 which concerns on this embodiment. 学習器のブロック図を示す。The block diagram of the learner is shown. PSNRに基づくクラス分類を行うためのクラス情報を示す。Class information for classifying based on PSNR is shown. ニューラルネットワークのパラメータ情報を示す。The parameter information of the neural network is shown. 制御部110が備える符号化器のブロック構成を示す。The block configuration of the encoder included in the control unit 110 is shown. 制御部110が備える復号化器のブロック構成を示す。The block configuration of the decoder included in the control unit 110 is shown. 制御部110が符号化対象ピクチャを符号化する場合に実行する処理のフローチャートを示す。The flowchart of the process to be executed when the control unit 110 encodes a picture to be encoded is shown. 制御部110が復号化対象ピクチャを復号化する場合に実行する処理のフローチャートを示す。The flowchart of the process executed when the control unit 110 decodes the decoding target picture is shown. インター予測で用いられるピクチャの参照関係の一例を示す。An example of the reference relationship of the picture used in the inter-prediction is shown. 無人航空機(UAV)の一例を示す。An example of an unmanned aerial vehicle (UAV) is shown. 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。An example of a computer 1200 in which a plurality of aspects of the present invention may be embodied in whole or in part is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention. It will be apparent to those skilled in the art that various changes or improvements can be made to the following embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。 The claims, description, drawings, and abstracts include matters that are subject to copyright protection. The copyright holder will not object to any person's reproduction of these documents as long as they appear in the Patent Office files or records. However, in other cases, all copyrights are reserved.

本発明の様々な実施形態は、フローチャート及びブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、プログラマブル回路、及び/またはプロセッサによって実装されてよい。専用回路は、デジタル及び/またはアナログハードウェア回路を含んでよい。集積回路(IC)及び/またはディスクリート回路を含んでよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、及び他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等の様なメモリ要素等を含んでよい。 Various embodiments of the present invention may be described with reference to flowcharts and block diagrams, wherein the block is (1) a stage of the process in which the operation is performed or (2) a device having a role of performing the operation. May represent the "part" of. Specific steps and "parts" may be implemented by programmable circuits and / or processors. Dedicated circuits may include digital and / or analog hardware circuits. It may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits may include reconfigurable hardware circuits. Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc. It may include a memory element such as.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer-readable medium may include any tangible device capable of storing instructions executed by the appropriate device. As a result, the computer-readable medium having the instructions stored therein will include the product, including instructions that can be executed to create means for performing the operation specified in the flowchart or block diagram. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable media include floppy® disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), Electrically erasable programmable read-only memory (EEPROM), static random access memory (SRAM), compact disc read-only memory (CD-ROM), digital versatile disc (DVD), Blu-ray® disc, memory stick, An integrated circuit card or the like may be included.

コンピュータ可読命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。ソースコードまたはオブジェクトコードは、従来の手続型プログラミング言語を含む。従来の手続型プログラミング言語は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions may include either source code or object code written in any combination of one or more programming languages. Source code or object code includes traditional procedural programming languages. Traditional procedural programming languages are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or Smalltalk®, JAVA®, C ++. It may be an object-oriented programming language such as, and a "C" programming language or a similar programming language. Computer-readable instructions are applied locally or to a processor or programmable circuit of a general purpose computer, special purpose computer, or other programmable data processing device, or a wide area network (WAN) such as a local area network (LAN), the Internet, etc. ) May be provided. The processor or programmable circuit may execute computer-readable instructions to create means for performing the operations specified in the flowchart or block diagram. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers and the like.

図1は、本実施形態に係る撮像装置100の外観斜視図の一例を示す図である。図2は、本実施形態に係る撮像装置100の機能ブロックを示す図である。 FIG. 1 is a diagram showing an example of an external perspective view of the image pickup apparatus 100 according to the present embodiment. FIG. 2 is a diagram showing a functional block of the image pickup apparatus 100 according to the present embodiment.

撮像装置100は、撮像部102、レンズ部200を備える。撮像部102は、イメージセンサ120、制御部110、メモリ130、指示部162、及び表示部160を有する。 The image pickup apparatus 100 includes an image pickup section 102 and a lens section 200. The imaging unit 102 includes an image sensor 120, a control unit 110, a memory 130, an indicator unit 162, and a display unit 160.

イメージセンサ120は、CCDまたはCMOSにより構成されてよい。イメージセンサ120は、レンズ部200が有するレンズ210を介して光を受光する。イメージセンサ120は、レンズ210を介して結像された光学像の画像データを制御部110に出力する。 The image sensor 120 may be composed of a CCD or CMOS. The image sensor 120 receives light through the lens 210 included in the lens unit 200. The image sensor 120 outputs the image data of the optical image formed through the lens 210 to the control unit 110.

制御部110は、CPUまたはMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラなどにより構成されてよい。メモリ130は、コンピュータ可読可能な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。制御部110は回路に対応する。メモリ130は、制御部110がイメージセンサ120などを制御するのに必要なプログラム等を格納する。メモリ130は、撮像装置100の筐体の内部に設けられてよい。メモリ130は、撮像装置100の筐体から取り外し可能に設けられてよい。 The control unit 110 may be composed of a CPU, a microprocessor such as an MPU, a microcontroller such as an MCU, or the like. The memory 130 may be a computer-readable recording medium and may include at least one of flash memories such as SRAM, DRAM, EPROM, EEPROM, and USB memory. The control unit 110 corresponds to the circuit. The memory 130 stores a program or the like necessary for the control unit 110 to control the image sensor 120 or the like. The memory 130 may be provided inside the housing of the image pickup apparatus 100. The memory 130 may be provided so as to be removable from the housing of the image pickup apparatus 100.

指示部162は、撮像装置100に対する指示をユーザから受け付けるユーザインタフェースである。表示部160は、イメージセンサ120により撮像され、制御部110により処理された画像、撮像装置100の各種設定情報などを表示する。表示部160は、タッチパネルで構成されてよい。 The instruction unit 162 is a user interface that receives an instruction to the image pickup apparatus 100 from the user. The display unit 160 displays an image captured by the image sensor 120 and processed by the control unit 110, various setting information of the image pickup device 100, and the like. The display unit 160 may be composed of a touch panel.

制御部110は、レンズ部200及びイメージセンサ120を制御する。例えば、制御部110は、レンズ210の焦点の位置や焦点距離を制御する。制御部110は、ユーザからの指示を示す情報に基づいて、レンズ部200が備えるレンズ制御部220に制御命令を出力することにより、レンズ部200を制御する。 The control unit 110 controls the lens unit 200 and the image sensor 120. For example, the control unit 110 controls the focal position and focal length of the lens 210. The control unit 110 controls the lens unit 200 by outputting a control command to the lens control unit 220 included in the lens unit 200 based on the information indicating the instruction from the user.

レンズ部200は、1以上のレンズ210、レンズ駆動部212、レンズ制御部220、及びメモリ222を有する。本実施形態において1以上のレンズ210のことを「レンズ210」と総称する。レンズ210は、フォーカスレンズ及びズームレンズを含んでよい。レンズ210が含むレンズのうちの少なくとも一部または全部は、レンズ210の光軸に沿って移動可能に配置される。レンズ部200は、撮像部102に対して着脱可能に設けられる交換レンズであってよい。 The lens unit 200 includes one or more lenses 210, a lens driving unit 212, a lens control unit 220, and a memory 222. In this embodiment, one or more lenses 210 are collectively referred to as "lens 210". The lens 210 may include a focus lens and a zoom lens. At least some or all of the lenses included in the lens 210 are movably arranged along the optical axis of the lens 210. The lens unit 200 may be an interchangeable lens that is detachably provided to the imaging unit 102.

レンズ駆動部212は、レンズ210のうちの少なくとも一部または全部を、レンズ210の光軸に沿って移動させる。レンズ制御部220は、撮像部102からのレンズ制御命令に従って、レンズ駆動部212を駆動して、レンズ210全体又はレンズ210が含むズームレンズやフォーカスレンズを光軸方向に沿って移動させることで、ズーム動作やフォーカス動作の少なくとも一方を実行する。レンズ制御命令は、例えば、ズーム制御命令、及びフォーカス制御命令等である。 The lens driving unit 212 moves at least a part or all of the lens 210 along the optical axis of the lens 210. The lens control unit 220 drives the lens drive unit 212 in accordance with a lens control command from the image pickup unit 102 to move the entire lens 210 or the zoom lens or focus lens included in the lens 210 along the optical axis direction. Perform at least one of the zoom and focus movements. The lens control command is, for example, a zoom control command, a focus control command, and the like.

レンズ駆動部212は、複数のレンズ210の少なくとも一部または全部を光軸方向に移動させるボイスコイルモータ(VCM)を含んでよい。レンズ駆動部212は、DCモータ、コアレスモータ、または超音波モータ等の電動機を含んでよい。レンズ駆動部212は、電動機からの動力をカム環、ガイド軸等の機構部材を介して複数のレンズ210の少なくとも一部または全部に伝達して、レンズ210の少なくとも一部または全部を光軸に沿って移動させてよい。 The lens driving unit 212 may include a voice coil motor (VCM) that moves at least a part or all of the plurality of lenses 210 in the optical axis direction. The lens driving unit 212 may include an electric motor such as a DC motor, a coreless motor, or an ultrasonic motor. The lens driving unit 212 transmits power from the motor to at least a part or all of the plurality of lenses 210 via mechanical members such as a cam ring and a guide shaft, and makes at least a part or all of the lenses 210 an optical axis. You may move it along.

メモリ222は、レンズ駆動部212を介して移動するフォーカスレンズやズームレンズ用の制御値を記憶する。メモリ222は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。 The memory 222 stores the control values for the focus lens and the zoom lens that move via the lens driving unit 212. The memory 222 may include at least one of flash memories such as SRAM, DRAM, EPROM, EEPROM, and USB memory.

制御部110は、指示部162等を通じて取得したユーザの指示を示す情報に基づいて、イメージセンサ120に制御命令を出力することにより、イメージセンサ120に撮像動作の制御を含む制御を実行する。制御部110は、イメージセンサ120により撮像された画像を取得する。制御部110は、イメージセンサ120から取得した画像に画像処理を施してメモリ130に格納する。 The control unit 110 executes control including control of the imaging operation on the image sensor 120 by outputting a control command to the image sensor 120 based on the information indicating the user's instruction acquired through the instruction unit 162 or the like. The control unit 110 acquires an image captured by the image sensor 120. The control unit 110 performs image processing on the image acquired from the image sensor 120 and stores it in the memory 130.

制御部110が実行する符号化処理及び復号化処理について説明する。制御部110は、符号化による画質劣化量に対応づけて、復号化した画像を処理するための複数の学習済みニューラルネットワークを記憶する。制御部110は、学習済みニューラルネットワークを外部のメモリ130に記憶してよい。制御部110は、学習済みニューラルネットワークを制御部110内の不揮発性メモリに記憶してよい。また、本実施形態において、符号化対象及び復号化対象の画像は、動画を構成する動画構成画像である。しかし、画像は静止画であってもよい。 The coding process and the decoding process executed by the control unit 110 will be described. The control unit 110 stores a plurality of learned neural networks for processing the decoded image in correspondence with the amount of image quality deterioration due to coding. The control unit 110 may store the trained neural network in an external memory 130. The control unit 110 may store the learned neural network in the non-volatile memory in the control unit 110. Further, in the present embodiment, the image to be encoded and the image to be decoded are moving image constituent images constituting the moving image. However, the image may be a still image.

まず、制御部110が符号化対象画像を符号化する処理の概要を説明する。制御部110は、符号化対象画像をインター予測又はイントラ予測を含む符号化処理により符号化することによって、符号化データを生成する。制御部110は、符号化データを復号化することによって復号化画像を生成し、符号化対象画像と復号化画像に基づいて、符号化対象画像の符号化により生じた画質劣化量を算出する。制御部110は、符号化データ及び算出した画質劣化量を出力する。例えば、制御部110は、生成した符号化データと、画質劣化量と、符号化に用いた動きベクトル等の圧縮情報とを含む圧縮画像データをメモリ130に記録する。 First, the outline of the process in which the control unit 110 encodes the image to be encoded will be described. The control unit 110 generates encoded data by encoding the image to be encoded by a coding process including inter-prediction or intra-prediction. The control unit 110 generates a decoded image by decoding the coded data, and calculates the amount of image quality deterioration caused by the coding of the coded target image based on the coded target image and the decoded image. The control unit 110 outputs the coded data and the calculated image quality deterioration amount. For example, the control unit 110 records in the memory 130 compressed image data including the generated coded data, the amount of image quality deterioration, and compressed information such as a motion vector used for coding.

制御部110は、インター予測又はイントラ予測に用いる参照画像を生成する場合に、複数の学習済みニューラルネットワークのうち、算出した画質劣化量に対応づけられた学習済みニューラルネットワークを選択する。制御部110は、選択した学習済みニューラルネットワークを用いて、生成した復号化画像を処理することによって、インター予測又はイントラ予測に用いられる参照用画像を生成する。 When generating a reference image used for inter-prediction or intra-prediction, the control unit 110 selects a trained neural network associated with the calculated image quality deterioration amount from the plurality of trained neural networks. The control unit 110 uses the selected trained neural network to process the generated decoded image to generate a reference image used for inter-prediction or intra-prediction.

なお、画質劣化量は、符号化前の画像及び復号化画像データから算出されるピーク信号対雑音比(Peak Signal to Noise Ratio)であってよい。)画質劣化量は、符号化前の画像及び復号化画像データから算出される構造的類似性(SSIM、Structural Similarity)であってよい。画質劣化量は、符号化前の画像及び復号化画像データから算出される平均二乗誤差(Mean Square Error)であってよい。画質劣化量は、符号化前の画像及び復号化画像データに基づく任意の損失関数の値を指標としてよい。 The amount of image quality deterioration may be the peak signal-to-noise ratio (Peak Signal to Noise Radio) calculated from the unencoded image and the decoded image data. The amount of image quality deterioration may be a structural similarity (SSIM, Structural Similarity) calculated from the image before encoding and the decoded image data. The amount of image quality deterioration may be a mean square error (Mean Square Error) calculated from the image before encoding and the decoded image data. The amount of image quality deterioration may be indexed by the value of an arbitrary loss function based on the unencoded image and the decoded image data.

次に、制御部110が復号化対象画像を復号化する処理の概要を説明する。制御部110は、画像の符号化により生成された符号化データ及び画像の符号化により生じた画質劣化量を取得する。例えば、制御部110は、メモリ130から、画像の符号化データ、画質劣化量及び圧縮情報を含む圧縮画像データを読み出す。制御部110は、符号化データを復号化することにより、復号化画像を生成する。制御部110は、複数の学習済みニューラルネットワークのうち、取得した画質劣化量に対応づけられた学習済みニューラルネットワークを選択する。そして、制御部110は、選択した学習済みニューラルネットワークを用いて、復号化画像を処理する。制御部110は、学習済みニューラルネットワークを用いて処理した復号化画像を、例えば表示部160に出力する。 Next, the outline of the process in which the control unit 110 decodes the image to be decoded will be described. The control unit 110 acquires the coded data generated by the coding of the image and the amount of image quality deterioration caused by the coding of the image. For example, the control unit 110 reads out compressed image data including image coding data, image quality deterioration amount, and compressed information from the memory 130. The control unit 110 generates a decoded image by decoding the coded data. The control unit 110 selects a trained neural network associated with the acquired image quality deterioration amount from the plurality of trained neural networks. Then, the control unit 110 processes the decoded image using the selected trained neural network. The control unit 110 outputs the decoded image processed by using the trained neural network to, for example, the display unit 160.

一例として、動画構成画像の符号化データは、動画構成画像のインター予測又はイントラ予測によって得られた動画構成画像の予測差分情報を量子化することによって得られた量子化差分情報を含む。例えば、予測差分情報は、符号化対象画像と参照画像との差分画像を離散コサイン変換(「DCT変換」と呼ぶ場合がある)することにより得られたDCT係数であり、量子化差分情報は、当該DCT係数を量子化することによって得られた量子化DCT係数である。制御部110は、符号化データから取得した量子化差分情報の逆量子化を含む処理によって得られた予測差分情報に基づいて差分画像を生成し、差分画像にインター予測画像又はイントラ予測画像を加算することにより、復号化画像を生成する。制御部110は、選択した学習済みニューラルネットワークを用いて、復号化画像を処理する。 As an example, the encoded data of the moving image constituent image includes the quantization difference information obtained by quantizing the prediction difference information of the moving image constituent image obtained by the inter-prediction or the intra-prediction of the moving image. For example, the predicted difference information is a DCT coefficient obtained by performing a discrete cosine transform (sometimes called "DCT transform") on the difference image between the coded image and the reference image, and the quantized difference information is It is a quantized DCT coefficient obtained by quantizing the DCT coefficient. The control unit 110 generates a difference image based on the predicted difference information obtained by a process including inverse quantization of the quantization difference information acquired from the coded data, and adds an inter-predicted image or an intra-predicted image to the difference image. By doing so, a decoded image is generated. The control unit 110 processes the decoded image using the selected trained neural network.

制御部110は、動画構成画像のピクチャ種別にさらに対応づけて、複数の学習済みニューラルネットワークを記憶してよい。制御部110は、複数の学習済みニューラルネットワークのうち、動画構成画像のピクチャ種別と、取得した画質劣化量とに対応づけられた学習済みニューラルネットワークを選択してよい。 The control unit 110 may store a plurality of trained neural networks in association with the picture type of the moving image constituent image. The control unit 110 may select a trained neural network corresponding to the picture type of the moving image constituent image and the acquired image quality deterioration amount from the plurality of trained neural networks.

「学習済みニューラルネットワーク」は、学習用画像と当該学習用画像の符号化データとを学習データとして用いて、符号化による画質劣化量に応じて機械学習を行うことによって得られた畳み込みニューラルネットワーク(CNN)であってよい。図4から図10に関連して、CNNを用いた画像処理を行う「CNNフィルタ」を採用した形態を説明する。 The "learned neural network" is a convolutional neural network obtained by using a learning image and the coded data of the learning image as training data and performing machine learning according to the amount of image quality deterioration due to coding (a convolutional neural network). CNN) may be. In relation to FIGS. 4 to 10, a mode in which a “CNN filter” that performs image processing using a CNN is adopted will be described.

図3は、学習器のブロック図を示す。図4は、PSNRに基づくクラス分類を行うためのクラス情報を示す。なお、学習器は、制御部110が使用するニューラルネットワークのパラメータ(CNNパラメータ)を生成する機械学習を行う装置である。制御部110が学習器を備える必要はない。 FIG. 3 shows a block diagram of the learner. FIG. 4 shows class information for classifying based on PSNR. The learner is a device that performs machine learning that generates neural network parameters (CNN parameters) used by the control unit 110. The control unit 110 does not need to include a learning device.

学習器は、入力画像と劣化画像とを用いた機械学習を行うことによって、CNNパラメータを生成する。劣化画像は、入力画像の符号化によって生成された符号化画像を復号化することによって生成された復号化画像である。復号化画像は、復号器が備えるループフィルタによる画像処理が施された画像である。ループフィルタについては後述する。 The learner generates CNN parameters by performing machine learning using the input image and the deteriorated image. The degraded image is a decoded image generated by decoding the coded image generated by coding the input image. The decoded image is an image that has undergone image processing by a loop filter included in the decoder. The loop filter will be described later.

画質測定部310は、入力画像及び劣化画像に基づいて画質劣化量を測定する。本実施形態では、画質劣化量としてPSNRを採用した形態を説明する。画質測定部310は、入力画像及び劣化画像に基づいてPSNRを算出する。PSNRは、次の式で定義される。

Figure 2021170727
The image quality measuring unit 310 measures the amount of image quality deterioration based on the input image and the deteriorated image. In this embodiment, a mode in which PSNR is adopted as the amount of image quality deterioration will be described. The image quality measuring unit 310 calculates the PSNR based on the input image and the deteriorated image. PSNR is defined by the following equation.
Figure 2021170727

MSEは、平均二乗誤差である。例えば、MSEは、各色の画素値の差の平均二乗誤差により算出される値である。MAXは、画像の画素値が取り得る最大値である。例えば、画素値を8ビットで表現する場合、MAXは255である。 MSE is the mean square error. For example, MSE is a value calculated by the mean square error of the difference between the pixel values of each color. MAX I is the maximum value that the pixel value of the image can take. For example, when the pixel value is represented by 8 bits, MAX I is 255.

クラス決定部320は、図4に示すクラス情報とPSNRとに基づいて、クラスを決定する。図4に示されるように、クラス情報は、クラス識別子とPSNRの範囲とを対応づける情報である。クラス決定部320は、クラス情報における複数のPSNRの範囲のうち、算出したPSNRの値を含む範囲を特定して、特定した範囲に対応づけられたクラス識別子を特定する。 The class determination unit 320 determines the class based on the class information shown in FIG. 4 and the PSNR. As shown in FIG. 4, the class information is information that associates the class identifier with the PSNR range. The class determination unit 320 specifies a range including the calculated PSNR value among a plurality of PSNR ranges in the class information, and specifies a class identifier associated with the specified range.

CNN学習器330は、クラス決定部320が決定したクラス毎に、入力画像及び劣化画像を用いた機械学習を行うことによって、後述するCNNフィルタを構成するCNNパラメータを算出する。具体的には、CNN学習器330は、劣化画像にCNNフィルタを適用することによって生成される画像と入力画像とに基づいて、予め定められた損失関数を最小化するような重み付け値及びオフセットを算出する。 The CNN learner 330 calculates the CNN parameters constituting the CNN filter described later by performing machine learning using the input image and the deteriorated image for each class determined by the class determination unit 320. Specifically, the CNN learner 330 sets weights and offsets that minimize a predetermined loss function based on the image generated by applying the CNN filter to the degraded image and the input image. calculate.

図5は、ニューラルネットワークのパラメータ情報を示す。パラメータ情報は、機械学習によって算出されたCNNパラメータとクラス識別子とを対応づける情報である。CNNパラメータは、CNNを構成する重み付け値及びオフセットを含む。制御部110は、図4に示すクラス情報及び図5に示すパラメータ情報を記憶する。制御部110は、画像の符号化処理及び復号化処理の一部として、クラス情報を参照してクラスを決定し、決定したクラスとパラメータ情報とから定まるCNNパラメータを用いて画像処理を実行する。 FIG. 5 shows the parameter information of the neural network. The parameter information is information that associates the CNN parameter calculated by machine learning with the class identifier. CNN parameters include weighted values and offsets that make up the CNN. The control unit 110 stores the class information shown in FIG. 4 and the parameter information shown in FIG. The control unit 110 determines a class with reference to the class information as a part of the image coding process and the decoding process, and executes the image processing using the CNN parameter determined from the determined class and the parameter information.

図6は、制御部110が備える符号化器のブロック構成を示す。符号化器には、符号化対象となる入力画像データとして、動画構成画像としての時系列の複数のピクチャが入力される。リオーダ部610は、ピクチャ種別に基づいてピクチャの符号化を行う順序を決定する。例えば、リオーダ部610は、双方向予測によって符号化されるBピクチャの符号化を行う前に、Bピクチャより後のIピクチャ又はPピクチャを符号化するように、符号化するピクチャの順序を並べ替える。 FIG. 6 shows a block configuration of a encoder included in the control unit 110. A plurality of time-series pictures as moving image constituent images are input to the encoder as input image data to be encoded. The reorder unit 610 determines the order in which the pictures are coded based on the picture type. For example, the reorder unit 610 arranges the order of the pictures to be encoded so as to encode the I picture or the P picture after the B picture before encoding the B picture encoded by the bidirectional prediction. Change.

直交変換部620は、リオーダ部610から出力されるピクチャと参照画像との差分画像をDCT変換することによって、DCT係数を算出する。量子化部630は、直交変換部620から出力されるDCT係数を量子化することによって量子化DCT係数を生成する。量子化部630は、後述するレート制御部660から出力される圧縮レートに基づいて、DCT係数の量子化に用いる量子化パラメータを調整する。エントロピー符号化部650は、量子化部630が出力する量子化DCT係数にエントロピー符号化を施すことによって符号化ピクチャを生成する。バッファ670は、エントロピー符号化部650が出力する符号化ピクチャを記憶する。レート制御部660は、符号化ピクチャのデータ量に基づいて圧縮レートを決定して、量子化部630に出力する。 The orthogonal transform unit 620 calculates the DCT coefficient by performing DCT conversion of the difference image between the picture output from the reorder unit 610 and the reference image. The quantization unit 630 generates a quantization DCT coefficient by quantizing the DCT coefficient output from the orthogonal transform unit 620. The quantization unit 630 adjusts the quantization parameters used for the quantization of the DCT coefficient based on the compression rate output from the rate control unit 660 described later. The entropy coding unit 650 generates a coded picture by applying entropy coding to the quantized DCT coefficient output by the quantization unit 630. The buffer 670 stores the coded picture output by the entropy coding unit 650. The rate control unit 660 determines the compression rate based on the amount of data in the coded picture and outputs the compression rate to the quantization unit 630.

次に、符号化器が備えるループ構造の処理を説明する。逆量子化部641は、量子化部630から出力された量子化DCT係数を逆量子化する。逆直交変換部642は、逆量子化部641の出力を逆DCT変換することにより差分画像を生成する。ループフィルタ643は、逆直交変換部642が生成した差分画像に参照画像を加算することによって得られた画像情報にフィルタ処理を施す。ループフィルタ643は、例えばデブロッキングフィルタを含んでよい。ループフィルタ643が生成した画像はCNNフィルタ644及び画質測定部646に出力される。 Next, the processing of the loop structure included in the encoder will be described. The inverse quantization unit 641 dequantizes the quantization DCT coefficient output from the quantization unit 630. The inverse orthogonal transform unit 642 generates a difference image by performing an inverse DCT transform on the output of the inverse quantization unit 641. The loop filter 643 applies a filter process to the image information obtained by adding the reference image to the difference image generated by the inverse orthogonal transform unit 642. The loop filter 643 may include, for example, a deblocking filter. The image generated by the loop filter 643 is output to the CNN filter 644 and the image quality measuring unit 646.

画質測定部646には、ループフィルタ643が生成した画像と、入力画像データが入力される。画質測定部646は、ループフィルタ643が生成した画像と入力画像データとに基づいて、PNSRを算出する。クラス決定部647は、画質測定部646により算出されたPSNRと、図4に関連して説明したクラス情報とを用いて、クラス識別子を決定する。クラス決定部647が決定したクラス識別子は、CNNフィルタ644及びエントロピー符号化部650に出力される。 The image generated by the loop filter 643 and the input image data are input to the image quality measuring unit 646. The image quality measuring unit 646 calculates the PNSR based on the image generated by the loop filter 643 and the input image data. The class determination unit 647 determines the class identifier using the PSNR calculated by the image quality measurement unit 646 and the class information described in relation to FIG. The class identifier determined by the class determination unit 647 is output to the CNN filter 644 and the entropy coding unit 650.

CNNフィルタ644は、上述した学習器によって生成されたCNNパラメータにより形成されるCNNによって構成されるフィルタである。CNNフィルタ644は、ループフィルタ643が出力した画像にCNNを用いて畳み込み演算を行うことによって参照用ピクチャを生成する。具体的には、CNNフィルタ644は、パラメータ情報を参照して、クラス決定部647が決定したクラス識別子に対応づけられたCNNパラメータによって構成されるCNNフィルタを、ループフィルタ643により処理された画像情報に適用して、参照用ピクチャを生成する。メモリ645は、CNNフィルタ644が生成した参照用ピクチャを記憶する。イントラ予測部648は、メモリ645に記憶されている参照用ピクチャを用いて、符号化対象ピクチャを符号化するためのイントラ予測を行って、参照画像としてのイントラ予測画像を生成する。インター予測部649は、メモリ645に記憶されている参照用ピクチャを用いて、他の符号化対象ピクチャを符号化するためのインター予測を行って、参照画像としてのインター予測画像を生成する。インター予測部649は、例えば動きベクトルを算出し、動き補償を行うことによってインター予測画像を生成してよい。 The CNN filter 644 is a filter composed of CNNs formed by the CNN parameters generated by the learner described above. The CNN filter 644 generates a reference picture by performing a convolution operation on the image output by the loop filter 643 using the CNN. Specifically, the CNN filter 644 refers to the parameter information, and the CNN filter composed of the CNN parameters associated with the class identifier determined by the class determination unit 647 is processed by the loop filter 643. To generate a reference picture. The memory 645 stores a reference picture generated by the CNN filter 644. The intra prediction unit 648 uses the reference picture stored in the memory 645 to perform intra prediction for encoding the coded target picture, and generates an intra prediction image as a reference image. The inter-prediction unit 649 uses the reference picture stored in the memory 645 to perform inter-prediction for encoding another coded target picture, and generates an inter-prediction image as a reference image. The inter-prediction unit 649 may generate an inter-prediction image by, for example, calculating a motion vector and performing motion compensation.

なお、エントロピー符号化部650は、符号化ピクチャと、動きベクトル等の圧縮情報と、画質測定部646が算出したPSNRをエントロピー符号化してバッファ670に記憶する。制御部110は、エントロピー符号化部650がバッファ670に記憶した情報を含む圧縮画像データをメモリ130等に記録する。 The entropy coding unit 650 entropy-codes the coded picture, the compressed information such as the motion vector, and the PSNR calculated by the image quality measuring unit 646, and stores them in the buffer 670. The control unit 110 records the compressed image data including the information stored in the buffer 670 by the entropy coding unit 650 in the memory 130 or the like.

図7は、制御部110が備える復号化器のブロック構成を示す。制御部110は、メモリ130から圧縮動画データを読み出して復号化する。エントロピー復号化部750は、メモリ130から読み出された圧縮画像データをエントロピー復号化することによって、量子化DCT係数及びPSNRを取得する。逆量子化部741は、エントロピー復号化部750から出力された量子化DCT係数を逆量子化する。逆直交変換部742は、逆量子化部741の出力を逆DCT変換することにより差分画像を生成する。ループフィルタ743は、逆直交変換部742が生成した差分画像に参照画像を加算することによって得られた画像情報にフィルタ処理を施す。ループフィルタ743は、例えばデブロッキングフィルタを含んでよい。ループフィルタ743は、ループフィルタ643と同一のフィルタであってよい。ループフィルタ743が生成した画像はCNNフィルタ744に出力される。 FIG. 7 shows a block configuration of a decoder included in the control unit 110. The control unit 110 reads the compressed moving image data from the memory 130 and decodes it. The entropy decoding unit 750 acquires the quantized DCT coefficient and PSNR by entropy decoding the compressed image data read from the memory 130. The inverse quantization unit 741 dequantizes the quantization DCT coefficient output from the entropy decoding unit 750. The inverse orthogonal transform unit 742 generates a difference image by performing an inverse DCT transform on the output of the inverse quantization unit 741. The loop filter 743 filters the image information obtained by adding the reference image to the difference image generated by the inverse orthogonal transform unit 742. The loop filter 743 may include, for example, a deblocking filter. The loop filter 743 may be the same filter as the loop filter 643. The image generated by the loop filter 743 is output to the CNN filter 744.

クラス決定部747は、エントロピー復号化部750から出力されるPSNRとクラス情報とを用いてクラス識別子を決定する。クラス決定部747が決定したクラス識別子を示す情報はCNNフィルタ744に出力される。 The class determination unit 747 determines the class identifier using the PSNR output from the entropy decoding unit 750 and the class information. Information indicating the class identifier determined by the class determination unit 747 is output to the CNN filter 744.

CNNフィルタ744は、上述した学習器によって生成されたCNNパラメータにより形成されるCNNである。CNNフィルタ744は、ループフィルタ743が出力した画像にニューラルネットワークを用いて畳み込み演算を行うことによって復号化ピクチャを生成する。具体的には、CNNフィルタ744は、パラメータ情報を参照して、クラス決定部747が決定したクラス識別子に対応づけられたCNNパラメータによって構成されるCNNフィルタを、ループフィルタ743により処理された画像情報に適用して、復号化ピクチャを生成する。リオーダー部710は、ピクチャ種別に基づいて、復号化ピクチャを時系列に並べ替える処理を行い、復号化画像データを出力する。復号化画像データは、例えば表示部160における画像の表示に用いられる。 The CNN filter 744 is a CNN formed by the CNN parameters generated by the learner described above. The CNN filter 744 generates a decoded picture by performing a convolution operation on the image output by the loop filter 743 using a neural network. Specifically, the CNN filter 744 refers to the parameter information, and the CNN filter composed of the CNN parameters associated with the class identifier determined by the class determination unit 747 is processed by the loop filter 743. To generate a decoded picture. The reordering unit 710 performs a process of rearranging the decoded pictures in chronological order based on the picture type, and outputs the decoded image data. The decoded image data is used, for example, for displaying an image on the display unit 160.

メモリ745は、CNNフィルタ744が生成した復号化ピクチャを記憶する。イントラ予測部748は、メモリ745に記憶されている復号化ピクチャを参照用ピクチャとして用いて、復号化対象ピクチャを符号化するためのイントラ予測を行い、参照画像としてのイントラ予測画像を生成する。インター予測部749は、メモリ745に記憶されている復号化ピクチャを参照用ピクチャとして用いて、他の復号化対象ピクチャを符号化するためのインター予測を行って、参照画像としてのインター予測画像を生成する。インター予測部749は、例えば動きベクトルを算出し、動きベクトルに基づいて動き補償を行うことによってインター予測画像を生成してよい。 The memory 745 stores the decoded picture generated by the CNN filter 744. The intra prediction unit 748 uses the decoded picture stored in the memory 745 as a reference picture to perform intra prediction for encoding the decoding target picture, and generates an intra prediction image as a reference image. The inter-prediction unit 749 uses the decoded picture stored in the memory 745 as a reference picture, performs inter-prediction for encoding another decoding target picture, and obtains an inter-prediction image as a reference image. Generate. The inter-prediction unit 749 may generate an inter-prediction image by, for example, calculating a motion vector and performing motion compensation based on the motion vector.

図8は、制御部110が符号化対象ピクチャを符号化する場合に実行する処理のフローチャートを示す。S810において、制御部110は、符号化対象ピクチャを符号化する。具体的には、直交変換部620が符号化対象ピクチャの直交変換を行ってDCT係数を算出し、量子化部630が算出されたDCT係数を量子化することにより、量子化DCT係数を生成する。 FIG. 8 shows a flowchart of processing executed when the control unit 110 encodes the coded target picture. In S810, the control unit 110 encodes the picture to be encoded. Specifically, the orthogonal transform unit 620 performs orthogonal transform of the picture to be encoded to calculate the DCT coefficient, and the quantization unit 630 quantizes the calculated DCT coefficient to generate the quantization DCT coefficient. ..

S820において、S810における符号化によって生成された符号化データを復号化し、ループフィルタを適用する。具体的には、逆量子化部641が量子化DCT係数を逆量子化し、逆直交変換部642が逆量子化により得られたDCT係数を逆直交変換することにより差分画像を生成する。そして、生成した差分画像にループフィルタ643を適用する。 In S820, the coded data generated by the coding in S810 is decoded and a loop filter is applied. Specifically, the inverse quantization unit 641 inversely quantizes the quantization DCT coefficient, and the inverse orthogonal transform unit 642 inversely transforms the DCT coefficient obtained by the inverse orthogonal transform to generate a difference image. Then, the loop filter 643 is applied to the generated difference image.

S830において、画質測定部646は、PSNRを算出する。S840において、クラス決定部647はクラス情報を参照して、S830で算出したPSNRに基づいてクラス識別子を決定する。 In S830, the image quality measuring unit 646 calculates the PSNR. In S840, the class determination unit 647 refers to the class information and determines the class identifier based on the PSNR calculated in S830.

S850において、S820において差分画像にループフィルタ643を適用することによって生成されたピクチャを、クラス識別子に対応づけられたCNNパラメータで構成されるCNNフィルタ644によって画像処理を行い、参照用ピクチャを生成する。 In S850, the picture generated by applying the loop filter 643 to the difference image in S820 is image-processed by the CNN filter 644 composed of the CNN parameters associated with the class identifier to generate a reference picture. ..

S860において、S810で生成した量子化DCT係数を含む符号化データとS830で生成したPSNRを含む情報をエントロピー符号化することによって圧縮画像データを生成して、生成した圧縮画像データをメモリ130に出力する。 In S860, compressed image data is generated by entropy coding the coded data including the quantized DCT coefficient generated in S810 and the information including PSNR generated in S830, and the generated compressed image data is output to the memory 130. do.

図9は、制御部110が復号化対象ピクチャを復号化する場合に実行する処理のフローチャートを示す。S910において、エントロピー復号化部750は、圧縮画像データをエントロピー復号化することにより、画像の符号化データ及びPSNRを取得する。S920において、S910で取得した符号化データを復号化する。具体的には、逆量子化部741は、符号化データに含まれる量子化DCT係数を逆量子化し、逆直交変換部742は、逆量子化により得られたDCT係数を逆直交変換することにより、差分画像を生成する。また、イントラ予測部748又はインター予測部が生成した予測画像を差分画像に加算する。続いて、S930において、S920で生成された画像にループフィルタ743を適用する。 FIG. 9 shows a flowchart of processing executed when the control unit 110 decodes the decoding target picture. In S910, the entropy decoding unit 750 acquires the coded data and the PSNR of the image by entropy decoding the compressed image data. In S920, the coded data acquired in S910 is decoded. Specifically, the inverse quantization unit 741 inversely quantizes the quantization DCT coefficient included in the coded data, and the inverse orthogonal transform unit 742 inversely transforms the DCT coefficient obtained by the inverse quantization. , Generate a difference image. Further, the prediction image generated by the intra prediction unit 748 or the inter prediction unit is added to the difference image. Subsequently, in S930, the loop filter 743 is applied to the image generated in S920.

S940において、クラス決定部747は、クラス情報を参照して、S910において取得したPSNRに基づいてクラス識別子を決定し、S930においてループフィルタが適用された画像を、クラス識別子に対応づけられたCNNパラメータによって構成されるCNNフィルタ644により処理して、復号化ピクチャを生成する。上述したように、復号化ピクチャは、復号化画像データとして出力されるとともに、参照用ピクチャとして使用される。 In S940, the class determination unit 747 determines the class identifier based on the PSNR acquired in S910 with reference to the class information, and the image to which the loop filter is applied in S930 is associated with the CNN parameter associated with the class identifier. It is processed by the CNN filter 644 configured by the above to generate a decoded picture. As described above, the decoded picture is output as the decoded image data and is used as a reference picture.

なお、図6から図9に関連して説明した形態では、圧縮画像データにPSNRを含めて出力される。しかし、圧縮画像データに含める画質劣化量情報として、PSNR以外の情報を採用してもよい。例えば、クラス決定部647が決定したクラス識別子を、画質劣化量情報として圧縮画像データに含めてもよい。 In the form described in relation to FIGS. 6 to 9, PSNR is included in the compressed image data and output. However, information other than PSNR may be adopted as the image quality deterioration amount information to be included in the compressed image data. For example, the class identifier determined by the class determination unit 647 may be included in the compressed image data as image quality deterioration amount information.

図10は、インター予測で用いられるピクチャの参照関係の一例を示す。図10には、H.265等の画像符号化方式において用いられるIピクチャ1000、Pピクチャ1004、Stored−Bピクチャ1002、Non−Stored−Bピクチャ1001、及びNon−Stored−Bピクチャ1003の参照関係が示されている。図10に示されるように、ピクチャ種別によって参照関係が異なる。したがって、ピクチャ種別によって画質劣化量が異なり得る。そのため、上述したPSNRに基づくクラス分類に加え、ピクチャ種別に応じてクラス分類を行ってもよい。具体的には、ピクチャ種別及びPSNRの組み合わせ毎にクラス識別子を設定することによってクラス分類を行ってよい。機械学習において学習器は、ピクチャ種別及びPSNRの組み合わせ毎に機械学習を行って、ピクチャ種別及びPSNRの組み合わせ毎にCNNパラメータを算出してよい。制御部110は、ピクチャ種別及びPSNRの組み合わせに対応づけてCNNパラメータを記憶してよく、符号化及び復号化において、ピクチャ種別及びPSNRの組み合わせに対応づけられたCNNパラメータを用いてCNNフィルタを構成してよい。 FIG. 10 shows an example of the reference relationship of the pictures used in the inter-prediction. In FIG. 10, H. The reference relationships of the I picture 1000, the P picture 1004, the Straight-B picture 1002, the Non-Story-B picture 1001, and the Non-Story-B picture 1003 used in an image coding method such as 265 are shown. As shown in FIG. 10, the reference relationship differs depending on the picture type. Therefore, the amount of image quality deterioration may differ depending on the picture type. Therefore, in addition to the above-mentioned classification based on PSNR, classification may be performed according to the picture type. Specifically, the class classification may be performed by setting the class identifier for each combination of the picture type and the PSNR. In machine learning, the learner may perform machine learning for each combination of picture type and PSNR, and calculate a CNN parameter for each combination of picture type and PSNR. The control unit 110 may store the CNN parameter in association with the combination of the picture type and the PSNR, and configures the CNN filter using the CNN parameter associated with the combination of the picture type and the PSNR in encoding and decoding. You can do it.

上述した実施形態では、画像全体のPSNRを算出して、算出したPSNRに対応するCNNフィルタを選択して、ループフィルタが適用された画像に適用する。しかし、画像の部分領域毎にPSNRに対応するCNNフィルタを選択し、部分領域毎に選択したCNNフィルタを、ループフィルタが適用された画像におけるそれぞれの部分領域に適用してもよい。例えば、複数の部分領域毎にPSNRを算出し、複数の部分領域毎にクラス識別子を決定し、ループフィルタが適用された画像における複数の部分領域のそれぞれに、それぞれの部分領域に対して決定されたクラス識別子に対応するCNNパラメータにより構成されるCNNフィルタを適用してよい。なお、「部分領域」は任意の形状を持つ領域であってよい。例えば、画像の列方向に沿って分割されるスライスや画像を矩形形状に分割するタイルを「部分領域」として適用してよい。 In the above-described embodiment, the PSNR of the entire image is calculated, the CNN filter corresponding to the calculated PSNR is selected, and the PSNR is applied to the image to which the loop filter is applied. However, a CNN filter corresponding to PSNR may be selected for each subregion of the image, and the CNN filter selected for each subregion may be applied to each subregion of the image to which the loop filter is applied. For example, the PSNR is calculated for each of the plurality of subregions, the class identifier is determined for each of the plurality of subregions, and each of the plurality of subregions in the image to which the loop filter is applied is determined for each subregion. A CNN filter composed of CNN parameters corresponding to the class identifier may be applied. The "partial region" may be an region having an arbitrary shape. For example, slices that are divided along the column direction of the image or tiles that divide the image into a rectangular shape may be applied as a "partial area".

なお、上記の実施形態の変形例として、ループフィルタ643及びループフィルタ743を備えない形態を採用してもよい。 As a modification of the above embodiment, a mode not provided with the loop filter 643 and the loop filter 743 may be adopted.

上述した非特許文献1及び非特許文献2には、量子化パラメータを固定してフィルタパラメータの学習を行うことが記載されている。一般に、動画の圧縮符号化において、圧縮率が低い場合と圧縮率が高い場合とでは符号化による画質劣化量が異なる。実際に商用で用いられる符号化器では、通常、ピクチャ内で量子化パラメータを可変とし、量子化行列を適用する場合が多いため、画質劣化量に違いが生じる。そのため、非特許文献1及び非特許文献2に記載されたような量子化パラメータを固定して学習したフィルタパラメータを商用の符号化器に適用すると、符号化効率が悪化する場合があり得る。これに対し、本実施形態によれば、PSNR等の画質劣化量に基づくクラス分類を行ってCNNパラメータを選択するので、インター予測又はイントラ予測のループ構造内において、圧縮率に応じた適切なフィルタを適用することができる。これにより、符号化効率を高めることができる場合がある。 Non-Patent Document 1 and Non-Patent Document 2 described above describe that the quantization parameter is fixed and the filter parameter is learned. In general, in the compression coding of moving images, the amount of image quality deterioration due to coding differs between the case where the compression rate is low and the case where the compression rate is high. In a encoder that is actually used commercially, the quantization parameter is usually made variable in the picture and the quantization matrix is often applied, so that the amount of image quality deterioration occurs. Therefore, if the filter parameters learned by fixing the quantization parameters as described in Non-Patent Document 1 and Non-Patent Document 2 are applied to a commercial encoder, the coding efficiency may deteriorate. On the other hand, according to the present embodiment, since the CNN parameter is selected by classifying based on the amount of image quality deterioration such as PSNR, an appropriate filter according to the compression ratio is selected in the loop structure of inter-prediction or intra-prediction. Can be applied. As a result, the coding efficiency may be improved.

上記のような撮像装置100は、移動体に搭載されてもよい。撮像装置100は、図11に示すような、無人航空機(UAV)に搭載されてもよい。UAV10は、UAV本体20、ジンバル50、複数の撮像装置60、及び撮像装置100を備えてよい。ジンバル50、及び撮像装置100は、撮像システムの一例である。UAV10は、推進部により推進される移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機などの飛行体、地上を移動する車両、水上を移動する船舶等を含む概念である。 The image pickup apparatus 100 as described above may be mounted on a moving body. The imaging device 100 may be mounted on an unmanned aerial vehicle (UAV) as shown in FIG. The UAV 10 may include a UAV main body 20, a gimbal 50, a plurality of image pickup devices 60, and an image pickup device 100. The gimbal 50 and the imaging device 100 are examples of an imaging system. The UAV 10 is an example of a moving body propelled by a propulsion unit. The moving body is a concept including a UAV, a flying object such as another aircraft moving in the air, a vehicle moving on the ground, a ship moving on the water, and the like.

UAV本体20は、複数の回転翼を備える。複数の回転翼は、推進部の一例である。UAV本体20は、複数の回転翼の回転を制御することでUAV10を飛行させる。UAV本体20は、例えば、4つの回転翼を用いてUAV10を飛行させる。回転翼の数は、4つには限定されない。また、UAV10は、回転翼を有さない固定翼機でもよい。 The UAV main body 20 includes a plurality of rotor blades. The plurality of rotor blades are an example of a propulsion unit. The UAV main body 20 flies the UAV 10 by controlling the rotation of a plurality of rotor blades. The UAV body 20 flies the UAV 10 using, for example, four rotor blades. The number of rotor blades is not limited to four. Further, the UAV 10 may be a fixed-wing aircraft having no rotor blades.

撮像装置100は、所望の撮像範囲に含まれる被写体を撮像する撮像用のカメラである。ジンバル50は、撮像装置100を回転可能に支持する。ジンバル50は、支持機構の一例である。例えば、ジンバル50は、撮像装置100を、アクチュエータを用いてピッチ軸で回転可能に支持する。ジンバル50は、撮像装置100を、アクチュエータを用いて更にロール軸及びヨー軸のそれぞれを中心に回転可能に支持する。ジンバル50は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置100を回転させることで、撮像装置100の姿勢を変更してよい。 The imaging device 100 is an imaging camera that captures a subject included in a desired imaging range. The gimbal 50 rotatably supports the imaging device 100. The gimbal 50 is an example of a support mechanism. For example, the gimbal 50 rotatably supports the image pickup device 100 on a pitch axis using an actuator. The gimbal 50 further rotatably supports the image pickup device 100 around each of the roll axis and the yaw axis by using an actuator. The gimbal 50 may change the posture of the image pickup device 100 by rotating the image pickup device 100 around at least one of the yaw axis, the pitch axis, and the roll axis.

複数の撮像装置60は、UAV10の飛行を制御するためにUAV10の周囲を撮像するセンシング用のカメラである。2つの撮像装置60が、UAV10の機首である正面に設けられてよい。更に他の2つの撮像装置60が、UAV10の底面に設けられてよい。正面側の2つの撮像装置60はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置60もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置60により撮像された画像に基づいて、UAV10の周囲の3次元空間データが生成されてよい。UAV10が備える撮像装置60の数は4つには限定されない。UAV10は、少なくとも1つの撮像装置60を備えていればよい。UAV10は、UAV10の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像装置60を備えてもよい。撮像装置60で設定できる画角は、撮像装置100で設定できる画角より広くてよい。撮像装置60は、単焦点レンズまたは魚眼レンズを有してもよい。 The plurality of image pickup devices 60 are sensing cameras that image the surroundings of the UAV 10 in order to control the flight of the UAV 10. Two imaging devices 60 may be provided on the front surface, which is the nose of the UAV 10. Yet two other imaging devices 60 may be provided on the bottom surface of the UAV 10. The two image pickup devices 60 on the front side may form a pair and function as a so-called stereo camera. The two image pickup devices 60 on the bottom surface side may also be paired and function as a stereo camera. Three-dimensional spatial data around the UAV 10 may be generated based on the images captured by the plurality of imaging devices 60. The number of image pickup devices 60 included in the UAV 10 is not limited to four. The UAV 10 may include at least one imaging device 60. The UAV 10 may be provided with at least one imaging device 60 on each of the nose, nose, side surface, bottom surface, and ceiling surface of the UAV 10. The angle of view that can be set by the image pickup device 60 may be wider than the angle of view that can be set by the image pickup device 100. The image pickup apparatus 60 may have a single focus lens or a fisheye lens.

遠隔操作装置300は、UAV10と通信して、UAV10を遠隔操作する。遠隔操作装置300は、UAV10と無線で通信してよい。遠隔操作装置300は、UAV10に上昇、下降、加速、減速、前進、後進、回転などのUAV10の移動に関する各種命令を示す指示情報を送信する。指示情報は、例えば、UAV10の高度を上昇させる指示情報を含む。指示情報は、UAV10が位置すべき高度を示してよい。UAV10は、遠隔操作装置300から受信した指示情報により示される高度に位置するように移動する。指示情報は、UAV10を上昇させる上昇命令を含んでよい。UAV10は、上昇命令を受け付けている間、上昇する。UAV10は、上昇命令を受け付けても、UAV10の高度が上限高度に達している場合には、上昇を制限してよい。 The remote control device 300 communicates with the UAV 10 to remotely control the UAV 10. The remote control device 300 may wirelessly communicate with the UAV 10. The remote control device 300 transmits to the UAV 10 instruction information indicating various commands related to the movement of the UAV 10, such as ascending, descending, accelerating, decelerating, advancing, reversing, and rotating. The instruction information includes, for example, instruction information for raising the altitude of the UAV 10. The instruction information may indicate the altitude at which the UAV 10 should be located. The UAV 10 moves so as to be located at an altitude indicated by the instruction information received from the remote control device 300. The instruction information may include an ascending instruction to ascend the UAV 10. The UAV10 rises while accepting the rise order. Even if the UAV10 accepts the ascending command, the ascending may be restricted if the altitude of the UAV10 has reached the upper limit altitude.

図12は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の一例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーションまたは当該装置の1または複数の「部」として機能させることができる。例えば、コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、制御部110として機能させることができる。または、当該プログラムは、コンピュータ1200に当該オペレーションまたは当該1または複数の「部」の機能を実行させることができる。当該プログラムは、コンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 12 shows an example of a computer 1200 in which a plurality of aspects of the present invention may be embodied in whole or in part. The program installed on the computer 1200 can cause the computer 1200 to function as an operation associated with the device according to an embodiment of the present invention or as one or more "parts" of the device. For example, a program installed on a computer 1200 can cause the computer 1200 to function as a control unit 110. Alternatively, the program may cause the computer 1200 to perform the operation or the function of the one or more "parts". The program can cause a computer 1200 to perform a process or a step of the process according to an embodiment of the present invention. Such a program may be run by the CPU 1212 to cause the computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、及びRAM1214を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、入力/出力ユニットを含み、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されている。コンピュータ1200はまた、ROM1230を含む。CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。 The computer 1200 according to this embodiment includes a CPU 1212 and a RAM 1214, which are connected to each other by a host controller 1210. The computer 1200 also includes a communication interface 1222, an input / output unit, which are connected to the host controller 1210 via an input / output controller 1220. The computer 1200 also includes a ROM 1230. The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブが、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納してよい。ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムが、CR−ROM、USBメモリまたはICカードのようなコンピュータ可読記録媒体またはネットワークを介して提供される。プログラムは、コンピュータ可読記録媒体の例でもあるRAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報のオペレーションまたは処理を実現することによって構成されてよい。 Communication interface 1222 communicates with other electronic devices via a network. The hard disk drive may store programs and data used by the CPU 1212 in the computer 1200. The ROM 1230 stores in it a boot program or the like executed by the computer 1200 at the time of activation and / or a program depending on the hardware of the computer 1200. The program is provided via a computer-readable recording medium such as a CR-ROM, USB memory or IC card or network. The program is installed in RAM 1214 or ROM 1230, which is also an example of a computer-readable recording medium, and is executed by CPU 1212. The information processing described in these programs is read by the computer 1200 and provides a link between the program and the various types of hardware resources described above. The device or method may be configured to implement the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、またはUSBメモリのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded in the RAM 1214, and performs communication processing on the communication interface 1222 based on the processing described in the communication program. You may order. Under the control of the CPU 1212, the communication interface 1222 reads the transmission data stored in the transmission buffer area provided in the RAM 1214 or a recording medium such as a USB memory, and transmits the read transmission data to the network, or The received data received from the network is written to the reception buffer area or the like provided on the recording medium.

また、CPU1212は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 makes the RAM 1214 read all or necessary parts of a file or a database stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 1214. good. The CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The CPU 1212 describes various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval described in various parts of the present disclosure with respect to the data read from the RAM 1214. Various types of processing may be performed, including / replacement, etc., and the results are written back to the RAM 1214. Further, the CPU 1212 may search for information in a file, a database, or the like in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 specifies the attribute value of the first attribute. Search for an entry that matches the condition from the plurality of entries, read the attribute value of the second attribute stored in the entry, and associate it with the first attribute that satisfies the predetermined condition. The attribute value of the second attribute obtained may be acquired.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The program or software module described above may be stored on a computer 1200 or in a computer readable storage medium near the computer 1200. Also, a recording medium such as a hard disk or RAM provided within a dedicated communication network or a server system connected to the Internet can be used as a computer readable storage medium, thereby allowing the program to be transferred to the computer 1200 over the network. offer.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of operations, procedures, steps, steps, etc. in the devices, systems, programs, and methods shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

10 UAV
20 UAV本体
50 ジンバル
60 撮像装置
100 撮像装置
102 撮像部
110 制御部
120 イメージセンサ
130 メモリ
160 表示部
162 指示部
200 レンズ部
210 レンズ
212 レンズ駆動部
220 レンズ制御部
222 メモリ
300 遠隔操作装置
310 画質測定部
320 クラス決定部
330 CNN学習器
610 リオーダ部
620 直交変換部
630 量子化部
641 逆量子化部
642 逆直交変換部
643 ループフィルタ
644 CNNフィルタ
645 メモリ
646 画質測定部
647 クラス決定部
648 イントラ予測部
649 インター予測部
650 エントロピー符号化部
660 レート制御部
670 バッファ
710 リオーダー部
741 逆量子化部
742 逆直交変換部
743 ループフィルタ
744 CNNフィルタ
745 メモリ
747 クラス決定部
748 イントラ予測部
749 インター予測部
750 エントロピー復号化部
1000 Iピクチャ
1001、1003 Non−Stored−Bピクチャ
1002 Stored−Bピクチャ
1004 Pピクチャ
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM
10 UAV
20 UAV main unit 50 gimbal 60 imaging device 100 imaging device 102 imaging unit 110 control unit 120 image sensor 130 memory 160 display unit 162 indicator unit 200 lens unit 210 lens 212 lens drive unit 220 lens control unit 222 memory 300 remote control device 310 image quality measurement Part 320 Class determination unit 330 CNN learner 610 Reorder unit 620 Orthogonal conversion unit 630 Quantization unit 641 Inverse quantization unit 642 Inverse orthogonal conversion unit 643 Loop filter 644 CNN filter 645 Memory 646 Image quality measurement unit 647 Class determination unit 648 Intra prediction unit 649 Inter Prediction Unit 650 Entropy Coding Unit 660 Rate Control Unit 670 Buffer 710 Reordering Unit 741 Inverse Quantization Unit 742 Inverse Orthogonal Conversion Unit 743 Loop Filter 744 CNN Filter 745 Memory 747 Class Determination Unit 748 Intra Prediction Unit 748 Inter Prediction Unit 750 Entropy Decoding Unit 1000 I Picture 1001, 1003 Non-Story-B Picture 1002 Straight-B Picture 1004 P Picture 1200 Computer 1210 Host Controller 1212 CPU
1214 RAM
1220 Input / Output Controller 1222 Communication Interface 1230 ROM

Claims (13)

符号化による画質劣化量に対応づけて、復号化した画像を処理するための複数の学習済みニューラルネットワークを記憶し、
画像の符号化により生成された符号化データ及び前記画像の前記符号化により生じた画質劣化量を取得し、
前記符号化データを復号化することにより、復号化画像を生成し、
前記複数の学習済みニューラルネットワークのうち前記取得した前記画質劣化量に対応づけられた学習済みニューラルネットワークを選択し、
前記選択した前記学習済みニューラルネットワークを用いて、前記復号化画像を処理する
ように構成された回路
を備える装置。
Stores a plurality of trained neural networks for processing the decoded image in correspondence with the amount of image quality deterioration due to coding,
The coded data generated by coding the image and the amount of image quality deterioration caused by the coding of the image are acquired.
By decoding the coded data, a decoded image is generated.
A trained neural network corresponding to the acquired image quality deterioration amount is selected from the plurality of trained neural networks.
A device comprising a circuit configured to process the decoded image using the selected trained neural network.
前記画質劣化量は、符号化前の前記画像及び前記復号化画像から算出される(i)ピーク信号対雑音比(Peak Signal to Noise Ratio)、(ii)構造的類似性(SSIM)及び(iii)平均二乗誤差(Mean Square Error)の少なくとも一つである
請求項1に記載の装置。
The image quality deterioration amount is calculated from the image before encoding and the decoded image (i) Peak signal-to-noise ratio (Peek Signal to Noise Radio), (ii) Structural similarity (SSIM) and (iii). The apparatus according to claim 1, which is at least one of a mean square error (Mean Squarer).
前記画像は、動画を構成する動画構成画像であり、
前記符号化データは、動画構成画像のインター予測又はイントラ予測によって得られた動画構成画像の予測差分情報を量子化することによって得られた量子化差分情報を含み、
前記回路は、
前記符号化データから取得した前記量子化差分情報の逆量子化を含む処理によって得られた予測差分情報に基づいて差分画像を生成し、前記差分画像にインター予測画像又はイントラ予測画像を加算することにより、前記復号化画像を生成し、
前記選択した前記学習済みニューラルネットワークを用いて、前記復号化画像を処理する
ように構成される請求項1又は2に記載の装置。
The image is a moving image constituent image constituting a moving image, and is
The coded data includes quantization difference information obtained by quantization of the predicted difference information of the moving image constituent image obtained by inter-prediction or intra-prediction of the moving image.
The circuit
A difference image is generated based on the predicted difference information obtained by a process including dequantization of the quantization difference information acquired from the coded data, and an inter-predicted image or an intra-predicted image is added to the difference image. Generates the decoded image by
The apparatus according to claim 1 or 2, which is configured to process the decoded image using the selected trained neural network.
前記画像は、動画を構成する動画構成画像であり、
前記回路は、
動画構成画像のピクチャ種別にさらに対応づけて、前記複数の学習済みニューラルネットワークを記憶し、
前記複数の学習済みニューラルネットワークのうち、前記動画構成画像のピクチャ種別と、前記取得した前記画質劣化量とに対応づけられた学習済みニューラルネットワークを選択する
ように構成される請求項1又は2に記載の装置。
The image is a moving image constituent image constituting a moving image, and is
The circuit
The plurality of trained neural networks are stored in association with the picture type of the moving image, and the trained neural networks are stored.
According to claim 1 or 2, the trained neural network configured to select the trained neural network associated with the picture type of the moving image constituent image and the acquired image quality deterioration amount from the plurality of trained neural networks. The device described.
前記ニューラルネットワークは、学習用画像と前記学習用画像の符号化データとを学習データとして用いて、前記符号化による画質劣化量に応じて機械学習を行うことによって得られた畳み込みニューラルネットワークである
請求項1又は2に記載の装置。
The neural network is a convolutional neural network obtained by using a learning image and coded data of the learning image as training data and performing machine learning according to the amount of image quality deterioration due to the coding. Item 2. The apparatus according to Item 1 or 2.
符号化による画質劣化量に対応づけて、復号化された画像データを処理するための複数の学習済みニューラルネットワークを記憶し、
符号化対象画像をインター予測又はイントラ予測を含む符号化処理により符号化することによって、符号化データを生成し、
前記符号化データを復号化することによって復号化画像を生成し、
符号化対象画像と前記復号化画像に基づいて、前記符号化対象画像の符号化により生じた画質劣化量を算出し、
前記符号化データ及び前記算出した前記画質劣化量を出力し、
前記複数の学習済みニューラルネットワークのうち前記算出した前記画質劣化量に対応づけられた学習済みニューラルネットワークを選択し、
前記選択した前記学習済みニューラルネットワークを用いて、前記生成した前記復号化画像を処理することによって、前記インター予測又は前記イントラ予測に用いられる参照用画像を生成する
ように構成された回路
を備える装置。
Stores a plurality of trained neural networks for processing the decoded image data in correspondence with the amount of image quality deterioration due to coding.
Encoded data is generated by encoding the image to be encoded by a coding process including inter-prediction or intra-prediction.
A decoded image is generated by decoding the coded data,
Based on the coded image and the decoded image, the amount of image quality deterioration caused by the coding of the coded image is calculated.
The coded data and the calculated image quality deterioration amount are output.
A trained neural network corresponding to the calculated image quality deterioration amount is selected from the plurality of trained neural networks.
An apparatus comprising a circuit configured to generate a reference image used for the inter-prediction or the intra-prediction by processing the generated decoded image using the selected trained neural network. ..
請求項1に記載の装置と、
請求項6に記載の装置と
を備える画像処理装置。
The device according to claim 1 and
An image processing device including the device according to claim 6.
請求項1又は2に記載の装置と、
画像を生成するイメージセンサと
を備える撮像装置。
The device according to claim 1 or 2,
An imaging device including an image sensor that generates an image.
請求項8に記載の撮像装置を備えて移動する移動体。 A moving body that moves with the imaging device according to claim 8. 前記移動体は、無人航空機である
請求項9に記載の移動体。
The mobile body according to claim 9, wherein the mobile body is an unmanned aerial vehicle.
コンピュータを請求項1又は2に記載の装置
として機能させるためのプログラム。
A program for operating a computer as the device according to claim 1 or 2.
符号化による画質劣化量に対応づけて、復号化した画像を処理するための複数の学習済みニューラルネットワークを記憶する段階と、
画像の符号化により生成された符号化データ及び前記画像の前記符号化により生じた画質劣化量を取得する段階と、
前記符号化データを復号化することにより、復号化画像を生成する段階と、
前記複数の学習済みニューラルネットワークのうち前記取得した前記画質劣化量に対応づけられた学習済みニューラルネットワークを選択する段階と、
前記選択した前記学習済みニューラルネットワークを用いて、前記復号化画像を処理する段階と
を備える方法。
The stage of storing a plurality of trained neural networks for processing the decoded image in correspondence with the amount of image quality deterioration due to coding, and
A step of acquiring the coded data generated by coding the image and the amount of image quality deterioration caused by the coding of the image, and
The stage of generating a decoded image by decoding the coded data, and
A step of selecting a trained neural network corresponding to the acquired image quality deterioration amount from the plurality of trained neural networks, and a step of selecting the trained neural network.
A method comprising a step of processing the decoded image using the selected trained neural network.
符号化による画質劣化量に対応づけて、復号化された画像データを処理するための複数の学習済みニューラルネットワークを記憶する段階と、
符号化対象画像をインター予測又はイントラ予測を含む符号化処理により符号化することによって、符号化データを生成する段階と、
前記符号化データを復号化することによって復号化画像を生成する段階と、
符号化対象画像と前記復号化画像に基づいて、前記符号化対象画像の符号化により生じた画質劣化量を算出する段階と、
前記符号化データ及び前記算出した前記画質劣化量を出力する段階と、
前記複数の学習済みニューラルネットワークのうち前記算出した前記画質劣化量に対応づけられた学習済みニューラルネットワークを選択する段階と、
前記選択した前記学習済みニューラルネットワークを用いて、前記生成した前記復号化画像を処理することによって、前記インター予測又は前記イントラ予測に用いられる参照用画像を生成する段階と
を備える方法。
The stage of storing a plurality of trained neural networks for processing the decoded image data in correspondence with the amount of image quality deterioration due to coding, and
The stage of generating coded data by coding the image to be coded by a coding process including inter-prediction or intra-prediction, and
A step of generating a decoded image by decoding the coded data, and
A step of calculating the amount of image quality deterioration caused by coding of the coded image based on the coded image and the decoded image, and
A step of outputting the coded data and the calculated image quality deterioration amount, and
A step of selecting a trained neural network corresponding to the calculated image quality deterioration amount from the plurality of trained neural networks, and a step of selecting the trained neural network.
A method comprising a step of generating a reference image used for the inter-prediction or the intra-prediction by processing the generated decoded image using the selected trained neural network.
JP2020073147A 2020-04-15 2020-04-15 Device, image processor, imaging device, mobile body, program, and method Pending JP2021170727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020073147A JP2021170727A (en) 2020-04-15 2020-04-15 Device, image processor, imaging device, mobile body, program, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020073147A JP2021170727A (en) 2020-04-15 2020-04-15 Device, image processor, imaging device, mobile body, program, and method

Publications (1)

Publication Number Publication Date
JP2021170727A true JP2021170727A (en) 2021-10-28

Family

ID=78149719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020073147A Pending JP2021170727A (en) 2020-04-15 2020-04-15 Device, image processor, imaging device, mobile body, program, and method

Country Status (1)

Country Link
JP (1) JP2021170727A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115580A (en) * 2011-11-28 2013-06-10 Canon Inc Moving image encoding apparatus, control method therefor, and computer program
JP2013243636A (en) * 2012-04-24 2013-12-05 Sharp Corp Image decoding device and image coding device
JP2017526193A (en) * 2015-07-31 2017-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Video encoding method and system
US20190273948A1 (en) * 2019-01-08 2019-09-05 Intel Corporation Method and system of neural network loop filtering for video coding
WO2019208677A1 (en) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method, and decoding method
JP2019201255A (en) * 2018-05-14 2019-11-21 シャープ株式会社 Image filter device, image decoding device, and image encoding device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115580A (en) * 2011-11-28 2013-06-10 Canon Inc Moving image encoding apparatus, control method therefor, and computer program
JP2013243636A (en) * 2012-04-24 2013-12-05 Sharp Corp Image decoding device and image coding device
JP2017526193A (en) * 2015-07-31 2017-09-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Video encoding method and system
WO2019208677A1 (en) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method, and decoding method
JP2019201255A (en) * 2018-05-14 2019-11-21 シャープ株式会社 Image filter device, image decoding device, and image encoding device
US20190273948A1 (en) * 2019-01-08 2019-09-05 Intel Corporation Method and system of neural network loop filtering for video coding

Similar Documents

Publication Publication Date Title
KR102424140B1 (en) Method and apparatus for omni-directional video coding and decoding by adaptive intra prediction
JP7331831B2 (en) Image processing device and method
KR20130124517A (en) Content adaptive impairments compensation filtering for high efficiency video coding
US10616526B2 (en) Image recording apparatus, image recording method, and program
US10848771B2 (en) Encoding and decoding a video signal
JP2023521295A (en) Method for signaling video coded data
JP2023507259A (en) How to perform wraparound motion compensation
US10536702B1 (en) Adjusting the image of an object to search for during video encoding due to changes in appearance caused by camera movement
US9648336B2 (en) Encoding apparatus and method
JP2021170727A (en) Device, image processor, imaging device, mobile body, program, and method
US11245919B2 (en) Image processing device and image processing method
JP2021170728A (en) Device, image processor, imaging device, mobile body, program, and method
ES2859520T3 (en) Image encoding and decoding procedure, encoding and decoding device and corresponding computer programs
EP3804332A1 (en) Apparatuses and methods for encoding and decoding a video signal
JP7009697B2 (en) Devices, imaging devices, mobiles, programs and methods
KR102547353B1 (en) Image decoding method and device on basis of affine motion prediction using constructed affine mvp candidate in image coding system
CN111034202B (en) Image encoding and decoding method, encoding and decoding device, and corresponding computer program
WO2020019279A1 (en) Video compression method and apparatus, computer system, and mobile device
JP2021168459A (en) Apparatus, system, imaging apparatus, mobile, program and method
Belyaev et al. Drone HDR infrared video coding via aerial map prediction
US20240064331A1 (en) Image decoding apparatus and method and image encoding apparatus and method
KR20200004348A (en) Method and apparatus for processing video signal through target region correction
US11159826B2 (en) Method for encoding and decoding images, encoding and decoding device, and corresponding computer programs
US20230023579A1 (en) Configurable Neural Network Model Depth In Neural Network-Based Video Coding
JP6101067B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220524