JP2018019195A - Moving image formation method and moving image formation device - Google Patents

Moving image formation method and moving image formation device Download PDF

Info

Publication number
JP2018019195A
JP2018019195A JP2016146981A JP2016146981A JP2018019195A JP 2018019195 A JP2018019195 A JP 2018019195A JP 2016146981 A JP2016146981 A JP 2016146981A JP 2016146981 A JP2016146981 A JP 2016146981A JP 2018019195 A JP2018019195 A JP 2018019195A
Authority
JP
Japan
Prior art keywords
image
moving image
encoding
encoding target
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016146981A
Other languages
Japanese (ja)
Inventor
雅明 遠藤
Masaaki Endo
雅明 遠藤
佐藤 正樹
Masaki Sato
正樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016146981A priority Critical patent/JP2018019195A/en
Publication of JP2018019195A publication Critical patent/JP2018019195A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve a coding efficiency in coding processing by using filter processing.SOLUTION: In a moving image formation method and a moving image formation device according to the present disclosures, the moving image formation device generates a coded moving image by coding a coding target image constituting a moving image on the basis of a reference image. The reference image includes a long term reference image as a reference image of which a time distance from the coding target image is longer than those of other reference images. The moving image formation method is for determining whether filter processing is executed for at least one region of the coding target image, and using an image obtained by decoding an image obtained by coding an image having a size of a region where the filter processing is not excited as the coding target image of a predetermined value or more, as the long term reference image.SELECTED DRAWING: Figure 6

Description

本開示は、動画生成方法、および動画生成装置に関する。   The present disclosure relates to a moving image generation method and a moving image generation apparatus.

特許文献1は、動きベクトル“MV”の大きさと、差分値“DIFF”とに基づき、各領域が動き領域か、静止領域かを判定し、人物部分など、動いている部分を動き領域と判定して、平滑化処理をスキップし、DCT処理、量子化処理などの符号化処理を行い、また背景部分など、動いていない部分を静止領域と判定して、平滑化フィルタ処理を行った後、DCT処理、量子化処理などの符号化処理を行う。   Patent Document 1 determines whether each area is a motion area or a static area based on the magnitude of the motion vector “MV” and the difference value “DIFF”, and determines a moving part such as a person part as a motion area. Then, the smoothing process is skipped, the coding process such as the DCT process and the quantization process is performed, and the non-moving part such as the background part is determined as the still area, and the smoothing filter process is performed. Encoding processing such as DCT processing and quantization processing is performed.

特開2005−295215号公報JP 2005-295215 A

本開示は、フィルタ処理を用いて行う符号化処理における符号化効率を改善する。   The present disclosure improves encoding efficiency in encoding processing performed using filter processing.

本開示における動画生成方法、動画生成装置は、動画を構成する符号化対象画像を参照画像に基づいて符号化することで符号化済み動画を生成するものである。前記参照画像は、他の参照画像に比べて前記符号化対象画像からの時間的距離が長い参照画像であるロングターム参照画像を含むものである。前記動画生成方法は、前記符号化対象画像の少なくとも一部の領域にフィルタ処理を行うか否かを決定し、前記符号化対象画像であってフィルタ処理を行われていない領域の広さが所定値以上の画像を符号化した画像をデコードした画像を前記ロングターム参照画像として用いる。   The moving image generation method and the moving image generation apparatus according to the present disclosure generate an encoded moving image by encoding an encoding target image constituting a moving image based on a reference image. The reference image includes a long-term reference image that is a reference image having a longer temporal distance from the encoding target image than other reference images. The moving image generation method determines whether or not to perform a filtering process on at least a partial area of the encoding target image, and the area of the encoding target image that is not subjected to the filtering process is predetermined. An image obtained by decoding an image obtained by encoding an image equal to or greater than the value is used as the long term reference image.

本開示における動画生成方法、動画生成装置によれば、フィルタ処理を用いて行う符号化処理における符号化効率を改善することができる。   According to the moving image generation method and the moving image generation apparatus of the present disclosure, it is possible to improve the encoding efficiency in the encoding process performed using the filter process.

図1は、実施の形態1における動画伝送システムの概念図である。FIG. 1 is a conceptual diagram of the moving picture transmission system according to the first embodiment. 図2は、実施の形態1における動画生成装置のブロック図である。FIG. 2 is a block diagram of the moving image generating apparatus according to the first embodiment. 図3は、実施の形態1における動画再生装置のブロック図である。FIG. 3 is a block diagram of the video playback device in the first embodiment. 図4は、実施の形態1における動画生成処理を示すフローチャートである。FIG. 4 is a flowchart showing the moving image generation processing in the first embodiment. 図5は、実施の形態1における動画生成処理におけるフィルタ処理を説明する図である。FIG. 5 is a diagram for explaining filter processing in the moving image generation processing according to the first embodiment. 図6は、実施の形態1における動画生成処理におけるフレーム間予測の概念を示す図である。FIG. 6 is a diagram showing the concept of inter-frame prediction in the moving image generation process in the first embodiment.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
以下、図1〜6を用いて、実施の形態1を説明する。
(Embodiment 1)
Hereinafter, Embodiment 1 will be described with reference to FIGS.

[1−1.構成]
図1は、実施の形態1における動画伝送システムの概念図である。
[1-1. Constitution]
FIG. 1 is a conceptual diagram of the moving picture transmission system according to the first embodiment.

動画伝送システム100は動画生成装置110と動画再生装置120を有する。   The moving image transmission system 100 includes a moving image generating device 110 and a moving image reproducing device 120.

動画生成装置110は動画を生成する。動画生成装置110の一例は、入力部によって撮影された動画を符号化するカメラ、または記憶部に記録された符号化前の画像を符号化する編集用コンピュータなどである。   The moving image generation device 110 generates a moving image. An example of the moving image generation device 110 is a camera that encodes a moving image shot by an input unit, or an editing computer that encodes an unencoded image recorded in a storage unit.

動画再生装置120は動画生成装置110の生成した動画を再生する。動画再生装置120の一例は、デコード機能を有するプロセッサを搭載した、テレビやパソコンなどである。   The video playback device 120 plays back the video generated by the video generation device 110. An example of the moving image reproducing device 120 is a television set or a personal computer equipped with a processor having a decoding function.

動画生成装置110で生成された動画は通信路130を経由して動画再生装置へ送られる。   The moving image generated by the moving image generating device 110 is sent to the moving image reproducing device via the communication path 130.

通信路130の伝送容量には限界がある。通信路130の伝送容量をオーバーしないためには、動画生成装置110で生成される動画のデータ量を削減する必要がある。本実施の形態において動画生成装置110は、動画のデータ量を削減するために動画生成における符号化効率を改善する。   There is a limit to the transmission capacity of the communication path 130. In order not to exceed the transmission capacity of the communication path 130, it is necessary to reduce the data amount of the moving image generated by the moving image generating device 110. In the present embodiment, the moving image generating apparatus 110 improves encoding efficiency in moving image generation in order to reduce the amount of moving image data.

図2は、実施の形態1における動画生成装置のブロック図である。   FIG. 2 is a block diagram of the moving image generating apparatus according to the first embodiment.

動画生成装置110はプロセッサ201と記憶部202と入力部203と出力部204と通信部205とバス206を有する。   The moving image generating apparatus 110 includes a processor 201, a storage unit 202, an input unit 203, an output unit 204, a communication unit 205, and a bus 206.

プロセッサ201はバス206を介して動画生成装置110の他の要素を制御する。一例として汎用CPU(Central Processing Unit)を用いることで、プロセッサ201を構成することができる。また、プロセッサ201は所定のプログラムを実行することができる。プロセッサ201が所定のプログラムを実行することで符号化済み動画の生成を行うことができる。   The processor 201 controls other elements of the moving image generating apparatus 110 via the bus 206. As an example, the processor 201 can be configured by using a general-purpose CPU (Central Processing Unit). Further, the processor 201 can execute a predetermined program. An encoded moving image can be generated by the processor 201 executing a predetermined program.

記憶部202は他の要素から様々な情報を取得し一時的、あるいは恒久的にその情報を保持する。記憶部202はいわゆる一次記憶装置と二次記憶装置の総称であり、記憶部202は物理的に複数配置されても良い。記憶部202の構成には例えばDRAM(Direct Random Access Memory)やHDD(Hard Disk Drive)やSSD(Solid State Drive)が用いられる。   The storage unit 202 acquires various information from other elements and holds the information temporarily or permanently. The storage unit 202 is a general term for so-called primary storage devices and secondary storage devices, and a plurality of storage units 202 may be physically arranged. For example, a DRAM (Direct Random Access Memory), an HDD (Hard Disk Drive), or an SSD (Solid State Drive) is used for the configuration of the storage unit 202.

入力部203は外部からの情報を受け付ける。入力部203が受け付ける外部からの情報には動画生成装置110の操作者からの入力に関する情報や、符号化前の動画を構成する情報、符号化後の動画を構成する情報などが含まれる。一例として既存の入出力インターフェースを用いることで入力部203を構成することができる。   The input unit 203 receives information from the outside. The external information received by the input unit 203 includes information related to input from the operator of the video generation device 110, information that configures a video before encoding, information that configures a video after encoding, and the like. As an example, the input unit 203 can be configured by using an existing input / output interface.

出力部204は外部へ情報を提示する。出力部が提示する情報には符号化前の動画を構成する情報、符号化後の動画を構成する情報などが含まれる。一例として既存の入出力インターフェースを用いることで出力部204を構成することができる。   The output unit 204 presents information to the outside. Information presented by the output unit includes information that configures a moving image before encoding, information that configures a moving image after encoding, and the like. As an example, the output unit 204 can be configured by using an existing input / output interface.

通信部205は通信路130を介して外部の機器と通信を行う。通信部205が通信する機器には動画再生装置120が含まれる。一例として既存の通信インターフェースを用いることで通信部205を構成することができる。   The communication unit 205 communicates with an external device via the communication path 130. The apparatus with which the communication unit 205 communicates includes the moving image playback device 120. As an example, the communication unit 205 can be configured by using an existing communication interface.

以上に挙げられた動画生成装置110の構成は一例である。動画生成装置110の各構成要素の一部を統合して構成することもできる。動画生成装置110の各構成要素の一部を複数の要素に分割して構成することもできる。動画生成装置110の各構成要素の一部を省略することもできる。動画生成装置110に他の要素を付加して構成することもできる。   The above-described configuration of the moving image generating apparatus 110 is an example. A part of each component of the moving image generating device 110 may be integrated. A part of each component of the moving image generating apparatus 110 may be divided into a plurality of elements. Some of the components of the moving image generating apparatus 110 may be omitted. The moving image generating apparatus 110 can be configured by adding other elements.

本実施の形態においては、少なくとも1つのプロセッサが動画を生成すればよい。つまり、複数の動画生成装置110が協働して動画を生成してもよい。   In the present embodiment, at least one processor may generate a moving image. That is, a plurality of moving image generation devices 110 may cooperate to generate a moving image.

図3は、実施の形態1における動画再生装置のブロック図である。   FIG. 3 is a block diagram of the video playback device in the first embodiment.

動画再生装置120はプロセッサ301と記憶部302と入力部303と出力部304と通信部305とバス306を有する。   The moving image playback device 120 includes a processor 301, a storage unit 302, an input unit 303, an output unit 304, a communication unit 305, and a bus 306.

プロセッサ301はバス306を介して動画再生装置120の他の要素を制御する。一例として汎用CPU(Central Processing Unit)を用いることで、プロセッサ301を構成することができる。また、プロセッサ301は所定のプログラムを実行することができる。プロセッサ301が所定のプログラムを実行することで符号化済み動画の再生を行うことができる。   The processor 301 controls other elements of the video playback device 120 via the bus 306. As an example, the processor 301 can be configured by using a general-purpose CPU (Central Processing Unit). Further, the processor 301 can execute a predetermined program. The encoded video can be reproduced by the processor 301 executing a predetermined program.

記憶部302は他の要素から様々な情報を取得し一時的、あるいは恒久的にその情報を保持する。記憶部302はいわゆる一次記憶装置と二次記憶装置の総称であり、記憶部302は物理的に複数配置されても良い。記憶部302の構成には例えばDRAM(Direct Random Access Memory)やHDD(Hard Disk Drive)やSSD(Solid State Drive)が用いられる。   The storage unit 302 acquires various information from other elements and holds the information temporarily or permanently. The storage unit 302 is a generic name for so-called primary storage devices and secondary storage devices, and a plurality of storage units 302 may be physically arranged. For example, a DRAM (Direct Random Access Memory), an HDD (Hard Disk Drive), or an SSD (Solid State Drive) is used as the configuration of the storage unit 302.

入力部303は外部からの情報を受け付ける。入力部303が受け付ける外部からの情報には動画再生装置120の操作者からの入力に関する情報が含まれる。一例として既存の入出力インターフェースを用いることで入力部303を構成することができる。   The input unit 303 receives information from the outside. Information from the outside received by the input unit 303 includes information related to input from the operator of the video playback device 120. As an example, the input unit 303 can be configured by using an existing input / output interface.

出力部304は外部へ情報を提示する。出力部が提示する情報には符号化後の動画を構成する情報、改ざん検出の結果を報知する情報などが含まれる。一例として既存の入出力インターフェースを用いることで出力部304を構成することができる。   The output unit 304 presents information to the outside. The information presented by the output unit includes information constituting the encoded moving image, information notifying the result of tampering detection, and the like. As an example, the output unit 304 can be configured by using an existing input / output interface.

通信部305は通信路130を介して外部の機器と通信を行う。通信部305が通信する機器には動画再生装置120が含まれる。一例として既存の通信インターフェースを用いることで通信部305を構成することができる。   The communication unit 305 communicates with an external device via the communication path 130. The apparatus with which the communication unit 305 communicates includes the moving image playback device 120. As an example, the communication unit 305 can be configured by using an existing communication interface.

以上に挙げられた動画再生装置120の構成は一例である。動画再生装置120の各構成要素の一部を統合して構成することもできる。動画再生装置120の各構成要素の一部を複数の要素に分割して構成することもできる。動画生成装置110の各構成要素の一部を省略することもできる。動画生成装置110に他の要素を付加して構成することもできる。   The above-described configuration of the moving image playback device 120 is an example. A part of each component of the moving image playback device 120 may be integrated. A part of each component of the video playback device 120 can be divided into a plurality of components. Some of the components of the moving image generating apparatus 110 may be omitted. The moving image generating apparatus 110 can be configured by adding other elements.

本実施の形態においては、少なくとも1つのプロセッサが動画を生成すればよい。つまり、複数の動画生成装置110が協働して動画を生成してもよい。   In the present embodiment, at least one processor may generate a moving image. That is, a plurality of moving image generation devices 110 may cooperate to generate a moving image.

なお、通信路130は有線と無線のどちらで構成しても良い。   Note that the communication path 130 may be either wired or wireless.

[1−2.動作]
図4は、実施の形態1における動画生成処理を示すフローチャートである。
[1-2. Operation]
FIG. 4 is a flowchart showing the moving image generation processing in the first embodiment.

本実施の形態において動画生成処理は主として動画生成装置110のプロセッサ201によって行われる。   In the present embodiment, the moving image generation process is mainly performed by the processor 201 of the moving image generation apparatus 110.

ステップS400において、プロセッサ201は動画生成処理を開始する。動画生成処理とは、符号化されていない動画を参照画像に基づいて符号化することで符号化済み動画を生成する処理を含む。プロセッサ201は動画生成処理を開始すると記憶部202から、記憶部202に記録されている動画を構成する画像を読み出す。この画像をカウントする単位をフレームという。読み出された画像は以降の処理においてフレーム画像と呼ばれる。本実施の形態においては、記憶部202に記録されている動画は未だ符号化されていないものとする。プロセッサが動画生成処理を開始するタイミングは動画生成装置110の使用者が行った入力部203に対する動画生成処理命令に従って行っても良いし、入力部203が外部から符号化前の動画を取得する度に行っても良い。   In step S400, the processor 201 starts a moving image generation process. The moving image generation process includes a process of generating an encoded moving image by encoding an unencoded moving image based on a reference image. When starting the moving image generation process, the processor 201 reads from the storage unit 202 an image constituting the moving image recorded in the storage unit 202. The unit for counting this image is called a frame. The read image is called a frame image in the subsequent processing. In the present embodiment, it is assumed that the moving image recorded in the storage unit 202 has not been encoded yet. The timing at which the processor starts the moving image generation processing may be performed according to a moving image generation processing instruction for the input unit 203 performed by the user of the moving image generation device 110, or each time the input unit 203 acquires a moving image before encoding from the outside. You may go to

ステップS401において、プロセッサ201はステップS400で読み出した画像(処理対象となるフレーム画像=符号化対象画像)の処理対象ブロックが注目領域ブロックであるか否かを判定する。本実施の形態において、プロセッサ201は、フレーム画像をブロックと呼ばれる複数の領域に区分して処理を行う。プロセッサ201は区分されたブロックを順に処理する。プロセッサ201の処理の対象となるブロックを処理対象ブロックと呼ぶ。注目領域ブロックとはブロックのうちで特別なフラグが立てられた領域のことである。注目領域ブロックはROI(Region Of Interest)領域とも呼ばれる。一般に注目領域ブロックは動画を閲覧する人物の関心の高い画像中の領域(=注目領域)を占めるブロックの群によって構成される。注目領域の定め方は(1)画像の中心部の領域(2)画像に対して注目物体(人・顔・特定物・動体・所定パターン等)の検出処理を行い検出された場合はその領域とすることが考えられる。注目領域ブロックは、注目領域の一部あるいは全部を占めるように定められる。具体的には画像中の注目領域の座標群(x、y)が記憶部202に記録されており、プロセッサ201は処理対象ブロックの占める座標群と注目領域の座標群とを比較することで処理対象ブロックが注目領域ブロックであるか否かを判定する。なお注目領域は画像中において複数定められても良い。また、注目領域ブロックが他のブロックに比べて多くの符号量が割り振られて符号化されるブロックである場合には、本開示の符号化効率低減化の効果がより大きい為、本開示の適用が好適である。   In step S401, the processor 201 determines whether or not the processing target block of the image read out in step S400 (frame image to be processed = encoding target image) is an attention area block. In the present embodiment, the processor 201 performs processing by dividing a frame image into a plurality of areas called blocks. The processor 201 processes the divided blocks in order. A block to be processed by the processor 201 is called a processing target block. The attention area block is an area where a special flag is set in the block. The attention area block is also called a ROI (Region Of Interest) area. In general, the attention area block is configured by a group of blocks that occupy an area (= attention area) in an image of high interest of a person viewing a moving image. The method of determining the attention area is as follows: (1) The central area of the image (2) If the object of interest (person, face, specific object, moving object, predetermined pattern, etc.) is detected from the image, the area is detected It can be considered. The attention area block is determined so as to occupy a part or all of the attention area. Specifically, the coordinate group (x, y) of the attention area in the image is recorded in the storage unit 202, and the processor 201 performs processing by comparing the coordinate group occupied by the processing target block with the coordinate group of the attention area. It is determined whether the target block is an attention area block. A plurality of attention areas may be defined in the image. In addition, when the attention area block is a block that is encoded with a larger amount of code compared to other blocks, the effect of reducing the encoding efficiency of the present disclosure is greater, so the application of the present disclosure Is preferred.

注目領域ブロックは動画を閲覧する人物の関心が高い領域に存在するブロックである。そのため本実施の形態においては、動画を鮮明に表現するために注目領域ブロックの占める領域には平滑化フィルタなどのフィルタ処理を行わない。このことから、本実施の形態におけるステップS401の処理は、符号化対象画像の少なくとも一部の領域にフィルタ処理を行うか否かを判定する処理ともいえる。   The attention area block is a block that exists in an area where the interest of the person browsing the moving image is high. For this reason, in the present embodiment, in order to express a moving image clearly, a filtering process such as a smoothing filter is not performed on the region occupied by the region-of-interest block. From this, it can be said that the process of step S401 in the present embodiment is a process of determining whether or not to perform a filter process on at least a partial region of the encoding target image.

ステップS402(ステップS401でYes)において、プロセッサ201は、ステップS401での判定の対象になった処理対象ブロックの占める領域に対してフィルタ処理を行わない旨の情報を記憶部202に記録する。   In step S <b> 402 (Yes in step S <b> 401), the processor 201 records in the storage unit 202 information indicating that the filtering process is not performed on the area occupied by the processing target block that is the determination target in step S <b> 401.

ステップS403(ステップS401でNo)において、プロセッサ201は、ステップS401での判定の対象になった処理対象ブロックが、動画生成処理の対象となった動画における最初のGOP(Group Of Picture)に属するか否かを判定する。   In step S403 (No in step S401), the processor 201 determines whether the processing target block that is the determination target in step S401 belongs to the first GOP (Group Of Picture) in the moving image that is the target of the moving image generation processing. Determine whether or not.

GOPとは動画を構成するフレーム画像の群であって、Iフレーム画像を含むものをいう。Iフレーム画像とは符号化された動画を構成する画像の種類である。動画を符号化する際には、符号化の対象となるフレーム画像の前後のフレーム画像の情報が参照されることがある。前後のフレーム画像の情報を参照することをフレーム間予測という。フレーム間予測を用いて符号化されたフレーム画像をBフレームあるいはPフレーム等と呼ぶ。フレーム間予測を用いずに符号化されたフレーム画像をIフレーム等と呼ぶ。なお、フレームの呼び名は符号化の方式に依存する。   A GOP is a group of frame images constituting a moving image and includes an I frame image. An I-frame image is a type of image constituting an encoded moving image. When a moving image is encoded, information on frame images before and after the frame image to be encoded may be referred to. Referencing the information of previous and subsequent frame images is called interframe prediction. A frame image encoded using inter-frame prediction is called a B frame or a P frame. A frame image encoded without using inter-frame prediction is called an I frame or the like. Note that the frame name depends on the encoding method.

本実施の形態において、プロセッサ201は動画生成処理をGOP単位で行う。本開示において、「処理対象ブロックが、動画生成処理の対象となった動画における最初のGOPに属する」とは、処理対象ブロックが属する画像が動画生成処理において、プロセッサ201によって最初に処理されるGOPに属することをいう。   In this embodiment, the processor 201 performs a moving image generation process in units of GOPs. In the present disclosure, “the processing target block belongs to the first GOP in the moving image subjected to the moving image generation processing” means that the image to which the processing target block belongs is first processed by the processor 201 in the moving image generation processing. It belongs to.

処理対象ブロックが、動画生成処理の対象となった動画における最初のGOPに属する場合(ステップS403でYes)、処理が上述したステップS402へ進む。   When the processing target block belongs to the first GOP in the moving image that is the target of the moving image generation processing (Yes in step S403), the process proceeds to step S402 described above.

ステップS404(ステップS403でNo)において、プロセッサ201は、ステップS401での判定の対象になった処理対象ブロックの占める領域に対してフィルタ処理を行う旨の情報を記憶部202に記録する。   In step S <b> 404 (No in step S <b> 403), the processor 201 records in the storage unit 202 information indicating that the filtering process is performed on the area occupied by the processing target block that is the determination target in step S <b> 401.

ステップS405において、処理対象ブロックを符号化規則に従って符号化する。符号化規則の一例としてはH.265などが挙げられる。ステップS405における符号化処理ではフレーム間予測を用いた符号化が行われる(Iフレームの符号化を除く)。フレーム間予測とは参照画像とよばれる画像に基づいて符号化を行う技術である。フレーム間予測によれば、参照画像との差分や動きベクトルに基づいて画像の符号化を行うことができる。そのため、フレーム間予測を用いれば符号化対象画像そのものを符号化するよりも符号化済み動画の情報量を削減することができる。   In step S405, the processing target block is encoded according to the encoding rule. An example of an encoding rule is H.264. 265 or the like. In the encoding process in step S405, encoding using inter-frame prediction is performed (excluding I frame encoding). Interframe prediction is a technique for performing encoding based on an image called a reference image. According to inter-frame prediction, an image can be encoded based on a difference from a reference image or a motion vector. Therefore, if inter-frame prediction is used, the information amount of the encoded moving image can be reduced as compared to encoding the encoding target image itself.

本実施の形態においては、ステップS405において、符号化に先立って処理対象ブロックにフィルタ処理が行われる。本実施の形態においてプロセッサ201はステップS402およびステップS404で記憶部202に記録された情報を参照して、処理対象ブロックにフィルタをかけるか否かを判断する。具体的には、プロセッサ201は記憶部にフィルタ処理を行わない旨の情報が記載されているブロックにはフィルタ処理を行わず、フィルタ処理を行う旨の情報が記載されているブロックにはフィルタ処理を行う。   In the present embodiment, in step S405, filter processing is performed on the processing target block prior to encoding. In the present embodiment, the processor 201 refers to the information recorded in the storage unit 202 in steps S402 and S404, and determines whether or not to filter the processing target block. Specifically, the processor 201 does not perform the filtering process on a block in which information indicating that the filtering process is not performed is stored in the storage unit, and the filtering process is performed on a block in which information indicating that the filtering process is performed is described. I do.

図5は、実施の形態1における動画生成処理におけるフィルタ処理を説明する図である。図5においてフレーム画像501はブロックの概念がわかりやすいようにブロック単位で分割されている。図5においてハッチングされているブロックはフィルタ処理が行われないブロックである。図5においてハッチングされていないブロックはフィルタ処理が行われるブロックである。図5において太線で囲まれているブロック群は注目領域ブロックである。図5に示されるように、フレーム画像501の注目領域にはフィルタ処理が行われていない。本実施の形態において最初のGOPに属するフレーム画像以外は原則として、図5に示すように注目領域ブロック以外にフィルタ処理が行われる。   FIG. 5 is a diagram for explaining filter processing in the moving image generation processing according to the first embodiment. In FIG. 5, the frame image 501 is divided into blocks so that the concept of blocks can be easily understood. The hatched blocks in FIG. 5 are blocks that are not subjected to filter processing. In FIG. 5, blocks that are not hatched are blocks on which filter processing is performed. In FIG. 5, a block group surrounded by a thick line is a region-of-interest block. As shown in FIG. 5, the filtering process is not performed on the attention area of the frame image 501. In the present embodiment, except for the frame image belonging to the first GOP, in principle, filter processing is performed on the area other than the attention area block as shown in FIG.

ここでのフィルタ処理は符号化処理における符号化量を削減する効果のあるものであればよく、一例としては平滑化フィルタが挙げられる。平滑化フィルタを用いることで画像を構成する画素の値(輝度、色)が、周囲の画素の値に従って平滑化される。フレーム間予測を用いて符号化を行う際に、参照関係にある画像がそれぞれ平滑化されていると、符号化量を削減することができる。なぜならば、参照関係にある画像同士が平滑化されていると、画像間における同じ座標の画素の値同士の差分が小さくなるからである(前後の画像における画素の値の差分が小さくなると符号化量を削減することができる)。   The filter process here may be any process that has an effect of reducing the amount of encoding in the encoding process, and an example thereof is a smoothing filter. By using the smoothing filter, the values (luminance, color) of the pixels constituting the image are smoothed according to the values of surrounding pixels. When encoding is performed using inter-frame prediction, if the images in the reference relationship are smoothed, the amount of encoding can be reduced. This is because when the images in the reference relationship are smoothed, the difference between the pixel values of the same coordinates between the images becomes small (the encoding becomes possible when the difference between the pixel values in the preceding and following images becomes small). The amount can be reduced).

ステップS406において、プロセッサ201はフレーム画像中に未処理のブロックがあるか否かを判定する。未処理のブロックがある場合(ステップS406でYes)、プロセッサ201は処理対象ブロックを当該未処理のブロックに変更した上でステップS401の処理に戻る。   In step S406, the processor 201 determines whether there is an unprocessed block in the frame image. If there is an unprocessed block (Yes in step S406), the processor 201 changes the process target block to the unprocessed block and then returns to the process of step S401.

ステップS407(ステップS406でNo)において、プロセッサ201は符号化対象画像を符号化した画像が、(1)全てのブロックにフィルタ処理が行われたものでなく、かつ、(2)Iフレーム画像であるか否かを判定する。   In step S407 (No in step S406), the processor 201 determines that the image obtained by encoding the encoding target image is (1) not all the blocks have been subjected to the filter processing, and (2) an I frame image. It is determined whether or not there is.

ステップS408(ステップS407でYes)において、プロセッサ201はロングターム参照画像を更新する。更新によってあらたにロングターム参照画像となる画像は符号化対象画像を符号化した画像をさらにデコードした画像である。本実施の形態ではステップS408で行われるデコードはいわゆるローカルデコード(符号化処理の際に行われるデコード)である。   In step S408 (Yes in step S407), the processor 201 updates the long term reference image. An image that becomes a new long-term reference image by updating is an image obtained by further decoding an image obtained by encoding the encoding target image. In the present embodiment, the decoding performed in step S408 is so-called local decoding (decoding performed during the encoding process).

ロングターム参照画像とは、フレーム間予測で用いられる参照画像の一種である。ロングターム参照画像は、他の参照画像に比べて符号化対象画像からの時間的距離が長い画像である。また、映像符号化に関する規格においてロングターム参照画像が定義されている場合や、本開示のロングターム参照画像と均等な概念が定義されている場合は、当該定義された画像は本開示のロングターム参照画像に含まれる。   A long term reference image is a type of reference image used in inter-frame prediction. The long term reference image is an image having a longer time distance from the encoding target image than other reference images. In addition, when a long-term reference image is defined in a standard for video coding, or when a concept equivalent to the long-term reference image of the present disclosure is defined, the defined image is the long-term reference image of the present disclosure. Included in the reference image.

図6を用いてロングターム参照画像の概念を説明する。図6は、実施の形態1における動画生成処理におけるフレーム間予測の概念を示す図である。図6において菱形の図形は符号化後のフレーム画像を示す。図6において、各フレーム画像は時間軸上に並んでいる。図6においては、左側であればあるほど古い画像(動画の始まり側に存在する画像)が並んでいる。図6においては、説明を簡略化するためにGOPは4枚で一組であるものとする。図6においては、GOPを構成するフレーム画像はIピクチャ1枚とそれに引き続く3枚のPピクチャであるとする。ここで、Pピクチャとは、符号化対象画像を、(時間軸上で)1枚前の画像(ショートターム参照画像)およびロングターム参照画像(図6においては太枠で囲まれたフレーム画像)の双方に基づいてフレーム間予測を用いて符号化することで得られる画像である。図6に示されるように、ロングターム参照画像601は、フレーム間予測において、直後のフレーム画像602のみならず、他のPピクチャ(例えばフレーム画像603)の符号化においても用いられる。ロングターム参照画像601は記憶部202に記録されている。   The concept of the long term reference image will be described with reference to FIG. FIG. 6 is a diagram showing the concept of inter-frame prediction in the moving image generation process in the first embodiment. In FIG. 6, the rhombus figure indicates a frame image after encoding. In FIG. 6, the frame images are arranged on the time axis. In FIG. 6, the older the image (the image existing on the start side of the moving image) is arranged on the left side. In FIG. 6, it is assumed that four GOPs are a set for simplifying the description. In FIG. 6, it is assumed that the frame images constituting the GOP are one I picture and three subsequent P pictures. Here, the P picture refers to an encoding target image (on the time axis) one previous image (short term reference image) and long term reference image (frame image surrounded by a thick frame in FIG. 6). It is an image obtained by encoding using inter-frame prediction based on both. As shown in FIG. 6, the long-term reference image 601 is used not only for the immediately following frame image 602 but also for encoding other P pictures (for example, the frame image 603) in inter-frame prediction. The long term reference image 601 is recorded in the storage unit 202.

ステップS409において、プロセッサ201は記憶部202に記録された動画に処理対象ブロックの属するフレーム画像以外のフレーム画像があるか否かを判定する。記憶部202に記録された動画に処理対象ブロックの属するフレーム画像以外のフレーム画像がある場合(ステップS409でYes)、プロセッサ201は処理対象ブロックを当該フレーム画像(新しい符号化対象画像)中のブロックに変更した上でステップS401の処理に戻る。   In step S409, the processor 201 determines whether there is a frame image other than the frame image to which the processing target block belongs in the moving image recorded in the storage unit 202. When the moving image recorded in the storage unit 202 includes a frame image other than the frame image to which the processing target block belongs (Yes in step S409), the processor 201 selects the processing target block as a block in the frame image (new encoding target image). Then, the process returns to step S401.

ステップS409において、プロセッサ201は動画生成処理を終了する。以上のようにして符号化済み動画を生成することができる。   In step S409, the processor 201 ends the moving image generation process. The encoded moving image can be generated as described above.

本開示においては、ステップS408の処理を行ったことにより、符号化対象画像を符号化した画像が全てのブロックにフィルタ処理が行われたものでなく、かつ、Iフレーム画像である画像がロングターム参照画像としてその後の符号化に用いられることになる。このようにすると、フィルタ処理を用いて行う符号化処理における符号化効率を改善することができる。   In the present disclosure, by performing the process of step S408, the image obtained by encoding the encoding target image is not a filter processed on all blocks, and an image that is an I frame image is a long term. It will be used as a reference image for subsequent encoding. If it does in this way, the encoding efficiency in the encoding process performed using a filter process can be improved.

本開示の発明者らは、従前の技術では注目領域がフレーム画像間で変動した場合に短期的に符号化量が増加することに着目した。注目領域がフレーム画像間で変動すると、それまでの画像でフィルタ処理が行われていた領域に、次の画像でフィルタ処理を行わないことが生じうる。本開示の発明者らは、符号化量の増加の原因が、それまでにフィルタ処理が行われていた領域を、フィルタ処理を行わないようにすることにあると結論づけた。すなわち、参照関係にある画像の一部の画像のみにフィルタ処理がされていると、画像間における同じ座標の画素同士の値の差分が大きくなる。画像間における同じ座標の画素同士の値の差分が大きくなると符号化効率が低下するから、フィルタ処理が行われていた領域を、フィルタ処理を行わないようにすると符号化量の増加が生じると考えられる。   The inventors of the present disclosure have focused on the fact that, in the prior art, the amount of encoding increases in the short term when the region of interest fluctuates between frame images. If the region of interest fluctuates between frame images, it may occur that the filter processing is not performed on the next image in the region where the filter processing has been performed on the previous image. The inventors of the present disclosure have concluded that the cause of the increase in the coding amount is that the filtering process is not performed on the area where the filtering process has been performed. That is, if only a part of the images in the reference relationship is filtered, the difference between the values of pixels having the same coordinates between the images becomes large. Encoding efficiency decreases when the difference between the values of pixels with the same coordinates between images increases. Therefore, if the filtering process is not performed on the area where the filtering process has been performed, the encoding amount will increase. It is done.

本開示によれば、ロングターム参照画像にフィルタ処理が行われていない領域の多い画像を用いることができる。このようにすると、フィルタ処理がされていない領域と差分の少ない領域を有する画像を、フレーム間予測における参照画像に用いることができる。よって、それまでの画像でフィルタ処理が行われていた領域に、次の画像でフィルタ処理を行わないことが生じても、符号化効率の低減を抑制することができる。結果として、フィルタ処理を用いて行う符号化処理における符号化効率を改善することができる。   According to the present disclosure, it is possible to use an image with a large number of regions that are not subjected to filter processing for a long-term reference image. In this way, an image having an area that is not subjected to filter processing and an area having a small difference can be used as a reference image in inter-frame prediction. Therefore, even if the filter processing is not performed on the next image in the region where the filter processing has been performed on the previous image, it is possible to suppress the reduction in encoding efficiency. As a result, the encoding efficiency in the encoding process performed using the filter process can be improved.

なお、本開示においては、フィルタ処理がされていない領域と差分の少ない領域を有する画像をロングターム参照画像として用いることができれば、ロングターム参照画像を他の方法により更新をしてもよい。すなわち、ステップS407の処理を他の処理に置き換えても良い。   In the present disclosure, the long-term reference image may be updated by another method as long as an image having an area that is not filtered and an area having a small difference can be used as the long-term reference image. That is, the process in step S407 may be replaced with another process.

例えば、ステップS407の「(1)全てのブロックにフィルタ処理が行われたものでなく」という要件を「フィルタ領域を行われていない領域の広さが所定値以上」という要件に置き換えても良い。このようにしても、それまでの画像でフィルタ処理が行われていた領域に、次の画像でフィルタ処理を行わないことが生じても、符号化効率の低減を抑制することができる。結果として、フィルタ処理を用いて行う符号化処理における符号化効率を改善することができる。   For example, the requirement that “(1) all the blocks have not been subjected to the filtering process” in step S407 may be replaced with the requirement that “the area of the area not subjected to the filter area is equal to or larger than a predetermined value”. . Even if it does in this way, even if it does not perform a filter process by the next image in the area | region where the filter process was performed by the image until then, the reduction of an encoding efficiency can be suppressed. As a result, the encoding efficiency in the encoding process performed using the filter process can be improved.

また、ステップS407の「(2)Iフレーム画像であるか」という要件をなくしてもよい。すなわち、(1)の条件を満たし、かつBフレーム画像またはPフレーム画像であるフレーム画像をロングターム参照画像としてもよい。ただし、Iフレーム画像をロングターム参照画像とすることが符号化効率の点からは好ましい。Iフレーム画像は符号化前の画像との差異が少ないためである。   In addition, the requirement “(2) Is it an I frame image” in step S407 may be eliminated. That is, a frame image that satisfies the condition (1) and is a B frame image or a P frame image may be used as the long term reference image. However, it is preferable from the viewpoint of encoding efficiency that the I-frame image is a long-term reference image. This is because the I frame image has little difference from the image before encoding.

なお、本実施の形態においてはステップS403の処理を行うことで、ステップS407の処理でYesとなる画像を作り出している。このようにすると、最初のGOPにおけるIフレーム画像がロングターム参照画像として用いられる。   In the present embodiment, by performing the process of step S403, an image that becomes Yes is created by the process of step S407. In this way, the I frame image in the first GOP is used as the long term reference image.

ここで、ロングターム参照画像を定期的に更新できるようにステップS403の処理を他の処理に置き換えても良い。   Here, the process in step S403 may be replaced with another process so that the long-term reference image can be periodically updated.

例えばステップS403の「ステップS401での判定の対象になった処理対象ブロックが、動画生成処理の対象となった動画における最初のGOPに属するか否かを判定する」という条件を「ステップS401での判定の対象になった処理対象ブロックが、動画生成処理の対象となった動画におけるN番目(ただしNはN÷Mの余りがゼロとなるものとする)のGOPに属するか否かを判定する」という条件に変更してもよい。このようにすると、M個のGOP置きにロングターム参照画像が更新されることになる。   For example, the condition of “determining whether the processing target block that is the determination target in step S401 belongs to the first GOP in the moving image generation processing target” in step S403 is “in step S401. It is determined whether or not the processing target block that is the target of determination belongs to the Nth GOP in the moving image that is the target of the moving image generation process (where N is the remainder of N ÷ M is zero). It may be changed to the condition “ In this way, the long term reference image is updated every M GOPs.

[1−3.効果等]
以上のように本実施の形態において、動画生成装置110は、動画を構成する符号化対象画像を参照画像に基づいて符号化することで符号化済み動画を生成するものである。前記参照画像は、他の参照画像に比べて前記符号化対象画像からの時間的距離が長い参照画像であるロングターム参照画像を含むものである。前記動画生成方法は、前記符号化対象画像の少なくとも一部の領域にフィルタ処理を行うか否かを決定し、前記符号化対象画像であってフィルタ処理を行われていない領域の広さが所定値以上の画像を符号化した画像をデコードした画像を前記ロングターム参照画像として用いるものである。
[1-3. Effect]
As described above, in the present embodiment, the moving image generating apparatus 110 generates an encoded moving image by encoding the encoding target images constituting the moving image based on the reference image. The reference image includes a long-term reference image that is a reference image having a longer temporal distance from the encoding target image than other reference images. The moving image generation method determines whether or not to perform a filtering process on at least a partial area of the encoding target image, and the area of the encoding target image that is not subjected to the filtering process is predetermined. An image obtained by decoding an image obtained by encoding an image equal to or greater than the value is used as the long term reference image.

このようにすると、上述したように、フィルタ処理を用いて行う符号化処理における符号化効率を改善することができる。   If it does in this way, as mentioned above, the encoding efficiency in the encoding process performed using a filter process can be improved.

また、本実施の形態において動画生成装置110は、少なくとも1枚の前記符号化対象画像についてはフィルタ処理を行わず、当該フィルタ処理が行われなかった前記符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる。   Further, in the present embodiment, the moving image generating apparatus 110 does not perform the filtering process on at least one of the encoding target images, and the long image is an image obtained by decoding the encoding target image that has not been subjected to the filtering process. Used as a term reference image.

このようにすると、上述したように、ロングターム参照画像を適切に更新することができる。結果としてフィルタ処理を用いて行う符号化処理における符号化効率を、より改善することができる。   If it does in this way, as mentioned above, a long term reference picture can be updated appropriately. As a result, the encoding efficiency in the encoding process performed using the filter process can be further improved.

また、本実施の形態において動画生成装置110は、符号化対象画像がIフレーム画像であることを条件として、当該符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる。   In the present embodiment, moving image generation apparatus 110 uses an image obtained by decoding the encoding target image as the long-term reference image on condition that the encoding target image is an I frame image.

このようにすると、上述したように符号化効率をより改善させることができる。   In this way, the encoding efficiency can be further improved as described above.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technique disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1, and it can also be set as a new embodiment.

なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   The above-described embodiments are for illustrating the technique in the present disclosure, and various modifications, replacements, additions, omissions, and the like can be made within the scope of the claims and their equivalents.

本開示は、動画を生成するカメラ、映像編集機器などに適用可能である。   The present disclosure can be applied to a camera that generates a moving image, a video editing device, and the like.

100 動画伝送システム
110 動画生成装置
120 動画再生装置
130 通信路
201 プロセッサ
202 記憶部
203 入力部
204 出力部
205 通信部
206 バス
301 プロセッサ
302 記憶部
303 入力部
304 出力部
305 通信部
306 バス
501 フレーム画像
601 ロングターム参照画像
602 フレーム画像
603 フレーム画像
DESCRIPTION OF SYMBOLS 100 Movie transmission system 110 Movie generator 120 Movie player 130 Communication path 201 Processor 202 Storage unit 203 Input unit 204 Output unit 205 Communication unit 206 Bus 301 Processor 302 Storage unit 303 Input unit 304 Output unit 305 Communication unit 306 Bus 501 Frame image 601 Long term reference image 602 Frame image 603 Frame image

Claims (6)

動画を構成する符号化対象画像を参照画像に基づいて符号化することで符号化済み動画を生成する動画生成方法であって、
前記参照画像は、
他の参照画像に比べて前記符号化対象画像からの時間的距離が長い参照画像であるロングターム参照画像を含み、
前記動画生成方法は、
前記符号化対象画像の少なくとも一部の領域にフィルタ処理を行うか否かを決定し、
前記符号化対象画像であってフィルタ処理を行われていない領域の広さが所定値以上の画像を符号化した画像をデコードした画像を前記ロングターム参照画像として用いる、
動画生成方法。
A moving image generating method for generating an encoded moving image by encoding an encoding target image constituting a moving image based on a reference image,
The reference image is
Including a long-term reference image that is a reference image having a long temporal distance from the encoding target image compared to other reference images;
The video generation method includes:
Determining whether to perform filtering on at least a portion of the encoding target image;
An image obtained by decoding an image obtained by encoding an image in which the size of an area of the encoding target image that is not subjected to filter processing is a predetermined value or more is used as the long-term reference image.
Movie generation method.
少なくとも1枚の前記符号化対象画像についてはフィルタ処理を行わず、当該フィルタ処理が行われなかった前記符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる、
請求項1に記載の動画生成方法。
Filtering is not performed on at least one of the encoding target images, and an image obtained by decoding the encoding target image that has not been subjected to the filtering process is used as the long term reference image.
The moving image generation method according to claim 1.
前記符号化対象画像がIフレーム画像であることを条件として、当該符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる、
請求項1に記載の動画生成方法。
On the condition that the encoding target image is an I frame image, an image obtained by decoding the encoding target image is used as the long term reference image.
The moving image generation method according to claim 1.
動画を構成する符号化対象画像を参照画像に基づいて符号化することで符号化済み動画を生成する動画生成装置であって、
前記参照画像は、
他の参照画像に比べて前記符号化対象画像からの時間的距離が長い参照画像であるロングターム参照画像を含み、
前記動画生成装置は、
前記符号化対象画像の少なくとも一部の領域にフィルタ処理を行うか否かを決定し、
前記符号化対象画像であってフィルタ処理を行われていない領域の広さが所定値以上の画像を符号化した画像をデコードした画像を前記ロングターム参照画像として用いる、
動画生成装置。
A moving image generating apparatus that generates an encoded moving image by encoding an encoding target image constituting a moving image based on a reference image,
The reference image is
Including a long-term reference image that is a reference image having a long temporal distance from the encoding target image compared to other reference images;
The moving image generating device includes:
Determining whether to perform filtering on at least a portion of the encoding target image;
An image obtained by decoding an image obtained by encoding an image in which the area of the region to be encoded that is not subjected to filter processing is a predetermined value or more is used as the long-term reference image.
Movie generator.
少なくとも1枚の前記符号化対象画像についてはフィルタ処理を行わず、当該フィルタ処理が行われなかった前記符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる、
請求項4に記載の動画生成装置。
Filtering is not performed on at least one of the encoding target images, and an image obtained by decoding the encoding target image that has not been subjected to the filtering process is used as the long term reference image.
The moving image generating apparatus according to claim 4.
前記符号化対象画像がIフレーム画像であることを条件として、当該符号化対象画像をデコードした画像を前記ロングターム参照画像として用いる、
請求項4に記載の動画生成装置。
On the condition that the encoding target image is an I frame image, an image obtained by decoding the encoding target image is used as the long term reference image.
The moving image generating apparatus according to claim 4.
JP2016146981A 2016-07-27 2016-07-27 Moving image formation method and moving image formation device Pending JP2018019195A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016146981A JP2018019195A (en) 2016-07-27 2016-07-27 Moving image formation method and moving image formation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016146981A JP2018019195A (en) 2016-07-27 2016-07-27 Moving image formation method and moving image formation device

Publications (1)

Publication Number Publication Date
JP2018019195A true JP2018019195A (en) 2018-02-01

Family

ID=61082029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016146981A Pending JP2018019195A (en) 2016-07-27 2016-07-27 Moving image formation method and moving image formation device

Country Status (1)

Country Link
JP (1) JP2018019195A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052500A1 (en) * 2019-09-19 2021-03-25 华为技术有限公司 Video image transmission method, sending device, and video call method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052500A1 (en) * 2019-09-19 2021-03-25 华为技术有限公司 Video image transmission method, sending device, and video call method and device

Similar Documents

Publication Publication Date Title
US11115670B2 (en) Image encoding apparatus, image encoding method, recording medium and program, image decoding apparatus, image decoding method, and recording medium and program
US9319682B2 (en) Moving image encoding apparatus, control method therefor, and non-transitory computer readable storage medium
US11290740B2 (en) Image coding apparatus, image coding method, and storage medium
JP2018019195A (en) Moving image formation method and moving image formation device
JP6187826B2 (en) Moving picture coding apparatus and moving picture coding method
JP4891894B2 (en) Method and apparatus for generating menu
JP5020391B2 (en) Decoding device and decoding method
CN116132719A (en) Video processing method, device, electronic equipment and readable storage medium
JP2018019194A (en) Moving image formation method and moving image formation device
US10834421B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10516896B2 (en) Encoding device, encoding method, and storage medium
JP2018117308A (en) Playback apparatus and control method of the same
US20170302919A1 (en) Image encoding method and image encoding apparatus
US11611749B2 (en) Encoding apparatus, image capturing apparatus, control method, and storage medium
JP6308409B2 (en) Moving picture coding apparatus and moving picture coding method
JP6942504B2 (en) Coding device, imaging device, coding method, and program
JP2010041352A (en) Device and method for decoding image
JP2009141539A (en) Image processing apparatus, image processing method, program of image processing method, and recording medium for program of image processing method
US9578340B2 (en) Image processing apparatus, method of controlling the same, and recording medium
JP2019129411A (en) Picture encoder, imaging apparatus, image coding method, and program
JP2010166518A (en) Moving image encoding apparatus and moving image encoding method
JP2010252069A (en) Apparatus and method for decoding image
JP2016167800A (en) Moving picture coding device and moving picture coding method
JP2009077067A (en) Image coding device and its control method, and program
JP2007174524A (en) Encoding processing apparatus, encoding processing method, program code, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190118