JP2016171525A - Image processing device, control method, and program - Google Patents
Image processing device, control method, and program Download PDFInfo
- Publication number
- JP2016171525A JP2016171525A JP2015051300A JP2015051300A JP2016171525A JP 2016171525 A JP2016171525 A JP 2016171525A JP 2015051300 A JP2015051300 A JP 2015051300A JP 2015051300 A JP2015051300 A JP 2015051300A JP 2016171525 A JP2016171525 A JP 2016171525A
- Authority
- JP
- Japan
- Prior art keywords
- image
- encoding
- information
- input
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000013598 vector Substances 0.000 claims description 19
- 239000002131 composite material Substances 0.000 description 98
- 230000033001 locomotion Effects 0.000 description 37
- 238000001514 detection method Methods 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 239000000203 mixture Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000013139 quantization Methods 0.000 description 11
- 230000009467 reduction Effects 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/40—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2365—Multiplexing of several video streams
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、画像処理装置、制御方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, a control method, and a program.
近年、インターネットの普及とアクセス回線の広帯域化に伴い、撮影した動画を、インターネットを介して配信する技術が注目されている。例えば、特許文献1に記載の技術では、複数のカメラを配置することによって複数種類の動画配信を準備し、ユーザが所望の動画を選択することを可能としている。この技術では、ユーザは選択した動画の配信を受けることができる。
In recent years, with the widespread use of the Internet and the widening of access lines, a technique for distributing captured moving images via the Internet has attracted attention. For example, in the technique described in
上記技術に関連して、複数の動画像をタイル状に並べて1つの動画像とし、その動画像を配信する技術がある。この場合、まず入力された複数の動画像はそれぞれデコードされ、デコードされた動画像をまとめて1つの動画像とし、まとめた1つの動画像をエンコードした後に配信するようになっている。このように、従来技術では、複数の動画像を1つの動画像にまとめた後にエンコードされていた。 In relation to the above technique, there is a technique in which a plurality of moving images are arranged in a tile to form one moving image and the moving image is distributed. In this case, a plurality of input moving images are first decoded, and the decoded moving images are combined into one moving image, and the combined moving image is encoded and distributed. As described above, in the related art, encoding is performed after a plurality of moving images are combined into one moving image.
複数の画像を1つにまとめる場合、1つにまとめた画像に含まれる画像の組合せが同じか、一部の画像が共通していても、画像を並べる順番など、まとめ方を変えて1つにまとめたときには、それぞれの動画像ごとにエンコードすることとなる。
この場合、共通する画像が含まれるにもかかわらず、1つにまとめた画像ごとにベクトル探索やモード決定を行わなければならず、配信先ごとに組合せを変えて1つにまとめた画像を配信することは、処理量やコスト面から現実的には困難であった。
When combining multiple images into one, even if the combination of the images included in the combined image is the same or some of the images are in common, the order of arranging the images is changed to one When they are summarized, encoding is performed for each moving image.
In this case, although a common image is included, vector search and mode determination must be performed for each grouped image, and a combination of images is distributed for each distribution destination. In practice, it was difficult in terms of processing amount and cost.
本発明は、このような事情に鑑みてなされたもので、その目的は、複数の画像をまとめて1つの画像として配信する場合の処理量を低減した画像処理装置、制御方法、及びプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, a control method, and a program that reduce the processing amount when a plurality of images are delivered together as one image. There is to do.
上述した課題を解決するために、本発明は、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得部と、前記取得部により取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコード部と、前記エンコード部によりエンコードされた前記1つの画像を配信する配信部とを有することを特徴とする。 In order to solve the above-described problem, the present invention uses, for each of a plurality of input images, an acquisition unit that acquires encoding information for encoding the input image, and the encoding information acquired by the acquisition unit. And an encoding unit that encodes as one image including the plurality of input images, and a distribution unit that distributes the one image encoded by the encoding unit.
以上説明したように、この発明によれば、複数の画像をまとめて1つの画像として配信する場合の処理量を低減した画像処理装置、制御方法、及びプログラムを提供することができる。 As described above, according to the present invention, it is possible to provide an image processing device, a control method, and a program that reduce the amount of processing when a plurality of images are delivered together as one image.
以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本実施形態による画像処理装置としての動画配信システム100の構成を示すブロック図である。この動画配信システム100は、一例としてm個の端末から画像が入力され、入力された複数の入力画像を含む1つの画像(以下、「合成画像」という)を、n個の端末に配信するシステムである。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a moving
同図に示すように、動画配信システム100は、H.264(MPEG−4 Part10:AVC)に準拠した複数のデコード装置DE、複数のエンコード装置EN、合成画像コントローラ110、及び指向データベース120を含んで構成される。
デコード装置DEは、デコード装置DE1からデコード装置DEmまでm個設けられており、最大でm個の入力画像に対応可能である。
デコード装置DEは、まず入力画像がビットストリームで入力される。デコード装置DEは、ビットストリームで入力された入力画像をデコードし、デコードした画像から動きベクトルやイントラまたはインターなどのモードを決定し、それをエンコード情報とする。そして、デコード装置DEは、エンコード情報とデコードした画像とをエンコード装置ENに出力する。
図1において、デコード装置DEとエンコード装置EN間は、実線と破線で接続されているが、これはエンコード情報とデコードした画像とが別々に出力されるためである。本実施形態の場合、実線は画像の出力を示し、破線はエンコード情報の出力を示している。具体的なデータ転送例については後述する。
また、デコード装置DEは、当該デコード装置DEが出力している画像の特徴情報及びタグ情報(後述)、デコード装置DEを識別するための識別子(DE_ID)を、合成画像コントローラ110に出力する。
As shown in FIG. It includes a plurality of decoding devices DE, a plurality of encoding devices EN, a
M decoding devices DE are provided from the decoding device DE1 to the decoding device DEm, and can handle a maximum of m input images.
The decoding device DE first receives an input image as a bit stream. The decoding device DE decodes an input image input as a bit stream, determines a mode such as a motion vector or intra or inter from the decoded image, and uses it as encoding information. Then, the decoding device DE outputs the encoded information and the decoded image to the encoding device EN.
In FIG. 1, the decoding device DE and the encoding device EN are connected by a solid line and a broken line because the encoded information and the decoded image are output separately. In the present embodiment, the solid line indicates the output of the image, and the broken line indicates the output of the encoding information. A specific data transfer example will be described later.
Further, the decoding device DE outputs the image feature information and tag information (described later) output from the decoding device DE and an identifier (DE_ID) for identifying the decoding device DE to the
エンコード装置ENは、エンコード装置EN1からエンコード装置ENnまでn個設けられており、最大でn個の合成画像を配信可能である。
エンコード装置ENは、まず画像を配信する配信先(視聴者)を識別するための識別子(ユーザID)を合成画像コントローラ110に出力したり、配信する画像の条件である配信条件(例えば、女の子のみの画像、アニメ風の画像など)を必要に応じて合成画像コントローラ110に出力すると、合成画像コントローラ110から、合成画像に必要な入力画像を取得するデコード装置DEを特定する特定情報と、取得した入力画像を配置する配置位置を示す配置情報が通知される。以下、特定情報と配置情報とを合わせて合成情報と表現する。
There are n encoding devices EN from the encoding device EN1 to the encoding device ENn, and a maximum of n synthesized images can be distributed.
The encoding device EN first outputs an identifier (user ID) for identifying a distribution destination (viewer) to distribute an image to the
エンコード装置ENは、デコード装置DEから出力された入力画像とエンコード情報、そして合成情報から、複数の入力画像を含む1つの画像としてエンコードした合成画像を配信先に配信する。
合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベースを参照することで、上記合成情報をエンコード装置ENに通知する。指向データベース120は、ユーザIDと関連付けて、配信先のユーザ情報(例えば、性別、年齢、趣味、その他嗜好など)や、ED_IDと関連付けて特徴情報やタグ情報が記憶されているデータベースである。
The encoding device EN distributes the composite image encoded as one image including a plurality of input images from the input image output from the decoding device DE, the encoding information, and the composite information to the distribution destination.
The
以上説明した各処理により、エンコード装置ENは、合成画像1、2、3に示されるように、配信先ごとに異なる合成画像を配信することができる。図2は、エンコード装置ENから配信される2種類の合成画像例を示す図である。
Through the processes described above, the encoding device EN can distribute different composite images for each distribution destination as shown in the
図2(A)は、複数の入力画像を並べた合成画像例を示す図である。図に示されるように、合成画像は、5×5のタイル状に分割した領域で構成され、複数の入力画像A、B、C、…を左上から順に並べた1つの画像になっている。図2(A)の場合、A、B、Cの順に左上から順に並べているが、図1の合成画像Cに示されるように、B、C、…、Aの順に左上から順に並べるなど、同じ画像を用いて並べる順番を変えた画像も配信することができる。なお、並べる入力画像の数は5×5に限らず、2〜24、または26以上の入力画像であってもよい。 FIG. 2A is a diagram illustrating a composite image example in which a plurality of input images are arranged. As shown in the figure, the composite image is composed of regions divided into 5 × 5 tiles, and is a single image in which a plurality of input images A, B, C,. In the case of FIG. 2A, they are arranged in order of A, B, C from the upper left, but as shown in the composite image C in FIG. 1, they are arranged in the order of B, C,. It is also possible to distribute images in which the order of arrangement using images is changed. The number of input images to be arranged is not limited to 5 × 5, and may be 2 to 24, or 26 or more input images.
図2(B)は、複数の入力画像を重畳した(重ねた)合成画像例を示す図である。図に示されるように、合成画像は、入力画像Aに、入力画像B、Cが重畳された画像となっている。図2(B)に示される合成画像例の他に、例えば入力画像Bにさらに入力画像Cの一部または全部を重畳した画像も配信できる。なお、重畳する入力画像の数は3に限らず、2または4以上の入力画像であってもよい。 FIG. 2B is a diagram illustrating an example of a composite image in which a plurality of input images are superimposed (overlapped). As shown in the figure, the composite image is an image in which the input images B and C are superimposed on the input image A. In addition to the composite image example shown in FIG. 2B, for example, an image obtained by superimposing a part or all of the input image C on the input image B can also be distributed. The number of input images to be superimposed is not limited to 3, and may be 2 or 4 or more.
次にデコード装置DE及びエンコード装置ENの構成例について説明する。図3は、デコード装置DEとエンコード装置ENの構成例を示す図である。まずデコード装置DEについて説明する。なお、図3に示されるデコード装置DEの構成は、エンコード装置ENに出力する画像のサイズが1種類のサイズの場合の構成を示している。
デコード装置DEは、デコーダ10、特徴検出部11、画像処理部12、画像記憶部13、エンコード情報取得部14、エンコード情報記憶部15を含んで構成される。
デコーダ10は、ビットストリームで入力された入力画像をデコードし、デコードされた入力画像を特徴検出部11に出力する。特徴検出部11は、画像を分析して、画像の特徴情報(例えば屋外の画像、雪シーンの画像、人物を含んでいる画像など画像の特徴を示す情報)を検出し、検出した特徴情報を画像合成コントローラ110に出力するとともに、入力画像を画像処理部12に出力する。
Next, configuration examples of the decoding device DE and the encoding device EN will be described. FIG. 3 is a diagram illustrating a configuration example of the decoding device DE and the encoding device EN. First, the decoding device DE will be described. Note that the configuration of the decoding device DE shown in FIG. 3 shows a configuration when the size of the image output to the encoding device EN is one type.
The decoding device DE includes a
The
また、特徴検出部11は、画像に設定されているタグ情報(例えば男、女、スポーツ、自動車、電車、料理、アニメ、カラオケ、楽器演奏など)も画像合成コントローラ110に出力する。従って、例えば雪が降る屋外にいる女性の画像であれば、特徴情報として「雪」、「屋外」が検出され、タグ情報として「女」が設定されているため、これらの情報が画像合成コントローラ110に出力される。
The
画像処理部12は、特徴検出部11から入力された入力画像に対し、画像のサイズ、輝度、及び色などを変更したり、物体の切り出しや、背景の切り出しを行ったり、各種イフェクト(例えば、アニメ風処理や美肌フィルタ処理などによるイフェクト)を追加したりするなどの画像処理を施し、画像処理を施した入力画像を画像記憶部13に記憶する。
例えば、図2(A)に示されるような5×5の合成画像(1920×1200)にする場合には、画像処理部12は、入力画像のサイズを384×240のサイズにする。
The
For example, in the case of a 5 × 5 composite image (1920 × 1200) as shown in FIG. 2A, the
エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などを行うことで、入力画像をエンコードするためのエンコード情報を取得し、取得したエンコード情報をエンコード情報記憶部15に記憶する。このエンコード情報は、ベクトル情報、またはモード情報であり、より詳細には動きベクトルやイントラ/インターや方向予測といったモードを示す情報である。
このように、エンコード情報取得部14は、エンコードにおいて必要となる処理のうち、処理負荷の大半を占める処理を予め行う。こうして取得されたエンコード情報により、エンコード装置ENでは、まとめる入力画像の配置などに関する処理を行った後は、周波数変換及び量子化といった処理負荷が比較的小さい処理を行うだけでエンコードすることができる。
The encoding
Thus, the encoding
デコード装置DEは、画像記憶部13に記憶された入力画像と、エンコード情報記憶部15に記憶されたエンコード情報とを、入力画像を必要とするエンコード装置ENに出力する。このように、エンコード情報を生成する生成部(後述するエンコード情報取得部に対応)が複数の入力画像ごとに対応して設けられている。
The decoding device DE outputs the input image stored in the
エンコード装置ENは、マップ合成部20、動き検出・モード決定部21、周波数変換・量子化部22、及びシンタックス変換部23を含んで構成される。マップ合成部20は、合成画像コントローラ110にユーザIDや配信条件を出力し、合成画像コントローラ110から通知された合成情報を受け取るとともに、入力画像ごとにエンコード情報をエンコード情報記憶部15から取得して、入力画像と当該入力画像に対応するエンコード情報とを対応付けて動き検出・モード決定部21に出力する。このように、マップ合成部20は、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得部となっている。また、マップ合成部20は、1つの画像に含まれる入力画像の条件が指定される指定部となっている。
The encoding apparatus EN includes a
動き検出・モード決定部21は、マップ合成部20から入力された入力画像とエンコード情報から、合成情報に示される配置位置に対応させたエンコード情報にするためのオフセット処理などを行うことで、合成画像のエンコード情報を決定する動き検出・モード決定処理を行う。そして動き検出・モード決定部21は、決定されたエンコード情報を周波数変換・量子化部22に出力する。
周波数変換・量子化部22は、動き検出・モード決定部21から入力されたエンコード情報を周波数変換及び量子化し、シンタックス変換部23に出力して、シンタックス変換部23は、ビットストリームで合成画像を配信する。
The motion detection /
The frequency conversion /
上述した動き検出・モード決定部21及び周波数変換・量子化部22は、マップ合成部20により取得されたエンコード情報を用いて、複数の入力画像を含む1つの画像としてエンコードするエンコード部となっている。また、シンタックス変換部23は、エンコードされた1つの画像を配信する配信部となっている。
The motion detection /
ここで、デコード装置DEからエンコード装置ENへのデータ転送例について説明する。本実施形態では、データはライン転送される。具体的に、デコード装置DEは、ラインメモリを介して画像をエンコード装置ENに出力する。例えば、図1に示される合成画像1を配信する場合には、エンコード装置ENは、入力画像1(A)の1ライン目を受け取り、引き続き、入力画像2(B)の1ライン目の受け取り、入力画像3(C)の1ライン目のデータを受け取ることにより、ラインバッファには入力画像1,2,3(ABC)という1ラインのデータが記憶される。
このライン転送を繰り返すことで、コーデックの処理単位(例えば、マクロブロック16×16)のライン分がラインバッファに記憶されると、入力画像1(A)のマクロブロックの処理が可能となる。そこで、エンコード装置ENは、デコーダ装置DEからエンコード情報を受け取ることで、エンコーダ装置ENにはフレームメモリを設けることなくエンコードすることができるので、フレームメモリを設ける場合と比較して、メモリ量を削減することができる。
Here, an example of data transfer from the decoding device DE to the encoding device EN will be described. In this embodiment, data is transferred by line. Specifically, the decoding device DE outputs an image to the encoding device EN via the line memory. For example, when distributing the
By repeating this line transfer, when a line of codec processing units (for example, macroblock 16 × 16) is stored in the line buffer, the macroblock of input image 1 (A) can be processed. Therefore, since the encoding device EN can receive the encoding information from the decoder device DE and can encode the encoder device EN without providing a frame memory, the amount of memory is reduced compared to the case where a frame memory is provided. can do.
次に、複数種類のサイズの画像を出力する場合のデコード装置DEの構成について説明する。図4は、複数種類のサイズの画像を出力する場合のデコード装置DEの構成例を示す図である。ここでは、図3と異なる構成について説明する。また、図4に示される構成例は、3種類(Lサイズ、Mサイズ、Sサイズ)の画像を出力する場合の構成を示している。
複数種類のサイズの画像を出力する場合、種類分の画像記憶部13、エンコード情報取得部14、及びエンコード情報記憶部15が設けられる。図4の場合、3種類であるため、画像記憶部13−1、13−2、13−3、エンコード情報取得部14−1、14−2、14−3、及びエンコード情報記憶部15−1、15−2、15−3が設けられる。
Next, the configuration of the decoding device DE when outputting images of a plurality of types of sizes will be described. FIG. 4 is a diagram illustrating a configuration example of the decoding device DE when outputting images of a plurality of types of sizes. Here, a configuration different from FIG. 3 will be described. In addition, the configuration example illustrated in FIG. 4 illustrates a configuration in the case of outputting three types of images (L size, M size, and S size).
When outputting images of a plurality of types of sizes, an
画像記憶部13−1、13−2、13−3は、それぞれLサイズ、Mサイズ、Sサイズの画像を記憶する。エンコード情報取得部14−1、14−2、14−3は、それぞれLサイズ、Mサイズ、Sサイズのエンコード情報を取得する。エンコード情報記憶部15−1、15−2、15−3は、それぞれLサイズ、Mサイズ、Sサイズのエンコード情報を記憶する。さらに、Sサイズのエンコード情報を記憶するエンコード情報記憶部15−3は、記憶したエンコード情報をMサイズのエンコード情報を記憶するエンコード情報記憶部15−2に出力する。また、Mサイズのエンコード情報を記憶するエンコード情報記憶部15−2は、記憶したエンコード情報をLサイズのエンコード情報を記憶するエンコード情報記憶部15−1に出力する。 The image storage units 13-1, 13-2, and 13-3 store L size, M size, and S size images, respectively. The encoding information acquisition units 14-1, 14-2, and 14-3 acquire L size, M size, and S size encoding information, respectively. The encoding information storage units 15-1, 15-2, and 15-3 store L size, M size, and S size encoding information, respectively. Further, the encode information storage unit 15-3 that stores the S-size encode information outputs the stored encode information to the encode information storage unit 15-2 that stores the M-size encode information. The encode information storage unit 15-2 that stores M size encode information outputs the stored encode information to the encode information storage unit 15-1 that stores L size encode information.
また、図4には、画像処理部12から出力された画像のサイズを変更する(図4の場合は縮小)するフィルタが設けられる。図4に示される構成の場合、Lサイズは画像処理部12が出力した画像のサイズそのものとしているため、画像処理部12と画像記憶部13−1との間にフィルタは設けられていないが、画像処理部12と画像記憶部13−2との間、画像処理部12と画像記憶部13−3との間には、それぞれ縮小フィルタF1、F2が設けられている。
4 is provided with a filter for changing the size of the image output from the image processing unit 12 (in the case of FIG. 4, reduction). In the case of the configuration shown in FIG. 4, since the L size is the size of the image output from the
縮小フィルタF1は、画像処理部12から出力された画像をMサイズに縮小するフィルタである。縮小フィルタF2は、画像処理部12から出力された画像をSサイズに縮小するフィルタである。
また、エンコード情報取得部14−1、14−2、14−3は、対応する画像記憶部13−1、13−2、13−3に記憶された画像に対して、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などをそれぞれ独立して行ってもよいが、本実施形態ではエンコード情報取得部14−3、14−2、14−1の順(サイズの小さい順)に処理を開始する。
The reduction filter F1 is a filter that reduces the image output from the
Also, the encoding information acquisition units 14-1, 14-2, and 14-3 search for motion vectors and perform motions on the images stored in the corresponding image storage units 13-1, 13-2, and 13-3. Compensation, weighted prediction, intra prediction, mode determination, and the like may be performed independently. However, in this embodiment, the encoding information acquisition units 14-3, 14-2, and 14-1 are arranged in the order (smallest size). ) Start processing.
これは、エンコード情報取得部14−1、14−2、14−3がエンコード情報を取得する各々の画像はサイズが異なるだけであるため、まずエンコード情報を取得するために処理負荷が小さいSサイズの画像に対して処理を開始することで、その処理で得られたエンコード情報を再利用することにより、さらに高速化が図れるためである。 This is because the images for which the encoding information acquisition units 14-1, 14-2, and 14-3 acquire the encoding information are only different in size. This is because, by starting the processing on the image, the encoding information obtained by the processing can be reused to further increase the speed.
従って、本実施形態では、エンコード情報取得部14−3の処理で得られたエンコード情報は、エンコード情報取得部14−2に出力され、エンコード情報取得部14−2が再利用し、エンコード情報取得部14−2の処理で得られたエンコード情報は、エンコード情報取得部14−1に出力され、エンコード情報取得部14−1が再利用することとなる。このようにすることにより、例えばデコード装置DEをハードウェアで実現する場合の回路サイズを抑制でき、またメモリの帯域を削減できる。さらに、サイズに応じて、量子化パラメータなどを個別に設定するようにしてもよい。
こうして複数種類のサイズの画像を出力することにより、図1で示した合成画像1と合成画像3のように、同じ画像でサイズが異なる画像を同時に配信できるようになる。例えば、図1の合成画像2の場合、エンコード装置EN2は、Lサイズの画像A、Mサイズの画像B、Sサイズの画像Cを取得することで、合成画像2を配信する。
Therefore, in this embodiment, the encoding information obtained by the processing of the encoding information acquisition unit 14-3 is output to the encoding information acquisition unit 14-2, and is reused by the encoding information acquisition unit 14-2. The encoding information obtained by the processing of the unit 14-2 is output to the encoding information acquisition unit 14-1, and is reused by the encoding information acquisition unit 14-1. By doing so, for example, the circuit size when the decoding device DE is realized by hardware can be suppressed, and the bandwidth of the memory can be reduced. Furthermore, quantization parameters and the like may be individually set according to the size.
By outputting images of a plurality of types in this way, it is possible to simultaneously distribute images of the same image but different sizes, such as the
なお、複数種類のサイズの画像を出力する場合の構成として、図4に示した構成の他に、エンコード情報取得部14の内部に縮小フィルタを設けた構成でもよい。この場合、まず画像をSサイズに縮小し、Sサイズに縮小した画像のエンコード情報を取得する。次いで画像をMサイズに縮小し、Sサイズで取得したエンコード情報を再利用してMサイズに縮小した画像のエンコード情報を取得する。そして、Mサイズで取得したエンコード情報を再利用してLサイズの画像のエンコード情報を取得することとなる。このとき、エンコード情報を記憶するためのラインメモリを設け、ラインメモリに記憶されたエンコード情報を再利用することで、回路面積を減らすことができる。
図4に示した構成は、複数種類のサイズの画像を出力する場合の構成であるが、異なる画像処理が施された複数種類の画像を出力することも可能である。例えば、3種類の異なる画像処理が施された3種類の画像を出力する場合、画像記憶部13−1、13−2、13−3の各々に対応して異なる画像処理を施す画像処理部を設け、これら画像処理部が対応する画像記憶部ごとに画像を出力することとなる。
In addition to the configuration shown in FIG. 4, a configuration in which a reduction filter is provided inside the encode
The configuration shown in FIG. 4 is a configuration for outputting images of a plurality of types, but it is also possible to output a plurality of types of images subjected to different image processing. For example, when outputting three types of images subjected to three different types of image processing, image processing units that perform different image processing corresponding to each of the image storage units 13-1, 13-2, and 13-3 are provided. The image processing unit outputs an image for each corresponding image storage unit.
このように、複数種類のサイズの画像を出力したり、異なる画像処理が施された複数種類の画像を出力したりする場合には、出力するサイズや画像処理の種類を合成画像コントローラ110に出力する。複数種類のサイズの画像を出力する場合、デコード装置DEは、ED_IDとともに、「1.Lサイズ」、「2.Mサイズ」、「3.Sサイズ」を合成画像コントローラ110に出力する。同様に、異なる画像処理が施された複数種類の画像を出力する場合、デコード装置DEは、ED_IDとともに、「1.アニメ風」、「2.美肌」、「3.イラスト風」を合成画像コントローラ110に出力する。
合成画像コントローラ110は、これらのサイズや画像処理の情報をED_IDと関連付けて、指向データベース120に記憶しておく。そして、合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベース120を参照することで上記合成情報をエンコード装置ENに通知する。
As described above, when outputting a plurality of types of images or outputting a plurality of types of images subjected to different image processing, the output size and the type of image processing are output to the
The
図5は、動き検出・モード決定部21により実行されるオフセット処理において、並べて合成する場合の座標変換の一例を示す図である。この例では、合成情報の配置情報が、領域数m×mで、n番目の位置に入力画像を配置することを示しているとする。このn番目とは、図5に示されるように、入力画像を左上から横に並べ、右端に到達したら、左端に戻り、左端から再び並べていく場合の順番を示すものとする。
また、合成画像のサイズをK×Lとし、K=mk、L=mlとする。入力画像は合成画像に合わせて画像処理部12によりサイズが調整されているので、入力画像のサイズはk×lとなる。
FIG. 5 is a diagram illustrating an example of coordinate transformation in the case of side-by-side synthesis in the offset processing executed by the motion detection /
Also, the size of the composite image is K × L, and K = mk and L = ml. Since the size of the input image is adjusted by the
ここで、入力画像におけるST座標での点を(s、t)とし、その(s、t)に対応する合成画像におけるXY座標での点を(x、y)とし、q、rをn=mq+r(0≦r<m)を満たすq、rとすると、(x、y)=(s+kr、t+L−l(q+1))となる。
この式に示されるように、画像合成コントローラ110は、配置位置に関して、入力画像の数m×mを示すmと、順番を示すnとを通知すればよく、動き検出・モード決定部21はmとnとを用いて座標変換を行うことができる。
Here, the point at the ST coordinate in the input image is (s, t), the point at the XY coordinate in the composite image corresponding to (s, t) is (x, y), and q and r are n = Assuming q and r satisfying mq + r (0 ≦ r <m), (x, y) = (s + kr, t + L−1 (q + 1)).
As shown in this equation, the
図6は、動き検出・モード決定部21により実行されるオフセット処理において、重畳して合成する場合の座標変換の一例を示す図である。この例では、合成情報の配置情報が、入力画像のST座標での原点Oを配置するXY座標での位置(x1、y1)を示しているものとする。
ここで、入力画像におけるST座標での点を(s、t)とし、その(s、t)に対応する合成画像におけるXY座標での点を(x、y)とすると、(x、y)=(s+x1、t+y1)となる。
FIG. 6 is a diagram illustrating an example of coordinate conversion in the case of superimposing and synthesizing in the offset processing executed by the motion detection /
Here, when the point at the ST coordinate in the input image is (s, t) and the point at the XY coordinate in the composite image corresponding to (s, t) is (x, y), (x, y) = (S + x1, t + y1).
この式に示されるように、画像合成コントローラ110は、入力画像のST座標での原点Oを配置するXY座標での位置(x1、y1)を通知すればよく、動き検出・モード決定部21は位置(x1、y1)を用いて座標変換を行うことができる。
座標変換方法は、上述した図5、6で説明した方法に限らず、並べて合成する場合には、5×5など、最初から合成する入力画像の数を固定で定めておいて変換する方法や、重畳する場合には、最初から重畳する位置を固定で定めておいて変換する方法などもある。
As shown in this equation, the
The coordinate conversion method is not limited to the method described with reference to FIGS. 5 and 6 described above. When the images are combined side by side, the number of input images to be combined from the beginning, such as 5 × 5, is fixed and converted. In the case of superimposing, there is a method in which the position to be superimposed is fixedly determined from the beginning and converted.
図7は、デコード装置DEにより実行される処理を示すフローチャートである。図7において、まずデコーダ10は、ビットストリームで入力された入力画像をデコードする(ステップS101)。次いで、特徴検出部11は、特徴情報を検出し、検出した特徴情報を画像合成コントローラ110に出力する(ステップS102)。
次いで、画像処理部12は、上述した画像処理を施し(ステップS193)、画像処理を施した入力画像を画像記憶部13に記憶する(ステップS104)。エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、上述した動きベクトルの探索などを行うことで、エンコード情報を取得し(ステップS105)、取得したエンコード情報をエンコード情報記憶部15に記憶する(ステップS106)。
FIG. 7 is a flowchart showing processing executed by the decoding device DE. In FIG. 7, first, the
Next, the
そして、入力画像とエンコード情報をエンコード装置ENに出力し(ステップS107)、デコードを終了するか否か判定する(ステップS108)。デコードを終了しない場合には(ステップS108:NO)、ステップS101に戻る。一方、ビットストリームの送信元から送信停止を受信したときなどによりデコードを終了する場合(ステップS108;YES)、本処理を終了する。 Then, the input image and the encoding information are output to the encoding device EN (step S107), and it is determined whether or not to end the decoding (step S108). If the decoding is not completed (step S108: NO), the process returns to step S101. On the other hand, when decoding is terminated when a transmission stop is received from the transmission source of the bitstream (step S108; YES), this processing is terminated.
図8は、エンコード装置ENにより実行される処理を示すフローチャートである。図8において、配信先から配信要求を受信すると(ステップS201:YES)、配信先のユーザIDを取得する(ステップS202)。
さらに、配信先から配信条件が通知されたことにより、配信条件があるか否か判定する(ステップS203)。配信条件が指定された場合には(ステップS203:YES)、配信条件を取得して(ステップS204)、ステップS205に進む。
一方、配信条件が指定されなかった場合(ステップS203:YES)、またはステップS204で配信条件を取得した場合には、マップ合成部20は、合成画像コントローラ110にユーザIDを出力する(ステップS205)。このとき、ステップS204で配信条件を取得した場合には、配信条件も出力される。
FIG. 8 is a flowchart showing processing executed by the encoding apparatus EN. In FIG. 8, when a distribution request is received from a distribution destination (step S201: YES), the distribution destination user ID is acquired (step S202).
Furthermore, it is determined whether or not there is a delivery condition when the delivery condition is notified from the delivery destination (step S203). When the distribution condition is designated (step S203: YES), the distribution condition is acquired (step S204), and the process proceeds to step S205.
On the other hand, when the distribution condition is not specified (step S203: YES) or when the distribution condition is acquired in step S204, the
マップ合成部20は、合成画像コントローラ110から合成情報を受け取り(ステップS206)、配置情報に従って入力画像と当該入力画像に対応するエンコード情報取得する(ステップS207)。
次いで、動き検出・モード決定部21は、上述した動き検出・モード決定処理を行い(ステップS208)、周波数変換・量子化部22は、エンコード情報を周波数変換及び量子化し(ステップS209)、シンタックス変換部23は、ビットストリームで合成画像を配信する(ステップS210)。
The
Next, the motion detection /
次いで、配信先から配信停止を受信したか否か判定する(ステップS211)。配信先から配信停止を受信した場合には(ステップS211:YES)、本処理を終了する。一方、配信先から配信停止を受信していない場合には(ステップS211:NO)、ステップS207に戻る。 Next, it is determined whether or not a distribution stop has been received from the distribution destination (step S211). When the distribution stop is received from the distribution destination (step S211: YES), this process is terminated. On the other hand, when the distribution stop has not been received from the distribution destination (step S211: NO), the process returns to step S207.
図9は、合成画像コントローラ110により実行される処理を示すフローチャートである。まず、合成画像コントローラ110は、デコード装置DEから特徴情報、メタ情報を受信したか否か判定する(ステップS301)。特徴情報、メタ情報を受信した場合には(ステップS301:YES)、合成画像コントローラ110は、特徴情報、メタ情報をED_IDと関連付けて指向データベース120に記憶して(ステップS311)、ステップS301に戻る。
特徴情報、メタ情報を受信していない場合には(ステップS301:NO)、合成画像コントローラ110は、エンコード装置ENからユーザIDを受信したか否か判定する(ステップS302)。ユーザIDを受信していない場合には(ステップS302:NO)、ステップS301に戻る。
FIG. 9 is a flowchart showing processing executed by the
If feature information and meta information have not been received (step S301: NO), the
エンコード装置ENからユーザIDを受信した場合には(ステップS302:YES)、合成画像コントローラ110は、配信条件があるか否か判定する(ステップS303)。配信条件がある場合には(ステップS303:YES)、合成画像コントローラ110は、配信条件に基づき特定情報を生成する(ステップS309)。
具体的に、合成画像コントローラ110は、まず特徴情報またはメタ情報が配信条件を満たす画像を出力するデコード装置DEを検索する。そして、検索されたデコード装置DEのうち、合成画像に必要な入力画像の数(例えば、5×5なら25)だけ、配信条件を満たす特徴情報またはメタ情報が多い順にデコード装置DEを特定し、その特定したデコード装置DEのED_IDのリストを特定情報として生成する。
When the user ID is received from the encoding device EN (step S302: YES), the
Specifically, the
次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配信条件を満たす特徴情報またはメタ情報が多い画像ほど目立つような配置情報を生成し(ステップS310)、ステップS308に進む。
例えば、5×5の合成画像とする場合、中央の画像に、配信条件を満たす特徴情報またはメタ情報が最も多い画像が配置されるように配置情報を生成する。こうして配信条件を満たす特徴情報またはメタ情報が多いほど、中央に近い位置に配置されるような配置情報を生成してもよい。
Next, the
For example, in the case of a 5 × 5 composite image, the placement information is generated so that the image having the largest feature information or meta information satisfying the delivery condition is placed in the center image. In this way, arrangement information may be generated such that the more characteristic information or meta information that satisfies the distribution condition, the closer to the center.
ステップS303に戻り、配信条件がない場合には(ステップS303:NO)、合成画像コントローラ110は、指向データベース120を参照して、ユーザIDからユーザ情報を取得する(ステップS304)。
次いで、合成画像コントローラ110は、指向データベース120に記憶された特徴情報、メタ情報、ユーザ情報を用いて主成分分析を行うことで、エンコード装置ENごとにスコアを算出する(ステップS305)。
そして、合成画像コントローラ110は、スコアに基づき特定情報を生成する(ステップS306)。
Returning to step S303, if there is no distribution condition (step S303: NO), the
Next, the
Then, the
具体的に、合成画像コントローラ110は、デコード装置DEのうち、合成画像に必要な入力画像の数だけ、スコアの大きい順にデコード装置DEを特定し、その特定したデコード装置DEのED_IDのリストを特定情報として生成する。
次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配置条件のときと同様に、スコアが大きい画像が目立つような配置情報を生成し(ステップS307)、ステップS308に進む。
例えば、5×5の合成画像とする場合、配置条件のときと同様に、中央の画像に、スコアが最も大きい画像が配置されるように配置情報を生成する。こうしてスコアが大きいほど、中央に近い位置に配置されるような配置情報を生成してもよい。
そして、合成画像コントローラ110は、合成情報をエンコード装置ENに通知して(ステップS308)、本処理を終了する。
Specifically, the
Next, the
For example, in the case of a 5 × 5 composite image, the arrangement information is generated so that the image with the highest score is arranged in the center image, as in the arrangement condition. Thus, arrangement information may be generated such that the larger the score, the closer to the center.
Then, the
このように、配信条件や主成分分析を用いることにより、例えば視聴者が女性の場合、男性画像を集めて合成した合成画像を配信したり、視聴者がアニメ好きの場合、アニメに関係する画像を合成した合成画像を配信したり、視聴者がゲーム好きの場合、ゲームに関係する画像を合成した合成画像を配信したり、視聴者がスキー好きの場合、雪景色など雪に関係する画像を合成した合成画像を配信したりすることができる。 In this way, by using distribution conditions and principal component analysis, for example, when the viewer is a woman, a composite image obtained by collecting and synthesizing male images is distributed, or when the viewer likes anime, images related to anime If the viewer likes a game, or if the viewer likes a game, or if the viewer likes skiing, the snow scene or other image related to snow The synthesized composite image can be distributed.
以上説明したように、本実施形態によれば、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得し、取得されたエンコード情報を用いて、複数の入力画像を含む1つの画像としてエンコードするので、画像を1つにまとめてからエンコードする場合と比較して、大幅に処理量を低減することができる。
また、配信する画像の組合せや、並べ方が頻繁に変更される場合にも、単に配置を変えるだけであって、処理負荷の大半を占める動きベクトルの探索などを改めて行う必要がないので、画像を1つにまとめてからエンコードする場合と比較して、著しく処理量を低減することができる。
As described above, according to the present embodiment, the encoding information for encoding the input image is obtained for each of the plurality of input images, and the plurality of input images are included using the acquired encoding information. Since encoding is performed as one image, the processing amount can be significantly reduced as compared with the case of encoding after combining the images into one.
In addition, even when the combination and arrangement of images to be distributed are frequently changed, the arrangement is simply changed and there is no need to search for motion vectors that occupy most of the processing load. Compared with the case of encoding after combining them into one, the processing amount can be significantly reduced.
また、本実施形態において、図1に示した動画配信システム100の構成例では、デコード装置DEとエンコード装置ENが直結した構成となっているが、デコード装置DEまたはエンコード装置ENの増加に伴い、配線が増えていくこととなる。そこでデコード装置DEとエンコード装置ENを、経路スイッチを介して接続するようにしてもよい。
Further, in the present embodiment, the configuration example of the moving
図10は、動画配信システム100の構成の変形例を示すブロック図である。図10において、動画配信システム100は経路スイッチSWが設けられた構成となっている。この経路スイッチSWは、PCIe(PCI−Express)のスイッチであり、デコード装置DEとエンコード装置ENをEthernet(登録商標) Over PCIeで接続する。
図10に示す構成によれば、図1に示した構成と比較して、配線を減らすことができるとともに、配線の自由度を大きくすることができる。
FIG. 10 is a block diagram illustrating a modified example of the configuration of the moving
According to the configuration shown in FIG. 10, the number of wirings can be reduced and the degree of freedom of the wiring can be increased as compared with the configuration shown in FIG.
なお、図2(A)に示した並べてまとめる例では、いずれの入力画像も同じ大きさでまとめられたが、異なる大きさにしてもよい。例えば、配信条件を満たすものほど、または主成分分析のスコアが大きいものほど、大きく表示されるようにしてもよい。 Note that, in the example shown in FIG. 2A in which the images are arranged side by side, all the input images are collected in the same size, but may be different sizes. For example, the larger the distribution condition or the larger the principal component analysis score, the larger the display may be.
また、本実施形態に係る画像処理装置としての動画配信システム100は、上述したように、大きく分けてデコード装置DEとエンコード装置ENで構成されるが、運用形態の一例として、ブレードサーバのように、1つのブレードにデコード装置DEとエンコード装置ENとを搭載し、このブレードを筐体内に搭載した運用形態が挙げられる。
Further, as described above, the moving
また、デコード装置DEとエンコード装置ENをそれぞれ異なる装置とし、デコード装置DEとエンコード装置ENをインテリジェントスイッチを備えたネットワークで接続する運用形態も挙げられる。この場合、上述したライン転送に代えて、例えばフレームごとに転送したときは、エンコード装置ENにラインバッファではなく、フレームが記憶できる程度のメモリを設けるようにしておく。
また、ネットワーク上に合成画像コントローラとして動作する装置を設けることにより、図9で説明した配信条件やスコアに基づく合成画像の配信を実現することができる。さらに、データを効率よく転送するためにイーサスイッチと合成画像コントローラ110を結び付けて情報の伝達経路を効率よく制御するようにしてもよい。
Further, there is an operation mode in which the decoding device DE and the encoding device EN are different devices, and the decoding device DE and the encoding device EN are connected by a network having an intelligent switch. In this case, instead of the above-described line transfer, for example, when transfer is performed for each frame, the encoding device EN is provided with a memory capable of storing a frame, not a line buffer.
Also, by providing a device that operates as a composite image controller on the network, it is possible to realize distribution of the composite image based on the distribution conditions and scores described in FIG. Furthermore, in order to efficiently transfer data, the Ethernet switch and the
また、デコード装置DEとエンコード装置ENをソフトウェアで実装する運用形態も挙げられる。特に、エンコード装置ENは、処理負荷がデコード装置DEと比較して小さいので、デコード装置DEはハードウェアで実装し、エンコード装置ENをソフトウェアで実装した運用形態も挙げられる。 Further, there is an operation mode in which the decoding device DE and the encoding device EN are implemented by software. In particular, since the processing load of the encoding device EN is smaller than that of the decoding device DE, there is an operation mode in which the decoding device DE is implemented by hardware and the encoding device EN is implemented by software.
なお、デコード装置DEは、エンコード情報を取得するために、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などを行うが、これらの処理の一部をエンコード装置ENで実行するようにしてもよい。 Note that the decoding device DE performs motion vector search, motion compensation, weighted prediction, intra prediction, mode determination, and the like in order to obtain encoding information, and some of these processes are executed by the encoding device EN. You may make it do.
また、本実施形態に係る動画配信システム100は、画像サイズが16の倍数(例えば、画像サイズがK×Lのとき、K、Lのいずれも16の倍数)の場合に非常に有効であるが、16の倍数でない場合であっても、動き検出・モード決定部21において、オフセット処理されたエンコード情報に基づき、動きベクトルの再探索や、イントラまたはインターなどのモードを決定する。この場合、画像サイズが16の倍数の場合ほど処理量は減らないが、エンコード情報がない場合と比較して、かなりの処理量を削減できる。
なお、上述した動き検出・モード決定部21による動きベクトルの再探索や、イントラまたはインターなどのモードの決定は、画像サイズが16の倍数の場合やそうでない場合であっても、イントラ予測における予測モードの最適化や、動きベクトルの削減を目的として、エンコード情報が有効に利用可能な場合に限り実行するようにしてもよい。
The moving
It should be noted that the motion vector re-search by the motion detection /
また、本実施形態に係る動画配信システム100は、上述したようにH.264に準拠しているが、H.264と同様の処理を行うMPEG2(H.222/H.262、ISO/IEC 13818)や、H.265(ISO/IEC 23008−2 HEVC)にも適用可能である。具体的には、MPEG2またはH.265において、動きベクトルの探索など、エンコードにおいて必要となる処理のうち、処理負荷の大半を占める処理をエンコード情報取得部14が予め行うことでエンコード情報を取得し、エンコード装置ENが、エンコード情報取得部14が取得したエンコード情報を用いてエンコードを行う。
In addition, as described above, the moving
本実施形態による処理量の軽減例について具体例を用いて説明する。例えば5個の入力画像を単に横に並べて合成する場合、その並べ方は120通り存在するが、従来技術では、この120個の合成画像の各々で動きベクトルの探索などを行わなければならなかった。一方、本実施形態によれば5個の入力画像の各々で動きベクトルの探索などを行えば、あとは処理負荷の小さい処理を行うだけでよい。
このように動きベクトルの探索の実行回数だけを考慮しても、従来技術では120回であるところ、本実施形態ではわずか5回(しかもサイズの小さい画像である)であるため、本実施形態によれば著しく処理量を軽減可能なことが分かる。
より一般的には、n個の入力画像を単に横に並べて合成する場合の動きベクトルの探索の実行回数は、従来技術ではn!のオーダー(O(n!))であるところ、本実施形態によればnのオーダー(O(n))であるため、著しく処理量を軽減可能なことが分かる。従って、図2(A)のような5×5個の入力画像に対して処理を行う場合、その処理の軽減量は莫大なものとなる。
A processing amount reduction example according to the present embodiment will be described using a specific example. For example, when five input images are simply arranged side by side, there are 120 ways to arrange them. In the prior art, a search for a motion vector or the like has to be performed for each of the 120 synthesized images. On the other hand, according to the present embodiment, if a motion vector search or the like is performed for each of the five input images, only processing with a small processing load is required.
Thus, even if only the number of executions of motion vector search is taken into account, the number of times in the conventional technique is 120, but in the present embodiment, it is only 5 (and the image is a small size). Thus, it can be seen that the processing amount can be remarkably reduced.
More generally, the number of motion vector searches when n input images are simply arranged side by side is n! However, according to the present embodiment, since the order is n (O (n)), the processing amount can be remarkably reduced. Therefore, when processing is performed on 5 × 5 input images as shown in FIG. 2A, the reduction amount of the processing is enormous.
上述した実施形態における各装置の処理をコンピュータで実現する場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 When the processing of each device in the above-described embodiment is realized by a computer, a program for realizing this function is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. , May be realized by executing. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
100 動画配信システム、 DE、DE1〜DEm デコード装置、
EN、EN1〜ENn エンコード装置、 10 デコーダ、 11 特徴検出部
12 画像処理部、13、13−1、13−2、13−3 画像記憶部、
14、14−1、14−2、14−3 エンコード情報取得部
15、15−1、15−2、15−3 エンコード情報記憶部、
20 マップ合成部、 21 動き検出・モード決定部、 22 周波数変換・量子化部
23 シンタックス変換部、F1、F2 縮小フィルタ
100 video distribution system, DE, DE1-DEm decoding device,
EN, EN1-ENn Encoding device, 10 Decoder, 11 Feature detection unit, 12 Image processing unit, 13, 13-1, 13-2, 13-3 Image storage unit,
14, 14-1, 14-2, 14-3 Encoding
20 map synthesis unit, 21 motion detection / mode determination unit, 22 frequency conversion / quantization unit, 23 syntax conversion unit, F1, F2 reduction filter
エンコード装置ENは、デコード装置DEから出力された入力画像とエンコード情報、そして合成情報から、複数の入力画像を含む1つの画像としてエンコードした合成画像を配信先に配信する。
合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベースを参照することで、上記合成情報をエンコード装置ENに通知する。指向データベース120は、ユーザIDと関連付けて、配信先のユーザ情報(例えば、性別、年齢、趣味、その他嗜好など)や、DE_IDと関連付けて特徴情報やタグ情報が記憶されているデータベースである。
The encoding device EN distributes the composite image encoded as one image including a plurality of input images from the input image output from the decoding device DE, the encoding information, and the composite information to the distribution destination.
The
図2(A)は、複数の入力画像を並べた合成画像例を示す図である。図に示されるように、合成画像は、5×5のタイル状に分割した領域で構成され、複数の入力画像A、B、C、…を左上から順に並べた1つの画像になっている。図2(A)の場合、A、B、Cの順に左上から順に並べているが、図1の合成画像3に示されるように、B、C、…、Aの順に左上から順に並べるなど、同じ画像を用いて並べる順番を変えた画像も配信することができる。なお、並べる入力画像の数は5×5に限らず、2〜24、または26以上の入力画像であってもよい。 FIG. 2A is a diagram illustrating a composite image example in which a plurality of input images are arranged. As shown in the figure, the composite image is composed of regions divided into 5 × 5 tiles, and is a single image in which a plurality of input images A, B, C,. In the case of FIG. 2A, they are arranged in order of A, B, C from the upper left, but as shown in the composite image 3 of FIG. 1, they are arranged in the order of B, C,. It is also possible to distribute images in which the order of arrangement using images is changed. The number of input images to be arranged is not limited to 5 × 5, and may be 2 to 24, or 26 or more input images.
画像処理部12は、特徴検出部11から入力された入力画像に対し、画像のサイズ、輝度、及び色などを変更したり、物体の切り出しや、背景の切り出しを行ったり、各種エフェクト(例えば、アニメ風処理や美肌フィルタ処理などによるエフェクト)を追加したりするなどの画像処理を施し、画像処理を施した入力画像を画像記憶部13に記憶する。
例えば、図2(A)に示されるような5×5の合成画像(1920×1200)にする場合には、画像処理部12は、入力画像のサイズを384×240のサイズにする。
The
For example, in the case of a 5 × 5 composite image (1920 × 1200) as shown in FIG. 2A, the
また、図4には、画像処理部12から出力された画像のサイズを変更(図4の場合は縮小)するフィルタが設けられる。図4に示される構成の場合、Lサイズは画像処理部12が出力した画像のサイズそのものとしているため、画像処理部12と画像記憶部13−1との間にフィルタは設けられていないが、画像処理部12と画像記憶部13−2との間、画像処理部12と画像記憶部13−3との間には、それぞれ縮小フィルタF1、F2が設けられている。
4 is provided with a filter that changes the size of the image output from the image processing unit 12 (in the case of FIG. 4, it is reduced). In the case of the configuration shown in FIG. 4, since the L size is the size of the image output from the
従って、本実施形態では、エンコード情報取得部14−3の処理で得られたエンコード情報は、エンコード情報取得部14−2に出力され、エンコード情報取得部14−2が再利用し、エンコード情報取得部14−2の処理で得られたエンコード情報は、エンコード情報取得部14−1に出力され、エンコード情報取得部14−1が再利用することとなる。このようにすることにより、例えばデコード装置DEをハードウェアで実現する場合の回路サイズを抑制でき、またメモリの帯域を削減できる。さらに、サイズに応じて、量子化パラメータなどを個別に設定するようにしてもよい。
こうして複数種類のサイズの画像を出力することにより、図1で示した合成画像1と合成画像2のように、同じ画像でサイズが異なる画像を同時に配信できるようになる。例えば、図1の合成画像2の場合、エンコード装置EN2は、Lサイズの画像A、Mサイズの画像B、Sサイズの画像Cを取得することで、合成画像2を配信する。
Therefore, in this embodiment, the encoding information obtained by the processing of the encoding information acquisition unit 14-3 is output to the encoding information acquisition unit 14-2, and is reused by the encoding information acquisition unit 14-2. The encoding information obtained by the processing of the unit 14-2 is output to the encoding information acquisition unit 14-1, and is reused by the encoding information acquisition unit 14-1. By doing so, for example, the circuit size when the decoding device DE is realized by hardware can be suppressed, and the bandwidth of the memory can be reduced. Furthermore, quantization parameters and the like may be individually set according to the size.
By outputting images of a plurality of types in this way, it is possible to simultaneously distribute images of the same image but different sizes, such as the
このように、複数種類のサイズの画像を出力したり、異なる画像処理が施された複数種類の画像を出力したりする場合には、出力するサイズや画像処理の種類を合成画像コントローラ110に出力する。複数種類のサイズの画像を出力する場合、デコード装置DEは、DE_IDとともに、「1.Lサイズ」、「2.Mサイズ」、「3.Sサイズ」を合成画像コントローラ110に出力する。同様に、異なる画像処理が施された複数種類の画像を出力する場合、デコード装置DEは、DE_IDとともに、「1.アニメ風」、「2.美肌」、「3.イラスト風」を合成画像コントローラ110に出力する。
合成画像コントローラ110は、これらのサイズや画像処理の情報をDE_IDと関連付けて、指向データベース120に記憶しておく。そして、合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベース120を参照することで上記合成情報をエンコード装置ENに通知する。
As described above, when outputting a plurality of types of images or outputting a plurality of types of images subjected to different image processing, the output size and the type of image processing are output to the
The
図7は、デコード装置DEにより実行される処理を示すフローチャートである。図7において、まずデコーダ10は、ビットストリームで入力された入力画像をデコードする(ステップS101)。次いで、特徴検出部11は、特徴情報を検出し、検出した特徴情報を画像合成コントローラ110に出力する(ステップS102)。
次いで、画像処理部12は、上述した画像処理を施し(ステップS103)、画像処理を施した入力画像を画像記憶部13に記憶する(ステップS104)。エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、上述した動きベクトルの探索などを行うことで、エンコード情報を取得し(ステップS105)、取得したエンコード情報をエンコード情報記憶部15に記憶する(ステップS106)。
FIG. 7 is a flowchart showing processing executed by the decoding device DE. In FIG. 7, first, the
Next, the
図8は、エンコード装置ENにより実行される処理を示すフローチャートである。図8において、配信先から配信要求を受信すると(ステップS201:YES)、配信先のユーザIDを取得する(ステップS202)。
さらに、配信先から配信条件が通知されたことにより、配信条件があるか否か判定する(ステップS203)。配信条件が指定された場合には(ステップS203:YES)、配信条件を取得して(ステップS204)、ステップS205に進む。
一方、配信条件が指定されなかった場合(ステップS203:NO)、またはステップS204で配信条件を取得した場合には、マップ合成部20は、合成画像コントローラ110にユーザIDを出力する(ステップS205)。このとき、ステップS204で配信条件を取得した場合には、配信条件も出力される。
FIG. 8 is a flowchart showing processing executed by the encoding apparatus EN. In FIG. 8, when a distribution request is received from a distribution destination (step S201: YES), the distribution destination user ID is acquired (step S202).
Furthermore, it is determined whether or not there is a delivery condition when the delivery condition is notified from the delivery destination (step S203). When the distribution condition is designated (step S203: YES), the distribution condition is acquired (step S204), and the process proceeds to step S205.
On the other hand, when the distribution condition is not specified (step S203: NO ), or when the distribution condition is acquired in step S204, the
図9は、合成画像コントローラ110により実行される処理を示すフローチャートである。まず、合成画像コントローラ110は、デコード装置DEから特徴情報、メタ情報を受信したか否か判定する(ステップS301)。特徴情報、メタ情報を受信した場合には(ステップS301:YES)、合成画像コントローラ110は、特徴情報、メタ情報をDE_IDと関連付けて指向データベース120に記憶して(ステップS311)、ステップS301に戻る。
特徴情報、メタ情報を受信していない場合には(ステップS301:NO)、合成画像コントローラ110は、エンコード装置ENからユーザIDを受信したか否か判定する(ステップS302)。ユーザIDを受信していない場合には(ステップS302:NO)、ステップS301に戻る。
FIG. 9 is a flowchart showing processing executed by the
If feature information and meta information have not been received (step S301: NO), the
エンコード装置ENからユーザIDを受信した場合には(ステップS302:YES)、合成画像コントローラ110は、配信条件があるか否か判定する(ステップS303)。配信条件がある場合には(ステップS303:YES)、合成画像コントローラ110は、配信条件に基づき特定情報を生成する(ステップS309)。
具体的に、合成画像コントローラ110は、まず特徴情報またはメタ情報が配信条件を満たす画像を出力するデコード装置DEを検索する。そして、検索されたデコード装置DEのうち、合成画像に必要な入力画像の数(例えば、5×5なら25)だけ、配信条件を満たす特徴情報またはメタ情報が多い順にデコード装置DEを特定し、その特定したデコード装置DEのDE_IDのリストを特定情報として生成する。
When the user ID is received from the encoding device EN (step S302: YES), the
Specifically, the
具体的に、合成画像コントローラ110は、デコード装置DEのうち、合成画像に必要な入力画像の数だけ、スコアの大きい順にデコード装置DEを特定し、その特定したデコード装置DEのDE_IDのリストを特定情報として生成する。
次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配置条件のときと同様に、スコアが大きい画像が目立つような配置情報を生成し(ステップS307)、ステップS308に進む。
例えば、5×5の合成画像とする場合、配置条件のときと同様に、中央の画像に、スコアが最も大きい画像が配置されるように配置情報を生成する。こうしてスコアが大きいほど、中央に近い位置に配置されるような配置情報を生成してもよい。
そして、合成画像コントローラ110は、合成情報をエンコード装置ENに通知して(ステップS308)、本処理を終了する。
Specifically, the
Next, the
For example, in the case of a 5 × 5 composite image, the arrangement information is generated so that the image with the highest score is arranged in the center image, as in the arrangement condition. Thus, arrangement information may be generated such that the larger the score, the closer to the center.
Then, the
Claims (9)
前記取得部により取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコード部と、
前記エンコード部によりエンコードされた前記1つの画像を配信する配信部と
を有することを特徴とする画像処理装置。 For each of a plurality of input images, an acquisition unit that acquires encoding information for encoding the input image;
An encoding unit that encodes as one image including the plurality of input images using the encoding information acquired by the acquisition unit;
An image processing apparatus comprising: a distribution unit that distributes the one image encoded by the encoding unit.
前記取得部は、前記生成部により生成された前記エンコード情報を取得することを特徴とする請求項1記載の画像処理装置。 A generation unit that generates the encoding information is provided for each of the plurality of input images,
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the encoding information generated by the generation unit.
前記エンコード部は、前記指定部により指定された条件を満たす前記入力画像を1つの画像としてエンコードすることを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。 A designating unit for designating a condition of the input image included in the one image;
4. The image processing apparatus according to claim 1, wherein the encoding unit encodes the input image satisfying a condition specified by the specifying unit as one image. 5.
前記複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得ステップと、
前記取得ステップにより取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコードステップと、
前記エンコードステップによりエンコードされた前記1つの画像を配信する配信ステップと
を有することを特徴とする制御方法。 A control method in an image processing apparatus that distributes a plurality of input images as one image,
For each of the plurality of input images, an obtaining step for obtaining encoding information for encoding the input image;
An encoding step of encoding as one image including the plurality of input images using the encoding information acquired in the acquisition step;
A distribution step of distributing the one image encoded by the encoding step.
前記複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得ステップと、
前記取得ステップにより取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコードステップと、
前記エンコードステップによりエンコードされた前記1つの画像を配信する配信ステップと
を有することを特徴とするプログラム。 A program for causing a plurality of input images to function as an image processing device that distributes as a single image,
For each of the plurality of input images, an obtaining step for obtaining encoding information for encoding the input image;
An encoding step of encoding as one image including the plurality of input images using the encoding information acquired in the acquisition step;
A distribution step of distributing the one image encoded by the encoding step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051300A JP2016171525A (en) | 2015-03-13 | 2015-03-13 | Image processing device, control method, and program |
PCT/JP2016/056754 WO2016147906A1 (en) | 2015-03-13 | 2016-03-04 | Image processing device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051300A JP2016171525A (en) | 2015-03-13 | 2015-03-13 | Image processing device, control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016171525A true JP2016171525A (en) | 2016-09-23 |
JP2016171525A5 JP2016171525A5 (en) | 2016-11-17 |
Family
ID=56919702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015051300A Pending JP2016171525A (en) | 2015-03-13 | 2015-03-13 | Image processing device, control method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2016171525A (en) |
WO (1) | WO2016147906A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004159040A (en) * | 2002-11-06 | 2004-06-03 | Mediagram:Kk | Meta-information service system over network |
JP2008136205A (en) * | 2006-11-27 | 2008-06-12 | Samsung Electronics Co Ltd | Data transmitting method and apparatus for simultaneously reproducing a plurality of moving picture contents, and method and apparatus for simultaneously reproducing a plurality of moving picture contents |
JP2010010908A (en) * | 2008-06-25 | 2010-01-14 | Hitachi Systems & Services Ltd | Management server, and video content processing method |
JP2012099890A (en) * | 2010-10-29 | 2012-05-24 | Sony Corp | Image processing device, image processing method, and image processing system |
JP2013172374A (en) * | 2012-02-22 | 2013-09-02 | Sony Corp | Image processing device, image processing method, and image processing system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4281950B2 (en) * | 2003-07-10 | 2009-06-17 | Kddi株式会社 | Video distribution device |
JP5018515B2 (en) * | 2007-11-20 | 2012-09-05 | ソニー株式会社 | Information processing apparatus, information processing method, display control apparatus, display control method, and program |
JP5171718B2 (en) * | 2009-03-31 | 2013-03-27 | 株式会社東芝 | Content recommendation device, method, and program |
-
2015
- 2015-03-13 JP JP2015051300A patent/JP2016171525A/en active Pending
-
2016
- 2016-03-04 WO PCT/JP2016/056754 patent/WO2016147906A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004159040A (en) * | 2002-11-06 | 2004-06-03 | Mediagram:Kk | Meta-information service system over network |
JP2008136205A (en) * | 2006-11-27 | 2008-06-12 | Samsung Electronics Co Ltd | Data transmitting method and apparatus for simultaneously reproducing a plurality of moving picture contents, and method and apparatus for simultaneously reproducing a plurality of moving picture contents |
JP2010010908A (en) * | 2008-06-25 | 2010-01-14 | Hitachi Systems & Services Ltd | Management server, and video content processing method |
JP2012099890A (en) * | 2010-10-29 | 2012-05-24 | Sony Corp | Image processing device, image processing method, and image processing system |
JP2013172374A (en) * | 2012-02-22 | 2013-09-02 | Sony Corp | Image processing device, image processing method, and image processing system |
Also Published As
Publication number | Publication date |
---|---|
WO2016147906A1 (en) | 2016-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3499897B1 (en) | Camerawork generating method and video processing device | |
US11057646B2 (en) | Image processor and image processing method | |
US10652544B2 (en) | Encoder, decoder, encoding method, and decoding method | |
JP5544426B2 (en) | Video bitstream transmission system | |
JP6030230B2 (en) | Panorama-based 3D video coding | |
US20190089958A1 (en) | Encoder, decoder, encoding method, and decoding method | |
EP3133819A1 (en) | Image delivery method, image reception method, server, terminal apparatus, and image delivery system | |
US20190174133A1 (en) | Encoder, decoder, encoding method, and decoding method | |
JP2016010145A (en) | Video distribution method, video reception method, server, terminal device and video distribution system | |
US20190191160A1 (en) | Encoder, decoder, encoding method, and decoding method | |
US20180352248A1 (en) | Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device | |
US20190174132A1 (en) | Encoder, decoder, encoding method, and decoding method | |
CN103635967A (en) | Video remixing system | |
WO2015159487A1 (en) | Image delivery method, image reception method, server, terminal apparatus, and image delivery system | |
US11741717B2 (en) | Data generator and data generating method | |
US11212549B2 (en) | Encoder, decoder, encoding method, and decoding method | |
KR101425286B1 (en) | Exhaustive sub-macroblock shape candidate save and restore protocol for motion estimation | |
US11297329B2 (en) | Image encoding method, transmission method, and image encoder | |
JP2017123503A (en) | Video distribution apparatus, video distribution method and computer program | |
US11356663B2 (en) | Encoder, decoder, encoding method, and decoding method | |
US11457053B2 (en) | Method and system for transmitting video | |
WO2016147906A1 (en) | Image processing device, control method, and program | |
CN102595111A (en) | Transmission method, device and system for multi-view coding stream | |
KR101979432B1 (en) | Apparatus and method for predicting user viewpoint using lication information of sound source in 360 vr contents | |
JP7296219B2 (en) | Receiving device, transmitting device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160929 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160929 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160929 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20161102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170627 |