JP2016171525A - Image processing device, control method, and program - Google Patents

Image processing device, control method, and program Download PDF

Info

Publication number
JP2016171525A
JP2016171525A JP2015051300A JP2015051300A JP2016171525A JP 2016171525 A JP2016171525 A JP 2016171525A JP 2015051300 A JP2015051300 A JP 2015051300A JP 2015051300 A JP2015051300 A JP 2015051300A JP 2016171525 A JP2016171525 A JP 2016171525A
Authority
JP
Japan
Prior art keywords
image
encoding
information
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015051300A
Other languages
Japanese (ja)
Other versions
JP2016171525A5 (en
Inventor
尚 小嶋
Takashi Kojima
尚 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2015051300A priority Critical patent/JP2016171525A/en
Priority to PCT/JP2016/056754 priority patent/WO2016147906A1/en
Publication of JP2016171525A publication Critical patent/JP2016171525A/en
Publication of JP2016171525A5 publication Critical patent/JP2016171525A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, a control method, and a program which reduce a processing amount in the case of collectively distributing plural images as a single image.SOLUTION: The image processing device comprises: an acquisition part which acquires encode information for encoding plural input images, for the input images; an encoding part which uses the encode information acquired by the acquisition part to encode the input images as a single image including the input images; and a distribution part which distributes the single image encoded by the encoding part.SELECTED DRAWING: Figure 8

Description

本発明は、画像処理装置、制御方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, a control method, and a program.

近年、インターネットの普及とアクセス回線の広帯域化に伴い、撮影した動画を、インターネットを介して配信する技術が注目されている。例えば、特許文献1に記載の技術では、複数のカメラを配置することによって複数種類の動画配信を準備し、ユーザが所望の動画を選択することを可能としている。この技術では、ユーザは選択した動画の配信を受けることができる。   In recent years, with the widespread use of the Internet and the widening of access lines, a technique for distributing captured moving images via the Internet has attracted attention. For example, in the technique described in Patent Document 1, a plurality of types of moving image distribution are prepared by arranging a plurality of cameras, and a user can select a desired moving image. With this technology, the user can receive the selected moving image.

上記技術に関連して、複数の動画像をタイル状に並べて1つの動画像とし、その動画像を配信する技術がある。この場合、まず入力された複数の動画像はそれぞれデコードされ、デコードされた動画像をまとめて1つの動画像とし、まとめた1つの動画像をエンコードした後に配信するようになっている。このように、従来技術では、複数の動画像を1つの動画像にまとめた後にエンコードされていた。   In relation to the above technique, there is a technique in which a plurality of moving images are arranged in a tile to form one moving image and the moving image is distributed. In this case, a plurality of input moving images are first decoded, and the decoded moving images are combined into one moving image, and the combined moving image is encoded and distributed. As described above, in the related art, encoding is performed after a plurality of moving images are combined into one moving image.

特開2011−103522号公報JP2011-103522A

複数の画像を1つにまとめる場合、1つにまとめた画像に含まれる画像の組合せが同じか、一部の画像が共通していても、画像を並べる順番など、まとめ方を変えて1つにまとめたときには、それぞれの動画像ごとにエンコードすることとなる。
この場合、共通する画像が含まれるにもかかわらず、1つにまとめた画像ごとにベクトル探索やモード決定を行わなければならず、配信先ごとに組合せを変えて1つにまとめた画像を配信することは、処理量やコスト面から現実的には困難であった。
When combining multiple images into one, even if the combination of the images included in the combined image is the same or some of the images are in common, the order of arranging the images is changed to one When they are summarized, encoding is performed for each moving image.
In this case, although a common image is included, vector search and mode determination must be performed for each grouped image, and a combination of images is distributed for each distribution destination. In practice, it was difficult in terms of processing amount and cost.

本発明は、このような事情に鑑みてなされたもので、その目的は、複数の画像をまとめて1つの画像として配信する場合の処理量を低減した画像処理装置、制御方法、及びプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, a control method, and a program that reduce the processing amount when a plurality of images are delivered together as one image. There is to do.

上述した課題を解決するために、本発明は、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得部と、前記取得部により取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコード部と、前記エンコード部によりエンコードされた前記1つの画像を配信する配信部とを有することを特徴とする。   In order to solve the above-described problem, the present invention uses, for each of a plurality of input images, an acquisition unit that acquires encoding information for encoding the input image, and the encoding information acquired by the acquisition unit. And an encoding unit that encodes as one image including the plurality of input images, and a distribution unit that distributes the one image encoded by the encoding unit.

以上説明したように、この発明によれば、複数の画像をまとめて1つの画像として配信する場合の処理量を低減した画像処理装置、制御方法、及びプログラムを提供することができる。   As described above, according to the present invention, it is possible to provide an image processing device, a control method, and a program that reduce the amount of processing when a plurality of images are delivered together as one image.

本実施形態による画像処理装置としての動画配信システムの構成を示すブロック図である。It is a block diagram which shows the structure of the moving image delivery system as an image processing apparatus by this embodiment. エンコード装置ENから配信される2種類の合成画像例を示す図である。It is a figure which shows the example of two types of synthesized images delivered from the encoding apparatus EN. デコード装置DEとエンコード装置ENの構成例を示す図である。It is a figure which shows the structural example of the decoding apparatus DE and the encoding apparatus EN. 複数種類のサイズの画像を出力する場合のデコード装置DEの構成例を示す図である。It is a figure which shows the structural example of the decoding apparatus DE in the case of outputting the image of several types of sizes. 動き検出・モード決定部により実行されるオフセット処理において、並べて合成する場合の座標変換の一例を示す図である。It is a figure which shows an example of the coordinate transformation in the case of combining in the offset process performed by the motion detection / mode determination unit. 動き検出・モード決定部により実行されるオフセット処理において、重畳して合成する場合の座標変換の一例を示す図である。It is a figure which shows an example of the coordinate conversion in the case of superimposing and combining in the offset process performed by a motion detection and mode determination part. デコード装置DEにより実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by the decoding apparatus DE. エンコード装置ENにより実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by the encoding apparatus EN. 合成画像コントローラにより実行される処理を示すフローチャートである。It is a flowchart which shows the process performed by the composite image controller. 動画配信システムの構成の変形例を示すブロック図である。It is a block diagram which shows the modification of a structure of a moving image delivery system.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本実施形態による画像処理装置としての動画配信システム100の構成を示すブロック図である。この動画配信システム100は、一例としてm個の端末から画像が入力され、入力された複数の入力画像を含む1つの画像(以下、「合成画像」という)を、n個の端末に配信するシステムである。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a moving image distribution system 100 as an image processing apparatus according to the present embodiment. As an example, the moving image distribution system 100 receives images from m terminals, and distributes one image including a plurality of input images (hereinafter referred to as “composite images”) to n terminals. It is.

同図に示すように、動画配信システム100は、H.264(MPEG−4 Part10:AVC)に準拠した複数のデコード装置DE、複数のエンコード装置EN、合成画像コントローラ110、及び指向データベース120を含んで構成される。
デコード装置DEは、デコード装置DE1からデコード装置DEmまでm個設けられており、最大でm個の入力画像に対応可能である。
デコード装置DEは、まず入力画像がビットストリームで入力される。デコード装置DEは、ビットストリームで入力された入力画像をデコードし、デコードした画像から動きベクトルやイントラまたはインターなどのモードを決定し、それをエンコード情報とする。そして、デコード装置DEは、エンコード情報とデコードした画像とをエンコード装置ENに出力する。
図1において、デコード装置DEとエンコード装置EN間は、実線と破線で接続されているが、これはエンコード情報とデコードした画像とが別々に出力されるためである。本実施形態の場合、実線は画像の出力を示し、破線はエンコード情報の出力を示している。具体的なデータ転送例については後述する。
また、デコード装置DEは、当該デコード装置DEが出力している画像の特徴情報及びタグ情報(後述)、デコード装置DEを識別するための識別子(DE_ID)を、合成画像コントローラ110に出力する。
As shown in FIG. It includes a plurality of decoding devices DE, a plurality of encoding devices EN, a composite image controller 110, and a directional database 120 compliant with H.264 (MPEG-4 Part 10: AVC).
M decoding devices DE are provided from the decoding device DE1 to the decoding device DEm, and can handle a maximum of m input images.
The decoding device DE first receives an input image as a bit stream. The decoding device DE decodes an input image input as a bit stream, determines a mode such as a motion vector or intra or inter from the decoded image, and uses it as encoding information. Then, the decoding device DE outputs the encoded information and the decoded image to the encoding device EN.
In FIG. 1, the decoding device DE and the encoding device EN are connected by a solid line and a broken line because the encoded information and the decoded image are output separately. In the present embodiment, the solid line indicates the output of the image, and the broken line indicates the output of the encoding information. A specific data transfer example will be described later.
Further, the decoding device DE outputs the image feature information and tag information (described later) output from the decoding device DE and an identifier (DE_ID) for identifying the decoding device DE to the composite image controller 110.

エンコード装置ENは、エンコード装置EN1からエンコード装置ENnまでn個設けられており、最大でn個の合成画像を配信可能である。
エンコード装置ENは、まず画像を配信する配信先(視聴者)を識別するための識別子(ユーザID)を合成画像コントローラ110に出力したり、配信する画像の条件である配信条件(例えば、女の子のみの画像、アニメ風の画像など)を必要に応じて合成画像コントローラ110に出力すると、合成画像コントローラ110から、合成画像に必要な入力画像を取得するデコード装置DEを特定する特定情報と、取得した入力画像を配置する配置位置を示す配置情報が通知される。以下、特定情報と配置情報とを合わせて合成情報と表現する。
There are n encoding devices EN from the encoding device EN1 to the encoding device ENn, and a maximum of n synthesized images can be distributed.
The encoding device EN first outputs an identifier (user ID) for identifying a distribution destination (viewer) to distribute an image to the composite image controller 110, or distribution conditions (for example, only girls) When the image is output to the composite image controller 110 as necessary, specific information for specifying the decoding device DE that acquires the input image necessary for the composite image is acquired from the composite image controller 110. Arrangement information indicating the arrangement position where the input image is arranged is notified. Hereinafter, the specific information and the arrangement information are combined and expressed as composite information.

エンコード装置ENは、デコード装置DEから出力された入力画像とエンコード情報、そして合成情報から、複数の入力画像を含む1つの画像としてエンコードした合成画像を配信先に配信する。
合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベースを参照することで、上記合成情報をエンコード装置ENに通知する。指向データベース120は、ユーザIDと関連付けて、配信先のユーザ情報(例えば、性別、年齢、趣味、その他嗜好など)や、ED_IDと関連付けて特徴情報やタグ情報が記憶されているデータベースである。
The encoding device EN distributes the composite image encoded as one image including a plurality of input images from the input image output from the decoding device DE, the encoding information, and the composite information to the distribution destination.
The composite image controller 110 notifies the encoding device EN of the composite information by referring to the directional database based on the above-described feature information, user ID, distribution conditions, and the like. The directional database 120 is a database that stores user information (for example, sex, age, hobbies, and other preferences) associated with a user ID, and feature information and tag information associated with an ED_ID.

以上説明した各処理により、エンコード装置ENは、合成画像1、2、3に示されるように、配信先ごとに異なる合成画像を配信することができる。図2は、エンコード装置ENから配信される2種類の合成画像例を示す図である。   Through the processes described above, the encoding device EN can distribute different composite images for each distribution destination as shown in the composite images 1, 2, and 3. FIG. 2 is a diagram illustrating two types of composite images distributed from the encoding device EN.

図2(A)は、複数の入力画像を並べた合成画像例を示す図である。図に示されるように、合成画像は、5×5のタイル状に分割した領域で構成され、複数の入力画像A、B、C、…を左上から順に並べた1つの画像になっている。図2(A)の場合、A、B、Cの順に左上から順に並べているが、図1の合成画像Cに示されるように、B、C、…、Aの順に左上から順に並べるなど、同じ画像を用いて並べる順番を変えた画像も配信することができる。なお、並べる入力画像の数は5×5に限らず、2〜24、または26以上の入力画像であってもよい。   FIG. 2A is a diagram illustrating a composite image example in which a plurality of input images are arranged. As shown in the figure, the composite image is composed of regions divided into 5 × 5 tiles, and is a single image in which a plurality of input images A, B, C,. In the case of FIG. 2A, they are arranged in order of A, B, C from the upper left, but as shown in the composite image C in FIG. 1, they are arranged in the order of B, C,. It is also possible to distribute images in which the order of arrangement using images is changed. The number of input images to be arranged is not limited to 5 × 5, and may be 2 to 24, or 26 or more input images.

図2(B)は、複数の入力画像を重畳した(重ねた)合成画像例を示す図である。図に示されるように、合成画像は、入力画像Aに、入力画像B、Cが重畳された画像となっている。図2(B)に示される合成画像例の他に、例えば入力画像Bにさらに入力画像Cの一部または全部を重畳した画像も配信できる。なお、重畳する入力画像の数は3に限らず、2または4以上の入力画像であってもよい。   FIG. 2B is a diagram illustrating an example of a composite image in which a plurality of input images are superimposed (overlapped). As shown in the figure, the composite image is an image in which the input images B and C are superimposed on the input image A. In addition to the composite image example shown in FIG. 2B, for example, an image obtained by superimposing a part or all of the input image C on the input image B can also be distributed. The number of input images to be superimposed is not limited to 3, and may be 2 or 4 or more.

次にデコード装置DE及びエンコード装置ENの構成例について説明する。図3は、デコード装置DEとエンコード装置ENの構成例を示す図である。まずデコード装置DEについて説明する。なお、図3に示されるデコード装置DEの構成は、エンコード装置ENに出力する画像のサイズが1種類のサイズの場合の構成を示している。
デコード装置DEは、デコーダ10、特徴検出部11、画像処理部12、画像記憶部13、エンコード情報取得部14、エンコード情報記憶部15を含んで構成される。
デコーダ10は、ビットストリームで入力された入力画像をデコードし、デコードされた入力画像を特徴検出部11に出力する。特徴検出部11は、画像を分析して、画像の特徴情報(例えば屋外の画像、雪シーンの画像、人物を含んでいる画像など画像の特徴を示す情報)を検出し、検出した特徴情報を画像合成コントローラ110に出力するとともに、入力画像を画像処理部12に出力する。
Next, configuration examples of the decoding device DE and the encoding device EN will be described. FIG. 3 is a diagram illustrating a configuration example of the decoding device DE and the encoding device EN. First, the decoding device DE will be described. Note that the configuration of the decoding device DE shown in FIG. 3 shows a configuration when the size of the image output to the encoding device EN is one type.
The decoding device DE includes a decoder 10, a feature detection unit 11, an image processing unit 12, an image storage unit 13, an encode information acquisition unit 14, and an encode information storage unit 15.
The decoder 10 decodes the input image input as a bit stream, and outputs the decoded input image to the feature detection unit 11. The feature detection unit 11 analyzes the image, detects feature information of the image (for example, information indicating the feature of the image such as an outdoor image, a snow scene image, an image including a person), and the detected feature information is detected. In addition to outputting to the image composition controller 110, the input image is output to the image processing unit 12.

また、特徴検出部11は、画像に設定されているタグ情報(例えば男、女、スポーツ、自動車、電車、料理、アニメ、カラオケ、楽器演奏など)も画像合成コントローラ110に出力する。従って、例えば雪が降る屋外にいる女性の画像であれば、特徴情報として「雪」、「屋外」が検出され、タグ情報として「女」が設定されているため、これらの情報が画像合成コントローラ110に出力される。   The feature detection unit 11 also outputs tag information (for example, man, woman, sports, automobile, train, cooking, animation, karaoke, musical instrument performance, etc.) set in the image to the image composition controller 110. Therefore, for example, in the case of an image of a woman who is outdoors with snow, “snow” and “outdoor” are detected as the feature information and “woman” is set as the tag information. Is output.

画像処理部12は、特徴検出部11から入力された入力画像に対し、画像のサイズ、輝度、及び色などを変更したり、物体の切り出しや、背景の切り出しを行ったり、各種イフェクト(例えば、アニメ風処理や美肌フィルタ処理などによるイフェクト)を追加したりするなどの画像処理を施し、画像処理を施した入力画像を画像記憶部13に記憶する。
例えば、図2(A)に示されるような5×5の合成画像(1920×1200)にする場合には、画像処理部12は、入力画像のサイズを384×240のサイズにする。
The image processing unit 12 changes the size, brightness, and color of the image input from the feature detection unit 11, cuts out an object, cuts out a background, and various effects (for example, Image processing such as adding an effect by animation-like processing or skin filter processing is performed, and the input image subjected to the image processing is stored in the image storage unit 13.
For example, in the case of a 5 × 5 composite image (1920 × 1200) as shown in FIG. 2A, the image processing unit 12 sets the size of the input image to 384 × 240.

エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などを行うことで、入力画像をエンコードするためのエンコード情報を取得し、取得したエンコード情報をエンコード情報記憶部15に記憶する。このエンコード情報は、ベクトル情報、またはモード情報であり、より詳細には動きベクトルやイントラ/インターや方向予測といったモードを示す情報である。
このように、エンコード情報取得部14は、エンコードにおいて必要となる処理のうち、処理負荷の大半を占める処理を予め行う。こうして取得されたエンコード情報により、エンコード装置ENでは、まとめる入力画像の配置などに関する処理を行った後は、周波数変換及び量子化といった処理負荷が比較的小さい処理を行うだけでエンコードすることができる。
The encoding information acquisition unit 14 encodes the input image by performing motion vector search, motion compensation, weighted prediction, intra prediction, mode determination, and the like for the input image stored in the image storage unit 13. Encoding information for this is acquired, and the acquired encoding information is stored in the encoding information storage unit 15. The encoding information is vector information or mode information, and more specifically, information indicating a mode such as a motion vector, intra / inter, or direction prediction.
Thus, the encoding information acquisition unit 14 performs in advance processing that occupies most of the processing load among the processing required for encoding. With the encoding information acquired in this manner, the encoding apparatus EN can perform encoding after performing processing relating to the arrangement of input images to be collected, and the like, by simply performing processing with a relatively small processing load such as frequency conversion and quantization.

デコード装置DEは、画像記憶部13に記憶された入力画像と、エンコード情報記憶部15に記憶されたエンコード情報とを、入力画像を必要とするエンコード装置ENに出力する。このように、エンコード情報を生成する生成部(後述するエンコード情報取得部に対応)が複数の入力画像ごとに対応して設けられている。   The decoding device DE outputs the input image stored in the image storage unit 13 and the encoding information stored in the encoding information storage unit 15 to the encoding device EN that requires the input image. As described above, a generation unit (corresponding to an encoding information acquisition unit described later) that generates encoding information is provided for each of a plurality of input images.

エンコード装置ENは、マップ合成部20、動き検出・モード決定部21、周波数変換・量子化部22、及びシンタックス変換部23を含んで構成される。マップ合成部20は、合成画像コントローラ110にユーザIDや配信条件を出力し、合成画像コントローラ110から通知された合成情報を受け取るとともに、入力画像ごとにエンコード情報をエンコード情報記憶部15から取得して、入力画像と当該入力画像に対応するエンコード情報とを対応付けて動き検出・モード決定部21に出力する。このように、マップ合成部20は、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得部となっている。また、マップ合成部20は、1つの画像に含まれる入力画像の条件が指定される指定部となっている。   The encoding apparatus EN includes a map synthesis unit 20, a motion detection / mode determination unit 21, a frequency conversion / quantization unit 22, and a syntax conversion unit 23. The map composition unit 20 outputs the user ID and distribution conditions to the composite image controller 110, receives the composite information notified from the composite image controller 110, and obtains the encode information for each input image from the encode information storage unit 15. The input image and the encoding information corresponding to the input image are associated with each other and output to the motion detection / mode determination unit 21. Thus, the map composition unit 20 is an acquisition unit that acquires encoding information for encoding the input image for each of the plurality of input images. The map composition unit 20 is a designation unit for designating the conditions of the input image included in one image.

動き検出・モード決定部21は、マップ合成部20から入力された入力画像とエンコード情報から、合成情報に示される配置位置に対応させたエンコード情報にするためのオフセット処理などを行うことで、合成画像のエンコード情報を決定する動き検出・モード決定処理を行う。そして動き検出・モード決定部21は、決定されたエンコード情報を周波数変換・量子化部22に出力する。
周波数変換・量子化部22は、動き検出・モード決定部21から入力されたエンコード情報を周波数変換及び量子化し、シンタックス変換部23に出力して、シンタックス変換部23は、ビットストリームで合成画像を配信する。
The motion detection / mode determination unit 21 performs synthesis processing by performing offset processing for converting the input image and the encoding information input from the map synthesis unit 20 into encoding information corresponding to the arrangement position indicated in the synthesis information. A motion detection / mode determination process for determining image encoding information is performed. The motion detection / mode determination unit 21 then outputs the determined encoding information to the frequency conversion / quantization unit 22.
The frequency conversion / quantization unit 22 performs frequency conversion and quantization on the encoded information input from the motion detection / mode determination unit 21 and outputs it to the syntax conversion unit 23. The syntax conversion unit 23 synthesizes the encoded information as a bit stream. Deliver images.

上述した動き検出・モード決定部21及び周波数変換・量子化部22は、マップ合成部20により取得されたエンコード情報を用いて、複数の入力画像を含む1つの画像としてエンコードするエンコード部となっている。また、シンタックス変換部23は、エンコードされた1つの画像を配信する配信部となっている。   The motion detection / mode determination unit 21 and the frequency conversion / quantization unit 22 described above are encoding units that encode as a single image including a plurality of input images using the encoding information acquired by the map synthesis unit 20. Yes. The syntax conversion unit 23 is a distribution unit that distributes one encoded image.

ここで、デコード装置DEからエンコード装置ENへのデータ転送例について説明する。本実施形態では、データはライン転送される。具体的に、デコード装置DEは、ラインメモリを介して画像をエンコード装置ENに出力する。例えば、図1に示される合成画像1を配信する場合には、エンコード装置ENは、入力画像1(A)の1ライン目を受け取り、引き続き、入力画像2(B)の1ライン目の受け取り、入力画像3(C)の1ライン目のデータを受け取ることにより、ラインバッファには入力画像1,2,3(ABC)という1ラインのデータが記憶される。
このライン転送を繰り返すことで、コーデックの処理単位(例えば、マクロブロック16×16)のライン分がラインバッファに記憶されると、入力画像1(A)のマクロブロックの処理が可能となる。そこで、エンコード装置ENは、デコーダ装置DEからエンコード情報を受け取ることで、エンコーダ装置ENにはフレームメモリを設けることなくエンコードすることができるので、フレームメモリを設ける場合と比較して、メモリ量を削減することができる。
Here, an example of data transfer from the decoding device DE to the encoding device EN will be described. In this embodiment, data is transferred by line. Specifically, the decoding device DE outputs an image to the encoding device EN via the line memory. For example, when distributing the composite image 1 shown in FIG. 1, the encoding device EN receives the first line of the input image 1 (A), and subsequently receives the first line of the input image 2 (B). By receiving the data of the first line of the input image 3 (C), the line buffer stores one line of data of the input images 1, 2, and 3 (ABC).
By repeating this line transfer, when a line of codec processing units (for example, macroblock 16 × 16) is stored in the line buffer, the macroblock of input image 1 (A) can be processed. Therefore, since the encoding device EN can receive the encoding information from the decoder device DE and can encode the encoder device EN without providing a frame memory, the amount of memory is reduced compared to the case where a frame memory is provided. can do.

次に、複数種類のサイズの画像を出力する場合のデコード装置DEの構成について説明する。図4は、複数種類のサイズの画像を出力する場合のデコード装置DEの構成例を示す図である。ここでは、図3と異なる構成について説明する。また、図4に示される構成例は、3種類(Lサイズ、Mサイズ、Sサイズ)の画像を出力する場合の構成を示している。
複数種類のサイズの画像を出力する場合、種類分の画像記憶部13、エンコード情報取得部14、及びエンコード情報記憶部15が設けられる。図4の場合、3種類であるため、画像記憶部13−1、13−2、13−3、エンコード情報取得部14−1、14−2、14−3、及びエンコード情報記憶部15−1、15−2、15−3が設けられる。
Next, the configuration of the decoding device DE when outputting images of a plurality of types of sizes will be described. FIG. 4 is a diagram illustrating a configuration example of the decoding device DE when outputting images of a plurality of types of sizes. Here, a configuration different from FIG. 3 will be described. In addition, the configuration example illustrated in FIG. 4 illustrates a configuration in the case of outputting three types of images (L size, M size, and S size).
When outputting images of a plurality of types of sizes, an image storage unit 13, an encode information acquisition unit 14, and an encode information storage unit 15 are provided for each type. In the case of FIG. 4, since there are three types, the image storage units 13-1, 13-2, and 13-3, the encoding information acquisition units 14-1, 14-2, and 14-3, and the encoding information storage unit 15-1 15-2 and 15-3.

画像記憶部13−1、13−2、13−3は、それぞれLサイズ、Mサイズ、Sサイズの画像を記憶する。エンコード情報取得部14−1、14−2、14−3は、それぞれLサイズ、Mサイズ、Sサイズのエンコード情報を取得する。エンコード情報記憶部15−1、15−2、15−3は、それぞれLサイズ、Mサイズ、Sサイズのエンコード情報を記憶する。さらに、Sサイズのエンコード情報を記憶するエンコード情報記憶部15−3は、記憶したエンコード情報をMサイズのエンコード情報を記憶するエンコード情報記憶部15−2に出力する。また、Mサイズのエンコード情報を記憶するエンコード情報記憶部15−2は、記憶したエンコード情報をLサイズのエンコード情報を記憶するエンコード情報記憶部15−1に出力する。   The image storage units 13-1, 13-2, and 13-3 store L size, M size, and S size images, respectively. The encoding information acquisition units 14-1, 14-2, and 14-3 acquire L size, M size, and S size encoding information, respectively. The encoding information storage units 15-1, 15-2, and 15-3 store L size, M size, and S size encoding information, respectively. Further, the encode information storage unit 15-3 that stores the S-size encode information outputs the stored encode information to the encode information storage unit 15-2 that stores the M-size encode information. The encode information storage unit 15-2 that stores M size encode information outputs the stored encode information to the encode information storage unit 15-1 that stores L size encode information.

また、図4には、画像処理部12から出力された画像のサイズを変更する(図4の場合は縮小)するフィルタが設けられる。図4に示される構成の場合、Lサイズは画像処理部12が出力した画像のサイズそのものとしているため、画像処理部12と画像記憶部13−1との間にフィルタは設けられていないが、画像処理部12と画像記憶部13−2との間、画像処理部12と画像記憶部13−3との間には、それぞれ縮小フィルタF1、F2が設けられている。   4 is provided with a filter for changing the size of the image output from the image processing unit 12 (in the case of FIG. 4, reduction). In the case of the configuration shown in FIG. 4, since the L size is the size of the image output from the image processing unit 12, no filter is provided between the image processing unit 12 and the image storage unit 13-1. Reduction filters F1 and F2 are provided between the image processing unit 12 and the image storage unit 13-2 and between the image processing unit 12 and the image storage unit 13-3, respectively.

縮小フィルタF1は、画像処理部12から出力された画像をMサイズに縮小するフィルタである。縮小フィルタF2は、画像処理部12から出力された画像をSサイズに縮小するフィルタである。
また、エンコード情報取得部14−1、14−2、14−3は、対応する画像記憶部13−1、13−2、13−3に記憶された画像に対して、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などをそれぞれ独立して行ってもよいが、本実施形態ではエンコード情報取得部14−3、14−2、14−1の順(サイズの小さい順)に処理を開始する。
The reduction filter F1 is a filter that reduces the image output from the image processing unit 12 to M size. The reduction filter F2 is a filter that reduces the image output from the image processing unit 12 to an S size.
Also, the encoding information acquisition units 14-1, 14-2, and 14-3 search for motion vectors and perform motions on the images stored in the corresponding image storage units 13-1, 13-2, and 13-3. Compensation, weighted prediction, intra prediction, mode determination, and the like may be performed independently. However, in this embodiment, the encoding information acquisition units 14-3, 14-2, and 14-1 are arranged in the order (smallest size). ) Start processing.

これは、エンコード情報取得部14−1、14−2、14−3がエンコード情報を取得する各々の画像はサイズが異なるだけであるため、まずエンコード情報を取得するために処理負荷が小さいSサイズの画像に対して処理を開始することで、その処理で得られたエンコード情報を再利用することにより、さらに高速化が図れるためである。   This is because the images for which the encoding information acquisition units 14-1, 14-2, and 14-3 acquire the encoding information are only different in size. This is because, by starting the processing on the image, the encoding information obtained by the processing can be reused to further increase the speed.

従って、本実施形態では、エンコード情報取得部14−3の処理で得られたエンコード情報は、エンコード情報取得部14−2に出力され、エンコード情報取得部14−2が再利用し、エンコード情報取得部14−2の処理で得られたエンコード情報は、エンコード情報取得部14−1に出力され、エンコード情報取得部14−1が再利用することとなる。このようにすることにより、例えばデコード装置DEをハードウェアで実現する場合の回路サイズを抑制でき、またメモリの帯域を削減できる。さらに、サイズに応じて、量子化パラメータなどを個別に設定するようにしてもよい。
こうして複数種類のサイズの画像を出力することにより、図1で示した合成画像1と合成画像3のように、同じ画像でサイズが異なる画像を同時に配信できるようになる。例えば、図1の合成画像2の場合、エンコード装置EN2は、Lサイズの画像A、Mサイズの画像B、Sサイズの画像Cを取得することで、合成画像2を配信する。
Therefore, in this embodiment, the encoding information obtained by the processing of the encoding information acquisition unit 14-3 is output to the encoding information acquisition unit 14-2, and is reused by the encoding information acquisition unit 14-2. The encoding information obtained by the processing of the unit 14-2 is output to the encoding information acquisition unit 14-1, and is reused by the encoding information acquisition unit 14-1. By doing so, for example, the circuit size when the decoding device DE is realized by hardware can be suppressed, and the bandwidth of the memory can be reduced. Furthermore, quantization parameters and the like may be individually set according to the size.
By outputting images of a plurality of types in this way, it is possible to simultaneously distribute images of the same image but different sizes, such as the composite image 1 and the composite image 3 shown in FIG. For example, in the case of the composite image 2 in FIG. 1, the encoding device EN2 distributes the composite image 2 by acquiring an L-size image A, an M-size image B, and an S-size image C.

なお、複数種類のサイズの画像を出力する場合の構成として、図4に示した構成の他に、エンコード情報取得部14の内部に縮小フィルタを設けた構成でもよい。この場合、まず画像をSサイズに縮小し、Sサイズに縮小した画像のエンコード情報を取得する。次いで画像をMサイズに縮小し、Sサイズで取得したエンコード情報を再利用してMサイズに縮小した画像のエンコード情報を取得する。そして、Mサイズで取得したエンコード情報を再利用してLサイズの画像のエンコード情報を取得することとなる。このとき、エンコード情報を記憶するためのラインメモリを設け、ラインメモリに記憶されたエンコード情報を再利用することで、回路面積を減らすことができる。
図4に示した構成は、複数種類のサイズの画像を出力する場合の構成であるが、異なる画像処理が施された複数種類の画像を出力することも可能である。例えば、3種類の異なる画像処理が施された3種類の画像を出力する場合、画像記憶部13−1、13−2、13−3の各々に対応して異なる画像処理を施す画像処理部を設け、これら画像処理部が対応する画像記憶部ごとに画像を出力することとなる。
In addition to the configuration shown in FIG. 4, a configuration in which a reduction filter is provided inside the encode information acquisition unit 14 may be used as a configuration when outputting images of a plurality of types of sizes. In this case, first, the image is reduced to S size, and encoding information of the image reduced to S size is acquired. Next, the image is reduced to the M size, and the encoding information acquired at the S size is reused to acquire the encoding information of the image reduced to the M size. Then, the encoding information acquired in the M size is reused to acquire the encoding information of the L size image. At this time, the circuit area can be reduced by providing a line memory for storing the encoded information and reusing the encoded information stored in the line memory.
The configuration shown in FIG. 4 is a configuration for outputting images of a plurality of types, but it is also possible to output a plurality of types of images subjected to different image processing. For example, when outputting three types of images subjected to three different types of image processing, image processing units that perform different image processing corresponding to each of the image storage units 13-1, 13-2, and 13-3 are provided. The image processing unit outputs an image for each corresponding image storage unit.

このように、複数種類のサイズの画像を出力したり、異なる画像処理が施された複数種類の画像を出力したりする場合には、出力するサイズや画像処理の種類を合成画像コントローラ110に出力する。複数種類のサイズの画像を出力する場合、デコード装置DEは、ED_IDとともに、「1.Lサイズ」、「2.Mサイズ」、「3.Sサイズ」を合成画像コントローラ110に出力する。同様に、異なる画像処理が施された複数種類の画像を出力する場合、デコード装置DEは、ED_IDとともに、「1.アニメ風」、「2.美肌」、「3.イラスト風」を合成画像コントローラ110に出力する。
合成画像コントローラ110は、これらのサイズや画像処理の情報をED_IDと関連付けて、指向データベース120に記憶しておく。そして、合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベース120を参照することで上記合成情報をエンコード装置ENに通知する。
As described above, when outputting a plurality of types of images or outputting a plurality of types of images subjected to different image processing, the output size and the type of image processing are output to the composite image controller 110. To do. When outputting images of a plurality of types, the decoding device DE outputs “1.L size”, “2.M size”, and “3.S size” to the composite image controller 110 together with ED_ID. Similarly, when outputting a plurality of types of images subjected to different image processing, the decoding device DE outputs “1. animation style”, “2. beautiful skin”, and “3. illustration style” together with ED_ID. To 110.
The composite image controller 110 stores these size and image processing information in the directional database 120 in association with the ED_ID. Then, the composite image controller 110 notifies the encoding device EN of the composite information by referring to the directional database 120 based on the above-described feature information, user ID, distribution conditions, and the like.

図5は、動き検出・モード決定部21により実行されるオフセット処理において、並べて合成する場合の座標変換の一例を示す図である。この例では、合成情報の配置情報が、領域数m×mで、n番目の位置に入力画像を配置することを示しているとする。このn番目とは、図5に示されるように、入力画像を左上から横に並べ、右端に到達したら、左端に戻り、左端から再び並べていく場合の順番を示すものとする。
また、合成画像のサイズをK×Lとし、K=mk、L=mlとする。入力画像は合成画像に合わせて画像処理部12によりサイズが調整されているので、入力画像のサイズはk×lとなる。
FIG. 5 is a diagram illustrating an example of coordinate transformation in the case of side-by-side synthesis in the offset processing executed by the motion detection / mode determination unit 21. In this example, it is assumed that the arrangement information of the composite information indicates that the input image is arranged at the nth position with the number of areas m × m. As shown in FIG. 5, the n-th indicates the order in which the input images are arranged horizontally from the upper left, return to the left end when reaching the right end, and are arranged again from the left end.
Also, the size of the composite image is K × L, and K = mk and L = ml. Since the size of the input image is adjusted by the image processing unit 12 according to the composite image, the size of the input image is k × l.

ここで、入力画像におけるST座標での点を(s、t)とし、その(s、t)に対応する合成画像におけるXY座標での点を(x、y)とし、q、rをn=mq+r(0≦r<m)を満たすq、rとすると、(x、y)=(s+kr、t+L−l(q+1))となる。
この式に示されるように、画像合成コントローラ110は、配置位置に関して、入力画像の数m×mを示すmと、順番を示すnとを通知すればよく、動き検出・モード決定部21はmとnとを用いて座標変換を行うことができる。
Here, the point at the ST coordinate in the input image is (s, t), the point at the XY coordinate in the composite image corresponding to (s, t) is (x, y), and q and r are n = Assuming q and r satisfying mq + r (0 ≦ r <m), (x, y) = (s + kr, t + L−1 (q + 1)).
As shown in this equation, the image composition controller 110 only has to notify m indicating the number m × m of input images and n indicating the order regarding the arrangement position, and the motion detection / mode determination unit 21 sets m And n can be used to perform coordinate transformation.

図6は、動き検出・モード決定部21により実行されるオフセット処理において、重畳して合成する場合の座標変換の一例を示す図である。この例では、合成情報の配置情報が、入力画像のST座標での原点Oを配置するXY座標での位置(x1、y1)を示しているものとする。
ここで、入力画像におけるST座標での点を(s、t)とし、その(s、t)に対応する合成画像におけるXY座標での点を(x、y)とすると、(x、y)=(s+x1、t+y1)となる。
FIG. 6 is a diagram illustrating an example of coordinate conversion in the case of superimposing and synthesizing in the offset processing executed by the motion detection / mode determination unit 21. In this example, it is assumed that the arrangement information of the composite information indicates the position (x1, y1) in the XY coordinates where the origin O in the ST coordinates of the input image is arranged.
Here, when the point at the ST coordinate in the input image is (s, t) and the point at the XY coordinate in the composite image corresponding to (s, t) is (x, y), (x, y) = (S + x1, t + y1).

この式に示されるように、画像合成コントローラ110は、入力画像のST座標での原点Oを配置するXY座標での位置(x1、y1)を通知すればよく、動き検出・モード決定部21は位置(x1、y1)を用いて座標変換を行うことができる。
座標変換方法は、上述した図5、6で説明した方法に限らず、並べて合成する場合には、5×5など、最初から合成する入力画像の数を固定で定めておいて変換する方法や、重畳する場合には、最初から重畳する位置を固定で定めておいて変換する方法などもある。
As shown in this equation, the image composition controller 110 only has to notify the position (x1, y1) in the XY coordinates where the origin O in the ST coordinate of the input image is arranged, and the motion detection / mode determination unit 21 Coordinate conversion can be performed using the position (x1, y1).
The coordinate conversion method is not limited to the method described with reference to FIGS. 5 and 6 described above. When the images are combined side by side, the number of input images to be combined from the beginning, such as 5 × 5, is fixed and converted. In the case of superimposing, there is a method in which the position to be superimposed is fixedly determined from the beginning and converted.

図7は、デコード装置DEにより実行される処理を示すフローチャートである。図7において、まずデコーダ10は、ビットストリームで入力された入力画像をデコードする(ステップS101)。次いで、特徴検出部11は、特徴情報を検出し、検出した特徴情報を画像合成コントローラ110に出力する(ステップS102)。
次いで、画像処理部12は、上述した画像処理を施し(ステップS193)、画像処理を施した入力画像を画像記憶部13に記憶する(ステップS104)。エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、上述した動きベクトルの探索などを行うことで、エンコード情報を取得し(ステップS105)、取得したエンコード情報をエンコード情報記憶部15に記憶する(ステップS106)。
FIG. 7 is a flowchart showing processing executed by the decoding device DE. In FIG. 7, first, the decoder 10 decodes an input image input as a bit stream (step S101). Next, the feature detection unit 11 detects feature information and outputs the detected feature information to the image composition controller 110 (step S102).
Next, the image processing unit 12 performs the above-described image processing (step S193), and stores the input image subjected to the image processing in the image storage unit 13 (step S104). The encoding information acquisition unit 14 acquires the encoding information by performing the above-described motion vector search for the input image stored in the image storage unit 13 (step S105), and converts the acquired encoding information into the encoding information. It memorize | stores in the memory | storage part 15 (step S106).

そして、入力画像とエンコード情報をエンコード装置ENに出力し(ステップS107)、デコードを終了するか否か判定する(ステップS108)。デコードを終了しない場合には(ステップS108:NO)、ステップS101に戻る。一方、ビットストリームの送信元から送信停止を受信したときなどによりデコードを終了する場合(ステップS108;YES)、本処理を終了する。   Then, the input image and the encoding information are output to the encoding device EN (step S107), and it is determined whether or not to end the decoding (step S108). If the decoding is not completed (step S108: NO), the process returns to step S101. On the other hand, when decoding is terminated when a transmission stop is received from the transmission source of the bitstream (step S108; YES), this processing is terminated.

図8は、エンコード装置ENにより実行される処理を示すフローチャートである。図8において、配信先から配信要求を受信すると(ステップS201:YES)、配信先のユーザIDを取得する(ステップS202)。
さらに、配信先から配信条件が通知されたことにより、配信条件があるか否か判定する(ステップS203)。配信条件が指定された場合には(ステップS203:YES)、配信条件を取得して(ステップS204)、ステップS205に進む。
一方、配信条件が指定されなかった場合(ステップS203:YES)、またはステップS204で配信条件を取得した場合には、マップ合成部20は、合成画像コントローラ110にユーザIDを出力する(ステップS205)。このとき、ステップS204で配信条件を取得した場合には、配信条件も出力される。
FIG. 8 is a flowchart showing processing executed by the encoding apparatus EN. In FIG. 8, when a distribution request is received from a distribution destination (step S201: YES), the distribution destination user ID is acquired (step S202).
Furthermore, it is determined whether or not there is a delivery condition when the delivery condition is notified from the delivery destination (step S203). When the distribution condition is designated (step S203: YES), the distribution condition is acquired (step S204), and the process proceeds to step S205.
On the other hand, when the distribution condition is not specified (step S203: YES) or when the distribution condition is acquired in step S204, the map composition unit 20 outputs the user ID to the composite image controller 110 (step S205). . At this time, if the distribution condition is acquired in step S204, the distribution condition is also output.

マップ合成部20は、合成画像コントローラ110から合成情報を受け取り(ステップS206)、配置情報に従って入力画像と当該入力画像に対応するエンコード情報取得する(ステップS207)。
次いで、動き検出・モード決定部21は、上述した動き検出・モード決定処理を行い(ステップS208)、周波数変換・量子化部22は、エンコード情報を周波数変換及び量子化し(ステップS209)、シンタックス変換部23は、ビットストリームで合成画像を配信する(ステップS210)。
The map composition unit 20 receives composition information from the composition image controller 110 (step S206), and acquires an input image and encoding information corresponding to the input image according to the arrangement information (step S207).
Next, the motion detection / mode determination unit 21 performs the motion detection / mode determination process described above (step S208), and the frequency conversion / quantization unit 22 performs frequency conversion and quantization of the encoded information (step S209), and syntax. The conversion unit 23 distributes the composite image as a bit stream (step S210).

次いで、配信先から配信停止を受信したか否か判定する(ステップS211)。配信先から配信停止を受信した場合には(ステップS211:YES)、本処理を終了する。一方、配信先から配信停止を受信していない場合には(ステップS211:NO)、ステップS207に戻る。   Next, it is determined whether or not a distribution stop has been received from the distribution destination (step S211). When the distribution stop is received from the distribution destination (step S211: YES), this process is terminated. On the other hand, when the distribution stop has not been received from the distribution destination (step S211: NO), the process returns to step S207.

図9は、合成画像コントローラ110により実行される処理を示すフローチャートである。まず、合成画像コントローラ110は、デコード装置DEから特徴情報、メタ情報を受信したか否か判定する(ステップS301)。特徴情報、メタ情報を受信した場合には(ステップS301:YES)、合成画像コントローラ110は、特徴情報、メタ情報をED_IDと関連付けて指向データベース120に記憶して(ステップS311)、ステップS301に戻る。
特徴情報、メタ情報を受信していない場合には(ステップS301:NO)、合成画像コントローラ110は、エンコード装置ENからユーザIDを受信したか否か判定する(ステップS302)。ユーザIDを受信していない場合には(ステップS302:NO)、ステップS301に戻る。
FIG. 9 is a flowchart showing processing executed by the composite image controller 110. First, the composite image controller 110 determines whether or not feature information and meta information have been received from the decoding device DE (step S301). When the feature information and meta information are received (step S301: YES), the composite image controller 110 stores the feature information and meta information in the directional database 120 in association with the ED_ID (step S311), and returns to step S301. .
If feature information and meta information have not been received (step S301: NO), the composite image controller 110 determines whether a user ID has been received from the encoding device EN (step S302). If the user ID has not been received (step S302: NO), the process returns to step S301.

エンコード装置ENからユーザIDを受信した場合には(ステップS302:YES)、合成画像コントローラ110は、配信条件があるか否か判定する(ステップS303)。配信条件がある場合には(ステップS303:YES)、合成画像コントローラ110は、配信条件に基づき特定情報を生成する(ステップS309)。
具体的に、合成画像コントローラ110は、まず特徴情報またはメタ情報が配信条件を満たす画像を出力するデコード装置DEを検索する。そして、検索されたデコード装置DEのうち、合成画像に必要な入力画像の数(例えば、5×5なら25)だけ、配信条件を満たす特徴情報またはメタ情報が多い順にデコード装置DEを特定し、その特定したデコード装置DEのED_IDのリストを特定情報として生成する。
When the user ID is received from the encoding device EN (step S302: YES), the composite image controller 110 determines whether there is a distribution condition (step S303). If there is a distribution condition (step S303: YES), the composite image controller 110 generates specific information based on the distribution condition (step S309).
Specifically, the composite image controller 110 first searches for a decoding device DE that outputs an image whose feature information or meta information satisfies a distribution condition. Then, among the searched decoding devices DE, the decoding devices DE are specified in descending order of the feature information or meta information satisfying the distribution conditions by the number of input images required for the composite image (for example, 25 for 5 × 5), A list of ED_IDs of the specified decoding device DE is generated as specific information.

次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配信条件を満たす特徴情報またはメタ情報が多い画像ほど目立つような配置情報を生成し(ステップS310)、ステップS308に進む。
例えば、5×5の合成画像とする場合、中央の画像に、配信条件を満たす特徴情報またはメタ情報が最も多い画像が配置されるように配置情報を生成する。こうして配信条件を満たす特徴情報またはメタ情報が多いほど、中央に近い位置に配置されるような配置情報を生成してもよい。
Next, the composite image controller 110 generates arrangement information. Specifically, the composite image controller 110 generates arrangement information such that an image with more feature information or meta information satisfying the distribution condition is more conspicuous (step S310), and the process proceeds to step S308.
For example, in the case of a 5 × 5 composite image, the placement information is generated so that the image having the largest feature information or meta information satisfying the delivery condition is placed in the center image. In this way, arrangement information may be generated such that the more characteristic information or meta information that satisfies the distribution condition, the closer to the center.

ステップS303に戻り、配信条件がない場合には(ステップS303:NO)、合成画像コントローラ110は、指向データベース120を参照して、ユーザIDからユーザ情報を取得する(ステップS304)。
次いで、合成画像コントローラ110は、指向データベース120に記憶された特徴情報、メタ情報、ユーザ情報を用いて主成分分析を行うことで、エンコード装置ENごとにスコアを算出する(ステップS305)。
そして、合成画像コントローラ110は、スコアに基づき特定情報を生成する(ステップS306)。
Returning to step S303, if there is no distribution condition (step S303: NO), the composite image controller 110 refers to the directional database 120 and acquires user information from the user ID (step S304).
Next, the composite image controller 110 calculates a score for each encoding device EN by performing principal component analysis using the feature information, meta information, and user information stored in the directional database 120 (step S305).
Then, the composite image controller 110 generates specific information based on the score (step S306).

具体的に、合成画像コントローラ110は、デコード装置DEのうち、合成画像に必要な入力画像の数だけ、スコアの大きい順にデコード装置DEを特定し、その特定したデコード装置DEのED_IDのリストを特定情報として生成する。
次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配置条件のときと同様に、スコアが大きい画像が目立つような配置情報を生成し(ステップS307)、ステップS308に進む。
例えば、5×5の合成画像とする場合、配置条件のときと同様に、中央の画像に、スコアが最も大きい画像が配置されるように配置情報を生成する。こうしてスコアが大きいほど、中央に近い位置に配置されるような配置情報を生成してもよい。
そして、合成画像コントローラ110は、合成情報をエンコード装置ENに通知して(ステップS308)、本処理を終了する。
Specifically, the synthesized image controller 110 identifies the decoding device DE in descending order of the number of input images necessary for the synthesized image among the decoding devices DE, and identifies the list of ED_IDs of the identified decoding device DE. Generate as information.
Next, the composite image controller 110 generates arrangement information. Specifically, similarly to the arrangement condition, the composite image controller 110 generates arrangement information such that an image with a large score is conspicuous (step S307), and the process proceeds to step S308.
For example, in the case of a 5 × 5 composite image, the arrangement information is generated so that the image with the highest score is arranged in the center image, as in the arrangement condition. Thus, arrangement information may be generated such that the larger the score, the closer to the center.
Then, the composite image controller 110 notifies the encoding information to the encoding device EN (step S308), and ends this processing.

このように、配信条件や主成分分析を用いることにより、例えば視聴者が女性の場合、男性画像を集めて合成した合成画像を配信したり、視聴者がアニメ好きの場合、アニメに関係する画像を合成した合成画像を配信したり、視聴者がゲーム好きの場合、ゲームに関係する画像を合成した合成画像を配信したり、視聴者がスキー好きの場合、雪景色など雪に関係する画像を合成した合成画像を配信したりすることができる。   In this way, by using distribution conditions and principal component analysis, for example, when the viewer is a woman, a composite image obtained by collecting and synthesizing male images is distributed, or when the viewer likes anime, images related to anime If the viewer likes a game, or if the viewer likes a game, or if the viewer likes skiing, the snow scene or other image related to snow The synthesized composite image can be distributed.

以上説明したように、本実施形態によれば、複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得し、取得されたエンコード情報を用いて、複数の入力画像を含む1つの画像としてエンコードするので、画像を1つにまとめてからエンコードする場合と比較して、大幅に処理量を低減することができる。
また、配信する画像の組合せや、並べ方が頻繁に変更される場合にも、単に配置を変えるだけであって、処理負荷の大半を占める動きベクトルの探索などを改めて行う必要がないので、画像を1つにまとめてからエンコードする場合と比較して、著しく処理量を低減することができる。
As described above, according to the present embodiment, the encoding information for encoding the input image is obtained for each of the plurality of input images, and the plurality of input images are included using the acquired encoding information. Since encoding is performed as one image, the processing amount can be significantly reduced as compared with the case of encoding after combining the images into one.
In addition, even when the combination and arrangement of images to be distributed are frequently changed, the arrangement is simply changed and there is no need to search for motion vectors that occupy most of the processing load. Compared with the case of encoding after combining them into one, the processing amount can be significantly reduced.

また、本実施形態において、図1に示した動画配信システム100の構成例では、デコード装置DEとエンコード装置ENが直結した構成となっているが、デコード装置DEまたはエンコード装置ENの増加に伴い、配線が増えていくこととなる。そこでデコード装置DEとエンコード装置ENを、経路スイッチを介して接続するようにしてもよい。   Further, in the present embodiment, the configuration example of the moving image distribution system 100 illustrated in FIG. 1 has a configuration in which the decoding device DE and the encoding device EN are directly connected, but with the increase in the decoding device DE or the encoding device EN, Wiring will increase. Therefore, the decoding device DE and the encoding device EN may be connected via a path switch.

図10は、動画配信システム100の構成の変形例を示すブロック図である。図10において、動画配信システム100は経路スイッチSWが設けられた構成となっている。この経路スイッチSWは、PCIe(PCI−Express)のスイッチであり、デコード装置DEとエンコード装置ENをEthernet(登録商標) Over PCIeで接続する。
図10に示す構成によれば、図1に示した構成と比較して、配線を減らすことができるとともに、配線の自由度を大きくすることができる。
FIG. 10 is a block diagram illustrating a modified example of the configuration of the moving image distribution system 100. In FIG. 10, the moving image distribution system 100 has a configuration in which a route switch SW is provided. The path switch SW is a PCIe (PCI-Express) switch, and connects the decoding device DE and the encoding device EN by Ethernet (registered trademark) Over PCIe.
According to the configuration shown in FIG. 10, the number of wirings can be reduced and the degree of freedom of the wiring can be increased as compared with the configuration shown in FIG.

なお、図2(A)に示した並べてまとめる例では、いずれの入力画像も同じ大きさでまとめられたが、異なる大きさにしてもよい。例えば、配信条件を満たすものほど、または主成分分析のスコアが大きいものほど、大きく表示されるようにしてもよい。   Note that, in the example shown in FIG. 2A in which the images are arranged side by side, all the input images are collected in the same size, but may be different sizes. For example, the larger the distribution condition or the larger the principal component analysis score, the larger the display may be.

また、本実施形態に係る画像処理装置としての動画配信システム100は、上述したように、大きく分けてデコード装置DEとエンコード装置ENで構成されるが、運用形態の一例として、ブレードサーバのように、1つのブレードにデコード装置DEとエンコード装置ENとを搭載し、このブレードを筐体内に搭載した運用形態が挙げられる。   Further, as described above, the moving image distribution system 100 as the image processing apparatus according to the present embodiment is roughly composed of the decoding device DE and the encoding device EN, but as an example of the operation mode, like a blade server. There is an operation mode in which the decoding device DE and the encoding device EN are mounted on one blade and the blade is mounted in a casing.

また、デコード装置DEとエンコード装置ENをそれぞれ異なる装置とし、デコード装置DEとエンコード装置ENをインテリジェントスイッチを備えたネットワークで接続する運用形態も挙げられる。この場合、上述したライン転送に代えて、例えばフレームごとに転送したときは、エンコード装置ENにラインバッファではなく、フレームが記憶できる程度のメモリを設けるようにしておく。
また、ネットワーク上に合成画像コントローラとして動作する装置を設けることにより、図9で説明した配信条件やスコアに基づく合成画像の配信を実現することができる。さらに、データを効率よく転送するためにイーサスイッチと合成画像コントローラ110を結び付けて情報の伝達経路を効率よく制御するようにしてもよい。
Further, there is an operation mode in which the decoding device DE and the encoding device EN are different devices, and the decoding device DE and the encoding device EN are connected by a network having an intelligent switch. In this case, instead of the above-described line transfer, for example, when transfer is performed for each frame, the encoding device EN is provided with a memory capable of storing a frame, not a line buffer.
Also, by providing a device that operates as a composite image controller on the network, it is possible to realize distribution of the composite image based on the distribution conditions and scores described in FIG. Furthermore, in order to efficiently transfer data, the Ethernet switch and the composite image controller 110 may be combined to efficiently control the information transmission path.

また、デコード装置DEとエンコード装置ENをソフトウェアで実装する運用形態も挙げられる。特に、エンコード装置ENは、処理負荷がデコード装置DEと比較して小さいので、デコード装置DEはハードウェアで実装し、エンコード装置ENをソフトウェアで実装した運用形態も挙げられる。   Further, there is an operation mode in which the decoding device DE and the encoding device EN are implemented by software. In particular, since the processing load of the encoding device EN is smaller than that of the decoding device DE, there is an operation mode in which the decoding device DE is implemented by hardware and the encoding device EN is implemented by software.

なお、デコード装置DEは、エンコード情報を取得するために、動きベクトルの探索、動き補償、重み付き予測、イントラ予測、及びモード決定などを行うが、これらの処理の一部をエンコード装置ENで実行するようにしてもよい。   Note that the decoding device DE performs motion vector search, motion compensation, weighted prediction, intra prediction, mode determination, and the like in order to obtain encoding information, and some of these processes are executed by the encoding device EN. You may make it do.

また、本実施形態に係る動画配信システム100は、画像サイズが16の倍数(例えば、画像サイズがK×Lのとき、K、Lのいずれも16の倍数)の場合に非常に有効であるが、16の倍数でない場合であっても、動き検出・モード決定部21において、オフセット処理されたエンコード情報に基づき、動きベクトルの再探索や、イントラまたはインターなどのモードを決定する。この場合、画像サイズが16の倍数の場合ほど処理量は減らないが、エンコード情報がない場合と比較して、かなりの処理量を削減できる。
なお、上述した動き検出・モード決定部21による動きベクトルの再探索や、イントラまたはインターなどのモードの決定は、画像サイズが16の倍数の場合やそうでない場合であっても、イントラ予測における予測モードの最適化や、動きベクトルの削減を目的として、エンコード情報が有効に利用可能な場合に限り実行するようにしてもよい。
The moving image distribution system 100 according to the present embodiment is very effective when the image size is a multiple of 16 (for example, when the image size is K × L, both K and L are multiples of 16). Even if it is not a multiple of 16, the motion detection / mode determination unit 21 determines a motion vector re-search or a mode such as intra or inter based on the offset-encoded encoding information. In this case, the processing amount is not reduced as much as when the image size is a multiple of 16, but the processing amount can be considerably reduced as compared with the case where there is no encoding information.
It should be noted that the motion vector re-search by the motion detection / mode determination unit 21 and the determination of the mode such as intra or inter perform prediction in intra prediction even when the image size is a multiple of 16 or not. For the purpose of mode optimization and motion vector reduction, it may be executed only when encoding information can be used effectively.

また、本実施形態に係る動画配信システム100は、上述したようにH.264に準拠しているが、H.264と同様の処理を行うMPEG2(H.222/H.262、ISO/IEC 13818)や、H.265(ISO/IEC 23008−2 HEVC)にも適用可能である。具体的には、MPEG2またはH.265において、動きベクトルの探索など、エンコードにおいて必要となる処理のうち、処理負荷の大半を占める処理をエンコード情報取得部14が予め行うことでエンコード情報を取得し、エンコード装置ENが、エンコード情報取得部14が取得したエンコード情報を用いてエンコードを行う。   In addition, as described above, the moving image distribution system 100 according to the present embodiment is the H.264 standard. H.264, but H.264 MPEG2 (H.222 / H.262, ISO / IEC 13818), which performs the same processing as H.264, It is also applicable to H.265 (ISO / IEC 23008-2 HEVC). Specifically, MPEG2 or H.264 is used. In 265, the encoding information acquisition unit 14 obtains encoding information in advance by performing processing that occupies most of the processing load among processing necessary for encoding such as motion vector search, and the encoding device EN acquires encoding information. Encoding is performed using the encoding information acquired by the unit 14.

本実施形態による処理量の軽減例について具体例を用いて説明する。例えば5個の入力画像を単に横に並べて合成する場合、その並べ方は120通り存在するが、従来技術では、この120個の合成画像の各々で動きベクトルの探索などを行わなければならなかった。一方、本実施形態によれば5個の入力画像の各々で動きベクトルの探索などを行えば、あとは処理負荷の小さい処理を行うだけでよい。
このように動きベクトルの探索の実行回数だけを考慮しても、従来技術では120回であるところ、本実施形態ではわずか5回(しかもサイズの小さい画像である)であるため、本実施形態によれば著しく処理量を軽減可能なことが分かる。
より一般的には、n個の入力画像を単に横に並べて合成する場合の動きベクトルの探索の実行回数は、従来技術ではn!のオーダー(O(n!))であるところ、本実施形態によればnのオーダー(O(n))であるため、著しく処理量を軽減可能なことが分かる。従って、図2(A)のような5×5個の入力画像に対して処理を行う場合、その処理の軽減量は莫大なものとなる。
A processing amount reduction example according to the present embodiment will be described using a specific example. For example, when five input images are simply arranged side by side, there are 120 ways to arrange them. In the prior art, a search for a motion vector or the like has to be performed for each of the 120 synthesized images. On the other hand, according to the present embodiment, if a motion vector search or the like is performed for each of the five input images, only processing with a small processing load is required.
Thus, even if only the number of executions of motion vector search is taken into account, the number of times in the conventional technique is 120, but in the present embodiment, it is only 5 (and the image is a small size). Thus, it can be seen that the processing amount can be remarkably reduced.
More generally, the number of motion vector searches when n input images are simply arranged side by side is n! However, according to the present embodiment, since the order is n (O (n)), the processing amount can be remarkably reduced. Therefore, when processing is performed on 5 × 5 input images as shown in FIG. 2A, the reduction amount of the processing is enormous.

上述した実施形態における各装置の処理をコンピュータで実現する場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   When the processing of each device in the above-described embodiment is realized by a computer, a program for realizing this function is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. , May be realized by executing. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

100 動画配信システム、 DE、DE1〜DEm デコード装置、
EN、EN1〜ENn エンコード装置、 10 デコーダ、 11 特徴検出部
12 画像処理部、13、13−1、13−2、13−3 画像記憶部、
14、14−1、14−2、14−3 エンコード情報取得部
15、15−1、15−2、15−3 エンコード情報記憶部、
20 マップ合成部、 21 動き検出・モード決定部、 22 周波数変換・量子化部
23 シンタックス変換部、F1、F2 縮小フィルタ
100 video distribution system, DE, DE1-DEm decoding device,
EN, EN1-ENn Encoding device, 10 Decoder, 11 Feature detection unit, 12 Image processing unit, 13, 13-1, 13-2, 13-3 Image storage unit,
14, 14-1, 14-2, 14-3 Encoding information acquisition unit 15, 15-1, 15-2, 15-3 Encoding information storage unit,
20 map synthesis unit, 21 motion detection / mode determination unit, 22 frequency conversion / quantization unit, 23 syntax conversion unit, F1, F2 reduction filter

エンコード装置ENは、デコード装置DEから出力された入力画像とエンコード情報、そして合成情報から、複数の入力画像を含む1つの画像としてエンコードした合成画像を配信先に配信する。
合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベースを参照することで、上記合成情報をエンコード装置ENに通知する。指向データベース120は、ユーザIDと関連付けて、配信先のユーザ情報(例えば、性別、年齢、趣味、その他嗜好など)や、DE_IDと関連付けて特徴情報やタグ情報が記憶されているデータベースである。
The encoding device EN distributes the composite image encoded as one image including a plurality of input images from the input image output from the decoding device DE, the encoding information, and the composite information to the distribution destination.
The composite image controller 110 notifies the encoding device EN of the composite information by referring to the directional database based on the above-described feature information, user ID, distribution conditions, and the like. The directional database 120 is a database in which user information (for example, gender, age, hobbies, and other preferences) of a delivery destination is associated with the user ID, and feature information and tag information are stored in association with the DE_ID .

図2(A)は、複数の入力画像を並べた合成画像例を示す図である。図に示されるように、合成画像は、5×5のタイル状に分割した領域で構成され、複数の入力画像A、B、C、…を左上から順に並べた1つの画像になっている。図2(A)の場合、A、B、Cの順に左上から順に並べているが、図1の合成画像に示されるように、B、C、…、Aの順に左上から順に並べるなど、同じ画像を用いて並べる順番を変えた画像も配信することができる。なお、並べる入力画像の数は5×5に限らず、2〜24、または26以上の入力画像であってもよい。 FIG. 2A is a diagram illustrating a composite image example in which a plurality of input images are arranged. As shown in the figure, the composite image is composed of regions divided into 5 × 5 tiles, and is a single image in which a plurality of input images A, B, C,. In the case of FIG. 2A, they are arranged in order of A, B, C from the upper left, but as shown in the composite image 3 of FIG. 1, they are arranged in the order of B, C,. It is also possible to distribute images in which the order of arrangement using images is changed. The number of input images to be arranged is not limited to 5 × 5, and may be 2 to 24, or 26 or more input images.

画像処理部12は、特徴検出部11から入力された入力画像に対し、画像のサイズ、輝度、及び色などを変更したり、物体の切り出しや、背景の切り出しを行ったり、各種フェクト(例えば、アニメ風処理や美肌フィルタ処理などによるフェクト)を追加したりするなどの画像処理を施し、画像処理を施した入力画像を画像記憶部13に記憶する。
例えば、図2(A)に示されるような5×5の合成画像(1920×1200)にする場合には、画像処理部12は、入力画像のサイズを384×240のサイズにする。
The image processing unit 12, the input image inputted from the feature detection unit 11, the size of the image, or change the brightness, and color, etc., and objects of the cut, or perform excision of background, various Effects (e.g. performs image processing such or to add Effects) due animation like processing and skin beautifying filtering, stores the input image subjected to image processing in the image storage unit 13.
For example, in the case of a 5 × 5 composite image (1920 × 1200) as shown in FIG. 2A, the image processing unit 12 sets the size of the input image to 384 × 240.

また、図4には、画像処理部12から出力された画像のサイズを変更図4の場合は縮小)するフィルタが設けられる。図4に示される構成の場合、Lサイズは画像処理部12が出力した画像のサイズそのものとしているため、画像処理部12と画像記憶部13−1との間にフィルタは設けられていないが、画像処理部12と画像記憶部13−2との間、画像処理部12と画像記憶部13−3との間には、それぞれ縮小フィルタF1、F2が設けられている。 4 is provided with a filter that changes the size of the image output from the image processing unit 12 (in the case of FIG. 4, it is reduced). In the case of the configuration shown in FIG. 4, since the L size is the size of the image output from the image processing unit 12, no filter is provided between the image processing unit 12 and the image storage unit 13-1. Reduction filters F1 and F2 are provided between the image processing unit 12 and the image storage unit 13-2 and between the image processing unit 12 and the image storage unit 13-3, respectively.

従って、本実施形態では、エンコード情報取得部14−3の処理で得られたエンコード情報は、エンコード情報取得部14−2に出力され、エンコード情報取得部14−2が再利用し、エンコード情報取得部14−2の処理で得られたエンコード情報は、エンコード情報取得部14−1に出力され、エンコード情報取得部14−1が再利用することとなる。このようにすることにより、例えばデコード装置DEをハードウェアで実現する場合の回路サイズを抑制でき、またメモリの帯域を削減できる。さらに、サイズに応じて、量子化パラメータなどを個別に設定するようにしてもよい。
こうして複数種類のサイズの画像を出力することにより、図1で示した合成画像1と合成画像のように、同じ画像でサイズが異なる画像を同時に配信できるようになる。例えば、図1の合成画像2の場合、エンコード装置EN2は、Lサイズの画像A、Mサイズの画像B、Sサイズの画像Cを取得することで、合成画像2を配信する。
Therefore, in this embodiment, the encoding information obtained by the processing of the encoding information acquisition unit 14-3 is output to the encoding information acquisition unit 14-2, and is reused by the encoding information acquisition unit 14-2. The encoding information obtained by the processing of the unit 14-2 is output to the encoding information acquisition unit 14-1, and is reused by the encoding information acquisition unit 14-1. By doing so, for example, the circuit size when the decoding device DE is realized by hardware can be suppressed, and the bandwidth of the memory can be reduced. Furthermore, quantization parameters and the like may be individually set according to the size.
By outputting images of a plurality of types in this way, it is possible to simultaneously distribute images of the same image but different sizes, such as the composite image 1 and the composite image 2 shown in FIG. For example, in the case of the composite image 2 in FIG. 1, the encoding device EN2 distributes the composite image 2 by acquiring an L-size image A, an M-size image B, and an S-size image C.

このように、複数種類のサイズの画像を出力したり、異なる画像処理が施された複数種類の画像を出力したりする場合には、出力するサイズや画像処理の種類を合成画像コントローラ110に出力する。複数種類のサイズの画像を出力する場合、デコード装置DEは、DE_IDとともに、「1.Lサイズ」、「2.Mサイズ」、「3.Sサイズ」を合成画像コントローラ110に出力する。同様に、異なる画像処理が施された複数種類の画像を出力する場合、デコード装置DEは、DE_IDとともに、「1.アニメ風」、「2.美肌」、「3.イラスト風」を合成画像コントローラ110に出力する。
合成画像コントローラ110は、これらのサイズや画像処理の情報をDE_IDと関連付けて、指向データベース120に記憶しておく。そして、合成画像コントローラ110は、上述した特徴情報、ユーザID、配信条件などから、指向データベース120を参照することで上記合成情報をエンコード装置ENに通知する。
As described above, when outputting a plurality of types of images or outputting a plurality of types of images subjected to different image processing, the output size and the type of image processing are output to the composite image controller 110. To do. When outputting an image of a plurality of sizes, the decoding device DE, together with DE_ID, outputs "1.L size", "2.M size", the "3.S size" in the composite image controller 110. Similarly, when outputting a plurality of types of images subjected to different image processing, the decoding device DE, together with DE_ID , generates “1. Animation style”, “2. Beautiful skin”, and “3. Illustration style” as a composite image controller. To 110.
The composite image controller 110 stores these size and image processing information in the directional database 120 in association with the DE_ID . Then, the composite image controller 110 notifies the encoding device EN of the composite information by referring to the directional database 120 based on the above-described feature information, user ID, distribution conditions, and the like.

図7は、デコード装置DEにより実行される処理を示すフローチャートである。図7において、まずデコーダ10は、ビットストリームで入力された入力画像をデコードする(ステップS101)。次いで、特徴検出部11は、特徴情報を検出し、検出した特徴情報を画像合成コントローラ110に出力する(ステップS102)。
次いで、画像処理部12は、上述した画像処理を施し(ステップS13)、画像処理を施した入力画像を画像記憶部13に記憶する(ステップS104)。エンコード情報取得部14は、画像記憶部13に記憶された入力画像に対して、上述した動きベクトルの探索などを行うことで、エンコード情報を取得し(ステップS105)、取得したエンコード情報をエンコード情報記憶部15に記憶する(ステップS106)。
FIG. 7 is a flowchart showing processing executed by the decoding device DE. In FIG. 7, first, the decoder 10 decodes an input image input as a bit stream (step S101). Next, the feature detection unit 11 detects feature information and outputs the detected feature information to the image composition controller 110 (step S102).
Next, the image processing unit 12 performs the above-described image processing (step S1 0 3), and stores the input image subjected to the image processing in the image storage unit 13 (step S104). The encoding information acquisition unit 14 acquires the encoding information by performing the above-described motion vector search for the input image stored in the image storage unit 13 (step S105), and converts the acquired encoding information into the encoding information. It memorize | stores in the memory | storage part 15 (step S106).

図8は、エンコード装置ENにより実行される処理を示すフローチャートである。図8において、配信先から配信要求を受信すると(ステップS201:YES)、配信先のユーザIDを取得する(ステップS202)。
さらに、配信先から配信条件が通知されたことにより、配信条件があるか否か判定する(ステップS203)。配信条件が指定された場合には(ステップS203:YES)、配信条件を取得して(ステップS204)、ステップS205に進む。
一方、配信条件が指定されなかった場合(ステップS203:NO)、またはステップS204で配信条件を取得した場合には、マップ合成部20は、合成画像コントローラ110にユーザIDを出力する(ステップS205)。このとき、ステップS204で配信条件を取得した場合には、配信条件も出力される。
FIG. 8 is a flowchart showing processing executed by the encoding apparatus EN. In FIG. 8, when a distribution request is received from a distribution destination (step S201: YES), the distribution destination user ID is acquired (step S202).
Furthermore, it is determined whether or not there is a delivery condition when the delivery condition is notified from the delivery destination (step S203). When the distribution condition is designated (step S203: YES), the distribution condition is acquired (step S204), and the process proceeds to step S205.
On the other hand, when the distribution condition is not specified (step S203: NO ), or when the distribution condition is acquired in step S204, the map composition unit 20 outputs the user ID to the composite image controller 110 (step S205). . At this time, if the distribution condition is acquired in step S204, the distribution condition is also output.

図9は、合成画像コントローラ110により実行される処理を示すフローチャートである。まず、合成画像コントローラ110は、デコード装置DEから特徴情報、メタ情報を受信したか否か判定する(ステップS301)。特徴情報、メタ情報を受信した場合には(ステップS301:YES)、合成画像コントローラ110は、特徴情報、メタ情報をDE_IDと関連付けて指向データベース120に記憶して(ステップS311)、ステップS301に戻る。
特徴情報、メタ情報を受信していない場合には(ステップS301:NO)、合成画像コントローラ110は、エンコード装置ENからユーザIDを受信したか否か判定する(ステップS302)。ユーザIDを受信していない場合には(ステップS302:NO)、ステップS301に戻る。
FIG. 9 is a flowchart showing processing executed by the composite image controller 110. First, the composite image controller 110 determines whether or not feature information and meta information have been received from the decoding device DE (step S301). When the feature information and meta information are received (step S301: YES), the composite image controller 110 stores the feature information and meta information in the directional database 120 in association with the DE_ID (step S311), and returns to step S301. .
If feature information and meta information have not been received (step S301: NO), the composite image controller 110 determines whether a user ID has been received from the encoding device EN (step S302). If the user ID has not been received (step S302: NO), the process returns to step S301.

エンコード装置ENからユーザIDを受信した場合には(ステップS302:YES)、合成画像コントローラ110は、配信条件があるか否か判定する(ステップS303)。配信条件がある場合には(ステップS303:YES)、合成画像コントローラ110は、配信条件に基づき特定情報を生成する(ステップS309)。
具体的に、合成画像コントローラ110は、まず特徴情報またはメタ情報が配信条件を満たす画像を出力するデコード装置DEを検索する。そして、検索されたデコード装置DEのうち、合成画像に必要な入力画像の数(例えば、5×5なら25)だけ、配信条件を満たす特徴情報またはメタ情報が多い順にデコード装置DEを特定し、その特定したデコード装置DEのDE_IDのリストを特定情報として生成する。
When the user ID is received from the encoding device EN (step S302: YES), the composite image controller 110 determines whether there is a distribution condition (step S303). If there is a distribution condition (step S303: YES), the composite image controller 110 generates specific information based on the distribution condition (step S309).
Specifically, the composite image controller 110 first searches for a decoding device DE that outputs an image whose feature information or meta information satisfies a distribution condition. Then, among the searched decoding devices DE, the decoding devices DE are specified in descending order of the feature information or meta information satisfying the distribution conditions by the number of input images required for the composite image (for example, 25 for 5 × 5), A list of DE_IDs of the specified decoding device DE is generated as specific information.

具体的に、合成画像コントローラ110は、デコード装置DEのうち、合成画像に必要な入力画像の数だけ、スコアの大きい順にデコード装置DEを特定し、その特定したデコード装置DEのDE_IDのリストを特定情報として生成する。
次いで、合成画像コントローラ110は、配置情報を生成する。具体的に、合成画像コントローラ110は、配置条件のときと同様に、スコアが大きい画像が目立つような配置情報を生成し(ステップS307)、ステップS308に進む。
例えば、5×5の合成画像とする場合、配置条件のときと同様に、中央の画像に、スコアが最も大きい画像が配置されるように配置情報を生成する。こうしてスコアが大きいほど、中央に近い位置に配置されるような配置情報を生成してもよい。
そして、合成画像コントローラ110は、合成情報をエンコード装置ENに通知して(ステップS308)、本処理を終了する。
Specifically, the synthesized image controller 110 identifies the decoding device DE in descending order of the number of input images necessary for the synthesized image among the decoding devices DE, and identifies the DE_ID list of the identified decoding device DE. Generate as information.
Next, the composite image controller 110 generates arrangement information. Specifically, similarly to the arrangement condition, the composite image controller 110 generates arrangement information such that an image with a large score is conspicuous (step S307), and the process proceeds to step S308.
For example, in the case of a 5 × 5 composite image, the arrangement information is generated so that the image with the highest score is arranged in the center image, as in the arrangement condition. Thus, arrangement information may be generated such that the larger the score, the closer to the center.
Then, the composite image controller 110 notifies the encoding information to the encoding device EN (step S308), and ends this processing.

Claims (9)

複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得部と、
前記取得部により取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコード部と、
前記エンコード部によりエンコードされた前記1つの画像を配信する配信部と
を有することを特徴とする画像処理装置。
For each of a plurality of input images, an acquisition unit that acquires encoding information for encoding the input image;
An encoding unit that encodes as one image including the plurality of input images using the encoding information acquired by the acquisition unit;
An image processing apparatus comprising: a distribution unit that distributes the one image encoded by the encoding unit.
前記エンコード情報を生成する生成部が前記複数の入力画像ごとに対応して設けられており、
前記取得部は、前記生成部により生成された前記エンコード情報を取得することを特徴とする請求項1記載の画像処理装置。
A generation unit that generates the encoding information is provided for each of the plurality of input images,
The image processing apparatus according to claim 1, wherein the acquisition unit acquires the encoding information generated by the generation unit.
前記生成部は、前記入力画像をエンコードするためのベクトル情報、またはモード情報を前記エンコード情報として生成することを特徴とする請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates vector information or mode information for encoding the input image as the encoding information. 前記1つの画像に含まれる前記入力画像の条件が指定される指定部をさらに有し、
前記エンコード部は、前記指定部により指定された条件を満たす前記入力画像を1つの画像としてエンコードすることを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
A designating unit for designating a condition of the input image included in the one image;
4. The image processing apparatus according to claim 1, wherein the encoding unit encodes the input image satisfying a condition specified by the specifying unit as one image. 5.
前記条件を多く満たす前記入力画像ほど、前記1つの画像の中心に配置されることを特徴とする請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the input image satisfying more of the conditions is arranged at the center of the one image. 前記1つの画像は、前記複数の入力画像を並べた画像であることを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the one image is an image in which the plurality of input images are arranged. 前記1つの画像は、前記複数の入力画像を重畳した画像であることを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the one image is an image obtained by superimposing the plurality of input images. 複数の入力画像を1つの画像として配信する画像処理装置での制御方法であって、
前記複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得ステップと、
前記取得ステップにより取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコードステップと、
前記エンコードステップによりエンコードされた前記1つの画像を配信する配信ステップと
を有することを特徴とする制御方法。
A control method in an image processing apparatus that distributes a plurality of input images as one image,
For each of the plurality of input images, an obtaining step for obtaining encoding information for encoding the input image;
An encoding step of encoding as one image including the plurality of input images using the encoding information acquired in the acquisition step;
A distribution step of distributing the one image encoded by the encoding step.
複数の入力画像を1つの画像として配信する画像処理装置として機能させるためのプログラムであって、
前記複数の入力画像ごとに、当該入力画像をエンコードするためのエンコード情報を取得する取得ステップと、
前記取得ステップにより取得された前記エンコード情報を用いて、前記複数の入力画像を含む1つの画像としてエンコードするエンコードステップと、
前記エンコードステップによりエンコードされた前記1つの画像を配信する配信ステップと
を有することを特徴とするプログラム。
A program for causing a plurality of input images to function as an image processing device that distributes as a single image,
For each of the plurality of input images, an obtaining step for obtaining encoding information for encoding the input image;
An encoding step of encoding as one image including the plurality of input images using the encoding information acquired in the acquisition step;
A distribution step of distributing the one image encoded by the encoding step.
JP2015051300A 2015-03-13 2015-03-13 Image processing device, control method, and program Pending JP2016171525A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015051300A JP2016171525A (en) 2015-03-13 2015-03-13 Image processing device, control method, and program
PCT/JP2016/056754 WO2016147906A1 (en) 2015-03-13 2016-03-04 Image processing device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051300A JP2016171525A (en) 2015-03-13 2015-03-13 Image processing device, control method, and program

Publications (2)

Publication Number Publication Date
JP2016171525A true JP2016171525A (en) 2016-09-23
JP2016171525A5 JP2016171525A5 (en) 2016-11-17

Family

ID=56919702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051300A Pending JP2016171525A (en) 2015-03-13 2015-03-13 Image processing device, control method, and program

Country Status (2)

Country Link
JP (1) JP2016171525A (en)
WO (1) WO2016147906A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159040A (en) * 2002-11-06 2004-06-03 Mediagram:Kk Meta-information service system over network
JP2008136205A (en) * 2006-11-27 2008-06-12 Samsung Electronics Co Ltd Data transmitting method and apparatus for simultaneously reproducing a plurality of moving picture contents, and method and apparatus for simultaneously reproducing a plurality of moving picture contents
JP2010010908A (en) * 2008-06-25 2010-01-14 Hitachi Systems & Services Ltd Management server, and video content processing method
JP2012099890A (en) * 2010-10-29 2012-05-24 Sony Corp Image processing device, image processing method, and image processing system
JP2013172374A (en) * 2012-02-22 2013-09-02 Sony Corp Image processing device, image processing method, and image processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4281950B2 (en) * 2003-07-10 2009-06-17 Kddi株式会社 Video distribution device
JP5018515B2 (en) * 2007-11-20 2012-09-05 ソニー株式会社 Information processing apparatus, information processing method, display control apparatus, display control method, and program
JP5171718B2 (en) * 2009-03-31 2013-03-27 株式会社東芝 Content recommendation device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159040A (en) * 2002-11-06 2004-06-03 Mediagram:Kk Meta-information service system over network
JP2008136205A (en) * 2006-11-27 2008-06-12 Samsung Electronics Co Ltd Data transmitting method and apparatus for simultaneously reproducing a plurality of moving picture contents, and method and apparatus for simultaneously reproducing a plurality of moving picture contents
JP2010010908A (en) * 2008-06-25 2010-01-14 Hitachi Systems & Services Ltd Management server, and video content processing method
JP2012099890A (en) * 2010-10-29 2012-05-24 Sony Corp Image processing device, image processing method, and image processing system
JP2013172374A (en) * 2012-02-22 2013-09-02 Sony Corp Image processing device, image processing method, and image processing system

Also Published As

Publication number Publication date
WO2016147906A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
EP3499897B1 (en) Camerawork generating method and video processing device
US11057646B2 (en) Image processor and image processing method
US10652544B2 (en) Encoder, decoder, encoding method, and decoding method
JP5544426B2 (en) Video bitstream transmission system
JP6030230B2 (en) Panorama-based 3D video coding
US20190089958A1 (en) Encoder, decoder, encoding method, and decoding method
EP3133819A1 (en) Image delivery method, image reception method, server, terminal apparatus, and image delivery system
US20190174133A1 (en) Encoder, decoder, encoding method, and decoding method
JP2016010145A (en) Video distribution method, video reception method, server, terminal device and video distribution system
US20190191160A1 (en) Encoder, decoder, encoding method, and decoding method
US20180352248A1 (en) Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
US20190174132A1 (en) Encoder, decoder, encoding method, and decoding method
CN103635967A (en) Video remixing system
WO2015159487A1 (en) Image delivery method, image reception method, server, terminal apparatus, and image delivery system
US11741717B2 (en) Data generator and data generating method
US11212549B2 (en) Encoder, decoder, encoding method, and decoding method
KR101425286B1 (en) Exhaustive sub-macroblock shape candidate save and restore protocol for motion estimation
US11297329B2 (en) Image encoding method, transmission method, and image encoder
JP2017123503A (en) Video distribution apparatus, video distribution method and computer program
US11356663B2 (en) Encoder, decoder, encoding method, and decoding method
US11457053B2 (en) Method and system for transmitting video
WO2016147906A1 (en) Image processing device, control method, and program
CN102595111A (en) Transmission method, device and system for multi-view coding stream
KR101979432B1 (en) Apparatus and method for predicting user viewpoint using lication information of sound source in 360 vr contents
JP7296219B2 (en) Receiving device, transmitting device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160929

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170627