JP2006197256A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2006197256A
JP2006197256A JP2005006841A JP2005006841A JP2006197256A JP 2006197256 A JP2006197256 A JP 2006197256A JP 2005006841 A JP2005006841 A JP 2005006841A JP 2005006841 A JP2005006841 A JP 2005006841A JP 2006197256 A JP2006197256 A JP 2006197256A
Authority
JP
Japan
Prior art keywords
image
scene change
original images
generates
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005006841A
Other languages
Japanese (ja)
Inventor
Giyouzo Akiyoshi
仰三 秋吉
Nobuo Akiyoshi
信雄 秋吉
Shinichi Yamashita
伸一 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Monolith Co Ltd
Original Assignee
Monolith Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monolith Co Ltd filed Critical Monolith Co Ltd
Priority to JP2005006841A priority Critical patent/JP2006197256A/en
Publication of JP2006197256A publication Critical patent/JP2006197256A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the reproduction quality of moving images including a scene change. <P>SOLUTION: In an image processing apparatus 100, an input part 110 acquires a prescribed plurality of original images to be displayed as moving images. A scene change detection part 120 detects a scene change included in the acquired original image string. An image composition part 150 generates a composite image by composing the original images acquired before and after the scene change. A stream generation part 170 inserts the generated composite image into the original images between which the scene change is held to generate a data stream for reproducing moving images, which consists of the acquired original images and the composite image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、画像処理技術に関し、特に動画像データの符号化装置に関する。   The present invention relates to an image processing technique, and more particularly to an apparatus for encoding moving image data.

インターネット技術の発展は、高速かつ大容量の通信を可能にした。これにより、ユーザは比較的情報量の多い動画コンテンツを、インターネット配信等により容易に楽しむことができるようになった。旧来のテレビ放送等の受信やDVD(デジタル多目的ディスク)等の記録メディアからの再生に加え、たとえばこのようなインターネットを通じた動画配信等、ユーザが動画コンテンツを楽しむことができる環境の多様性は近年飛躍的に高まっている。動画データを効率的に扱う方法として、ユーザの主観に基づいてシーンチェンジを検出する技術等が提案されている(例えば、特許文献1参照)。   The development of Internet technology has enabled high-speed and large-capacity communication. As a result, the user can easily enjoy moving image content with a relatively large amount of information by Internet distribution or the like. In recent years, the diversity of environments in which users can enjoy moving image content, such as the distribution of moving images through the Internet, in addition to the reception of traditional television broadcasts and playback from recording media such as DVDs (Digital Multipurpose Discs), has been increasing recently. It is increasing dramatically. As a method for efficiently handling moving image data, a technique for detecting a scene change based on user's subjectivity has been proposed (for example, see Patent Document 1).

特開2004−194197号公報JP 2004-194197 A

ユーザが動画コンテンツを様々なメディアで当たり前のように視聴できる環境が整備された現在、次に追求されるべきは、ユーザに対していかに高品質のコンテンツを提供できるかという点にあることは疑う余地がない。コンテンツ品質の追求こそが、今後デジタル文化がさらなる発展をとげるための鍵を握るともいえる。   Now that the environment that allows users to view video content on various media is taken for granted, it is doubtful that what should be pursued next is how high-quality content can be provided to users. There is no room. The pursuit of content quality is the key to further development of digital culture in the future.

本発明者は以上の課題に基づき本発明をなしたもので、その目的は、動画コンテンツの再生品質を高めることにある。   The inventor has made the present invention based on the above problems, and an object thereof is to improve the reproduction quality of moving image content.

本発明のある態様の画像処理装置は、連続する複数の原画像を取得する画像入力部と、複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、シーンチェンジを挟む二つの原画像に基づいて合成画像を生成する合成画像生成部と、複数の原画像と、合成画像とを含む再生用データストリームを生成するストリーム生成部とを含み、ストリーム生成部は、合成画像をシーンチェンジを挟む二つの原画像の間に挿入してデータストリームを生成することを特徴とする。   An image processing apparatus according to an aspect of the present invention includes an image input unit that acquires a plurality of continuous original images, a scene change detection unit that detects a scene change between two of the plurality of original images, and a scene A combined image generating unit that generates a combined image based on two original images sandwiching a change, a stream generating unit that generates a reproduction data stream including a plurality of original images and the combined image, the stream generating unit The data stream is generated by inserting a composite image between two original images sandwiching a scene change.

「シーンチェンジ」は必ずしも客観的に決まるものではなく、ある程度画像に差がある場合にシーンチェンジがあったと考えてよい。シーンチェンジを含む動画を再生した場合、視聴者は映像の流れが断絶したような印象を受ける場合があるが、この態様では、シーンチェンジを挟む原画像の間に合成画像を挿入したデータストリームが生成されるため、再生した際映像の断絶感を緩和することができる。   The “scene change” is not necessarily objectively determined, and it may be considered that there is a scene change when there is a difference in the image to some extent. When playing a video that includes a scene change, the viewer may get the impression that the flow of the video is interrupted. In this mode, a data stream in which a composite image is inserted between the original images sandwiching the scene change is used. Since it is generated, it is possible to alleviate the feeling of disconnection of the video when played back.

本発明の別の態様も画像処理装置に関する。この態様の画像処理装置は、上述した態様の画像処理装置の合成画像生成部に代えて、複数の原画像のうちシーンチェンジの前後いずれかにおける二以上の原画像に基づいて補間画像を生成する補間画像生成部を備え、ストリーム生成部は、合成画像に代えて補間画像をシーンチェンジを挟む二つの原画像の間に挿入してデータストリームを生成する。   Another embodiment of the present invention also relates to an image processing apparatus. The image processing apparatus according to this aspect generates an interpolation image based on two or more original images before or after a scene change among a plurality of original images, instead of the composite image generation unit of the image processing apparatus according to the above-described aspect. An interpolated image generation unit is provided, and the stream generation unit inserts an interpolated image instead of the composite image between two original images sandwiching a scene change to generate a data stream.

本発明のさらに別の態様も画像処理装置に関し、最初に述べた態様の画像処理装置の合成画像生成部に代えて、複数の原画像のうちシーンチェンジの前後いずれかにおける二以上の原画像に基づいて補間画像を生成する補間画像生成部と、シーンチェンジの前における二以上の原画像に基づく補間画像及びシーンチェンジの後における二以上の原画像に基づく補間画像に基づいて合成画像を生成する合成画像生成部とを備え、ストリーム生成部は、この合成画像生成部が生成した合成画像を、シーンチェンジを挟む二つの原画像の間に挿入してデータストリームを生成する。   Still another aspect of the present invention also relates to an image processing apparatus, and instead of the composite image generation unit of the image processing apparatus according to the first aspect described above, two or more original images before or after a scene change among a plurality of original images. An interpolated image generating unit for generating an interpolated image based on the interpolated image based on the two or more original images before the scene change and an interpolated image based on the two or more original images after the scene change The stream generation unit generates a data stream by inserting the composite image generated by the composite image generation unit between two original images sandwiching a scene change.

これらの態様においても、シーンチェンジを挟む原画像の間に補間画像もしくは合成画像を挿入した状態で再生用のデータストリームが生成されるため、最初に述べた態様と同様に、シーンチェンジを含む動画の品質を向上させることができる。   Also in these modes, since a data stream for reproduction is generated with an interpolated image or a composite image inserted between the original images sandwiching the scene change, the moving image including the scene change is the same as the first mode described above. Can improve the quality.

データストリームにおいて合成画像や補間画像の表示間隔が原画像の表示間隔よりも短く設定されていてもよい。この場合、たとえばハイフレームレート化されたディスプレイ等の性能を十分に引き出し、よりなめらかなシーンチェンジを実現するための動画ストリームを生成できる。   In the data stream, the display interval of the composite image and the interpolation image may be set shorter than the display interval of the original image. In this case, for example, a moving image stream for realizing a smoother scene change can be generated by sufficiently drawing out the performance of a display with a high frame rate.

本発明のさらに別の態様も画像処理装置に関し、連続する複数の原画像を取得する画像入力部と、複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、複数の原画像と、複数のモードから選択した一つのモードに従って新たに生成した画像とを含む再生用データストリームを生成するストリーム生成部とを含み、ストリーム生成部は、これらの新たに生成した画像を前記シーンチェンジを挟む二つの原画像の間に挿入してデータストリームを生成する。これにより、最初に述べた態様と同様に、シーンチェンジを含む動画の品質を向上させることができる。   Still another aspect of the present invention also relates to an image processing apparatus, an image input unit that acquires a plurality of continuous original images, a scene change detection unit that detects a scene change when two of the plurality of original images sandwich a scene change, A stream generation unit that generates a reproduction data stream including a plurality of original images and an image newly generated according to one mode selected from the plurality of modes, and the stream generation unit generates the newly generated An image is inserted between two original images sandwiching the scene change to generate a data stream. Thereby, the quality of the moving image containing a scene change can be improved similarly to the aspect described first.

本発明の画像処理装置はさらに複数の原画像のうち、隣接する二つの原画像であってシーンチェンジを挟まないものについて対応情報データを生成する対応情報データ生成部を含んでもよく、ストリーム生成部は、対応情報データをさらに含めてデータストリームを生成してもよい。これにより、既述のごとくシーンチェンジを含む動画の画像品質を向上させつつ、原画像のストリームを圧縮することも可能となる。なお、本明細書においては、特に言及しない限り「フレーム」と「画像」の語を区別せずに用いる。   The image processing apparatus of the present invention may further include a correspondence information data generation unit that generates correspondence information data for two adjacent original images that do not sandwich a scene change among a plurality of original images. May generate a data stream further including correspondence information data. As a result, the stream of the original image can be compressed while improving the image quality of the moving image including the scene change as described above. In this specification, the terms “frame” and “image” are used without distinction unless otherwise specified.

以上のいずれの態様においても、シーンチェンジ検出部は、連続する二つの原画像の差が所定の上限値と下限値の間にある場合に、シーンチェンジがあったと判定してもよい。また、シーンチェンジ検出部は、連続する二つの原画像間において、動画の意味内容上の連続性が維持されながら、かつ連続する二つの原画像間の変化が大きい場合をシーンチェンジとして検出してもよい。   In any of the above aspects, the scene change detection unit may determine that a scene change has occurred when the difference between two consecutive original images is between a predetermined upper limit value and a lower limit value. In addition, the scene change detection unit detects a case where a change between two consecutive original images is large while maintaining the continuity of the semantic content of the moving image between two consecutive original images. Also good.

以上の各構成、工程を任意に入れ替えたり、表現をコンピュータプログラム、記録媒体等に変更したものもまた、本発明として有効である。   Those in which the above configurations and processes are arbitrarily replaced, or the expression is changed to a computer program, a recording medium, or the like are also effective as the present invention.

(実施形態1)
本発明の一実施形態である画像処理装置は、シーンチェンジを含む動画の各フレームを原画像として取得し、ハイフレームレート表示に対応したディスプレイ等で再生するのに適した動画像再生用のデータストリームを生成する。本実施形態では、1秒間に30枚の割合で動画として表示される一連の画像を原画像として扱うが、原画像は必ずしもこれに限定する必要はない。シーンチェンジについては、画像間の差が大きい場合にシーンチェンジがあったと考えればよい。以後言及するシーンチェンジの検出においては、例えば、両原画像の、位置的に対応しあう画素値の差の絶対値や二乗の総和の大きさと所定のしきい値を比べてシーンチェンジを検出することができる。
(Embodiment 1)
The image processing apparatus according to an embodiment of the present invention acquires moving image frames including scene changes as original images and reproduces moving image data suitable for reproduction on a display or the like that supports high frame rate display. Create a stream. In this embodiment, a series of images displayed as moving images at a rate of 30 images per second is handled as an original image, but the original image is not necessarily limited to this. Regarding the scene change, it can be considered that the scene change has occurred when the difference between the images is large. In the detection of the scene change, which will be described later, for example, the scene change is detected by comparing the absolute value of the difference between the pixel values corresponding to each other in position and the sum of squares with a predetermined threshold value. be able to.

ここで、所定のしきい値は上限値と下限値からなり、上記の差の値がこの上限値以上かつ下限値以下のいずれかの値である場合に、シーンチェンジがあったと判定されることが望ましい。一般にシーンチェンジには、二つの類型が考えられるためである。すなわち、シーンチェンジとは、狭義には、例えば人物の画像から突然風景の画像に切り替わるような、動画の表示内容における意味上の連続性が切断されるものをさす。この場合はシーンチェンジを挟む原画像の内容は当然全く異なり、上述した原画像間の差が非常に大きくなる。一方、例えばある人物がドアを開けて室外に出て行く様子など表す場合も広義にはシーンチェンジであるといえる。このように表示内容の意味上の連続性が一定程度に維持されるタイプのシーンチェンジにおいては、原画像間の差はある程度大きくなるとはいえ、上述した狭義のシーンチェンジに比べればその差の程度は小さい。   Here, the predetermined threshold value is composed of an upper limit value and a lower limit value, and it is determined that a scene change has occurred when the above difference value is any value between the upper limit value and the lower limit value. Is desirable. This is because there are generally two types of scene changes. That is, in a narrow sense, a scene change refers to one in which semantic continuity in the display content of a moving image is cut off, for example, when a person image is suddenly switched to a landscape image. In this case, the contents of the original images sandwiching the scene change are naturally different, and the difference between the original images described above becomes very large. On the other hand, for example, when a person opens a door and goes out of the room, it can be said that it is a scene change in a broad sense. In this type of scene change in which the continuity of the displayed content is maintained at a certain level, the difference between the original images is somewhat larger, but the degree of the difference compared to the above-mentioned scene change in the narrow sense. Is small.

本発明は、シーンチェンジ時における動画像の断絶感解消をその目的の一つとしていることに鑑みれば、本発明においてシーンチェンジとして検出されるべきは主に後者のタイプの、動画の意味内容上の連続性が維持されながら、かつ連続する二つの原画像間の変化が大きい場合のシーンチェンジである。意味内容上の断絶があり、シーンが完全に変わる場合、すなわち前者のタイプのシーンチェンジでは、むしろ動画像の連続感を維持しない方がよい場合も多いためである。上述の通り、前者のタイプのシーンチェンジは、後者のタイプに比べ原画像間の差が大きいことから、シーンチェンジ判定用のしきい値に、単純に画像間の差が所定の値以上であるかどうかを判別するための下限値に加えて、上限値を導入することで検出されるシーンチェンジのタイプを後者に制限しやすくなる。しきい値はその上限値、下限値ともに実験により定めればよい。シーンチェンジの検出に関する以上の考察は本明細書を通じて有効である。   In view of the fact that the present invention aims to eliminate the sense of disconnection of a moving image at the time of a scene change, in the present invention, the latter type should be detected as a scene change mainly in terms of the semantic content of the moving image. This is a scene change when the continuity of the image is maintained and the change between two consecutive original images is large. This is because when there is a break in meaning and the scene changes completely, that is, in the former type of scene change, it is often better not to maintain the continuity of moving images. As described above, since the difference between the original images is larger in the former type of scene change than in the latter type, the difference between the images is simply equal to or greater than a predetermined value as a threshold for scene change determination. In addition to the lower limit value for determining whether or not, the introduction of the upper limit value makes it easy to limit the type of scene change detected to the latter. The threshold value may be determined by experiments for both the upper limit value and the lower limit value. The above discussion regarding scene change detection is valid throughout this specification.

図1は、本実施形態における画像処理装置100の構成を示す。画像処理装置100の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現されるが、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。   FIG. 1 shows a configuration of an image processing apparatus 100 in the present embodiment. Each component of the image processing apparatus 100 is centered on an arbitrary computer CPU, memory, a program that realizes the components shown in the figure loaded in the memory, a storage unit such as a hard disk for storing the program, and a network connection interface. However, it will be understood by those skilled in the art that there are various modifications in the implementation method and apparatus. Each drawing described below shows a functional unit block, not a hardware unit configuration.

画像処理装置100は原画像を取得する入力部110と、上述の方法でシーンチェンジを検出するシーンチェンジ検出部120と、ユーザ等による画像処理装置100の動作モードに関する設定を格納したモードテーブル130と、モードテーブル130における設定に応じて取得した原画像の振り分けを行うモード決定部140と、所定の画像を合成して合成画像を生成する画像合成部150と、所定の原画像を外挿補間して補間画像を生成する補間画像生成部160と、原画像と、合成画像や補間画像からなる再生用の画像データストリームを生成するストリーム生成部170を含む。画像合成部150は、所定の原画像や補間画像を、例えばαブレンディングにより合成して合成画像を生成する。   The image processing apparatus 100 includes an input unit 110 that acquires an original image, a scene change detection unit 120 that detects a scene change by the above-described method, and a mode table 130 that stores settings related to an operation mode of the image processing apparatus 100 by a user or the like. A mode determination unit 140 that distributes the original images acquired according to the settings in the mode table 130, an image synthesis unit 150 that generates a synthesized image by synthesizing a predetermined image, and extrapolating the predetermined original image. An interpolated image generating unit 160 that generates an interpolated image, and a stream generating unit 170 that generates an image data stream for reproduction composed of an original image, a composite image, and an interpolated image. The image synthesizing unit 150 synthesizes a predetermined original image or interpolated image by, for example, α blending to generate a synthesized image.

画像処理装置100は三つの動作モードを有する。ユーザは図示しないモード入力部を介して、自己の選択したモードを入力する。モードに関するユーザの選択はモードテーブル130に格納される。各動作モードの違いにより、画像処理装置100が最終的に生成するデータストリームの内容が変わってくる。具体的な差異点の詳細は以下に述べていくが、いずれのモードにおいても、画像処理装置100がシーンチェンジを含む原画像列に基づいて、画質を向上した再生用のデータストリームを生成するという点においては区別がない。従って、どのモードを設定するかは、ユーザが例えば再生されたデータストリームの見た目の嗜好等に応じて定めればよい。   The image processing apparatus 100 has three operation modes. The user inputs the mode selected by the user via a mode input unit (not shown). The user's selection regarding the mode is stored in the mode table 130. The content of the data stream that is finally generated by the image processing apparatus 100 varies depending on the difference in each operation mode. Details of specific differences will be described below. In any mode, the image processing apparatus 100 generates a reproduction data stream with improved image quality based on an original image sequence including a scene change. There is no distinction in terms. Therefore, the mode to be set may be determined according to, for example, the appearance preference of the reproduced data stream.

第1のモードは、合成画像モードともいうべきモードであり、ストリーム生成部170は最終的にシーンチェンジ前後の原画像の合成画像を含む再生用データストリームを生成する。第2のモードは補間画像モードともいうべきモードであり、シーンチェンジ直前の2枚の原画像を用いて補間画像生成し、これを含んだ再生用データストリームを生成する。第3のモードは複合モードである。すなわち、シーンチェンジ直前の2枚の原画像に基づく補間画像と、シーンチェンジ直後の2枚の原画像に基づく補間画像とを合成し、生成された合成画像を含む再生用データストリームが生成される。   The first mode is a mode that should also be referred to as a composite image mode, and the stream generation unit 170 finally generates a reproduction data stream including a composite image of the original image before and after the scene change. The second mode is a mode that should be referred to as an interpolated image mode. An interpolated image is generated using two original images immediately before a scene change, and a reproduction data stream including the generated interpolated image is generated. The third mode is a composite mode. That is, the interpolated image based on the two original images immediately before the scene change and the interpolated image based on the two original images immediately after the scene change are synthesized, and a reproduction data stream including the generated synthesized image is generated. .

第1のモードでは、まず入力部110が取得した原画像は検出部120に送られる。検出部120はシーンチェンジを挟む原画像のペアを検出し、どの原画像の間にシーンチェンジがあるかを示す情報(以下「シーンチェンジ情報」と呼ぶ)と原画像とをモード決定部140とストリーム生成部170のそれぞれに送る。モード決定部140は、モードテーブル130を参照して、動作モードを確認する。ここでは、現在第1のモードが設定されており、その場合モード決定部は140は、シーンチェンジ情報に基づいてシーンチェンジを挟む原画像の対を画像合成部150に送る。   In the first mode, first, the original image acquired by the input unit 110 is sent to the detection unit 120. The detection unit 120 detects a pair of original images sandwiching a scene change, and uses information indicating the scene change between the original images (hereinafter referred to as “scene change information”) and the original image as a mode determination unit 140. The data is sent to each of the stream generation units 170. The mode determination unit 140 refers to the mode table 130 and confirms the operation mode. Here, the first mode is currently set. In this case, the mode determination unit 140 sends the pair of original images sandwiching the scene change to the image composition unit 150 based on the scene change information.

画像合成部150は、モード決定部140から受け取った原画像の対にαブレンディングを施し、所定数の合成画像を生成する。生成した合成画像はストリーム生成部170に送られる。ストリーム生成部170は、原画像、シーンチェンジ情報、合成画像に基づいて動画再生用のデータストリームを生成する。この、データストリームでは、シーンチェンジを挟む原画像の間に、原画像の表示間隔より短い表示間隔で合成画像が挿入されている。   The image composition unit 150 performs α blending on the pair of original images received from the mode determination unit 140 to generate a predetermined number of composite images. The generated composite image is sent to the stream generation unit 170. The stream generation unit 170 generates a data stream for moving image reproduction based on the original image, the scene change information, and the composite image. In this data stream, a composite image is inserted at a display interval shorter than the display interval of the original image between the original images sandwiching the scene change.

図2は、図1の入力部110が取得する原画像を示す図である。1秒間に30枚のレートで動画像として表示される原画像をKFと表記する(は非負整数)。同図ではKF22とKF23の間にシーンチェンジがあることが示されている。Tは非負数)は各画像の表示タイミングを示す。すなわちTはKFの表示タイミングを示し、TとTs+1の間には1/30秒の差がある。例えばKF15の表示タイミングT15はTから0.5秒後、KF30の表示タイミングT30はTから1秒後となる。 FIG. 2 is a diagram illustrating an original image acquired by the input unit 110 of FIG. An original image displayed as a moving image at a rate of 30 frames per second is denoted as KF i ( i is a non-negative integer). In the figure, it is shown that there is a scene change between KF 22 and KF 23 . T s ( s is a non-negative number) indicates the display timing of each image. That is, T 0 indicates the display timing of KF 0 , and there is a difference of 1/30 seconds between T s and T s + 1 . For example display timing T 15 of KF 15 0.5 seconds after T 0, display timing T 30 of KF 30 is 1 second after the T 0.

図3は、図2の原画像列に基づいて、画像処理装置100の第1のモードにより、ストリーム生成部170が生成するデータストリームの構造を示す図である。図2同様、原画像をKFで表す。さらに合成画像をCFで表す(は非負整数)。また、各画像の表示タイミングを示す情報として、画像の直後にTが付される。Tの意味については図2と同様である。このデータストリームは、KF、KF・・・KF22をそれぞれT、T、T22のタイミングで表示すべきことと、シーンチェンジを挟むKF22とKF23の間では、合成画像であるCF、CF、・・・CFがそれぞれT22.1、T22.2、・・・T22.9のタイミングで表示されるべきことを示している。つまり、ストリーム生成部170は、合成画像の表示間隔が原画像のそれよりも短くなっているデータストリームを生成する。 FIG. 3 is a diagram illustrating a structure of a data stream generated by the stream generation unit 170 in the first mode of the image processing apparatus 100 based on the original image sequence in FIG. As in FIG. 2, the original image is represented by KF i . Further, the composite image is represented by CF j ( j is a non-negative integer). Further, as the information indicating the display timing of each image, T s is given immediately after the image. The meaning of T s is the same as in FIG. In this data stream, KF 0 , KF 1 ... KF 22 should be displayed at timings T 0 , T 1 , T 22 , respectively, and between KF 22 and KF 23 sandwiching a scene change, a composite image A certain CF 1 , CF 2 ,..., CF 9 is to be displayed at the timing of T 22.1 , T 22.2 ,. That is, the stream generation unit 170 generates a data stream in which the composite image display interval is shorter than that of the original image.

図4は、図3のデータストリームを再生した場合の画像列を示す図である。同図では、シーンチェンジを挟む原画像であるKF22とKF23の間では、合成画像であるCF乃至CF10が、原画像の表示間隔の10分の1の表示間隔で表示されることが示されている。これを、毎秒30枚を超す画像の再生能力を持つハイフレームレートのディスプレイ等で再生することで、シーンチェンジ前後に合成画像が多数表示されるため、KF22とKF23の画像間の差が大きいことに起因するユーザの見た目上の画像の断絶感を緩和でき、シーンチェンジを含む動画像の再生品質が向上する。 FIG. 4 is a diagram showing an image sequence when the data stream of FIG. 3 is reproduced. In the figure, between KF 22 and KF 23 which are original images sandwiching a scene change, composite images CF 1 to CF 10 are displayed at a display interval of 1/10 of the original image display interval. It is shown. When this is played back on a high frame rate display or the like having a playback capability of more than 30 images per second, many composite images are displayed before and after the scene change, so the difference between the images of KF 22 and KF 23 is The sense of discontinuity of the user's apparent image due to the largeness can be alleviated, and the playback quality of moving images including scene changes is improved.

本実施形態に係る画像処理装置100の、第2のモードにおいては、入力部110及び検出部120の動作は第1の動作モードと同様である。モード決定部140がモードテーブル130を参照した結果、第2の動作モードであると判定された場合、モード決定部140はシーンチェンジの直前の2枚の原画像と補間画像生成部160に送る。   In the second mode of the image processing apparatus 100 according to the present embodiment, the operations of the input unit 110 and the detection unit 120 are the same as in the first operation mode. As a result of the mode determination unit 140 referring to the mode table 130, if it is determined that the second operation mode is selected, the mode determination unit 140 sends the two original images immediately before the scene change and the interpolated image generation unit 160.

補間画像生成部160は、シーンチェンジの直前の2枚の原画像を時間軸の順方向に外挿補間して所定数の補間画像を生成し、ストリーム生成部170へ送る。ストリーム生成部170は、原画像、シーンチェンジ情報、補間画像に基づいて動画再生用のデータストリームを生成する。この、データストリームでは、シーンチェンジを挟む原画像の間に、原画像の表示間隔より短い表示間隔で外挿補間画像が挿入されている。   The interpolated image generating unit 160 generates a predetermined number of interpolated images by extrapolating the two original images immediately before the scene change in the forward direction of the time axis, and sends them to the stream generating unit 170. The stream generation unit 170 generates a data stream for moving image reproduction based on the original image, the scene change information, and the interpolated image. In this data stream, extrapolated interpolated images are inserted between original images sandwiching a scene change at a display interval shorter than the original image display interval.

図5は図2の原画像列に基づいて、本実施例の画像処理装置100の第2の動作モードで生成されるデータストリームの構造を示す図である。図3との違いのみ説明する。図5では、補間画像をEFは非負整数)で表す。図5に示すように、ストリーム生成部170は、図3の合成画像CF、・・・CFに代えて、補間画像EF、・・・EFが、シーンチェンジを挟むKF22とKF23の間に、KFの表示間隔より短い間隔で挿入されたデータストリームを生成する。従って、第2の動作モードによって生成されたデータストリームを再生した画像は、図4に示した第1の動作モードに係る再生画像列の、合成画像を補間画像で置き換えたものとなる。これをハイフレームレートの機器で再生すれば、シーンチェンジの前後に補間画像が多数挿入されて表示され、第1の動作モード同様、動画像の見た目の画質を向上できる。なお、この第2の動作モードにおいては、シーンチェンジ直前の原画像ではなく、直後の原画像2枚に基づいて外挿補間画像を生成してもよい。 FIG. 5 is a diagram showing a structure of a data stream generated in the second operation mode of the image processing apparatus 100 of the present embodiment based on the original image sequence of FIG. Only differences from FIG. 3 will be described. In FIG. 5, the interpolation image is represented by EF k ( k is a non-negative integer). As shown in FIG. 5, the stream generating unit 170, composite image CF 1 of FIG. 3, instead of the · · · CF 9, interpolated image EF 1, · · · EF 9 is a KF 22 sandwiching the scene change KF 23 , a data stream inserted at an interval shorter than the display interval of KF i is generated. Therefore, the image reproduced from the data stream generated in the second operation mode is obtained by replacing the synthesized image of the reproduced image sequence related to the first operation mode shown in FIG. 4 with the interpolation image. If this is played back on a high frame rate device, a large number of interpolated images are inserted and displayed before and after the scene change, and the visual image quality of the moving image can be improved as in the first operation mode. In the second operation mode, an extrapolated interpolation image may be generated based on the two original images immediately after the scene change instead of the original image immediately before the scene change.

本実施形態に係る画像処理装置100の、第3のモードにおいても、入力部110および検出部120の動作は上記第1のモード及び第2のモードと同様である。モード決定部140は、モードテーブル130を参照し、第3の動作モードであることを確認すると、シーンチェンジの直前にある2枚の原画像と直後にある2枚の原画像とを補間画像生成部160へ送る。   Even in the third mode of the image processing apparatus 100 according to the present embodiment, the operations of the input unit 110 and the detection unit 120 are the same as those in the first mode and the second mode. When the mode determination unit 140 refers to the mode table 130 and confirms that the mode is the third operation mode, the mode determination unit 140 generates an interpolated image between the two original images immediately before the scene change and the two original images immediately after the scene change. Send to section 160.

補間画像生成部160は、シーンチェンジの直前の2枚の原画像を時間軸の順方向に外挿補間して所定数の補間画像を生成し、また、シーンチェンジ直後の2枚の原画像を時間軸の逆方向に外挿補間して所定数の補間画像を生成する。これらの補間画像は画像合成部150に送られる。画像合成部150は、シーンチェンジ前の原画像に基づいた補間画像と、シーンチェンジ後の原画像に基づいた補間画像のうち時間的に対応するもの同士を、αブレンディングにより合成して合成画像を生成する。生成した合成画像はストリーム生成部170へ送られる。ストリーム生成部170は、原画像、シーンチェンジ情報、合成画像に基づいて、図3に示す第1のモードによるデータストリームと同様のデータストリームを生成する。ただし、この第3のモードにおいては、合成画像の生成の方法が第1のモードと異なるのは上述の通りである。このデータストリームに基づいて動画像を再生すれば、シーンチェンジを挟むキーフレーム間に合成画像を挿入して表示できるため、第1および第2のモードと同様の視覚上の効果が得られる。   The interpolated image generating unit 160 extrapolates the two original images immediately before the scene change in the forward direction of the time axis to generate a predetermined number of interpolated images, and also generates the two original images immediately after the scene change. A predetermined number of interpolated images are generated by extrapolating in the reverse direction of the time axis. These interpolated images are sent to the image composition unit 150. The image synthesizing unit 150 synthesizes an interpolated image based on the original image before the scene change and an interpolated image based on the original image after the scene change by α blending to synthesize the synthesized image. Generate. The generated composite image is sent to the stream generation unit 170. The stream generation unit 170 generates a data stream similar to the data stream in the first mode shown in FIG. 3 based on the original image, the scene change information, and the composite image. However, in the third mode, the method for generating a composite image is different from that in the first mode as described above. If a moving image is reproduced based on this data stream, a synthesized image can be inserted and displayed between key frames sandwiching a scene change, so that the same visual effect as in the first and second modes can be obtained.

以上の構成に基づく画像処理装置100の動作を説明する。図6は、第1の実施形態における画像処理装置100の動作を示すフローチャートの一例である。入力部110は原画像を取得する(S10)。シーンチェンジ検出部120は、シーンチェンジを検出し(S12)、原画像とシーンチェンジ情報をモード決定部140およびストリーム生成部170に送る(S14)。モード決定部140は、モードテーブル130を参照して、第1の動作モードの場合はシーンチェンジを挟む2枚の原画像を画像合成部150に送り、画像合成部150が合成画像を生成する(S16の1、S18)。第2の動作モードの場合は、シーンチェンジ直前の2枚の原画像を補間画像生成部160に送り、補間画像生成部160が補間画像を生成する(S16の2、S20)。第3の動作モードの場合は、シーンチェンジ直前の2枚の原画像および直後の2枚の原画像をそれぞれ補間画像生成部160へ送り、それぞれの画像対から補間画像を生成する(S16の3、S22)。それらの補間画像は画像合成部150に送られ合成画像が生成される(S24)。ストリーム生成部170は、シーンチェンジ検出部120から受け取った原画像とシーンチェンジ情報及び画像合成部150から受け取った合成画像もしくは補間画像生成部160から受け取った補間画像を利用してデータストリームを生成する(S26)。   The operation of the image processing apparatus 100 based on the above configuration will be described. FIG. 6 is an example of a flowchart illustrating the operation of the image processing apparatus 100 according to the first embodiment. The input unit 110 acquires an original image (S10). The scene change detection unit 120 detects a scene change (S12), and sends the original image and the scene change information to the mode determination unit 140 and the stream generation unit 170 (S14). The mode determination unit 140 refers to the mode table 130 and, in the first operation mode, sends two original images sandwiching the scene change to the image composition unit 150, and the image composition unit 150 generates a composite image ( 1 of S16, S18). In the case of the second operation mode, the two original images immediately before the scene change are sent to the interpolation image generation unit 160, and the interpolation image generation unit 160 generates an interpolation image (S16-2, S20). In the case of the third operation mode, the two original images immediately before the scene change and the two original images immediately after the scene change are sent to the interpolation image generation unit 160, and an interpolation image is generated from each image pair (3 in S16). , S22). Those interpolated images are sent to the image composition unit 150 to generate a composite image (S24). The stream generation unit 170 generates a data stream using the original image and scene change information received from the scene change detection unit 120 and the composite image received from the image composition unit 150 or the interpolation image received from the interpolation image generation unit 160. (S26).

(実施形態2)
本発明の他の実施形態である画像処理装置は、毎秒30フレームの動画から0.5秒おきの間隔で抽出したフレームを原画像として取得し、その各原画像間の対応情報ファイルを生成する構成を備える。これにより例えばネットワークを介した伝送に適するように動画データを圧縮しつつ、一方で、シーンチェンジ時の画像の断絶感の緩和をはかる。もとになる動画と抽出される原画像の表示間隔の関係は当然上記には限定されない。
(Embodiment 2)
An image processing apparatus according to another embodiment of the present invention acquires frames extracted at intervals of 0.5 seconds from a moving image of 30 frames per second as an original image, and generates a correspondence information file between the original images. It has a configuration. As a result, for example, while compressing moving image data so as to be suitable for transmission via a network, the feeling of disconnection of an image at the time of a scene change is reduced. Of course, the relationship between the display interval of the original moving image and the extracted original image is not limited to the above.

図7は第2の実施形態における画像処理装置200の構成を示す図である。本実施形態の画像処理装置200は、図1に示した第1の実施形態の画像処理装置100に加えて対応情報データ生成部210を備える。対応情報データ生成部は隣接する原画像間のマッチング計算を行い、原画像間の対応点に関するデータを生成する。対応情報データの生成には、本願出願人が特許第2927350号で開示する、画素同士の対応関係を取得する手法を用いるのが好適であるが、それに限られない。その他の構成については、図1の画像処理装置100と図7の画像処理装置200の間に差異がないため説明は省略する。   FIG. 7 is a diagram illustrating a configuration of the image processing apparatus 200 according to the second embodiment. The image processing apparatus 200 of this embodiment includes a correspondence information data generation unit 210 in addition to the image processing apparatus 100 of the first embodiment shown in FIG. The correspondence information data generation unit performs matching calculation between adjacent original images and generates data related to corresponding points between the original images. For the generation of the correspondence information data, it is preferable to use the method of acquiring the correspondence relationship between the pixels disclosed by the present applicant in Japanese Patent No. 2927350, but is not limited thereto. Since there is no difference between the image processing apparatus 100 of FIG. 1 and the image processing apparatus 200 of FIG.

第2の実施形態に係る画像処理装置200も、第1の実施形態に係る画像処理装置100と同様の三つの動作モードを有する。まず、第1の動作モードにおいては、入力部110は毎秒30フレームの動画から0.5秒おきに抽出されたフレームを原画像として取得する。シーンチェンジ検出部120はこれら原画像からシーンチェンジを検出し、原画像とシーンチェンジ情報を対応情報データ生成部210とモード決定部140とに送る。モード決定部140はモードテーブル130を参照し、第1の動作モードを確認するとシーンチェンジ前後の原画像を画像合成部150へと送る。画像合成部150はαブレンディングによりこれらの受け取った原画像から所定数の合成画像を生成し、ストリーム生成部170へと送る。   The image processing apparatus 200 according to the second embodiment also has the same three operation modes as the image processing apparatus 100 according to the first embodiment. First, in the first operation mode, the input unit 110 acquires a frame extracted every 0.5 seconds from a moving image of 30 frames per second as an original image. The scene change detection unit 120 detects a scene change from these original images, and sends the original image and scene change information to the correspondence information data generation unit 210 and the mode determination unit 140. The mode determination unit 140 refers to the mode table 130 and, upon confirming the first operation mode, sends the original images before and after the scene change to the image composition unit 150. The image synthesizing unit 150 generates a predetermined number of synthesized images from these received original images by α blending, and sends them to the stream generating unit 170.

一方、対応情報データ生成部210では、検出部120から受け取った原画像の対応情報データを生成する。ただし、シーンチェンジ情報に基づき、シーンチェンジを挟む2枚の原画像についてはマッチング計算をスキップし、対応情報データを生成しない。後述するとおり、対応情報データは、原画像間の中間画像を生成して動画を再生するために用いられるが、シーンチェンジを挟む原画像について、対応情報データを利用して中間画像を生成すれば、意図しないモーフィングのような画像を生成することとなり、所期の動画再生の妨げとなるためである。対応情報データ生成部210が生成した対応情報データ、各原画像およびシーンチェンジ情報はその後ストリーム生成部170へと送られる。   On the other hand, the correspondence information data generation unit 210 generates correspondence information data of the original image received from the detection unit 120. However, based on the scene change information, matching calculation is skipped for two original images sandwiching the scene change, and no corresponding information data is generated. As will be described later, the correspondence information data is used to generate an intermediate image between the original images and reproduce the moving image. However, if the intermediate image is generated using the correspondence information data for the original image sandwiching the scene change. This is because an image such as unintended morphing is generated, which hinders the reproduction of a desired moving image. The correspondence information data generated by the correspondence information data generation unit 210, each original image, and scene change information are then sent to the stream generation unit 170.

ストリーム生成部170は、画像合成部150から受け取った合成画像および対応情報データ生成部210から受け取った対応情報データ、原画像、シーンチェンジ情報を利用して、動画再生用のデータストリームを生成する。データストリームの構造については後述する。   The stream generation unit 170 generates a data stream for moving image reproduction using the composite image received from the image composition unit 150 and the correspondence information data, the original image, and the scene change information received from the correspondence information data generation unit 210. The structure of the data stream will be described later.

図8は、第2の実施形態の画像処理装置200に入力される原画像を模式的に示す図である。既述の通り、本実施形態においては、毎秒30フレームの動画から0.5秒おきに抽出したフレームを原画像とする。すなわち、図2で言えば、KF、KF15、KF30・・・に相当する画像が原画像として入力される。図8はその様子を示し、KF15とKF30の間にシーンチェンジが存在するものとする。画像に付されるTの意味は図2と同様である。 FIG. 8 is a diagram schematically illustrating an original image input to the image processing apparatus 200 according to the second embodiment. As described above, in this embodiment, frames extracted every 30 seconds from a moving image of 30 frames per second are used as original images. That is, in FIG. 2, images corresponding to KF 0 , KF 15 , KF 30 ... Are input as original images. FIG. 8 shows this state, and it is assumed that a scene change exists between KF 15 and KF 30 . The meaning of T s added to the image is the same as in FIG.

図9は、図8の原画像に基づいて画像処理装置200の第1の動作モードによってストリーム生成部170が生成するデータストリームの構造を示す。第1の動作モードでは、ストリーム生成部170は、原画像と、シーンチェンジを挟まない原画像間の対応点情報と、シーンチェンジを挟む画像間に挿入される合成画像からなるデータストリームを生成する。   FIG. 9 shows the structure of a data stream generated by the stream generation unit 170 in the first operation mode of the image processing apparatus 200 based on the original image of FIG. In the first operation mode, the stream generation unit 170 generates a data stream including an original image, corresponding point information between the original images that do not sandwich the scene change, and a composite image inserted between the images that sandwich the scene change. .

図9において、KF、CF、Tについては図3と同様である。また、KFとKFi+αの対応情報データをMi,i+αで示す。同図のとおり、それぞれT、T15のタイミングで表示されるKF、KF15にそれらの間の対応情報データM0,15が続いている。後述するが、対応情報データM0,15は、KFとKF15の間の中間画像を生成するために用いられる。その後に14枚の合成画像CF、CF、・・・CF14と、それぞれの表示タイミングであるT16、T17、・・・T29が交互に続く。さらに、その後にKF30とその表示タイミングT30,KF45とT45、KF30とKF45の間の対応情報データM30,45が配されている。なお、ストリーム生成部170の生成するデータストリームは、その内容が原画像、対応点情報、合成画像からなるものであれば、配列の順番については必ずしも図9の通りである必要はない。 In FIG. 9, KF i , CF j , and T s are the same as those in FIG. Also shows the corresponding information data of the KF i and KF i + alpha at M i, i + α. As the figure, corresponding information data M 0, 15 is continued between them KF 0, KF 15 displayed at the timing of T 0, T 15, respectively. As described later, corresponding information data M 0, 15 is used to generate an intermediate image between the KF 0 and KF 15. Then 14 sheets of the composite image CF 1, CF 2, and ··· CF 14, T 16, T 17 are the respective display timing, · · · T 29 is followed alternately. Further, KF 30 and its display timing T 30 , KF 45 and T 45 , and correspondence information data M 30 and 45 between KF 30 and KF 45 are arranged thereafter . Note that the order of arrangement of the data stream generated by the stream generation unit 170 is not necessarily as shown in FIG. 9 as long as the content is composed of an original image, corresponding point information, and a composite image.

図10は、図9のデータストリームに基づいて再生される動画の画像列を示す図である。なお、動画再生に当たっては、対応情報データを利用し、原画像を補間して原画像間の中間画像を生成するための構成を備える動画再生装置等が必要となる。中間画像はIFは非負整数)で表す。KF、CF、Tの意味については図8等と同様である。 FIG. 10 is a diagram showing an image sequence of a moving image reproduced based on the data stream of FIG. In reproducing a moving image, a moving image reproducing apparatus or the like having a configuration for generating an intermediate image between original images by using correspondence information data and interpolating original images is required. The intermediate image is represented by IF l ( l is a non-negative integer). The meanings of KF i , CF j , and T s are the same as in FIG.

図10は、KFがTのタイミングで表示され、IF乃至IF14がT乃至T14のタイミングで表示されることを示す。その後、KF15がT15のタイミングで表示され、シーンチェンジを挟むため中間画像の生成されないKF15とKF30の間については、合成画像であるCF乃至CF14がT16乃至T29のタイミングで表示される。つまり、毎秒30フレームのレートで、KF、IF、IF、・・・IF14、KF15、CF、CF、・・・CF14、KF30・・・という順番で画像が再生される。 FIG. 10 shows that KF 0 is displayed at timing T 0 and IF 1 through IF 14 are displayed at timing T 1 through T 14 . After that, KF 15 is displayed at the timing of T 15, and the intermediate images are not generated because the scene change is sandwiched between KF 15 and KF 30 , the synthesized images CF 1 to CF 14 are the timings of T 16 to T 29 . Is displayed. That is, images are reproduced in the order of KF 0 , IF 1 , IF 2 ,... IF 14 , KF 15 , CF 1 , CF 2 ,... CF 14 , KF 30. Is done.

以上の画像処理装置200によれば、動画から抽出した原画像と、対応情報データ、合成画像のみを含むデータストリームを伝送し、受信側で、オリジナル同様の動画を再生することが可能となり、動画像データ量の圧縮効果が著しい。その一方で、不自然なマッチングを回避すべき、シーンチェンジ前後の原画像間については、合成画像を挿入することで、シーンチェンジにより生じる動画再生時の違和感を軽減することもできる。特に、マッチングをスキップして中間画像の生成を行わない場合、間に何の画像も挿入しなければシーンチェンジによる断絶感は一層大きくなるが、合成画像の挿入によりそれを回避できる。なお、データストリームを受け取る側が合成画像生成部に相当する構成を備えていれば、データストリームに合成画像を含めて送信する代わりに、単に合成画像を生成する命令のみを含めてもよい。これにより伝送データの圧縮率を向上させられる。データを受け取って再生する側で、シーンチェンジ前後に合成画像を表示できるため、画質も維持できる。   According to the image processing apparatus 200 described above, it is possible to transmit a data stream including only an original image extracted from a moving image, correspondence information data, and a combined image, and to reproduce a moving image similar to the original on the receiving side. The compression effect of the image data amount is remarkable. On the other hand, by inserting a composite image between original images before and after a scene change that should avoid unnatural matching, it is possible to reduce the uncomfortable feeling during moving image reproduction caused by the scene change. In particular, when skipping matching and not generating an intermediate image, if no image is inserted in between, the sense of disconnection due to a scene change is further increased, but this can be avoided by inserting a composite image. If the data stream receiving side has a configuration corresponding to the composite image generation unit, instead of transmitting the composite image including the composite image, only the command for generating the composite image may be included. Thereby, the compression rate of transmission data can be improved. On the side that receives and plays the data, the composite image can be displayed before and after the scene change, so the image quality can be maintained.

第2の実施形態に係る画像処理装置200の第2の動作モードにおいて、入力部110、検出部120および対応情報データ生成部210の動作は、第1の動作モードと同様である。モード決定部140はモードテーブル130を参照し、第2の動作モードを確認すると、シーンチェンジ直前の2枚の原画像を補間画像生成部160へ送る。補間画像生成部160は受け取った原画像を時間軸の順方向に外挿補間して所定数の補間画像を生成し、ストリーム生成部170へと送る。   In the second operation mode of the image processing apparatus 200 according to the second embodiment, the operations of the input unit 110, the detection unit 120, and the correspondence information data generation unit 210 are the same as those in the first operation mode. When the mode determination unit 140 refers to the mode table 130 and confirms the second operation mode, the mode determination unit 140 sends the two original images immediately before the scene change to the interpolation image generation unit 160. The interpolated image generation unit 160 extrapolates the received original image in the forward direction of the time axis to generate a predetermined number of interpolated images, and sends the generated image to the stream generation unit 170.

ストリーム生成部170は、補間画像生成部160から受け取った補間画像および対応情報データ生成部210から受け取った対応情報データ、原画像、シーンチェンジ情報を利用して、動画再生用のデータストリームを生成する。   The stream generation unit 170 uses the interpolation image received from the interpolation image generation unit 160 and the correspondence information data, the original image, and the scene change information received from the correspondence information data generation unit 210 to generate a data stream for moving image reproduction. .

図11は、図第2の実施形態に係る画像処理装置200が、第2の動作モードで生成するデータストリームの構造を示す図である。図9との違いのみ説明する。図11では、補間画像をEFは非負整数)で表す。すなわち、図9の合成画像CF、・・・CF14に代えて、図11では、補間画像EF、・・・EF14が、M0,15とKF30の間に挿入されている。これを再生すれば、図10に示した第1の動作モードに係る再生画像列の、合成画像を補間画像で置き換えたものが得られ、第1の動作モードと同様の効果が生ずる。なお、この第2の動作モードにおいては、シーンチェンジ直前の原画像ではなく、直後の原画像2枚に基づいて外挿補間画像を生成してもよい。 FIG. 11 is a diagram illustrating a structure of a data stream generated by the image processing apparatus 200 according to the second embodiment in the second operation mode. Only differences from FIG. 9 will be described. In FIG. 11, the interpolated image is represented by EF k ( k is a non-negative integer). That is, the composite image CF 1 of FIG. 9, instead of the · · · CF 14, 11, interpolated image EF 1, · · · EF 14 is inserted between the M 0, 15 and KF 30. If this is reproduced, the reproduced image sequence according to the first operation mode shown in FIG. 10 is obtained by replacing the synthesized image with the interpolated image, and the same effect as in the first operation mode is produced. In the second operation mode, an extrapolated interpolation image may be generated based on the two original images immediately after the scene change instead of the original image immediately before the scene change.

第2の実施形態に係る画像処理装置200の、第3の動作モードにおいても、入力部110、検出部120および対応情報データ生成部210の動作は上記第1のモード及び第2のモードと同様である。モード決定部140は、モードテーブル130を参照し、第3の動作モードであることを確認すると、シーンチェンジの直前にある2枚の原画像と直後にある2枚の原画像とを補間画像生成部160へ送る。   Even in the third operation mode of the image processing apparatus 200 according to the second embodiment, the operations of the input unit 110, the detection unit 120, and the correspondence information data generation unit 210 are the same as those in the first mode and the second mode. It is. When the mode determination unit 140 refers to the mode table 130 and confirms that the mode is the third operation mode, the mode determination unit 140 generates an interpolated image between the two original images immediately before the scene change and the two original images immediately after the scene change. Send to section 160.

補間画像生成部160は、シーンチェンジの直前の2枚の原画像を時間軸の順方向に外挿補間して所定数の補間画像を生成し、また、シーンチェンジ直後の2枚の原画像を時間軸の逆方向に外挿補間して所定数の補間画像を生成する。これらの補間画像は画像合成部150に送られる。画像合成部150は、シーンチェンジ前の原画像に基づいた補間画像と、シーンチェンジ後の原画像に基づいた補間画像のうち時間的に対応するもの同士を、αブレンディングにより合成して合成画像を生成する。生成した合成画像はストリーム生成部170へ送られる。ストリーム生成部170は、補間画像生成部160から受け取った補間画像および対応情報データ生成部210から受け取った対応情報データ、原画像、シーンチェンジ情報を利用して、図9に示す第1の動作モードによるデータストリームと同様のデータストリームを生成する。ただし、この第3の動作モードにおいては、合成画像の生成の方法が第1のモードと異なるのは既述の通りである。このデータストリームに基づいて動画像を再生すれば、図10に示した、第1の動作モードによる再生画像列と同様の画像が得られ、第1および第2のモードと同様の効果を生ずる。   The interpolated image generating unit 160 extrapolates the two original images immediately before the scene change in the forward direction of the time axis to generate a predetermined number of interpolated images, and also generates the two original images immediately after the scene change. A predetermined number of interpolated images are generated by extrapolating in the reverse direction of the time axis. These interpolated images are sent to the image composition unit 150. The image synthesizing unit 150 synthesizes an interpolated image based on the original image before the scene change and an interpolated image based on the original image after the scene change by α blending to synthesize the synthesized image. Generate. The generated composite image is sent to the stream generation unit 170. The stream generation unit 170 uses the interpolated image received from the interpolated image generation unit 160 and the corresponding information data, original image, and scene change information received from the corresponding information data generating unit 210 to perform the first operation mode shown in FIG. A data stream similar to the data stream by is generated. However, in the third operation mode, the method of generating a composite image is different from the first mode as described above. If a moving image is reproduced based on this data stream, an image similar to the reproduced image sequence in the first operation mode shown in FIG. 10 can be obtained, and effects similar to those in the first and second modes can be obtained.

以上第2の実施実施形態では、毎秒30フレームの表示能力を有するディスプレイで再生するための動画ストリームを生成すべく、生成する中間画像や合成画像、補間画像の表示タイミングもそのように設定されているが、ハイフレームレート対応のディスプレイ等での再生が可能な環境にあれば、これらの画像の生成枚数を増加させ、表示間隔を短くしてより高品質の動画をえることも可能である。   As described above, in the second embodiment, in order to generate a moving image stream to be played back on a display having a display capability of 30 frames per second, the display timing of the generated intermediate image, synthesized image, and interpolated image is set in that way. However, in an environment where playback on a high frame rate compatible display or the like is possible, it is possible to increase the number of images generated and shorten the display interval to obtain higher quality moving images.

本発明の一実施形態に係る画像処理装置の構成図である。1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置が取得する原画像を示す図である。It is a figure which shows the original image which the image processing apparatus of FIG. 1 acquires. 図1の画像処理装置が生成するデータストリームを示す図である。It is a figure which shows the data stream which the image processing apparatus of FIG. 1 produces | generates. 図3のデータストリームに基づいて再生された画像を示す図である。It is a figure which shows the image reproduced | regenerated based on the data stream of FIG. 図1の画像処理装置が生成する別のデータストリームを示す図である。It is a figure which shows another data stream which the image processing apparatus of FIG. 1 produces | generates. 図1の画像処理装置の処理を示すフローチャートである。3 is a flowchart illustrating processing of the image processing apparatus in FIG. 1. 本発明の別の実施形態に係る画像処理装置の構成図である。It is a block diagram of the image processing apparatus which concerns on another embodiment of this invention. 図7の画像処理装置が取得する原画像を示す図である。It is a figure which shows the original image which the image processing apparatus of FIG. 7 acquires. 図7の画像処理装置が生成するデータストリームを示す図である。It is a figure which shows the data stream which the image processing apparatus of FIG. 7 produces | generates. 図9のデータストリームに基づいて再生された画像を示す図である。FIG. 10 is a diagram illustrating an image reproduced based on the data stream of FIG. 9. 図7の画像処理装置が生成する別のデータストリームを示す図である。It is a figure which shows another data stream which the image processing apparatus of FIG. 7 produces | generates.

符号の説明Explanation of symbols

100、200 画像処理装置、 110 入力部、 120 シーンチェンジ検出部、 130 モードテーブル、 140 モード決定部、 150 画像合成部、 160 補間画像生成部、 170 ストリーム生成部170、 210 対応情報データ生成部。   100, 200 image processing apparatus, 110 input unit, 120 scene change detection unit, 130 mode table, 140 mode determination unit, 150 image composition unit, 160 interpolated image generation unit, 170 stream generation unit 170, 210 corresponding information data generation unit.

Claims (9)

連続する複数の原画像を取得する画像入力部と、
前記複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、
前記シーンチェンジを挟む二つの原画像に基づいて合成画像を生成する合成画像生成部と、
前記複数の原画像と、前記合成画像とを含む再生用データストリームを生成するストリーム生成部とを含み、
前記ストリーム生成部は、前記合成画像を前記シーンチェンジを挟む二つの原画像の間に挿入して前記データストリームを生成することを特徴とする画像処理装置。
An image input unit for acquiring a plurality of continuous original images;
A scene change detection unit for detecting when a scene change is sandwiched between two of the plurality of original images;
A composite image generating unit that generates a composite image based on two original images sandwiching the scene change;
A stream generation unit that generates a reproduction data stream including the plurality of original images and the composite image;
The stream processing unit generates the data stream by inserting the composite image between two original images sandwiching the scene change.
連続する複数の原画像を取得する画像入力部と、
前記複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、
前記複数の原画像のうち前記シーンチェンジの前後いずれかにおける二以上の原画像に基づいて補間画像を生成する補間画像生成部と、
前記複数の原画像と、前記補間画像とを含む再生用データストリームを生成するストリーム生成部とを含み、
前記ストリーム生成部は、前記補間画像を前記シーンチェンジを挟む二つの原画像の間に挿入して前記データストリームを生成することを特徴とする画像処理装置。
An image input unit for acquiring a plurality of continuous original images;
A scene change detection unit for detecting when a scene change is sandwiched between two of the plurality of original images;
An interpolation image generation unit that generates an interpolation image based on two or more original images before or after the scene change among the plurality of original images;
A stream generation unit that generates a reproduction data stream including the plurality of original images and the interpolation image;
The stream processing unit generates the data stream by inserting the interpolated image between two original images sandwiching the scene change.
連続する複数の原画像を取得する画像入力部と、
前記複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、
前記複数の原画像のうち前記シーンチェンジの前後いずれかにおける二以上の原画像に基づいて補間画像を生成する補間画像生成部と、
前記シーンチェンジの前における二以上の原画像に基づく補間画像と、前記シーンチェンジの後における二以上の原画像に基づく補間画像とに基づいて合成画像を生成する合成画像生成部と、
前記複数の原画像と、前記合成画像とを含む再生用データストリームを生成するストリーム生成部とを含み、
前記ストリーム生成部は、前記補間画像を前記シーンチェンジを挟む二つの原画像の間に挿入して前記データストリームを生成することを特徴とする画像処理装置。
An image input unit for acquiring a plurality of continuous original images;
A scene change detection unit for detecting when a scene change is sandwiched between two of the plurality of original images;
An interpolation image generation unit that generates an interpolation image based on two or more original images before or after the scene change among the plurality of original images;
A composite image generating unit that generates a composite image based on an interpolated image based on two or more original images before the scene change and an interpolated image based on two or more original images after the scene change;
A stream generation unit that generates a reproduction data stream including the plurality of original images and the composite image;
The stream processing unit generates the data stream by inserting the interpolated image between two original images sandwiching the scene change.
前記データストリームにおいて、前記合成画像の表示間隔は前記原画像の表示間隔よりも短く設定されていることを特徴とする請求項1または3のいずれかに記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein in the data stream, a display interval of the composite image is set shorter than a display interval of the original image. 5. 前記データストリームにおいて、前記補間画像の表示間隔は前記原画像の表示間隔よりも短く設定されていることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein in the data stream, a display interval of the interpolation image is set shorter than a display interval of the original image. 連続する複数の原画像を取得する画像入力部と、
前記複数の原画像のうちの二つがシーンチェンジを挟むときこれを検出するシーンチェンジ検出部と、
前記複数の原画像と、複数のモードから選択した一つのモードに従って新たに生成した画像とを含む再生用データストリームを生成するストリーム生成部とを含み、
前記ストリーム生成部は、前記新たに生成した画像を前記シーンチェンジを挟む二つの原画像の間に挿入して前記データストリームを生成することを特徴とする画像処理装置。
An image input unit for acquiring a plurality of continuous original images;
A scene change detection unit for detecting when a scene change is sandwiched between two of the plurality of original images;
A stream generation unit that generates a reproduction data stream including the plurality of original images and an image newly generated according to one mode selected from the plurality of modes;
The stream processing unit is configured to generate the data stream by inserting the newly generated image between two original images sandwiching the scene change.
前記複数の原画像のうち、隣接する二つの原画像であって前記シーンチェンジを挟まないものについて対応情報データを生成する対応情報データ生成部をさらに含み、
前記ストリーム生成部は、前記対応情報データをさらに含めて前記データストリームを生成することを特徴とする請求項1から6のいずれかに画像処理装置。
A correspondence information data generation unit that generates correspondence information data for two adjacent original images among the plurality of original images that do not sandwich the scene change;
The image processing apparatus according to claim 1, wherein the stream generation unit generates the data stream further including the correspondence information data.
前記シーンチェンジ検出部は、前記原画像のうち連続する二つの原画像の差が所定の上限値と下限値の間にある場合に、前記シーンチェンジがあったと判定することを特徴とする請求項1から7のいずれかに記載の画像処理装置。   The scene change detection unit determines that the scene change has occurred when a difference between two consecutive original images among the original images is between a predetermined upper limit value and a lower limit value. The image processing apparatus according to any one of 1 to 7. 前記シーンチェンジ検出部は、連続する二つの原画像間において、動画の意味内容上の連続性が維持されながら、かつ前記連続する二つの原画像間の変化が大きい場合をシーンチェンジとして検出することを特徴とする請求項1から7のいずれかに記載の画像処理装置。

The scene change detection unit detects, as a scene change, a case where a continuity in semantic content of a moving image is maintained between two consecutive original images and a large change between the two consecutive original images is large. An image processing apparatus according to claim 1, wherein:

JP2005006841A 2005-01-13 2005-01-13 Image processing apparatus Pending JP2006197256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005006841A JP2006197256A (en) 2005-01-13 2005-01-13 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005006841A JP2006197256A (en) 2005-01-13 2005-01-13 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2006197256A true JP2006197256A (en) 2006-07-27

Family

ID=36802970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005006841A Pending JP2006197256A (en) 2005-01-13 2005-01-13 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2006197256A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056695A (en) * 2013-09-10 2015-03-23 株式会社東芝 Moving image reproducing device
WO2015173967A1 (en) * 2014-05-16 2015-11-19 セガサミークリエイション株式会社 Game image-generating device and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056695A (en) * 2013-09-10 2015-03-23 株式会社東芝 Moving image reproducing device
US9485453B2 (en) 2013-09-10 2016-11-01 Kabushiki Kaisha Toshiba Moving image player device
WO2015173967A1 (en) * 2014-05-16 2015-11-19 セガサミークリエイション株式会社 Game image-generating device and program
US10099132B2 (en) 2014-05-16 2018-10-16 Sega Sammy Creation Inc. Game image generation device and program

Similar Documents

Publication Publication Date Title
JP5274359B2 (en) 3D video and audio recording method, 3D video and audio playback method, 3D video and audio recording device, 3D video and audio playback device, 3D video and audio recording medium
US11148047B2 (en) Video display system, video display device, its control method, and information storage medium
JP2008535354A (en) Method and apparatus for providing multiple video images
JP2000197074A (en) Stereoscopic reproduction device, output device, and its control method and storage medium
JP2008500752A (en) Adaptive decoding of video data
JP2011109294A (en) Information processing apparatus, information processing method, display control apparatus, display control method, and program
US20220001276A1 (en) Video display system, video display device, its control method, and information storage medium
JP2011014956A (en) Recording/reproducing apparatus
JP2011228862A (en) Data structure, image processing apparatus, image processing method and program
US6704357B1 (en) Method and apparatus for reconstruction of low frame rate video conferencing data
JP2008167061A (en) Encoding device and encoding method
JP2011151721A (en) Image processing apparatus, image processing method, and program
CN108307248A (en) Video broadcasting method, device, computing device and storage medium
JP2004173118A (en) Device for generating audio and video multiplexed data, reproducing device and moving image decoding device
JP5304860B2 (en) Content reproduction apparatus and content processing method
JP2006197256A (en) Image processing apparatus
JP2011244328A (en) Video reproduction apparatus and video reproduction apparatus control method
JP2004088621A (en) Multimedia communication control method, multimedia communication control server and multimedia communication system
JP6119765B2 (en) Information processing apparatus, information processing system, information processing program, and moving image data transmission / reception method
JP4994942B2 (en) Information processing apparatus, information processing method, and information processing system
WO2021002303A1 (en) Information processing device, information processing method, playback processing device, and playback processing method
JP2011171862A (en) Playback device, playback method, and program
JP5993037B2 (en) Control device, video display device, display control system, control method, video display method, program, and information storage medium
JP5485952B2 (en) VIDEO DISPLAY SYSTEM, VIDEO DISPLAY DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2006180091A (en) Apparatus and method of compositing content

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080729