WO2022153385A1 - 映像処理装置、映像処理方法、および、映像処理プログラム - Google Patents

映像処理装置、映像処理方法、および、映像処理プログラム Download PDF

Info

Publication number
WO2022153385A1
WO2022153385A1 PCT/JP2021/000801 JP2021000801W WO2022153385A1 WO 2022153385 A1 WO2022153385 A1 WO 2022153385A1 JP 2021000801 W JP2021000801 W JP 2021000801W WO 2022153385 A1 WO2022153385 A1 WO 2022153385A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
video
frame
images
Prior art date
Application number
PCT/JP2021/000801
Other languages
English (en)
French (fr)
Inventor
弘員 柿沼
翔大 山田
秀信 長田
浩太 日高
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/000801 priority Critical patent/WO2022153385A1/ja
Publication of WO2022153385A1 publication Critical patent/WO2022153385A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Definitions

  • the present invention relates to a video processing apparatus, a video processing method, and a video processing program.
  • the input video is treated as a series of continuous frames (still images) and processed one by one.
  • the input thread that stores the video input from the serial interface in the frame buffer the main thread that reads the contents of the frame buffer, performs image processing, and writes the processing result to the output frame buffer, and the output frame buffer.
  • the output thread that reads out the image and outputs it via the serial interface is roughly divided into three types of thread processing.
  • Patent Document 1 describes an image processing technique for extracting a subject.
  • the three types of threads may be executed asynchronously. By executing three threads asynchronously, frames can be dropped even if the processing time in the main thread is long, and as a result, sequential processing can be maintained.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to make frame drops randomly generated by image processing inconspicuous and to improve the smoothness of an output image.
  • one aspect of the present invention is an image processing device, which comprises an input unit for inputting a plurality of input images of the same image processed in parallel by a plurality of external processing devices. For each input video, the first image of the target frame is compared with the second image of the frame immediately preceding the target frame, and if the first image and the second image are the same, it is determined that the multiple layers of the input video are increased. It includes a unit and a selection unit that selects a first image of any of the input images as an image of a target frame based on a plurality of overlapping of the input images.
  • One aspect of the present invention is a video processing method performed by a video processing device, which includes an input step of inputting a plurality of input videos image-processed in parallel by a plurality of external processing devices for the same video, and the input.
  • a determination step of comparing the first image of the target frame with the second image of the frame immediately preceding the target frame for each image, and increasing the number of multiple layers of the input image when the first image and the second image are the same.
  • the selection step of selecting the first image of any of the input images as the image of the target frame based on the multiple layers of the plurality of input images.
  • One aspect of the present invention is a video processing program that causes a computer to function as the video processing device.
  • the present invention is an object of making the drop of frames randomly generated by image processing inconspicuous and improving the smoothness of the output image.
  • FIG. 1 is a configuration diagram showing a configuration example of the video processing device 1 of the present embodiment.
  • a plurality of input images output from the plurality of external processing devices 2 are input to the image processing device 1.
  • Each external processing device 2 performs the same image processing (for example, subject extraction, etc.) in parallel for the same video (original video), and outputs the input video after the image processing to the video processing device 1.
  • the external processing device 2 is a device that does not have sufficient processing performance, and each frame of the input video cannot always be switched at an ideal timing (for example, 29.97 frames / second, 59.94 frames / second). Frames are dropped randomly. Therefore, when the input video processed by one external processing device 2 is reproduced as it is, the video looks stiff and lacks smoothness to the viewer.
  • the video processing device 1 of the present embodiment inputs a plurality of input videos, selects the optimum frame for each frame from these input videos, and outputs the selected frame as the final output video.
  • the present embodiment it is possible to reduce the stuttering of the image and improve the smoothness of the image.
  • the illustrated video processing device 1 includes an input unit 11, a frame synchronization unit 12, an image acquisition unit 13, an evaluation unit 14, an output unit 18, and an image storage unit 19.
  • the input unit 11 inputs a plurality of input images that have been image-processed in parallel by a plurality of external processing devices 2 for the same image.
  • the input unit 11 may receive the input video from each external processing device 2 via the network and input the input video.
  • the frame synchronization unit 12 time-synchronizes each frame of the input video output from the plurality of external processing devices 2 by a synchronization signal from the inside or the outside.
  • the frame synchronization unit 12 may synchronize each frame of a plurality of input videos by using, for example, MMT (MPEG Media Transport).
  • the image acquisition unit 13 acquires an image of a target frame (nth frame) to be processed from a plurality of input images, inputs the image to the evaluation unit 14, and stores the image in the image storage unit 19.
  • the image storage unit 19 stores the images of each frame of the plurality of input images acquired by the image acquisition unit 13 for a predetermined period of time.
  • the evaluation unit 14 compares the first image of the target frame with the second image of the immediately preceding frame one frame before the target frame for each input video, and evaluates whether or not there is a change in these images. When there is no change in these images, the evaluation unit 14 determines that the target frame is an unupdated frame, and increases the number of duplicates of the input video. That is, the multiple multiple indicates the number of times that the same image appears consecutively in each input video, and the large number of multiple multiple means low reliability of the image.
  • the illustrated evaluation unit 14 includes a determination unit 15, a selection unit 16, and a synthesis unit 17.
  • the determination unit 15 compares the first image of the target frame with the second image of the frame immediately preceding the target frame for each input video, and if the first image and the second image are the same, the weight of the input video Increase multiple. When the first image and the second image are different, the determination unit 15 may reset the multiple layers to a predetermined value (for example, 0). When the first image of the input video having the smallest multiples is the same as the first image of the other input video having the smallest multiples, the determination unit 15 sets the multiple multiples of the input video having the smallest multiples. It may be updated to multiple layers of the input video of.
  • the determination unit 15 acquires the second image of the immediately preceding frame from the image storage unit 19.
  • the multiple layers of each input video are stored in a memory (not shown) included in the video processing device 1.
  • the selection unit 16 selects the first image of any of the input images as the image of the target frame based on the multiple layers of the plurality of input images. In the present embodiment, the selection unit 16 selects the first image of the input video having the smallest multiple layers as the image of the target frame.
  • the compositing unit 17 When there are a plurality of input images having the smallest multiples, the compositing unit 17 generates a composite image obtained by synthesizing a plurality of first images of the input images having the smallest multiples. For example, when the selection unit 16 cannot select the image of the target frame using the multiple layers, the composite unit 17 synthesizes a plurality of different first images of the plurality of input videos having the smallest multiple layers, and the combined image is combined. May be used as the image of the target frame.
  • the synthesizing method may be, for example, an average image obtained by averaging the pixel values of a plurality of first images.
  • the output unit 18 outputs each frame in which the first image selected by the selection unit 16 or the composite image synthesized by the synthesis unit 17 is set as the final output video.
  • FIG. 2 is an explanatory diagram showing a specific example of a frame selected by the video processing device 1.
  • the original video 3 is input to the external processing devices 2A, 2B, and 2C, and the external processing devices 2A, 2B, and 2C sequentially execute image processing (for example, subject extraction) for each frame of the original video 3. Then, the input images 4A, 4B, and 4C of the processing result are output to the image processing device 1.
  • the image (for example, the subject) of the original video 3 is represented by alphabetic characters for convenience.
  • Frames are dropped (missing) in the external processing devices 2A, 2B, and 2C.
  • the image processing of the external processing devices 2A, 2B, and 2C is delayed, so that the image in the drawing memory provided by the device is not updated, and as a result, the image of the immediately preceding frame is output. It is caused by being done. That is, the images of the same frame are duplicated and repeatedly output, which causes the image to be stuttered.
  • a frame drop occurs in the second frame, and the same frame as the first frame is input to the video processing device 1 as the second frame.
  • the same frame as the third frame is input to the video processing device 1 as the fourth frame by dropping the frame.
  • the same frame as the 4th frame is input to the video processing device 1 as the 5th and 6th frames by dropping the frame.
  • This embodiment is a quality improvement method that takes advantage of the fact that frame drops occur randomly.
  • the video processing device 1 uses input video processed by a plurality of external processing devices 2A, 2B, and 2C in parallel, and selects an optimum frame of the input video based on a plurality of frames of the respective input video.
  • the image processing device 1 selects an image of the first frame of any of the preset input images 4A, 4B, and 4C, and outputs the image as the final output image 5 ( Pattern a).
  • the image processing device 1 selects one of the input images 4A, 4B, and 4C images based on the multiple layers, or combines a plurality of images, and the selected or combined image is the final output image. Output as 5.
  • the video processing device 1 selects and outputs the input video 4B or 4C image B (pattern c). ).
  • the multiple layers of all the input images 4A, 4B, and 4C are the minimum (0)
  • the input image 4A is the image B
  • the input images 4B and 4C are the images C.
  • the video processing device 1 selects and outputs the image C of the input video 4B or 4C by majority vote (pattern d).
  • the images D of the input images 4A and 4C having the smallest multiple (0) are the same.
  • the image processing device 1 selects and outputs the image D of the input image 4B or 4C (pattern c).
  • the images of the input images 4B and 4C with the minimum (0) multiple layers are different.
  • the image processing device 1 compares the images of all the input images 4A, 4B, and 4C. Since the image B of the input video 4B is the same as the image B of the input video 4A, the video processing device 1 sets the multiple (0) of the input video 4B having the minimum multiple weight as the larger weight of the input video 4A. Update to a plurality (1) (pattern e). Then, the image processing device 1 selects and outputs the image E of the input image 4C in which the multiple layers remain the minimum (0) (pattern b).
  • the image processing device 1 selects and outputs the image E of the input image 4B having the smallest multiple (0) (pattern b).
  • the image processing device 1 compares the images of all the input images 4A, 4B, and 4C. Since the images of all the input images 4A, 4B, and 4C are different, the image processing apparatus 1 generates and outputs a composite image of the image G and the image F of the input images 4A and 4B having the minimum multiple (0) multiples (0). Pattern f).
  • 3A and 3B are flowcharts showing the operation of the evaluation unit 14 of the video processing device 1.
  • the image acquisition unit 13 acquires the first image of the nth frame of the plurality of external processing devices 2, inputs it to the evaluation unit 14, and stores it in the image storage unit 19.
  • the evaluation unit 14 determines whether or not the input first image is the first image of the first frame (S11), and in the case of the first image of the first frame (S11: YES), any of the preset images.
  • the first image of the input video is selected and output to the output unit 18 (S16: pattern a).
  • the evaluation unit 14 repeats the processes of S12 to S15 for the number of input images.
  • the evaluation unit 14 compares the first image of the Nth frame (target frame) to be processed with the second image of the N-1th frame (immediately preceding frame) (S12), and combines the first image and the second image. Is determined (S13).
  • first image and the second image match means that the contents of these images are the same.
  • first image and the second image match it means that a frame has been dropped in the input video.
  • the evaluation unit 14 When the first image and the second image are different (S13: NO), the evaluation unit 14 resets the multiple layers of the input video to 0 (predetermined value) (S14). On the other hand, when the first image and the second image match (S13: YES), the evaluation unit 14 adds 1 to the multiples of the input video and increases the multiples (S15). In this way, the evaluation unit 14 compares the first image and the second image, and updates the multiples of each input video.
  • the evaluation unit 14 compares a plurality of multiple input images (S21), and when there is one input image having the smallest multiple input images (S22: YES), selects the first image in the Nth frame of the input image. , Output to the output unit 18 (S30: pattern b).
  • the evaluation unit 14 compares the first image of the Nth frame of the input images having the smallest multiples (S23). When all the first images to be compared match (S24: YES), the evaluation unit 14 selects the first image of the input video having the smallest multiple layers as the image of the Nth frame, and the output unit 18 Is output to (S31: pattern c).
  • the evaluation unit 14 When all the first images to be compared do not match (S24: NO), the evaluation unit 14 counts the number of first images whose contents match (S25), and the first image having the maximum count value is obtained. It is determined whether or not there is one (S26). That is, the evaluation unit 14 determines whether or not the first image can be selected by majority vote.
  • the evaluation unit 14 selects the first image with the maximum count value as the Nth frame image and outputs it. Output to unit 18 (S32: pattern d).
  • the evaluation unit 14 compares the first images of all the input images (S27). Specifically, the evaluation unit 14 compares each first image of the input video having the smallest multiple and the first image of the other input video having the smallest multiple.
  • the evaluation unit 14 sets the multiple multiples of the input video having the smallest multiples to another.
  • the input video is updated to multiple layers (S29: pattern e). That is, the evaluation unit 14 corrects the multiples of the input video having the smallest multiples to the larger one. Then, the evaluation unit 14 returns to S21 and performs the subsequent processing.
  • the video processing device 1 of the present embodiment described above includes an input unit 11 for inputting a plurality of input images image-processed in parallel by a plurality of external processing devices 2 for the same image, and a target for each of the input images.
  • the first image of the frame is compared with the second image of the frame immediately preceding the target frame, and when the first image and the second image are the same, a determination unit 15 that increases the number of layers of the input video and a plurality of determination units 15.
  • a selection unit 16 is provided for selecting a first image of any of the input images as an image of a target frame based on the multiple layers of the input image.
  • the present embodiment As described above, in the present embodiment, a plurality of input images are used, the optimum frame is selected for each frame from these input images, and the selected frame is output as the final output image.
  • the final output video does not show the stuttering of the video, and the subjective quality of the video can be improved. That is, in the present embodiment, it is possible to reduce the stuttering of the image and improve the smoothness of the image.
  • FIG. 4 a general-purpose computer system as shown in FIG. 4 can be used.
  • the computer system shown is a CPU (Central Processing Unit, processor) 901, a memory 902, a storage 903 (HDD: Hard Disk Drive, SSD: Solid State Drive), a communication device 904, an input device 905, and an output device. 906 and.
  • the memory 902 and the storage 903 are storage devices.
  • each function of the video processing device 1 is realized by executing the program of the video processing device 1 loaded on the memory 902 by the CPU 901.
  • the video processing device 1 may be mounted on one computer, or may be mounted on a plurality of computers. Further, the video processing device 1 may be a virtual machine mounted on a computer.
  • the program for the video processing device 1 can be stored in a computer-readable recording medium such as an HDD, SSD, USB (Universal Serial Bus) memory, CD (Compact Disc), DVD (Digital Versatile Disc), or via a network. It can also be delivered.
  • the present invention is not limited to the above embodiment, and many modifications can be made within the scope of the gist thereof.
  • Video processing device 11 Input unit 12: Frame synchronization unit 13: Image acquisition unit 14: Evaluation unit 15: Judgment unit 16: Selection unit 17: Synthesis unit 18: Output unit 19: Image storage unit 2, 2A, 2B, 2C: External processing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)

Abstract

映像処理装置1であって、同一映像に対して複数の外部処理装置2により並列で画像処理された複数の入力映像を入力する入力部11と、前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定部15と、複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択部16と、を備える。

Description

映像処理装置、映像処理方法、および、映像処理プログラム
 本発明は、映像処理装置、映像処理方法、および、映像処理プログラムに関する。
 映像から背景と被写体を分離する被写体抽出などの画像処理では、入力される映像を、一連の連続するフレーム(静止画)として扱い、1枚ずつ処理していく。このとき、シリアルインタフェースから入力される映像をフレームバッファに格納する入力スレッド、フレームバッファの内容を読み取り、画像処理を行い、出力用のフレームバッファに処理結果を書き出すメインスレッド、並びに出力用のフレームバッファの画像を読み出してシリアルインタフェース経由で出力する出力スレッドの、大きく分けて3種類のスレッド処理が実行される。
 特許文献1には、被写体抽出を行う画像処理技術が記載されている。
特許第6715289号公報
 被写体抽出のように、処理する画像の内容によってメインスレッドの処理に必要なステップ数が異なる場合、その処理時間を固定的に設定することは困難である。そのため、前記3種類のスレッドは非同期で実行されることがある。非同期で3つのスレッドを実行させることで、メインスレッドでの処理時間が長くかかる場合でも、フレームをドロップさせることができ、結果的に逐次処理を保つことが可能となる。
 しかしながら、フレームのドロップが発生した場合、出力スレッドから出力されるフレームが更新されないため、フレームの連続性が失われ、画面に出力される映像は、その瞬間カクついたような状態になる。このようにして発生するフレームのドロップは、映像の内容に依存し、時間的な規則性はない。そして、フレームのドロップは、出力される映像の円滑さを棄損し、主観品質を著しく低下させることにつながる。
 フレームのドロップを回避するためには、パフォーマンスの高いCPU、および、大容量で帯域の大きいメインメモリを用いるなどのシステムの処理キャパシティを物理的に増強させる方法が考えられる。しかしながら、適切な処理キャパシティを事前に想定するためには、様々な映像でのテストを行う必要があり、作業にコストがかかる問題がある。また、処理キャパシティの物理的な増強には限界があるため、フレームのドロップを回避できない状況も発生する。
 本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、画像処理によってランダムに発生するフレームのドロップを目立たなくし、出力映像の滑らかさを向上することにある。
 上記目的を達成するため、本発明の一態様は、映像処理装置であって、同一映像に対して複数の外部処理装置により並列で画像処理された複数の入力映像を入力する入力部と、 前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定部と、複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択部と、を備える。
 本発明の一態様は、映像処理装置が行う映像処理方法であって、同一の映像に対して複数の外部処理装置により並列で画像処理された複数の入力映像を入力する入力ステップと、前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定ステップと、複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択ステップと、を行う。
 本発明の一態様は、上記映像処理装置としてコンピュータを機能させる映像処理プログラムである。
 本発明によれば、画像処理によってランダムに発生するフレームのドロップを目立たなくし、出力映像の滑らかさを向上することにある。
実施形態の映像処理装置の一例を示す図である。 映像処理装置が出力する映像を説明するための説明図である。 画像評価部の処理を示すフローチャートである。 画像評価部の処理を示すフローチャートである。 ハードウェア構成例である。
 以下、本発明の実施の形態について、図面を参照して説明する。
 図1は、本実施形態の映像処理装置1の構成例を示す構成図である。本実施形態では、映像処理装置1には、複数の外部処理装置2から出力される、複数の入力映像が入力される。
 各外部処理装置2は、同一の映像(元映像)に対して、同様の画像処理(例えば、被写体抽出など)を並行して行い、画像処理後の入力映像を映像処理装置1に出力する。外部処理装置2は、処理パフォーマンスが十分出ていない装置であり、入力映像の各フレームを常に理想的なタイミング(例えば、29.97フレーム/秒、59.94フレーム/秒)で切り替えられず、ランダムにフレームのドロップが発生してしまう。そのため、1つの外部処理装置2で処理された入力映像をそのまま再生すると、視聴者にとって映像がカクつき、滑らかさに欠けた状態に見える。
 そこで、本実施形態の映像処理装置1は、複数の入力映像を入力し、これらの入力映像の中からフレーム単位で最適なフレームを選択し、選択したフレームを最終出映像として出力する。これにより、本実施形態では、映像のカクつきを低減し、映像の滑らかさを向上することができる。
 図示する映像処理装置1は、入力部11と、フレーム同期部12と、画像取得部13と、評価部14と、出力部18と、画像記憶部19とを備える。
 入力部11は、同一映像に対して複数の外部処理装置2により並列で画像処理された複数の入力映像を入力する。入力部11は、ネットワークを介して各外部処理装置2から入力映像を受信し、入力してもよい。
 フレーム同期部12は、複数の外部処理装置2から出力される入力映像の各フレームを、内部または外部からの同期信号によって時間同期させる。フレーム同期部12は、例えばMMT(MPEG Media Transport)を用いて、複数の入力映像の各フレームを同期させてもよい。
 画像取得部13は、複数の入力映像から、処理対象となる対象フレーム(nフレーム目)の画像をそれぞれ取得し、評価部14に入力するとともに、画像記憶部19に格納する。画像記憶部19は、画像取得部13が取得した、複数の入力映像の各フレームの画像を、所定の期間保存する。
 評価部14は、入力映像毎に、対象フレームの第1画像と、対象フレームの1フレーム前の直前フレームの第2画像とを比較し、これらの画像に変化があるか否かを評価する。これらの画像に変化がない場合、評価部14は、対象フレームは更新されていないフレームであると判定し、当該入力映像の重複数を増加する。すなわち、重複数は、各入力映像において、同じ画像が連続して出現した回数を示し、重複数の多さは画像の信頼度の低さを意味する。
 図示する評価部14は、判定部15と、選択部16と、合成部17とを備える。
 判定部15は、入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する。判定部15は、第1画像と第2画像とが異なる場合、重複数を所定値(例えば0)にリセットしてもよい。判定部15は、重複数が最小の入力映像の第1画像が、重複数が最小より大きい他の入力映像の第1画像と同じ場合、重複数が最小の入力映像の重複数を、前記他の入力映像の重複数に更新してもよい。
 なお、判定部15は、直前フレームの第2の画像を、画像記憶部19から取得する。各入力映像の重複数は、映像処理装置1が備える図示しないメモリに記憶される。
 選択部16は、複数の入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する。本実施形態では、選択部16は、重複数が最小の入力映像の第1画像を対象フレームの画像として選択する。
 合成部17は、重複数が最小の入力映像が複数存在する場合、重複数が最小の入力映像の複数の第1画像を合成した合成画像を生成する。例えば、選択部16が重複数を用いて対象フレームの画像を選択できない場合に、合成部17は、重複数が最小の複数の入力映像の複数の異なる第1画像を合成し、合成した合成画像を対象フレームの画像としてもよい。合成方法は、例えば、複数の第1画像の画素値を平均化した平均画像としてもよい。
 出力部18は、選択部16が選択した第1画像または合成部17が合成した合成画像を設定した各フレームを、最終出力映像として出力する。
 図2は、映像処理装置1が選択するフレームの具体例を示す説明図である。
 図示する例では、3つの外部処理装置2A、2B、2Cが、同一の元映像3について並行して画像処理を行うものとする。具体的には、外部処理装置2A、2B、2Cには元映像3が入力され、外部処理装置2A、2B、2Cは、元映像3の各フレームについて順次、画像処理(例えば被写体抽出)を実行し、処理結果の入力映像4A、4B、4Cを映像処理装置1に出力する。図2では、元映像3の画像(例えば被写体)を便宜上アルファベットの文字で表現している。
 外部処理装置2A、2B、2Cでは、フレームのドロップ(欠落)が発生している。画像処理におけるフレームのドロップは、外部処理装置2A、2B、2Cの画像処理が遅延することによって、当該装置が備える描画用のメモリの画像が更新されず、結果的に直前のフレームの画像が出力されることにより生じる。すなわち、同じフレームの画像が重複して繰り返し出力され、これにより映像のカクつきが発生する。
 例えば、外部処理装置2Aの処理結果の入力映像4Aでは、2フレーム目でフレームのドロップが発生し、1フレーム目と同じフレームが2フレーム目として映像処理装置1に入力される。外部処理装置2Bの処理結果の入力映像4Bでは、フレームのドロップにより、4フレーム目として3フレーム目と同じフレームが映像処理装置1に入力される。外部処理装置2Cの処理結果の入力映像4Cでは、フレームのドロップにより、5、6フレーム目として、4フレーム目と同じフレームが映像処理装置1に入力される。
 本実施形態は、フレームのドロップがランダムに発生することを逆手にとった品質向上手法である。映像処理装置1は、複数の外部処理装置2A、2B、2Cが並列で画像処理した入力映像を用い、それぞれの入力映像のフレームの重複数に基づいて、最適な入力映像のフレームを選択する。
 図2に示す具体例では、1フレーム目では、映像処理装置1は、予め設定したいずれかの入力映像4A、4B、4Cの1フレーム目の画像を選択し、最終出力映像5として出力する(パターンa)。
 2フレーム目以降は、映像処理装置1は、重複数に基づいていずれかの入力映像4A、4B、4Cの画像を選択、または、複数の画像を合成し、選択または合成した画像を最終出力映像5として出力する。
 2フレーム目では、重複数が最小(0)の入力映像4B、4Cの画像Bは同じであるため、映像処理装置1は、入力映像4Bまたは4Cの画像Bを選択し、出力する(パターンc)。
 3フレーム目では、全ての入力映像4A、4B、4Cの重複数が最小(0)であり、入力映像4Aは画像Bで、入力映像4B、4Cは画像Cである。映像処理装置1は、多数決で入力映像4Bまたは4Cの画像Cを選択し、出力する(パターンd)。
 4フレーム目では、重複数が最小(0)の入力映像4A、4Cの画像Dは同じである。映像処理装置1は、入力映像4Bまたは4Cの画像Dを選択し、出力する(パターンc)。
 5フレーム目では、重複数が最小(0)の入力映像4B、4Cの画像は異なる。映像処理装置1は、全ての入力映像4A、4B、4Cの画像を比較する。入力映像4Bの画像Bは、入力映像4Aの画像Bと同じであるため、映像処理装置1は、重複数が最小の入力映像4Bの重複数(0)を、入力映像4Aの大きい方の重複数(1)に更新する(パターンe)。そして、映像処理装置1は、重複数が最小(0)のままの入力映像4Cの画像Eを選択し、出力する(パターンb)。
 6フレーム目では、映像処理装置1は、重複数が最小(0)の入力映像4Bの画像Eを選択し、出力する(パターンb)。
 7フレーム目では、重複数が最小(0)の入力映像4A、4Bの画像は異なるため、映像処理装置1は、全ての入力映像4A、4B、4Cの画像を比較する。全ての入力映像4A、4B、4Cの画像が異なるため、映像処理装置1は、重複数が最小(0)の入力映像4A、4Bの画像Gおよび画像Fの合成画像を生成し、出力する(パターンf)。
 図3Aおよび図3Bは、映像処理装置1の評価部14の動作を示すフローチャートである。
 画像取得部13は、複数の外部処理装置2のnフレーム目の第1画像を取得し、評価部14に入力するとともに、画像記憶部19に格納する。評価部14は、入力された第1画像が1フレーム目の第1画像か否かを判定し(S11)、1フレーム目の第1画像の場合(S11:YES)、予め設定したいずれかの入力映像の第1画像を選択し、出力部18に出力する(S16:パターンa)。
 2フレーム目以降の第1画像の場合(S11:NO)、評価部14は、入力映像の数だけ、S12~S15の処理を繰り返す。評価部14は、処理対象のNフレーム目(対象フレーム)の第1画像と、N-1フレーム目(直前フレーム)の第2画像とを比較し(S12)、第1画像と第2画像とが一致するか否か判定する(S13)。
 第1画像と第2画像とが一致するとは、これらの画像の内容が同じであることを示す。第1画像と第2画像とが一致する場合は、入力映像においてフレームのドロップが発生したことを意味する。
 第1画像と第2画像とが異なる場合(S13:NO)、評価部14は、当該入力映像の重複数を0(所定値)にリセットする(S14)。一方、第1画像と第2画像とが一致する場合(S13:YES)、評価部14は、当該入力映像の重複数に1を加算し、重複数を増加する(S15)。このように評価部14は、第1画像と第2画像とを比較し、各入力映像の重複数を更新する。
 評価部14は、複数の入力映像の重複数を比較し(S21)、重複数が最小の入力映像が1つの場合(S22:YES)、当該入力映像のNフレーム目の第1画像を選択し、出力部18に出力する(S30:パターンb)。
 重複数が最小の入力映像が複数の場合(S22:NO)、評価部14は、重複数が最小の入力映像のNフレーム目の第1画像を比較する(S23)。比較対象の全ての第1画像が一致する場合(S24:YES)、評価部14は、重複数が最小のいずれかの入力映像の第1画像をNフレーム目の画像として選択し、出力部18に出力する(S31:パターンc)。
 比較対象の全ての第1画像が一致しない場合(S24:NO)、評価部14は、内容が一致する第1画像の数をそれぞれカウントし(S25)、カウント値が最大となる第1画像が1つか否かを判定する(S26)。すなわち、評価部14は、多数決で第1画像を選択できるか否かを判定する。
 カウント値が最大の第1画像が1つの場合、すなわち多数決で選択できる場合(S26:YES)、評価部14は、カウント値が最大の第1画像を、Nフレーム目の画像として選択し、出力部18に出力する(S32:パターンd)。
 カウント値が最大の第1画像が複数ある場合、すなわち多数決で選択できない場合(S26:NO)、評価部14は、全ての入力映像の第1画像を比較する(S27)。具体的には、評価部14は、重複数が最小の入力映像の各第1画像と、重複数が最小より大きい他の入力映像の第1画像と、を比較する。
 重複数が最小の入力映像の第1画像が、他の入力映像の第1画像と一致する場合(S28:NO)、評価部14は、重複数が最小の入力映像の重複数を、他の入力映像の重複数に更新する(S29:パターンe)。すなわち、評価部14は、重複数が最小の入力映像の重複数を大きい方に修正する。そして、評価部14は、S21に戻り以降の処理を行う。
 一方、S27で比較した全ての第1画像が異なる場合(S28:NO)、具体的には、重複数が最小の第1画像と一致する他の入力映像の第1画像が存在しない場合、評価部14は、重複数が最小の異なる複数の第1画像を合成して合成画像を生成する。そして、評価部14は、合成画像をNフレーム目の画像として出力部18に出力する(S33:パターンf)。
 以上説明した本実施形態の映像処理装置1は、同一映像に対して複数の外部処理装置2により並列で画像処理された複数の入力映像を入力する入力部11と、前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定部15と、複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択部16と、を備える。
 このように本実施形態では、複数の入力映像を用いて、これらの入力映像の中からフレーム単位で最適なフレームを選択し、選択したフレームを最終出力映像として出力する。これにより、本実施形態では、1つの入力映像の中でフレームのドロップが発生しても、最終出力映像では、映像のカクつきが目立たず、映像の主観品質を向上することができる。すなわち、本実施形態では、映像のカクつきを低減し、映像の滑らかさを向上することができる。
 上記説明した映像処理装置1は、例えば、図4に示すような汎用的なコンピュータシステムを用いることができる。図示するコンピュータシステムは、CPU(Central Processing Unit、プロセッサ)901と、メモリ902と、ストレージ903(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置904と、入力装置905と、出力装置906とを備える。メモリ902およびストレージ903は、記憶装置である。このコンピュータシステムにおいて、CPU901がメモリ902上にロードされた映像処理装置1のプログラムを実行することにより、映像処理装置1の各機能が実現される。
 また、映像処理装置1は、1つのコンピュータで実装されてもよく、あるいは複数のコンピュータで実装されても良い。また、映像処理装置1は、コンピュータに実装される仮想マシンであっても良い。映像処理装置1用のプログラムは、HDD、SSD、USB(Universal Serial Bus)メモリ、CD (Compact Disc)、DVD (Digital Versatile Disc)などのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
 なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
 1 :映像処理装置
 11:入力部
 12:フレーム同期部
 13:画像取得部
 14:評価部
 15:判定部
 16:選択部
 17:合成部
 18:出力部
 19:画像記憶部
 2、2A、2B、2C:外部処理装置

Claims (7)

  1.  同一映像に対して複数の外部処理装置により並列で画像処理された複数の入力映像を入力する入力部と、
     前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定部と、
     複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択部と、を備える
     映像処理装置。
  2.  前記選択部は、重複数が最小の入力映像の第1画像を対象フレームの画像として選択する
     請求項1に記載の映像処理装置。
  3.  前記判定部は、第1画像と第2画像とが異なる場合、重複数を所定値にリセットする
     請求項1または2に記載の映像処理装置。
  4.  重複数が最小の入力映像が複数存在する場合、前記入力映像の複数の第1画像を合成した合成画像を生成する合成部を、備える
     請求項1から3のいずれか1項に記載の映像処理装置。
  5.  前記判定部は、重複数が最小の入力映像の第1画像が、重複数が最小より大きい他の入力映像の第1画像と同じ場合、重複数が最小の入力映像の重複数を、前記他の入力映像の重複数に更新する
     請求項1から4のいずれか1項に記載の映像処理装置。
  6.  映像処理装置が行う、映像処理方法であって、
     同一の映像に対して複数の外部処理装置により並列で画像処理された複数の入力映像を入力する入力ステップと、
     前記入力映像毎に、対象フレームの第1画像と、当該対象フレームの直前フレームの第2画像とを比較し、第1画像と第2画像とが同じ場合、当該入力映像の重複数を増加する判定ステップと、
     複数の前記入力映像の重複数に基づいて、いずれかの入力映像の第1画像を対象フレームの画像として選択する選択ステップと、を行う
     映像処理方法。
  7.  請求項1から5のいずれか1項に記載の映像処理装置としてコンピュータを機能させる映像処理プログラム。
PCT/JP2021/000801 2021-01-13 2021-01-13 映像処理装置、映像処理方法、および、映像処理プログラム WO2022153385A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000801 WO2022153385A1 (ja) 2021-01-13 2021-01-13 映像処理装置、映像処理方法、および、映像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000801 WO2022153385A1 (ja) 2021-01-13 2021-01-13 映像処理装置、映像処理方法、および、映像処理プログラム

Publications (1)

Publication Number Publication Date
WO2022153385A1 true WO2022153385A1 (ja) 2022-07-21

Family

ID=82446975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000801 WO2022153385A1 (ja) 2021-01-13 2021-01-13 映像処理装置、映像処理方法、および、映像処理プログラム

Country Status (1)

Country Link
WO (1) WO2022153385A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107558A (ja) * 2009-11-20 2011-06-02 Seiko Epson Corp 映像処理装置、映像処理方法、コンピュータープログラム
JP2020198509A (ja) * 2019-05-31 2020-12-10 日本電信電話株式会社 同期制御装置、同期制御方法及び同期制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107558A (ja) * 2009-11-20 2011-06-02 Seiko Epson Corp 映像処理装置、映像処理方法、コンピュータープログラム
JP2020198509A (ja) * 2019-05-31 2020-12-10 日本電信電話株式会社 同期制御装置、同期制御方法及び同期制御プログラム

Similar Documents

Publication Publication Date Title
CN108012161B (zh) 视频直播方法、系统和终端设备
US8036470B2 (en) Image processing apparatus, image processing method, and program
KR100518580B1 (ko) 인버스 텔레시네 변환장치 및 변환방법
US9794608B2 (en) Video transmission method and video transmission apparatus
KR20140145584A (ko) 재생속도 변경이 가능한 실시간 온라인 비디오 재생 방법 및 시스템
JP2003143554A (ja) 受信されたマルチメディアデータを保存するバッファの容量を可変できるマルチメディアデータ復元装置及び方法
WO2022153385A1 (ja) 映像処理装置、映像処理方法、および、映像処理プログラム
US8885939B2 (en) Image processing apparatus configured to perform image processing for plural images and control method thereof
JP2018088652A (ja) 撮像装置、画像処理方法、及び、プログラム
JP6180271B2 (ja) 映像記録装置及び映像記録方法
US9456180B2 (en) Image processing apparatus, communication system, and computer program
US20160211002A1 (en) Video data file generation method and video data file generation apparatus
KR20090076922A (ko) 이미지 프레임의 스트림을 위한 프레임 드롭핑 방법 및 장치
CN115878379A (zh) 一种数据备份方法、主服务器、备份服务器及存储介质
US20060280484A1 (en) Recording/playback apparatus and recording/playback method
US20140184908A1 (en) Method and apparatus for multimedia stream synchronization
US10853954B1 (en) Image processing apparatus, image processing method and storage media
WO2020071467A1 (ja) 映像処理装置、表示装置、および映像処理方法
KR102191387B1 (ko) 멀티 스트림 이미지 처리 장치 및 방법
US9432650B2 (en) Image display apparatus, image capturing apparatus, and method of controlling image display apparatus
JPH10210464A (ja) 伝送画像復号装置
CN111970564A (zh) Hdr视频显示处理的优化方法及装置、存储介质、终端
JP6362317B2 (ja) 映像処理装置、映像処理装置の制御方法
TWI415476B (zh) 串流影像輪播方法
US20130038802A1 (en) Moving image output apparatus and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21919281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP