WO2011099166A1 - 立体映像処理装置 - Google Patents

立体映像処理装置 Download PDF

Info

Publication number
WO2011099166A1
WO2011099166A1 PCT/JP2010/052228 JP2010052228W WO2011099166A1 WO 2011099166 A1 WO2011099166 A1 WO 2011099166A1 JP 2010052228 W JP2010052228 W JP 2010052228W WO 2011099166 A1 WO2011099166 A1 WO 2011099166A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic
video
image
value
frame
Prior art date
Application number
PCT/JP2010/052228
Other languages
English (en)
French (fr)
Inventor
今井豊
Original Assignee
スカパーJsat株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スカパーJsat株式会社 filed Critical スカパーJsat株式会社
Priority to PCT/JP2010/052228 priority Critical patent/WO2011099166A1/ja
Publication of WO2011099166A1 publication Critical patent/WO2011099166A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals

Definitions

  • the present invention relates to a technique for simplifying processing such as inspection, analysis, editing, and correction of stereoscopic video content.
  • Broadcasting companies such as satellite broadcasting, terrestrial broadcasting, and cable broadcasting are also in line with the time when home-use television devices (3D television) capable of viewing stereoscopic video (also referred to as 3D video or stereo video) are put on the market.
  • 3D television home-use television devices
  • stereoscopic video also referred to as 3D video or stereo video
  • a 3D video broadcast service is scheduled to start.
  • 3D video content will appear in video distribution services and video sharing services using communication lines.
  • the basic principle of stereoscopic video is to display a right image and a left image with parallax, and let only the right image reach the viewer's right eye and only the left image reach the viewer's left eye. It is to build a three-dimensional image in the brain.
  • An ideal stereoscopic video is that the difference between the right image and the left image is only the parallax in the horizontal direction corresponding to the distance between the left and right eyes of the viewer. In this case, stereoscopic viewing can be easily performed. .
  • the right image and the left image are generally taken by different imaging systems, not only the horizontal parallax but also various differences between the right image and the left image, such as vertical displacement and color / brightness differences. Is actually included. When these differences become large, it becomes difficult to perform stereoscopic viewing, and it may not be seen as a stereoscopic image, or may cause discomfort such as eye strain or headache.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a technique for simplifying processing such as inspection, analysis, editing, and correction of stereoscopic video content.
  • the stereoscopic video processing apparatus is a parameter that affects the quality of stereoscopic video for an input unit for inputting a video signal of stereoscopic video content and each frame of the video signal input from the input unit.
  • An extraction unit that extracts the value of the stereoscopic parameter, and an output unit that outputs the stereoscopic parameter value of each frame extracted by the extraction unit as data together with the time code of each frame included in the video signal And having.
  • stereoscopic video content means video content including at least a part of a stereoscopic video, through a broadcast program for broadcasting by satellite broadcast, terrestrial broadcast, cable broadcast, etc., or an electric communication line such as the Internet. It is a concept that includes a video to provide.
  • Steposcopic video quality does not refer to the quality of the image itself, such as resolution and gradation, or the quality of the subject or story, but the ease of stereoscopic viewing, the burden on the viewer ’s eyes, and the discomfort. Means small.
  • the “parameters affecting the quality of stereoscopic video (stereoscopic parameters)” include horizontal parallax, vertical positional deviation, rotational deviation, zoom ratio between the left image and the right image. There are differences, color differences, white balance differences, luminance differences, sharpness differences, and the like. It is not necessary to extract all these parameters, and the type of parameter to be extracted may be determined according to the design and application of the apparatus.
  • data in which the time code of each frame is associated with the value of the stereoscopic parameter can be automatically generated.
  • a stereoscopic video content for a frame having a high possibility of a problem (for example, a frame in which the value of a stereoscopic parameter is out of an allowable value).
  • Simplification and efficiency of processing such as inspection, analysis, editing, and correction of video content can be achieved.
  • the extraction unit calculates a value of a stereoscopic parameter by analyzing a left image and a right image of each frame of the video signal. It is preferable to further include a display unit that reads the data output from the output unit and displays the value of the stereoscopic parameter for each frame in time series along the time code.
  • the output unit preferably adds time information from the beginning of the stereoscopic video content to the stereoscopic parameter instead of the time code.
  • a warning unit that outputs a warning when the value of the stereoscopic parameter is out of a predetermined allowable value.
  • an image correction unit that corrects the image of the frame so that the value of the stereoscopic parameter falls within the allowable value when the value of the stereoscopic parameter is out of a predetermined allowable value.
  • the present invention can also be regarded as a “stereoscopic image processing apparatus” (or “stereoscopic image processing system”) having at least a part of the above configuration, or as a “stereoscopic image processing method” having at least a part of the above processing. It can also be captured. Furthermore, the present invention can also be understood as a program for causing a computer to execute at least a part of the above processing, or a computer-readable recording medium on which the program is recorded.
  • the present invention it is possible to automatically generate data useful for quickly and accurately searching for a frame, a part, or a range having a high possibility of having a problem. Simplification and efficiency can be achieved.
  • FIG. 1 is a block diagram illustrating a configuration of a stereoscopic video processing apparatus.
  • FIG. 2 is a diagram illustrating an example of data output from a data output unit.
  • FIG. 3 is a diagram illustrating an example of a display screen of the data analysis display unit.
  • FIG. 4 is a diagram showing a configuration of a stereoscopic video monitoring system that monitors video being broadcast.
  • FIG. 5 is a diagram illustrating a configuration of an inspection system for performing an inspection at the time of receiving a broadcast original.
  • FIG. 6 is a diagram showing a configuration of a video correction system for automatically correcting an image of a problematic frame or range.
  • FIG. 1 is a block diagram showing a configuration of a stereoscopic video processing apparatus.
  • the stereoscopic video processing apparatus 1 includes a video input unit 10, a parameter extraction unit 11, and a data output unit 12 as basic functions.
  • the data analysis display unit 13, the warning unit 14, and the image correction unit 15 are additional functions, and can be appropriately provided according to the application of the stereoscopic video processing device 1.
  • the stereoscopic image processing apparatus 1 can be configured by a computer including an image processor, for example, and the above functions are realized by the image processor or the CPU of the computer executing a program.
  • the video input unit 10 is a function for inputting a video signal of stereoscopic video content.
  • the video input unit 10 performs necessary processing on a stereoscopic video signal input from an input terminal such as HD-SDI or HDMI, extracts a right image and a left image of each frame, and outputs a time of the frame or range. Extract the code.
  • the extracted image is delivered to the parameter extraction unit 11, and the time code is delivered to the data output unit 12.
  • an input stereoscopic video signal for example, a 1080p signal in a Side-by-Side format or a Line-By-Line format is conceivable.
  • the format of the input signal is not limited to this, and a video signal of an arbitrary format such as dual stream can be used.
  • the parameter extraction unit 11 is a function of extracting the value of a parameter (stereoscopic parameter) that affects the quality of the stereoscopic video by analyzing the right image and the left image received from the video input unit 10.
  • the value of the stereoscopic parameter extracted here is transferred to the data output unit 12.
  • a typical stereoscopic parameter is horizontal parallax (horizontal parallax).
  • Horizontal parallax is an important parameter for determining the imaging position (depth) of a stereoscopic image, and if this is not set appropriately, the stereoscopic image feels strange. If the horizontal parallax is larger than the distance between the left and right eyes of the viewer, stereoscopic viewing is impossible or extremely difficult, resulting in a physically unpleasant image.
  • block matching, Graph Cut, Belief Propagation, or the like can be used as a method for obtaining the horizontal parallax between the left image and the right image.
  • block matching, Graph Cut, Belief Propagation, or the like can be used as a method for obtaining the horizontal parallax between the left image and the right image.
  • a plurality of objects are included in an image, and each object has a different horizontal parallax depending on its depth distance.
  • the horizontal parallax of all objects in the image may be extracted as the stereoscopic
  • Stereoscopic parameters include vertical displacement (vertical displacement), rotational displacement (tilt), zoom ratio difference, color difference, white balance difference, luminance difference, sharpness difference, and the like. If these differences become large, it is difficult to perform a stereoscopic view, and it may not be seen as a stereoscopic image, or may cause discomfort such as eye strain or headache.
  • Vertical deviation and rotational deviation are caused by misalignment of the left and right imaging systems. Vertical deviation and rotational deviation can also be obtained by the same method as horizontal parallax.
  • the difference value between the left image and the right image may be evaluated while changing the shift amount little by little, and the shift amount that minimizes the difference value may be obtained.
  • the difference in zoom ratio is the difference in subject size between the right image and the left image.
  • the difference in zoom ratio since the corresponding points of the left image and the right image are known when the horizontal parallax is obtained, for example, the distance between two points in the left image and the corresponding two points in the right image Can be calculated by comparing
  • the difference in color, the difference in white balance, the difference in luminance, and the difference in sharpness are caused by individual differences in the imaging system, mismatch of internal camera parameters, and the like.
  • the difference in color, the difference in white balance, and the difference in luminance can be evaluated by using, for example, a histogram or an appropriate evaluation formula.
  • the sharpness (or the amount of blur) can be evaluated by using, for example, a band pass filter.
  • the data output unit 12 has a function of associating the time code received from the video input unit 10 with the value of the stereoscopic parameter received from the parameter extraction unit 11 and outputting the data as data.
  • FIG. 2 shows an example of data output from the data output unit 12.
  • One row in FIG. 2 shows data of one frame, and data of all frames is recorded in order from the first frame of the content.
  • the data of each frame is time code, real time, horizontal parallax (minimum value, maximum value, average value), vertical shift, rotation shift, zoom ratio difference, color difference, white balance difference, brightness difference, sharpness It is composed of the difference.
  • This data is output as a file to a storage medium inside or outside the stereoscopic video processing apparatus 1, or transferred to an external apparatus via RS-232C, USB, LAN, or the like.
  • RS-232C Serial Bus 2.0
  • USB Universal Serial Bus 2.0
  • LAN Local Area Network
  • the data analysis display unit 13 has a function of reading the data output from the data output unit 12 and displaying the value of the stereoscopic parameter for each frame in time series along the time code. Further, the data analysis display unit 13 determines whether or not the value of each parameter is within the allowable value based on the reference data set in advance, and includes a frame including a parameter that is out of the allowable value (that is, there may be a problem). It also has a function of automatically detecting and displaying (high-quality frames).
  • the reference data is data that defines an allowable value of each stereoscopic viewing parameter (a range in which quality as a stereoscopic video can be guaranteed). It is desirable that the user of this apparatus can freely set the allowable value.
  • the allowable value can vary depending on the age of the viewer, the type of video, and the resolution. For example, since the distance between the left and right eyes of a child is smaller than that of an adult, the horizontal parallax allowable value may be set to a smaller value than that of an adult content.
  • FIG. 3 shows an example of the display screen of the data analysis display unit 13.
  • the graph at the bottom of the screen shows time-series data of the maximum value of horizontal parallax and time-series data of color differences.
  • the horizontal axis is the time code.
  • a broken line indicates an allowable value.
  • the left image and the right image of the frame selected on the graph are displayed.
  • a normal frame a frame whose horizontal parallax (maximum value) exceeds the allowable value, a frame whose color difference exceeds the allowable value, and a frame whose horizontal parallax (maximum value) exceeds the allowable value Is shown.
  • the screen it is possible to immediately determine a frame in which the value of the stereoscopic parameter exceeds the allowable value, and confirm the video.
  • the time codes of these frames are known, when the video content is edited / modified by the editing system, the corresponding frames can be specified easily and accurately.
  • the left image and the right image are displayed in different areas of the screen, but it is also preferable to perform stereoscopic video display, overlay display, difference image display, and the like.
  • the warning unit 14 is a function for outputting a warning when a frame in which the value of the stereoscopic parameter is out of the allowable value is detected.
  • a method of outputting a warning a method of outputting a warning message on the screen, a method of notifying a warning sound, a method of outputting a warning signal to an external device, or the like is assumed, and any of them may be used.
  • the image correction unit 15 has a function of correcting the image of the frame so that the value of the stereoscopic parameter falls within the allowable value when the value of the stereoscopic parameter is out of the allowable value. Specifically, when the image correction unit 15 detects a parameter that is out of the allowable value, the image correction unit 15 compares the parameter value with the allowable value and determines whether the problem can be solved by image correction. If it is determined that the image can be solved, at least one of the left image and the right image is corrected. For example, horizontal parallax, vertical deviation, rotation deviation, and the like can be corrected by relatively moving or rotating the left image and the right image. The difference in zoom ratio can be corrected by enlarging or reducing one image. In addition, color differences, white balance differences, luminance differences, and the like can be corrected by performing gamma conversion, matrix conversion, or the like. The difference in sharpness can be corrected by applying a blur filter or a sharpness filter to one image.
  • the stereoscopic image processing apparatus 1 having the above configuration, data in which the time code of each frame is associated with the value of the stereoscopic parameter can be automatically generated.
  • this data it is possible to quickly and accurately search a stereoscopic video content for a frame having a high possibility of a problem (for example, a frame in which the value of a stereoscopic parameter is out of an allowable value). Simplification and efficiency of processing such as inspection, analysis, editing, and correction of video content can be achieved.
  • FIG. 4 shows a configuration of a stereoscopic video monitoring system that monitors a stereoscopic video being broadcast in real time.
  • the video server 40 stores stereoscopic video program data and transmits it to the satellite in accordance with the broadcast schedule of the program. Then, in synchronization with the broadcast of the stereoscopic video program, the video signal of the program is input to the monitoring device 41 and the stereoscopic video processing device 1. In the monitoring device 41, the video signal is reproduced, and the video is checked by the supervisor.
  • the stereoscopic video processing device 1 generates data in which the time code and the stereoscopic parameter are associated with each other based on the input video signal.
  • a warning signal is transmitted from the warning unit 14 of the stereoscopic video processing device 1 to the monitoring device 41.
  • the warning signal includes the time code of the frame in which the problem is detected and the content of the problem, and the information is displayed on the monitor of the monitoring device 41. This facilitates real-time monitoring and problem location discovery. Since all the frame information is stored as data, it becomes easy to confirm and analyze the problem location later.
  • FIG. 5 shows the configuration of an inspection system for performing an inspection at the time of receiving a broadcast original plate.
  • This system is for automatically inspecting a stereoscopic video for stereoscopic video content delivered in the form of an edited complete package medium (also called a complete program).
  • the stereoscopic video content is delivered in a form recorded on a recording medium such as a video tape 50 or data is delivered through the communication line 51.
  • a recording medium such as a video tape 50
  • the video is reproduced on the video deck 52 and stored as digital data in the video server 54 via the input IF 53.
  • the video data is stored in the video server 54 via the input IF 53.
  • the stereoscopic video processing apparatus 1 receives a video signal of content to be inspected from the input IF 53 or the video server 54. As described above, the stereoscopic video processing device 1 generates data in which the time code and the stereoscopic parameter are associated with each other based on the input video signal. When a frame in which the value of the stereoscopic parameter deviates from the allowable value is detected, a warning signal is transmitted from the warning unit 14 to the video server 54 or the monitoring device 55 to prompt reconfirmation of the corresponding frame or part by visual observation. Can do. If necessary, it is also preferable that the image correction unit 15 determines whether correction is possible and outputs an image correction method and a recommended value thereof.
  • 5 illustrates a system that also performs a visual inspection by the monitoring device 55 in parallel with the automatic inspection by the stereoscopic image processing device 1, but when the visual inspection is unnecessary, the monitoring device 55 is eliminated and the stereoscopic image is removed. Only automatic inspection by the processing apparatus 1 may be used.
  • FIG. 6 shows a configuration of a video correction system for automatically correcting an image of a problematic frame.
  • a video signal of a broadcast program is input to the stereoscopic video processing device 1 from a video signal output source (video server or the like) 60.
  • the stereoscopic video processing device 1 generates data in which a time code and a stereoscopic parameter are associated with each other based on an input video signal. Then, when a frame in which the value of the stereoscopic parameter deviates from the allowable value is detected, the image correction unit 15 determines whether correction is possible. If correction is possible, the image of the frame is automatically corrected. The corrected image is sent to the I / F 61.
  • the original video signal is also input to the I / F 61 from the video signal output source 60 (however, in order to secure the processing time in the stereoscopic video processing device 1, the video signal input to the stereoscopic video processing device 1 is added to the I / F 61. A predetermined delay time is provided).
  • the I / F 61 passes through the video signal input from the video signal output source 60 and transmits it to the satellite.
  • the corrected image is received from the stereoscopic video processing device 1
  • the image of the corresponding frame is replaced with the corrected image. .
  • the result is fed back to the monitoring device 62 and the stereoscopic video processing device 1. According to such a system, it is possible to automatically correct a problematic frame while monitoring a 3D video being broadcast in real time, and to broadcast a high-quality 3D video.
  • the stereoscopic parameter is calculated by analyzing the left and right images, but when the stereoscopic parameter is superimposed on the input video signal, the stereoscopic parameter extracted from the video signal is used. You can also.
  • the types of stereoscopic parameters are not limited to those described in the above embodiment, and it is also preferable to use camera parameters (information about the imaging system) such as the distance between optical axes and angles of the left and right imaging systems.
  • camera parameters information about the imaging system

Abstract

 立体映像処理装置が、立体映像コンテンツの映像信号を入力するための入力部と、前記入力部から入力される映像信号の各フレームについて、立体映像の品質に影響を与えるパラメータである立体視パラメータの値を抽出する抽出部と、前記抽出部で抽出された各フレームの立体視パラメータの値を、前記映像信号に含まれている各フレームのタイムコードとともに、データとして出力する出力部と、を有する。これにより、問題のある可能性が高いフレーム箇所を迅速かつ正確にサーチするのに役立つデータを自動で生成する。

Description

立体映像処理装置
 本発明は、立体映像コンテンツの検査、分析、編集、修正等の処理を簡易化するための技術に関する。
 立体映像(3D映像又はステレオ映像ともいう)の視聴が可能な家庭用のテレビジョン装置(3Dテレビ)が市場に投入される時期にあわせ、衛星放送、地上波放送、有線放送などの放送各社も立体映像番組の放送サービスの開始を予定している。また、3Dテレビの普及に伴い、通信回線を利用した動画配信サービスや動画共有サービスにおいても、立体映像の動画コンテンツが多く登場するようになるものと予想される。
 立体映像の基本原理は、視差をつけた右画像と左画像を表示し、右画像のみを視聴者の右眼に、左画像のみを視聴者の左眼にそれぞれ到達させることで、視聴者の脳内において立体像を構築させるというものである。右画像と左画像の差異が視聴者の左右の眼の間隔に対応した水平方向の視差のみである、というのが理想的な立体映像であり、この場合は立体視を容易に行うことができる。しかし、一般に右画像と左画像は異なる撮像系で撮影されるため、右画像と左画像の間には、水平視差だけでなく、垂直方向の位置ずれや色・輝度の差などの様々な差異が含まれるのが実際である。これらの差異が大きくなると、立体視を行うのが困難となり、立体映像として見えなかったり、眼精疲労や頭痛などの不快感を引き起こす原因ともなる。
 放送や動画配信などのサービスは不特定多数の視聴者に利用されるため、そのサービス提供者(放送事業者、プラットフォーム事業者、動画配信サイトの運営者など)には、上記のような問題を含む立体映像を放送又は提供することがないよう、十分な注意を図ることが望まれる。また、視聴者から立体映像の問題が報告された場合には、その箇所を特定するとともに問題の原因を分析し、必要に応じて映像を編集又は修正することが必要となる。
 しかしながら、現時点では、立体映像に問題がないかを検査するための有効な方法が無い。例えば、目視による映像全編の検査は膨大な時間がかかるとともに、問題箇所を見落とす可能性がある。また仮に映像を見ながら問題箇所を発見できたとしても、その問題箇所が映像中のどのフレームやどの箇所、範囲に該当するのか不明なため、映像の編集・修正作業をする段階で絵柄の見た目を頼りに問題のフレームを探さなければならない。視聴者から報告を受けた問題箇所の場合は、絵柄の見た目も不明であるため、問題のフレームや箇所、範囲を特定することは一層困難になる。
 放送コンテンツをリアルタイムに監視する場合は、問題箇所を検出した時刻(実時間)を記録しておくという方法も考えられる。しかし、放送コンテンツのタイムコードでは通常ドロップフレームが使用されるため、長時間の監視では実時間とタイムコードの間にずれがでる。そのため、実時間における検出時刻が分かっても、映像中のフレーム位置を直接的に特定することにはならず、結局、問題のフレームを探す手間が生じる。また、映像送出に使用するビデオ映像には放送された時間ではなく自己の映像の累進時間もしくはタイムコードが使われているため、放送時間から問題の箇所を特定するには手間がかかったり、CM時間の勘案などによる狂いも考えられる。
 本発明は上記実情に鑑みてなされたものであって、その目的とするところは、立体映像コンテンツの検査、分析、編集、修正等の処理を簡易化するための技術を提供することにある。
 本発明に係る立体映像処理装置は、立体映像コンテンツの映像信号を入力するための入力部と、前記入力部から入力される映像信号の各フレームについて、立体映像の品質に影響を与えるパラメータである立体視パラメータの値を抽出する抽出部と、前記抽出部で抽出された各フレームの立体視パラメータの値を、前記映像信号に含まれている各フレームのタイムコードとともに、データとして出力する出力部と、を有する。
 ここで、「立体映像コンテンツ」は、少なくとも一部に立体映像を含む映像コンテンツを意味し、衛星放送・地上波放送・有線放送などで放送するための放送番組や、インターネットなどの電気通信回線を通じて提供するための動画などを含む概念である。
 「立体映像の品質」とは、解像度・階調性といった画像そのものの品質や、被写体・ストーリーといった内容に関する品質を指すのではなく、立体視のしやすさや、視聴者の眼に与える負担や違和感の小ささのことを意味する。具体的には、「立体映像の品質に影響を与えるパラメータ(立体視パラメータ)」としては、左画像と右画像の間における、水平方向の視差、垂直方向の位置ずれ、回転ずれ、ズーム比率の差、色の差、ホワイトバランスの差、輝度の差、シャープネスの差などがある。これら全てのパラメータを抽出する必要はなく、装置の設計や用途に応じて抽出対象とするパラメータの種類を決定すればよい。
 本発明によれば、各フレームのタイムコードと立体視パラメータの値を対応づけたデータを自動で生成することができる。このデータを参照すれば、問題のある可能性が高いフレーム(例えば立体視パラメータの値が許容値から外れているフレーム)を立体映像コンテンツの中から迅速かつ正確にサーチすることができるので、立体映像コンテンツの検査、分析、編集、修正等の処理の簡易化及び効率化を図ることができる。
 本発明において、前記抽出部は、前記映像信号の各フレームの左画像と右画像を解析することによって、立体視パラメータの値を算出することが好ましい。また、前記出力部から出力されたデータを読み込み、フレーム毎の立体視パラメータの値をタイムコードに沿って時系列に表示する表示部をさらに有することが好ましい。また、前記映像信号にタイムコードが含まれていない場合に、前記出力部は、タイムコードの代わりに前記立体映像コンテンツの先頭からの時間情報を立体視パラメータに付加することが好ましい。また、前記立体視パラメータの値が所定の許容値から外れている場合に、警告を出力する警告部をさらに有することが好ましい。また、前記立体視パラメータの値が所定の許容値から外れている場合に、前記立体視パラメータの値が前記許容値に収まるように当該フレームの画像を補正する画像補正部をさらに有することが好ましい。
 なお、本発明は上記構成の少なくとも一部を備える「立体映像処理装置」(又は「立体映像処理システム」)として捉えることもできるし、上記処理の少なくとも一部を備える「立体映像処理方法」として捉えることもできる。更には、本発明は、上記処理の少なくとも一部をコンピュータに実行させるためのプログラムや、そのプログラムを記録したコンピュータ読み取り可能な記録媒体として捉えることもできる。
 本発明によれば、問題のある可能性が高いフレームや箇所、範囲を迅速かつ正確にサーチするのに役立つデータを自動で生成でき、立体映像コンテンツの検査、分析、編集、修正等の処理の簡易化及び効率化を図ることができる。
図1は立体映像処理装置の構成を示すブロック図。 図2はデータ出力部から出力されるデータの一例を示す図。 図3はデータ解析表示部の表示画面の一例を示す図。 図4は放送中の映像をモニタリングする立体映像監視システムの構成を示す図。 図5は放送原版受け入れ時の検査を行うための検査システムの構成を示す図。 図6は問題のあるフレームや範囲の画像を自動で修正するための映像補正システムの構成を示す図。
 以下に図面を参照して、本発明の実施形態に係る立体映像処理装置について詳しく説明する。
 図1は、立体映像処理装置の構成を示すブロック図である。立体映像処理装置1は基本機能として映像入力部10、パラメータ抽出部11、及び、データ出力部12を有している。データ解析表示部13、警告部14、及び、画像補正部15は追加的機能であり、立体映像処理装置1の用途などに応じて適宜設けることができる。この立体映像処理装置1は例えばイメージプロセッサを備えるコンピュータにより構成可能であり、上記各機能はイメージプロセッサ若しくはコンピュータのCPUがプログラムを実行することにより実現されるものである。
 映像入力部10は、立体映像コンテンツの映像信号を入力するための機能である。映像入力部10は、HD-SDI、HDMIなどの入力端子から入力された立体映像信号に対して必要な処理を行い、各フレームの右画像及び左画像を抽出するとともに、当該フレームや範囲のタイムコードを抽出する。抽出した画像はパラメータ抽出部11に引き渡され、タイムコードはデータ出力部12に引き渡される。入力される立体映像信号としては、例えばSide-by-Side形式又はLine-By-Line形式の1080p信号が考えられる。ただし入力信号の形式はこれに限られず、デュアルストリームなど任意の形式の映像信号を用いることができる。
 パラメータ抽出部11は、映像入力部10から受け取った右画像及び左画像を解析することにより、立体映像の品質に影響を与えるパラメータ(立体視パラメータ)の値を抽出する機能である。ここで抽出された立体視パラメータの値はデータ出力部12に引き渡される。
 立体視パラメータの典型は、水平方向の視差(水平視差)である。水平視差は立体像の結像位置(奥行)を決定する重要なパラメータであり、これが適切に設定されていない場合には立体像に違和感を覚える。また水平視差が視聴者の左右の眼の間隔よりも大きい場合は、立体視をすることができないか極めて困難で、身体的に不快な映像となる。左画像と右画像の水平視差を求める手法としては、ブロックマッチング、Graph Cut、Belief Propagationなどを利用することができる。通常、画像の中には複数の物体が含まれており、それぞれの物体はその奥行距離に応じて異なる水平視差をもつ。立体視パラメータとして画像中の全物体の水平視差を抽出してもよいが、本実施形態ではデータ量削減のために水平視差の最小値・最大値・平均値を主なものとして抽出する。
 また立体視パラメータとしては、垂直方向の位置ずれ(垂直ずれ)、回転ずれ(傾き)、ズーム比率の差、色の差、ホワイトバランスの差、輝度の差、シャープネスの差などもある。これらの差異が大きくなると、立体視を行うのが困難となり、立体映像として見えなかったり、眼精疲労や頭痛などの不快感を引き起こす原因ともなる。垂直ずれ及び回転ずれは、左右の撮像系のアライメントミスに起因する。垂直ずれ及び回転ずれも水平視差と同じ手法で求めることができる。あるいはずれ量を少しずつ変えながら左画像と右画像の差分値を評価し、差分値が最小となるずれ量を求めてもよい。ズーム比率の差とは右画像と左画像の間での被写体サイズの差である。これは左右の撮像系のズーム比率の不一致や光軸方向のアライメントミスが原因で生じるものである。ズーム比率の差については、水平視差を求めたときに左画像と右画像の対応点が分かっているので、例えば左画像中の2点間の距離と右画像中の対応する2点間の距離とを比較することで算出することができる。色の差、ホワイトバランスの差、輝度の差、シャープネスの差は、撮像系の個体差や内部カメラパラメータのミスマッチなどに起因するものである。色の差、ホワイトバランスの差、及び輝度の差は例えばヒストグラムや適当な評価式を用いることで評価することができる。またシャープネス(若しくはボケ量)は例えばバンドパスフィルタなどを利用することで評価することができる。
 データ出力部12は、映像入力部10から受け取ったタイムコードと、パラメータ抽出部11から受け取った立体視パラメータの値とを対応づけて、データとして出力する機能である。図2は、データ出力部12から出力されるデータの一例を示している。図2における1つの行は1つのフレームのデータを示しており、コンテンツの先頭フレームから順に全てのフレームのデータが記録されている。各フレームのデータは、タイムコード、実時間、水平視差(最小値、最大値、平均値)、垂直ずれ、回転ずれ、ズーム比率の差、色の差、ホワイトバランスの差、輝度の差、シャープネスの差から構成されている。このデータは立体映像処理装置1の内部若しくは外部の記憶媒体にファイル出力されるか、RS-232C、USB、LANなどを介して外部装置に転送される。出力されるデータについては、不快感を引き起こす可能性のある値のみ表示し全体のデータ量削減を行なうこともできる。
 データ解析表示部13は、データ出力部12から出力されたデータを読み込み、フレーム毎の立体視パラメータの値をタイムコードに沿って時系列に表示する機能である。また、データ解析表示部13は、予め設定された基準データに基づいて、各パラメータの値が許容値に収まっているか否かを判断し、許容値から外れるパラメータを含むフレーム(つまり問題のある可能性が高いフレーム)を自動的に検出し表示する機能も有する。基準データとは各立体視パラメータの許容値(立体映像としての品質を保証できる範囲)を規定するデータである。許容値については本装置のユーザが自由に設定できることが望ましい。視聴者の年齢、映像の種類や解像度などによって許容値が変わり得るからである。例えば、子供は大人に比べて左右の眼の間隔が小さいため、子供用のコンテンツでは水平視差の許容値を大人用のコンテンツに比べて小さい値に設定するとよい。
 図3は、データ解析表示部13の表示画面の一例を示している。画面下段のグラフは、水平視差の最大値の時系列データと色の差の時系列データを示している。横軸はタイムコードである。破線は許容値を示している。また画面上段には、グラフ上で選択されたフレームの左画像及び右画像が表示されている。画面左から順に、正常なフレーム、水平視差(最大値)が許容値を超えているフレーム、色の差が許容値を超えているフレーム、水平視差(最大値)が許容値を超えているフレームを示している。このような画面によれば、立体視パラメータの値が許容値を超えているフレームを直ぐに判別し、映像を確認することができる。しかもそれらのフレームのタイムコードが分かるため、当該映像コンテンツを編集システムで編集・修正する際に、該当フレームを簡単かつ正確に特定することができる。なお図3の例では左画像と右画像を画面の別領域に表示しているが、立体映像表示、オーバーレイ表示、差分画像表示などを行うことも好ましい。
 警告部14は、立体視パラメータの値が許容値から外れているフレームを検出した場合に警告を出力する機能である。警告の出力の仕方としては、警告メッセージを画面出力する方法、警告音を報知する方法、警告信号を外部装置へ出力する方法などが想定され、そのいずれでも構わない。
 画像補正部15は、立体視パラメータの値が許容値から外れている場合に、その立体視パラメータの値が許容値に収まるように当該フレームの画像を補正する機能である。具体的には、画像補正部15は、許容値から外れているパラメータを検出した場合に、パラメータの値と許容値とを比較し画像補正により解決可能か否かを判断する。そして、解決可能と判断した場合には、左画像と右画像のうち少なくとも一方の画像を補正する。例えば水平視差、垂直ずれ、回転ずれなどは左画像と右画像を相対的に移動又は回転させることで補正することができる。ズーム比率の差は一方の画像を拡大又は縮小することで補正できる。また色の差、ホワイトバランスの差、輝度の差などはガンマ変換やマトリクス変換などを行うことで補正することができる。シャープネスの差については一方の画像に対してぼかしフィルタ又はシャープネスフィルタをかけることで補正が可能である。
 上記構成の立体映像処理装置1によれば、各フレームのタイムコードと立体視パラメータの値を対応づけたデータを自動で生成することができる。このデータを参照すれば、問題のある可能性が高いフレーム(例えば立体視パラメータの値が許容値から外れているフレーム)を立体映像コンテンツの中から迅速かつ正確にサーチすることができるので、立体映像コンテンツの検査、分析、編集、修正等の処理の簡易化及び効率化を図ることができる。
 次に、本装置の具体的な適用例について説明する。
 (1)放送中の映像のモニタリング
 図4に、放送中の立体映像をリアルタイムにモニタリングする立体映像監視システムの構成を示す。映像サーバ40には立体映像番組のデータが蓄積されており、番組の放送スケジュールにあわせて衛星へと伝送される。そして、立体映像番組の放送と同期して、その番組の映像信号が監視装置41と立体映像処理装置1に入力される。監視装置41では映像信号が再生され、監視者による映像のチェックが行われる。一方、立体映像処理装置1は、前述のとおり、入力映像信号に基づいてタイムコードと立体視パラメータが対応づけられたデータを生成する。また、立体視パラメータの値が許容値を外れるフレームが検出された場合には、立体映像処理装置1の警告部14から監視装置41へと警告信号が送信される。警告信号には問題が検出されたフレームのタイムコードと問題の内容とが含まれており、それらの情報が監視装置41のモニタ上に表示される。これによりリアルタイムの監視及び問題箇所の発見が容易となる。そして、全てのフレームの情報がデータとして蓄積されるため、問題箇所の確認や分析を後から行うのが容易となる。例えば立体映像番組を見ていた視聴者から問題箇所の報告を受けた場合も、その映像が現れた大まかな時刻さえ分かれば、その時刻の前後のフレームから立体視パラメータの値が適切でない箇所を探せばよいので、問題のあるフレームや箇所、範囲を迅速かつ正確に特定することができる。
 (2)放送原版受け入れ時の検査
 図5に、放送原版受け入れ時の検査を行うための検査システムの構成を示す。このシステムは、編集済みの完全パッケージメディア(完全プログラムともいう)の形式で納品される立体映像コンテンツに対し、自動で立体映像の検査を行うためのものである。立体映像コンテンツは、ビデオテープ50などの記録媒体に記録された形で納品されるか、通信回線51を通じてデータ納品される。ビデオテープ50の場合はビデオデッキ52にて映像が再生され、入力IF53を介して映像サーバ54にデジタルデータとして蓄積される。データ納品の場合には、その映像データが入力IF53を介して映像サーバ54に蓄積される。
 立体映像処理装置1には、入力IF53又は映像サーバ54から検査対象となるコンテンツの映像信号が入力される。立体映像処理装置1では、前述のとおり、入力映像信号に基づいてタイムコードと立体視パラメータが対応づけられたデータを生成する。立体視パラメータの値が許容値を外れるフレームが検出された場合には、警告部14から映像サーバ54や監視装置55へ警告信号を送信し、該当するフレームや箇所の目視による再確認を促すことができる。また必要に応じて、画像補正部15で補正の可否を判断し、画像補正の方法とその推奨値を出力することも好ましい。これにより、問題のあるフレームのタイムコードと補正方法が分かるので、映像の編集・修正作業が容易になる。なお、図5では、立体映像処理装置1による自動検査と並行して監視装置55による目視検査も実施するシステムを例示しているが、目視検査が不要な場合には監視装置55を無くし立体映像処理装置1による自動検査だけでもよい。
 (3)映像補正システム
 図6に、問題のあるフレームの画像を自動で修正するための映像補正システムの構成を示す。映像信号出力元(映像サーバなど)60から放送番組の映像信号が立体映像処理装置1に入力される。立体映像処理装置1では、入力映像信号に基づいてタイムコードと立体視パラメータが対応づけられたデータを生成する。そして、立体視パラメータの値が許容値を外れるフレームが検出された場合は、画像補正部15で補正の可否を判断し、補正可能であれば当該フレームの画像を自動で補正する。補正された画像はI/F61に送出される。一方、I/F61には映像信号出力元60からオリジナルの映像信号も入力される(ただし、立体映像処理装置1での処理時間を確保するため、立体映像処理装置1に入力される映像信号に対して所定のディレイタイムが設けられている)。I/F61は、原則、映像信号出力元60から入力される映像信号をスルーし衛星へ伝送するが、立体映像処理装置1から補正画像を受け取った場合は該当するフレームの画像を補正画像に差し替える。その結果は監視装置62及び立体映像処理装置1にフィードバックされる。このようなシステムによれば、放送中の立体映像をリアルタイムに監視しつつ、問題のありそうなフレームを自動で修正でき、高品位な立体映像の放送が可能となる。
 上記(1)~(3)以外にも立体映像処理装置1の適用例として次のものが想定される。
 ・編集システムのスイッチャー、ビデオデッキ、カラーコレクターへの実装
 ・放送送出側の基準信号発生モジュールへの実装
 ・静止画表示機器(立体静止画のスライドショー表示)への実装、立体静止画プリンターへの実装
 ・カムコーダー、DSCへの搭載による簡易計測器としての利用
 以上、具体的な実施形態を例示して本発明について詳しく説明したが、本発明の範囲は上記実施形態のものに限られることはなく、その技術思想の範囲内で種々の変形が可能である。例えば、上記実施形態では立体視パラメータを左右の画像を解析することにより算出したが、入力映像信号に立体視パラメータが重畳されている場合には、その映像信号から抽出した立体視パラメータを用いることもできる。また立体視パラメータの種類は上記実施形態で挙げたものに限られず、例えば左右の撮像系の光軸間距離や角度などのカメラパラメータ(撮像系に関する情報)を用いることも好適である。また上記実施形態で挙げた全てのパラメータを抽出する必要はなく、装置の設計や用途に応じて抽出対象とするパラメータの種類を適宜決定すればよい。

Claims (7)

  1.  立体映像コンテンツの映像信号を入力するための入力部と、
     前記入力部から入力される映像信号の各フレームについて、立体映像の品質に影響を与えるパラメータである立体視パラメータの値を抽出する抽出部と、
     前記抽出部で抽出された各フレームの立体視パラメータの値を、前記映像信号に含まれている各フレームのタイムコードとともに、データとして出力する出力部と、
    を有することを特徴とする立体映像処理装置。
  2.  前記抽出部は、前記映像信号の各フレームの左画像と右画像を解析することによって、立体視パラメータの値を算出することを特徴とする請求項1に記載の立体映像処理装置。
  3.  前記立体視パラメータは、左画像と右画像の間における、水平方向の視差、垂直方向の位置ずれ、回転ずれ、ズーム比率の差、色の差、ホワイトバランスの差、輝度の差、及び、シャープネスの差のうち少なくともいずれかを含むことを特徴とする請求項1又は2に記載の立体映像処理装置。
  4.  前記出力部から出力されたデータを読み込み、フレーム毎の立体視パラメータの値をタイムコードに沿って時系列に表示する表示部をさらに有することを特徴とする請求項1~3のうちいずれかに記載の立体映像処理装置。
  5.  前記映像信号にタイムコードが含まれていない場合に、前記出力部は、タイムコードの代わりに前記立体映像コンテンツの先頭からの時間情報を立体視パラメータに付加することを特徴とする請求項1~4のうちいずれかに記載の立体映像処理装置。
  6.  前記立体視パラメータの値が所定の許容値から外れている場合に、警告を出力する警告部をさらに有することを特徴とする請求項1~5のうちいずれかに記載の立体映像処理装置。
  7.  前記立体視パラメータの値が所定の許容値から外れている場合に、前記立体視パラメータの値が前記許容値に収まるように当該フレームの画像を補正する画像補正部をさらに有することを特徴とする請求項1~6のいずれか1項に記載の立体映像処理装置。
PCT/JP2010/052228 2010-02-15 2010-02-15 立体映像処理装置 WO2011099166A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/052228 WO2011099166A1 (ja) 2010-02-15 2010-02-15 立体映像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/052228 WO2011099166A1 (ja) 2010-02-15 2010-02-15 立体映像処理装置

Publications (1)

Publication Number Publication Date
WO2011099166A1 true WO2011099166A1 (ja) 2011-08-18

Family

ID=44367464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/052228 WO2011099166A1 (ja) 2010-02-15 2010-02-15 立体映像処理装置

Country Status (1)

Country Link
WO (1) WO2011099166A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042392A1 (ja) * 2011-09-21 2013-03-28 シャープ株式会社 立体画像評価装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290358A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 状態監視方法及びシステム
JP2004104425A (ja) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> 視差分布測定方法、視差分布測定装置および視差分布測定プログラム
JP2006270924A (ja) * 2005-02-28 2006-10-05 Victor Co Of Japan Ltd 映像データ処理装置、映像再生装置、映像データ処理方法、映像再生方法、これらの方法をコンピュータによって実行するためのプログラム並びに記録媒体
JP2007028299A (ja) * 2005-07-19 2007-02-01 Hitachi Kokusai Electric Inc 画像監視システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290358A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 状態監視方法及びシステム
JP2004104425A (ja) * 2002-09-09 2004-04-02 Nippon Hoso Kyokai <Nhk> 視差分布測定方法、視差分布測定装置および視差分布測定プログラム
JP2006270924A (ja) * 2005-02-28 2006-10-05 Victor Co Of Japan Ltd 映像データ処理装置、映像再生装置、映像データ処理方法、映像再生方法、これらの方法をコンピュータによって実行するためのプログラム並びに記録媒体
JP2007028299A (ja) * 2005-07-19 2007-02-01 Hitachi Kokusai Electric Inc 画像監視システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042392A1 (ja) * 2011-09-21 2013-03-28 シャープ株式会社 立体画像評価装置
JP2013070127A (ja) * 2011-09-21 2013-04-18 Sharp Corp 立体画像表示装置

Similar Documents

Publication Publication Date Title
US9516297B2 (en) Method and device for monitoring phase shifting between stereoscopic cameras
US8542909B2 (en) Method and apparatus for measuring an audiovisual parameter
US20070165942A1 (en) Method for rectifying stereoscopic display systems
US20100194902A1 (en) Method for high dynamic range imaging
JP5446949B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US8675042B2 (en) Image processing apparatus, multi-eye digital camera, and program
CN102338821A (zh) 用于提供同步测量视图的测试测量装置、系统和方法
WO2011125461A1 (ja) 画像生成装置及び方法並びにプリンタ
WO2012002020A1 (ja) 再生装置、複眼撮像装置、再生方法及びプログラム
JP2005184749A (ja) 映像遅延時間測定方法及びそのシステムと装置
JP2005026756A (ja) 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム
US8780171B2 (en) Video signal processor and video signal processing method with markers for indicating correct component connection
Zilly et al. STAN—An assistance system for 3D productions: From bad stereo to good stereo
WO2011099166A1 (ja) 立体映像処理装置
JP2000278710A (ja) 両眼立体視画像評価装置
Bruehs et al. Quantifying and ranking quality for acquired recordings on digital video recorders
KR100942765B1 (ko) 입체 영상 편집을 위한 장치 및 방법
KR100952045B1 (ko) 왜곡 없는 3차원 영상을 표시하기 위한 장치 및 방법
KR101356427B1 (ko) 스테레오스코픽 이미지 및 영상의 시각 피로도를 시각화하는 장치 및 방법
US20130162638A1 (en) Time code display device and time code display method
CN113411543A (zh) 一种多路监控视频融合显示方法及系统
KR101646847B1 (ko) 디스플레이 장치의 이상 검출 시스템 및 방법
US9325963B2 (en) Device and method for rendering and delivering 3-D content
JP2013104937A (ja) 表示処理装置及び表示処理方法
Hanhart et al. Crowd-based quality assessment of multiview video plus depth coding

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10845759

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10845759

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP