JP2012085069A - Image processing device and controlling method of the same - Google Patents

Image processing device and controlling method of the same Download PDF

Info

Publication number
JP2012085069A
JP2012085069A JP2010229039A JP2010229039A JP2012085069A JP 2012085069 A JP2012085069 A JP 2012085069A JP 2010229039 A JP2010229039 A JP 2010229039A JP 2010229039 A JP2010229039 A JP 2010229039A JP 2012085069 A JP2012085069 A JP 2012085069A
Authority
JP
Japan
Prior art keywords
line
display device
image
video
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010229039A
Other languages
Japanese (ja)
Inventor
Hirochika Matsuoka
寛親 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010229039A priority Critical patent/JP2012085069A/en
Publication of JP2012085069A publication Critical patent/JP2012085069A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To make a display device display a further natural motion picture, according to the characteristics of an imaging element of a picture source and the display characteristics of the display device.SOLUTION: Scan timing information indicating the exposure timing of each line of an imaging element imaging an input picture and a frame rate of the input picture are obtained, and information indicating the scan timing of each line and the frame rate displayed by the display device are obtained. Next, according to the obtained exposure timing of each line and display timing information, correction output timing information of each line between the input picture and the display device is produced. Then, respective pixel data on a target line of a target frame to be produced which is indicated by the frame rate of the display device, are produced by referring to the correction output timing information and interpolating respective pixel data on corresponding lines of two input picture frames sandwiching the target line along a temporal axis. By executing the producing processing for the whole lines of the target frame, the image data of the target frame are produced.

Description

本発明は、動画像のフレームレートを表示装置に合わせて変換する技術に関するものである。   The present invention relates to a technique for converting a frame rate of a moving image according to a display device.

近年、ビデオカメラ用撮像素子の技術開発や映像記録やデジタル化に伴い、様々な特性の映像が混在するようになっている。例えば特性の違いとして、CMOS素子を使用するDV(Digital Video camera)ではローリングシャッター現象が発生するのに対し、CCD素子を使用するDVではこの現象が発生しないことが知られている。また、フレームレートも、24P/30P/60P等様々な映像が混在する。またディスプレイも、様々な表示方式やフレームレートのものが混在するようになっている。例えばPDP(Plasma Display Panel)やDMD(Digital Micromirror Device)デバイスは、時間方向のPWM (Pulse Width Modulation)による表示であり面順次に近い方式である。他方、FED(Field Emission Display)あるいはLCD(Liquid Crystal Display)はライン順次表示となる。また、表示に適したフレームレートも表示方式によって異なる。このような状況の中、好適な映像表示を実現するフレームレート変換技術が重要となっている。   In recent years, with the technical development of video camera image sensors, video recording, and digitization, video with various characteristics has been mixed. For example, as a difference in characteristics, it is known that a rolling shutter phenomenon occurs in a DV (Digital Video camera) using a CMOS element, whereas this phenomenon does not occur in a DV using a CCD element. In addition, various video such as 24P / 30P / 60P are mixed in the frame rate. In addition, displays with various display methods and frame rates are mixed. For example, a PDP (Plasma Display Panel) or DMD (Digital Micromirror Device) device is a display based on PWM (Pulse Width Modulation) in the time direction, and is a system close to frame sequential. On the other hand, FED (Field Emission Display) or LCD (Liquid Crystal Display) is line-sequentially displayed. Also, the frame rate suitable for display varies depending on the display method. Under such circumstances, a frame rate conversion technique for realizing a suitable video display is important.

ここで、フレームレート変換技術として次の様な技術が知られている。例えば特許文献1はインタレース映像をプログレッシブ映像に変換するIP変換に関するものであり、フィールド間で動きベクトルを求めて補間画像を生成し、フィールド内映像と混合することでIP変換を実現している。また特許文献2は、60Hzの3―2プルダウン映像に対してフレームレート変換を行うものであり、映像からから24Hzのフレーム画像を求めて動きベクトルに基づき50Hzや48Hzの映像を補間している。   Here, the following techniques are known as frame rate conversion techniques. For example, Patent Document 1 relates to IP conversion for converting interlaced video to progressive video. IP conversion is realized by generating an interpolated image by obtaining a motion vector between fields and mixing it with video in the field. . Further, Patent Document 2 performs frame rate conversion on a 60 Hz 3-2 pull-down video, obtains a 24 Hz frame image from the video, and interpolates a 50 Hz or 48 Hz video based on a motion vector.

特開平6−133280号公報JP-A-6-133280 特開平7−7713号公報Japanese Patent Laid-Open No. 7-7713

しかしながらこれらの技術は、フレームあるいはフィールドの各ラインが、総て同時刻に撮影あるいは表示されることを仮定している。しかしながら先に述べたように、実際の映像の特性やディスプレイの特性は、このような仮定を満たさないものが存在する。このため、映像の特性とディスプレイの特性の組み合わせによっては、映像の動きなどが好適とならない場合が存在する。   However, these techniques assume that each frame or field line is captured or displayed at the same time. However, as described above, there are some actual video characteristics and display characteristics that do not satisfy these assumptions. For this reason, depending on the combination of the characteristics of the video and the characteristics of the display, there are cases where the movement of the video is not suitable.

本発明はかかる問題に鑑みなされたものであり、映像源の撮像特性、表示装置の表示特性に応じて、その表示装置がより自然な動きの映像を表示させる技術を提供しようとするものである。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a technique in which a display device displays an image of a more natural motion according to the imaging characteristics of a video source and the display characteristics of the display device. .

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、
映像源からの入力映像のフレームレートを、表示装置が表示する映像のフレームレートに変換する画像処理装置であって、
前記入力映像を撮像した撮像素子の各ラインの露光タイミング、及び、前記入力映像のフレームレートを示す情報を取得する第1の取得手段と、
前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置が表示する表示映像のフレームレートを示す情報を取得する第2の取得手段と、
前記第1、第2の取得手段で取得した各ラインの露光タイミング及びスキャンタイミングを示す情報に基づき、前記入力映像と前記表示映像との間の各ラインの補正出力タイミング情報を生成する生成手段と、
前記第2の取得手段で取得した前記表示装置で表示されることになるフレームの着目ライン上の各画素データを、前記補正出力タイミング情報を参照し、当該着目ラインを時間軸に沿って挟む2つの入力映像フレームの該当するライン上の各画素データを補間することで生成し、当該生成の処理を全ライン分だけ実行することで、前記表示装置で表示するためのフレームの画像データを生成する画像生成手段とを備える。
In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is,
An image processing device that converts a frame rate of an input video from a video source into a frame rate of a video displayed by a display device,
First acquisition means for acquiring information indicating the exposure timing of each line of the image sensor that has captured the input video and the frame rate of the input video;
Second acquisition means for acquiring information indicating a scan timing of each line displayed by the display device and a frame rate of a display image displayed by the display device;
Generating means for generating correction output timing information of each line between the input video and the display video based on information indicating the exposure timing and scan timing of each line acquired by the first and second acquisition means; ,
Each pixel data on the target line of the frame to be displayed on the display device acquired by the second acquisition unit is referred to the correction output timing information, and the target line is sandwiched along the time axis 2 It generates by interpolating each pixel data on the corresponding line of one input video frame, and generates the image data of the frame to be displayed on the display device by executing the generation process for all lines. Image generating means.

本発明によれば、映像源の撮像特性、表示装置の表示特性に応じて、その表示装置がより自然な動きの映像を表示させることができる。   According to the present invention, the display device can display a more natural motion image according to the imaging characteristics of the video source and the display characteristics of the display device.

実施形態のシステム構成図。The system block diagram of embodiment. 実施形態のセットトップボックスのブロック構成図。The block block diagram of the set top box of embodiment. ユーザーインタフェース画像の一例を示す図。The figure which shows an example of a user interface image. スキャンタイミング情報のデータ構造と、各ライン/ピクセルのスキャン時刻の一例を示す模式図。The schematic diagram which shows an example of the data structure of scan timing information, and the scan time of each line / pixel. デコーダのブロック構成図。The block block diagram of a decoder. 画質補正処理を表すフローチャート。6 is a flowchart showing image quality correction processing. 入力映像と表示映像のラインに対する時間関係の一例を示す模式図。The schematic diagram which shows an example of the time relationship with respect to the line of an input image and a display image. 補正映像生成処理を表すフローチャート。The flowchart showing a correction | amendment video production | generation process. 動きベクトル算出処理を表すフローチャート。The flowchart showing a motion vector calculation process. 探索ブロックサイズの変化を示す模式図。The schematic diagram which shows the change of search block size. 補正映像のフレーム画像生成処理を表すフローチャート。The flowchart showing the frame image generation process of a correction | amendment image | video. 動きベクトルと補正画像の走査面との交点の一例を示す模式図。The schematic diagram which shows an example of the intersection of a motion vector and the scanning surface of a correction image.

以下、添付図面に従って本発明に係る実施形態を詳細に説明する。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

図1は本発明に係る第1の実施形態のシステム構成を示すブロック図である。放送受信アンテナ101、セットトップボックス102、表示装置103から構成される。放送受信アンテナ101は地上波デジタル放送や衛星デジタル放送等を受信し、セットトップボックス102に放送信号を送信する。セットトップボックス102は、受信した放送信号や、メディア(例えば、ハードディスク、メモリーカード、光ディスク、CFカード、SDカード、USBメモリ等)に記録された映像信号をデコードし、画質補正を施した後に映像信号を表示装置103に送信する。表示装置103は映像信号を表示するディスプレイ(例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、フィールドエミッションディスプレ等)である。   FIG. 1 is a block diagram showing the system configuration of the first embodiment according to the present invention. It comprises a broadcast receiving antenna 101, a set top box 102, and a display device 103. The broadcast receiving antenna 101 receives terrestrial digital broadcasts, satellite digital broadcasts, and the like, and transmits broadcast signals to the set top box 102. The set-top box 102 decodes received broadcast signals and video signals recorded on media (for example, hard disk, memory card, optical disk, CF card, SD card, USB memory, etc.) The signal is transmitted to the display device 103. The display device 103 is a display (for example, a liquid crystal display, a plasma display, an organic EL display, a field emission display, etc.) that displays a video signal.

図2は本発明の画像処理装置であるセットトップボックス102の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the set top box 102 which is the image processing apparatus of the present invention.

メディアインタフェース202は、デジタルビデオカメラから取り出したメディア201(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)につなぐためのインタフェースである。メディア201に格納された符号化映像信号は、デコーダ206で一旦デコードされたのち、フレームレート変換処理を経て、エンコーダ217で符号化され、HDD205に格納される。放送入力端子203は、地上デジタル放送、衛星デジタル放送などのデジタル放送信号を入力するための端子である。デジタルチューナ204は、デジタル放送信号を、H.264やMPEG2などの符号化映像信号に変換する。そして、この符号化映像信号は、デコーダ206で一旦デコードされたのち、フレームレート変換処理を経て、エンコーダ217で符号化され、HDD206に格納される。なお、フレームレート変換処理の詳細については後述する。HDD205は、デジタルチューナ204や、メディアI/F202からの符号化された入力映像信号を一旦格納したり、後述するスキャンタイミング情報を格納したりするために利用する大容量記憶装置である。デコーダ206は、CPU210の制御下において、指定された符号化された表示映像信号を復号し、非圧縮の映像信号を生成し、出力する。ポストフィルタ207は、非圧縮の表示映像信号に対して、ノイズ除去処理、エッジ強調処理、色階調補正処理などを行う。表示制御部208は、文字やグラフィックあるいはユーザーインタフェース画像を生成し、ポストフィルタ207から受け取った映像信号にユーザーインタフェース画像を重ねた映像を生成し、デジタル映像信号端子209へと転送する。   The media interface 202 is an interface for connecting to a medium 201 (for example, a hard disk, a memory card, a CF card, an SD card, a USB memory) taken out from the digital video camera. The encoded video signal stored in the medium 201 is once decoded by the decoder 206, subjected to frame rate conversion processing, encoded by the encoder 217, and stored in the HDD 205. The broadcast input terminal 203 is a terminal for inputting digital broadcast signals such as terrestrial digital broadcast and satellite digital broadcast. The digital tuner 204 converts the digital broadcast signal into an encoded video signal such as H.264 or MPEG2. Then, the encoded video signal is once decoded by the decoder 206, is subjected to frame rate conversion processing, is encoded by the encoder 217, and is stored in the HDD 206. Details of the frame rate conversion process will be described later. The HDD 205 is a large-capacity storage device that is used to temporarily store an encoded input video signal from the digital tuner 204 or the media I / F 202 or to store scan timing information described later. Under the control of the CPU 210, the decoder 206 decodes the specified encoded display video signal, generates an uncompressed video signal, and outputs it. The post filter 207 performs noise removal processing, edge enhancement processing, color gradation correction processing, and the like on the uncompressed display video signal. The display control unit 208 generates characters, graphics, or a user interface image, generates a video in which the user interface image is superimposed on the video signal received from the post filter 207, and transfers the video to the digital video signal terminal 209.

CPU210は、システムバス216を介して装置全体の制御を司るものであり、ROM211やRAM212に格納された命令を順に読み込み処理を実行する。また、ROM211とRAM212は、その処理に必要なプログラム、データ、作業領域などをCPU210に提供する。操作部213はボタンやタッチパネルなどが該当し、これらを介して入力されたユーザ指示を受け取る。USBインタフェース214は、USB端子215を介して表示装置103と接続され、後述の画質補正処理に必要な情報を表示装置103から受信する。   The CPU 210 controls the entire apparatus via the system bus 216, and sequentially reads instructions stored in the ROM 211 and RAM 212 and executes processing. The ROM 211 and RAM 212 provide the CPU 210 with programs, data, work areas, and the like necessary for the processing. The operation unit 213 corresponds to a button, a touch panel, or the like, and receives a user instruction input via these buttons. The USB interface 214 is connected to the display device 103 via the USB terminal 215, and receives information necessary for image quality correction processing described later from the display device 103.

上記構成において本実施形態のセットトップボックス102の電源がONされると、まず放送入力端子203からのデジタル放送信号の映像が選択されデコーダ206にて復号され、デジタル映像信号端子209から表示装置103へと送信され、表示装置103では例えば図3の画面301が表示される。また、また起動時にはセットトップボックス102の動作設定を行うためのユーザーインタフェース画像302が、表示制御部208にて生成され、画面301と共に表示装置103に表示される。ユーザーインタフェース画像302では、映像選択、画質補正選択、表示機器設定更新、終了の4項目をユーザーに選択させる。   When the power of the set top box 102 of the present embodiment is turned on in the above configuration, first, the video of the digital broadcast signal from the broadcast input terminal 203 is selected and decoded by the decoder 206, and the display device 103 from the digital video signal terminal 209. 3 is displayed on the display device 103, for example. In addition, a user interface image 302 for setting the operation of the set top box 102 at the time of activation is generated by the display control unit 208 and displayed on the display device 103 together with the screen 301. The user interface image 302 allows the user to select four items: video selection, image quality correction selection, display device setting update, and end.

映像選択では、表示装置103に表示すべき画像の発生源として、放送入力端子203からの放送映像、メディア201に格納された映像のいずれにするのかをユーザーに選択させる。この選択結果に基づいて、デジタルチューナ204とメディア201のどちらの符号化された入力映像信号が一旦、HDD205に格納するかが決定される。また、このとき、映像源としてメディア201が選択された場合、そのメディア201を検索し、スキャンタイミング情報(ファイル)を検索し、それをHDD205に格納する。また、映像源としてデジタルチューナ204が選択された場合、現在のところ、スキャンタイミング情報(ファイル)が放送されていないので、HDD205に予め格納されているデフォルトのスキャンタイミング情報(全ラインが同じタイミングとなることを示している)を選択し、それを利用するものとする。メディア201内にスキャンタイミング情報がなかった場合、すなわち、検索が失敗した場合も同様である。また、検索が失敗した場合、その情報をユーザが設定するようにしても良い。   In the video selection, the user is allowed to select either a broadcast video from the broadcast input terminal 203 or a video stored in the medium 201 as a generation source of an image to be displayed on the display device 103. Based on the selection result, it is determined which encoded input video signal of the digital tuner 204 or the medium 201 is temporarily stored in the HDD 205. At this time, when the medium 201 is selected as the video source, the medium 201 is searched for, scan timing information (file) is searched, and stored in the HDD 205. In addition, when the digital tuner 204 is selected as the video source, since the scan timing information (file) is not broadcast at present, the default scan timing information stored in advance in the HDD 205 (all lines have the same timing). ), And use it. The same applies when there is no scan timing information in the medium 201, that is, when the search fails. If the search fails, the information may be set by the user.

画質補正選択では、入力映像に対して画質補正処理を施すか否かを選択させる。画質補正処理は、後述の図5のフローチャートに基づいて実施する。   In image quality correction selection, it is selected whether or not to perform image quality correction processing on the input video. The image quality correction process is performed based on a flowchart of FIG.

表示機器の設定更新では、双方向通信インタフェース、例えば、USBインタフェース214を介して後述の画質補正処理に必要なスキャンタイミング情報を表示装置103から受信し、RAM212に格納する(つまり、実施形態では、2つのスキャンタイミング情報を利用する。1つは、映像源のものであり、もう1つは表示装置のものである)。この情報は後述の表示映像の生成にて用いられ、図4(a)の模式図に示すデータ構造をしている。データ先頭には表示ライン数と表示ピクセル数が、続いて垂直同期と水平同期に対する周波数と周期とが記述される。この後に、ピクセルライン数だけ、ライン番号とスキャン時刻との対応が記述される。ここでいうスキャン時刻とは、垂直同期のタイミングを基準とする相対時刻である。このデータ構造により表現される、各ライン/ピクセルのスキャン時刻の一例を図4(b)の模式図に示す。図4(b)は、1024ライン表示に対する模式図であり、ある時刻でスキャンされるピクセル番号とライン番号を、スキャン時刻とピクセル番号とライン番号からなる三次元空間にあらわしたものである。この図に於いて、t1はライン番号1のスキャン時刻、tnはライン番号nのスキャン時刻、t1024はライン番号1024のスキャン時刻である。参照番号401のラインは時刻t1でのライン番号1に対するスキャンをあらわしており、時刻t1にライン番号1のラインの全ピクセルがスキャンされると近似している。参照番号402のラインは時刻tnでのライン番号nに対するスキャンを、参照番号403のラインは時刻t1024でのライン番号1024に対するスキャンをあらわす。参照番号404のラインは、ピクセル番号1に対する、スキャン時刻とライン番号との関係を表すラインである。なお、このデータは先述の入力映像に対するスキャンタイミング情報としても使用される。この場合のデータ先頭の情報は撮像ライン数と撮像ピクセル数となる。   In the display device setting update, scan timing information necessary for image quality correction processing described later is received from the display device 103 via a bidirectional communication interface, for example, the USB interface 214, and stored in the RAM 212 (that is, in the embodiment, Two pieces of scan timing information are used, one from the video source and the other from the display device). This information is used in the generation of a display video described later, and has a data structure shown in the schematic diagram of FIG. At the top of the data, the number of display lines and the number of display pixels are described, followed by the frequency and period for vertical synchronization and horizontal synchronization. After this, the correspondence between the line number and the scan time is described for the number of pixel lines. The scan time here is a relative time based on the timing of vertical synchronization. An example of the scan time of each line / pixel expressed by this data structure is shown in the schematic diagram of FIG. FIG. 4B is a schematic diagram for 1024 line display, in which pixel numbers and line numbers scanned at a certain time are represented in a three-dimensional space composed of scanning times, pixel numbers, and line numbers. In this figure, t1 is the scan time of line number 1, tn is the scan time of line number n, and t1024 is the scan time of line number 1024. The line with reference number 401 represents a scan with respect to line number 1 at time t1, and it is approximated that all pixels of the line with line number 1 are scanned at time t1. The line with reference number 402 represents a scan for line number n at time tn, and the line with reference number 403 represents a scan for line number 1024 at time t1024. A line of reference number 404 is a line representing the relationship between the scan time and the line number for pixel number 1. This data is also used as scan timing information for the above-described input video. The information at the top of the data in this case is the number of imaging lines and the number of imaging pixels.

ユーザーが終了を選択すると、これらの設定を終了しユーザーインタフェース画像302をクローズするが、ユーザーの操作部213に対して操作を行うと再び表示される。   When the user selects the end, these settings are ended and the user interface image 302 is closed. However, when the user operates the operation unit 213, it is displayed again.

図5はデコーダ206の構成の一例である。符号メモリ502は、復号対象の符号化データを一時的に記憶する。復号器502は符号化データを復号し、復号結果を出力する。逆量子化器503は、入力した係数を逆量子化し、逆DCT変換器504は、逆DCT変換処理を行う。そして、加算器505は、動き補償器508からの動き補償データと加算し、画像データとしてメモリ506に格納し、外部(例えば表示装置103)のタイミングに応じて出力する。動き補償器508は、復号しようとしている着目フレームが、I-フレームの時は何も出力しない。従って、加算器505は、DCT変換結果をそのままメモリ506に出力することになる。一方、着目フレームがP又はB-フレームの倍、動き補償器508は動作し、動き補償予測値を出力する。   FIG. 5 shows an example of the configuration of the decoder 206. The code memory 502 temporarily stores encoded data to be decoded. The decoder 502 decodes the encoded data and outputs a decoding result. The inverse quantizer 503 inversely quantizes the input coefficient, and the inverse DCT transformer 504 performs an inverse DCT transform process. Then, the adder 505 adds the motion compensation data from the motion compensator 508, stores it as image data in the memory 506, and outputs it according to the external timing (for example, the display device 103). The motion compensator 508 outputs nothing when the target frame to be decoded is an I-frame. Therefore, the adder 505 outputs the DCT conversion result to the memory 506 as it is. On the other hand, when the frame of interest is double the P or B-frame, the motion compensator 508 operates and outputs a motion compensated prediction value.

図6は、CPU210が実行する先述の画質補正処理を表すフローチャートである。ステップS601では、入力映像のフレームレートと、撮像素子の各ラインの露光タイミングを示すスキャン時間とを記述したスキャンタイミング情報を、システムバス215を介してHDD205より取得する(第1の取得手段)。   FIG. 6 is a flowchart showing the above-described image quality correction processing executed by the CPU 210. In step S601, scan timing information describing the frame rate of the input video and the scan time indicating the exposure timing of each line of the image sensor is acquired from the HDD 205 via the system bus 215 (first acquisition means).

ステップS602では、表示装置103に対するフレームレートと、フレーム内における各ラインのスキャン時間とを記したスキャンタイミング情報を、システムバス215を介してRAM212より取得する(第2の取得手段)。   In step S602, scan timing information describing the frame rate for the display device 103 and the scan time of each line in the frame is acquired from the RAM 212 via the system bus 215 (second acquisition means).

ステップS603では、ステップS601とS602で取得したスキャンタイミング情報に基づき、入力映像の開始フレームを基点として入力映像と表示映像のラインに対する時間関係を求め、その時間関係をスキャン時間テーブル(補正出力タイミング情報)として生成し、RAM212に記憶する。このスキャン時間テーブルの作成の仕方が次の通りである。   In step S603, based on the scan timing information acquired in steps S601 and S602, the time relationship with respect to the line of the input video and the display video is obtained from the start frame of the input video, and the time relationship is obtained from the scan time table (corrected output timing information). ) And stored in the RAM 212. The method of creating this scan time table is as follows.

先ず、入力映像のスキャンタイミング情報におけるライン数、1ラインのピクセル数を、表示装置のスキャンタイミング情報のスキャンライン数、1ラインのピクセル数に合わせるため、入力映像のスキャンタイミング情報を正規化する。そして、その正規化した後、表示装置のスキャンタイミング情報の各ラインのスキャン時間から、正規化後の入力映像の該当するスキャン時間を減じる。つまり、各ラインのスキャン時間の差分を演算する。また、入力したフレームの画像データも、この正規化したライン数を持つように補正をかける。単純には、線形補間処理を行うことで、表示用と同じライン数の画像データを生成する。   First, in order to match the number of lines and the number of pixels in one line in the scan timing information of the input video to the number of scan lines in the scan timing information of the display device and the number of pixels in one line, the scan timing information of the input video is normalized. Then, after the normalization, the corresponding scan time of the input video after normalization is subtracted from the scan time of each line of the scan timing information of the display device. That is, the difference between the scan times of each line is calculated. The input frame image data is also corrected so as to have this normalized number of lines. Simply, image data having the same number of lines as that for display is generated by performing linear interpolation processing.

図7(a),(b)は、スキャン時間テーブルを算出するための、入力映像と表示映像のラインに対する時間関係の一例の模式図である。図7(a)は、撮像素子としてCMOSセンサーを有するカメラで撮像された入力映像を、PDPあるいはDMDプロジェクタの表示装置で表示する場合の模式図である。ここで参照番号701から703までが入力映像のスキャンタイミングを、参照番号704から705までが表示映像のスキャンタイミングを表わす。ここで、ti1は入力映像1ライン目に対する垂直同期基準の相対スキャン時刻であり、ti1024は入力映像1024ライン目に対する垂直同期基準の相対スキャン時刻である。また、Tviは、入力映像の垂直同期周期である。また、to1は表示映像1ライン目に対する垂直同期基準の相対スキャン時刻であり、to1024は表示映像1024ライン目に対する垂直同期基準の相対スキャン時刻である。また、Tvoは、表示映像の垂直同期周期である。表示装置はPWM方式の表示であるため、表示映像は総てのピクセルが同時刻にスキャンされると近似している。また図7(b)は、撮像素子としてCCDセンサーを有するカメラで撮像された入力映像を、FEDあるいはLCDに表示映像を出力する場合の模式図である。ここで参照番号707から710までが入力映像のスキャンタイミングを、参照番号711と712が表示映像のスキャンタイミングを表わす。ここで、ti1、ti1024、Tvi、並びにto1、to1024、Tvoの各変数は、図7(a)で用いたものと同じ意味である。入力装置の撮像方式がCCDセンサーであることから、入力映像は総てのピクセルが同時刻にスキャンされると近似している。なお、図7(a)と図7(b)の何れの模式図に於いても、点線が入力映像のスキャンタイミングを、破線が表示映像のスキャンタイミングを示す。   FIGS. 7A and 7B are schematic diagrams showing an example of a time relationship with respect to the lines of the input video and the display video for calculating the scan time table. FIG. 7A is a schematic diagram when an input image captured by a camera having a CMOS sensor as an image sensor is displayed on a display device of a PDP or DMD projector. Here, reference numerals 701 to 703 represent the scan timing of the input video, and reference numerals 704 to 705 represent the scan timing of the display video. Here, ti1 is a vertical scan reference relative scan time for the first line of the input video, and ti1024 is a vertical sync reference relative scan time for the input video line 1024. Tvi is a vertical synchronization period of the input video. Also, to1 is the vertical scan reference relative scan time for the first line of display video, and to1024 is the vertical sync reference relative scan time for the display video 1024th line. Tvo is a vertical synchronization period of the display video. Since the display device is a PWM display, the display image approximates that all pixels are scanned at the same time. FIG. 7B is a schematic diagram when an input image captured by a camera having a CCD sensor as an image sensor is output to a FED or LCD. Here, reference numerals 707 to 710 represent the scan timing of the input video, and reference numerals 711 and 712 represent the scan timing of the display video. Here, the variables ti1, ti1024, Tvi, and to1, to1024, and Tvo have the same meanings as those used in FIG. Since the imaging method of the input device is a CCD sensor, the input video approximates that all pixels are scanned at the same time. 7A and 7B, the dotted line indicates the scan timing of the input video, and the broken line indicates the scan timing of the display video.

ステップS604では、ステップS603で作成したスキャン時間テーブルに基づいて入力映像のフレームから表示映像フレームを生成する。そして、生成した表示映像フレームをエンコーダ217で符号化してHDD205に格納する。なお当然ながら、表示映像のフレームレートは表示装置のフレームレートに合致する。   In step S604, a display video frame is generated from the input video frame based on the scan time table created in step S603. Then, the generated display video frame is encoded by the encoder 217 and stored in the HDD 205. Of course, the frame rate of the display video matches the frame rate of the display device.

図8は、ステップS604の補正映像生成処理を表すフローチャートである。   FIG. 8 is a flowchart showing the corrected video generation processing in step S604.

ステップS801では、本処理で生成する表示映像のフレーム番号を、開始フレームで初期化する。ステップS802では、一枚の表示フレーム画像を生成する為に必要とする、入力映像フレーム番号を算出する。この算出は、スキャン時刻とピクセル番号とライン番号からなる三次元空間に於いて、表示映像フレームが構成するスキャン面を包含する、入力映像フレームの組を求めることで行う。例えば、図7(a)の参照番号705の表示映像フレームを生成する場合について考察する。この場合、生成しようとする表示映像フレームの1ライン乃至Mラインはフレーム702と703の各ラインの、時刻Tv0+t01に対する時間差の絶対値に応じた加重平均を算出して生成し、Mライン以降1024ラインはフレーム701と702の加重平均を算出して生成する。すなわち、着目フレーム中の着目ライン上の画素データは、時間軸に沿ってその着目ラインを挟む2つの入力フレームの該当するライン上の各画素の加重平均を算出することで得る(図7(a)の矢印750、751)。たまたま、着目ラインが、図7(a)に示す如く、表示映像フレーム705と入力フレーム705との交差ラインであった場合には、入力フレーム705上の第Mラインを、着目ラインとして採用する。そして、上記処理を全ライン分だけ繰り返す画像生成処理を行い、着目フレームの画像データを生成する。要するに、図7(a)における表示映像フレーム705を生成するためには、入力映像フレーム701,702及び703が必要であると言える。また例えば、図7(b)の映像表示フレーム711を生成するには、入力映像フレーム707,708及び709が必要である。   In step S801, the frame number of the display video generated in this process is initialized with the start frame. In step S802, an input video frame number necessary for generating one display frame image is calculated. This calculation is performed by obtaining a set of input video frames including a scan plane formed by the display video frame in a three-dimensional space including a scan time, a pixel number, and a line number. For example, consider the case of generating a display video frame of reference number 705 in FIG. In this case, 1 to M lines of the display video frame to be generated are generated by calculating a weighted average according to the absolute value of the time difference of each line of the frames 702 and 703 with respect to the time Tv0 + t01. The 1024 lines are generated by calculating the weighted average of the frames 701 and 702. That is, pixel data on the target line in the target frame is obtained by calculating a weighted average of each pixel on the corresponding line in two input frames sandwiching the target line along the time axis (FIG. 7A ) Arrows 750, 751). If the target line is an intersection line between the display video frame 705 and the input frame 705 as shown in FIG. 7A, the Mth line on the input frame 705 is adopted as the target line. Then, image generation processing for repeating the above process for all lines is performed to generate image data of the frame of interest. In short, it can be said that the input video frames 701, 702, and 703 are necessary to generate the display video frame 705 in FIG. Further, for example, input video frames 707, 708, and 709 are necessary to generate the video display frame 711 of FIG.

ステップS803では、ステップS802で算出した入力映像フレーム番号に基づいて、入力映像フレームの画像間の動きベクトルを算出する。この処理は図9のフローチャートに基づいて実施されるが、詳細について後述で説明する。ステップS804では、動きベクトルと入力映像とに基づいて、表示フレーム画像をフレーム間補間により生成する。この処理は図11のフローチャートに基づいて実施されるが、詳細について後述で説明する。   In step S803, a motion vector between images of the input video frame is calculated based on the input video frame number calculated in step S802. This process is performed based on the flowchart of FIG. 9, and details will be described later. In step S804, a display frame image is generated by inter-frame interpolation based on the motion vector and the input video. This process is performed based on the flowchart of FIG. 11, and details will be described later.

ステップS805では、生成した表示フレーム画像のフレーム番号が符号化のイントラフレームに当たるかどうかを判定し、真であればステップS806へジャンプし、偽であればステップS807へジャンプする。ステップS806では、RAM212に格納された表示フレーム画像を符号化し、ビットシーケンスをハードディスクに符号化して記録する。符号化方式化には、H.264やMPEG2等を用いる。ステップS807では、表示フレーム画像をRAM212に一旦格納する。これは、当該フレームはイントラ予測符号化の対象であり、数フレーム先の画像が確定するまで符号化出来ないためである。ステップS808では、入力映像の最終フレームを用いて映像生成を行ったかどうかを判定し、真であればステップS809へジャンプし、偽であればステップS810へジャンプする。ステップS809では、入力映像より音声データを取得し、生成した符号化された表示映像に付加し、補正映像の生成処理を狩猟する。ステップS810では、表示映像のフレーム番号を更新する。   In step S805, it is determined whether or not the frame number of the generated display frame image corresponds to the encoded intra frame. If true, the process jumps to step S806, and if false, the process jumps to step S807. In step S806, the display frame image stored in the RAM 212 is encoded, and the bit sequence is encoded and recorded on the hard disk. For encoding, H.264, MPEG2, or the like is used. In step S807, the display frame image is temporarily stored in the RAM 212. This is because the frame is a target of intra prediction encoding and cannot be encoded until an image several frames ahead is determined. In step S808, it is determined whether video generation has been performed using the final frame of the input video. If true, the process jumps to step S809, and if false, the process jumps to step S810. In step S809, audio data is acquired from the input video, added to the generated encoded display video, and hunting is performed for the generation of the corrected video. In step S810, the frame number of the display video is updated.

図9は、ステップS803の動きベクトル算出処理を表すフローチャートである。当該処理は、探索ブロックの分割サイズを大スケールから徐々にスケールダウンしながら(実施形態では3回とするが、この数で限定されない)、動きベクトルを探索するものである。図10に、探索ブロックサイズの変化を模式図として示す。   FIG. 9 is a flowchart showing the motion vector calculation process in step S803. This process searches for a motion vector while gradually reducing the division size of a search block from a large scale (in the embodiment, it is three times, but is not limited to this number). FIG. 10 schematically shows changes in the search block size.

ステップS901では、動きベクトル探索を行うブロック分割サイズを初期化する。ステップS902では、ブロック分割サイズに基づき、画像のスケーリングと分割を行う。ここで画像のスケーリングはバイキュービック補間を用いるが、他の補間方法を用いても良い。スケーリング率は、分割画像が所定サイズ以下まで縮小されるように決定する。   In step S901, the block division size for performing motion vector search is initialized. In step S902, the image is scaled and divided based on the block division size. Here, bicubic interpolation is used for image scaling, but other interpolation methods may be used. The scaling rate is determined so that the divided image is reduced to a predetermined size or less.

ステップS903では、各分割画像の動きベクトル探索範囲を、前回探索時の相関係数と動きベクトルに基づき、前回探索結果の動きベクトルを中心として探索範囲を決定する。ここで、前回探索時の相関係数が低い場合には探索範囲を広く、相関係数が高い場合には探索範囲を狭くするように制御する。また、周囲の動きベクトルとのバラツキが大きい場合には探索範囲を広く、相関係数が高い場合には探索範囲を狭くするように制御する。   In step S903, the motion vector search range of each divided image is determined based on the motion vector of the previous search result based on the correlation coefficient and the motion vector at the previous search. Here, when the correlation coefficient at the previous search is low, the search range is widened, and when the correlation coefficient is high, the search range is narrowed. Further, the control is performed so that the search range is wide when the variation with the surrounding motion vector is large, and the search range is narrow when the correlation coefficient is high.

ステップS904では、相関係数が最大となる動きベクトルを探索し、その相関値を算出して記憶する。ステップS905では、周囲の動きベクトルと相関値に基づいて、分割画像の隠蔽を判断する。隠蔽が発生したと判断した際に、相関値を0にすると共に動きベクトルは存在しないよう設定する。ステップS906では、所定ブロックサイズで動きベクトル探索を行ったかどうかを判定し、真であれば処理を終了し、偽であればステップS907へジャンプする。ステップS907では、水平、垂直とも、ブロック分割サイズを現在の半分のサイズに更新する。   In step S904, a motion vector having the maximum correlation coefficient is searched, and the correlation value is calculated and stored. In step S905, it is determined whether to conceal the divided image based on the surrounding motion vector and the correlation value. When it is determined that concealment has occurred, the correlation value is set to 0 and a motion vector does not exist. In step S906, it is determined whether or not a motion vector search has been performed with a predetermined block size. If true, the process ends. If false, the process jumps to step S907. In step S907, the block division size is updated to the current half size for both horizontal and vertical.

図11は、ステップS804の一枚の表示フレーム画像のフレーム間補間処理を表すフローチャートである。フローチャートは大きく2つのループ処理に分かれ、夫々の処理概要は次の様になる。ステップS1101からS1103までのループ処理では、動きベクトルに基づいて、映像中の各被写体の像が表示フレームの画像で何処に位置するか、画像位置と時間軸とからなる三次元空間上の交点計算で算出する。交点計算に用いる一方の平面は表示映像のスキャンタイミングから決定され、例えば図7(a)では参照番号704、705、706と、図7(b)では参照番号711、712、となる。この交点計算の結果から表示フレーム画像の各画素の交点数を見ると、被写体の隠蔽により交点が存在しない画素や、動きベクトルの計算誤差に起因し複数の交点が存在する画素がある。そこでこの対策として、ステップS1104からS1110までのループ処理で、交点数に基づく処理を分岐させ、欠落の無い適切な画像となるよう、各画素値を決定する。以下は、各ステップの詳細である。   FIG. 11 is a flowchart showing inter-frame interpolation processing of one display frame image in step S804. The flowchart is roughly divided into two loop processes, and the outline of each process is as follows. In the loop processing from step S1101 to S1103, based on the motion vector, calculate the intersection point in the three-dimensional space consisting of the image position and time axis where the image of each subject in the video is located in the display frame image Calculate with One plane used for the intersection calculation is determined from the scan timing of the display image, and is, for example, reference numbers 704, 705, and 706 in FIG. 7A and reference numbers 711 and 712 in FIG. 7B. Looking at the number of intersections of each pixel in the display frame image from the result of the intersection calculation, there are pixels where there are no intersections due to concealment of the subject and pixels where there are a plurality of intersections due to motion vector calculation errors. Therefore, as a countermeasure, the process based on the number of intersections is branched in the loop processing from step S1104 to S1110, and each pixel value is determined so as to obtain an appropriate image with no omission. The details of each step are as follows.

ステップS1101では、ステップS802で算出した入力映像フレーム番号に基づいて、入力フレーム画像から所定順序で画素を選択する。例えば図7(a)の701の表示フレーム画像を生成する際には、704と705の入力フレーム画像から適切な順序で画素を選択する。   In step S1101, pixels are selected from the input frame image in a predetermined order based on the input video frame number calculated in step S802. For example, when the display frame image 701 in FIG. 7A is generated, pixels are selected in an appropriate order from the input frame images 704 and 705.

ステップS1102では、選択した画素と、画素に対応する動きベクトルとに基づき、一枚の表示フレーム画像の走査面との交点を算出する。交点となった補正画像の画素位置は、選択画素と動きベクトルとを対応付けて記憶する。この交点計算の模式図を図12に示す。図12に於いて、1201は生成処理で対象とする表示フレーム画像のスキャンタイミングを表し、以下では表示フレーム画像の走査面と呼ぶ。1202から1204までは表示フレーム画生成に使用する入力フレーム画像のスキャンタイミングを表す。ここで、ti1、ti1024、Tvi、並びにto1、to1024、Tvoの各変数は、図7で用いたものと同じ意味である。1205は選択した画素の座標xであり、1206は画素に対応する動きベクトルvである。1207は、表示フレーム画像の走査面との交点yである。また、点線が入力映像のスキャンタイミングを、破線が表示映像のスキャンタイミングを表す。選択した画素xの座標 (px, lx, tx)を表すと、pxはxのピクセル座標, lxはxのライン座標そのものである。一方、スキャン時刻txはtx=m×Tvi+ti1xとなる。また動きベクトルvを(pv, lv, tv)と表すと、pxは算出したピクセル方向の動きベクトル, lxは算出したライン方向の動きベクトルであり、tv= Tviとなる。他方、表示フレーム画像の走査面は、正規化された法線ベクトルnを(pn, ln, tn)、走査面上の点yを(py, ly, ty)とするとn・y=Cと表現できる。但し「・」は内積である。図12の場合には、pn=0, ln=0, tn=1であり、C= n×Tvo+to1である。交点yの座標はこれらのベクトルを用いて表すと、
y=x+{(C−x・n)/(x・v)}v
と算出される。
In step S1102, based on the selected pixel and the motion vector corresponding to the pixel, an intersection point with the scanning plane of one display frame image is calculated. The pixel position of the corrected image at the intersection is stored by associating the selected pixel with the motion vector. A schematic diagram of this intersection calculation is shown in FIG. In FIG. 12, reference numeral 1201 represents the scan timing of the display frame image that is the object of the generation process, and is hereinafter referred to as the scan plane of the display frame image. Reference numerals 1202 to 1204 denote scan timings of the input frame image used for display frame image generation. Here, the variables ti1, ti1024, Tvi, and to1, to1024, and Tvo have the same meanings as those used in FIG. 1205 is the coordinate x of the selected pixel, and 1206 is the motion vector v corresponding to the pixel. Reference numeral 1207 denotes an intersection point y with the scanning plane of the display frame image. The dotted line represents the scan timing of the input video, and the broken line represents the scan timing of the display video. Expressing the coordinates (px, lx, tx) of the selected pixel x, px is the pixel coordinate of x, and lx is the line coordinate itself of x. On the other hand, the scan time tx is tx = m × Tvi + ti1x. If the motion vector v is expressed as (pv, lv, tv), px is the calculated pixel direction motion vector, lx is the calculated line direction motion vector, and tv = Tvi. On the other hand, the scanning plane of the display frame image is expressed as n · y = C where the normalized normal vector n is (pn, ln, tn) and the point y on the scanning plane is (py, ly, ty). it can. However, “•” is an inner product. In the case of FIG. 12, pn = 0, ln = 0, tn = 1, and C = n × Tvo + to1. The coordinates of the intersection point y are expressed using these vectors,
y = x + {(C−x · n) / (x · v)} v
Is calculated.

ステップS1103では、所定の入力フレーム画像の全画素に対して処理を行ったかどうかを判定し、真であればステップS1104へジャンプし、偽であればステップS1101にジャンプする。ステップS1104では、表示フレーム画像に於いて、所定順序で画素を選択する。ステップS1105では、動きベクトルとの交点が複数存在するかどうかを判定し、真であればステップS1106へジャンプし、偽であればステップS1108にジャンプする。ステップS1106では、相関係数と周囲の動きベクトルから、補正算出に使用する動きベクトルを選択する。この選択は、相関係数が大きく、周囲の動きベクトルとのバラツキが小さい動きベクトルほど選択されるよう制御する。ステップS1107では、選択された動きベクトルに基づき、動きベクトルの始点の画素値を表示フレーム画像の画素値として定め、RAM212に記憶する。ステップS1108では、交点が存在するかどうかを判定し、真であればステップS1106へジャンプし、偽であればステップS1109にジャンプする。ステップS1109では、入力映像の前フレーム映像の同位置の画素値を、表示フレーム画像の画素値として定め、RAM212に記憶する。ステップS1110では、表示フレーム画像の全画素に対して処理を行ったかどうかを判定し、真であれば処理を終了し、偽であればステップS1104にジャンプする。   In step S1103, it is determined whether or not processing has been performed on all pixels of the predetermined input frame image. If true, the process jumps to step S1104, and if false, the process jumps to step S1101. In step S1104, pixels are selected in a predetermined order in the display frame image. In step S1105, it is determined whether there are a plurality of intersections with the motion vector. If true, the process jumps to step S1106, and if false, the process jumps to step S1108. In step S1106, a motion vector to be used for correction calculation is selected from the correlation coefficient and surrounding motion vectors. This selection is controlled so that a motion vector having a larger correlation coefficient and a smaller variation from surrounding motion vectors is selected. In step S1107, based on the selected motion vector, the pixel value of the start point of the motion vector is determined as the pixel value of the display frame image and stored in the RAM 212. In step S1108, it is determined whether or not an intersection exists. If true, the process jumps to step S1106, and if false, the process jumps to step S1109. In step S1109, the pixel value at the same position in the previous frame image of the input image is determined as the pixel value of the display frame image and stored in the RAM 212. In step S1110, it is determined whether or not processing has been performed on all the pixels of the display frame image. If true, the processing ends. If false, the process jumps to step S1104.

以上の結果、HDD205には、表示装置103に表示した際に、より自然な動きの映像を表示させる画像が格納されることになる。従って、後は、デコーダ206にて、通常通り復号し、表示させればよい。なお、実施形態では、一旦、符号化してHDDに格納する例を説明したが、HDDが十分な容量をもっているのであれば、無圧縮の状態で動画像を記憶するようにしても構わない。また、実施形態では、入力源からの動画像データは圧縮符号化されているものとしたが、無圧縮でも構わない。更に、実施形態では、セットトップボックスに適用する例を説明したが、他の装置に適用しても良いし、それを搭載可能な表示装置に適用しても構わない。   As a result, the HDD 205 stores an image that displays a video of a more natural motion when displayed on the display device 103. Therefore, after that, the decoder 206 may decode and display as usual. In the embodiment, an example in which the data is once encoded and stored in the HDD has been described. However, if the HDD has a sufficient capacity, the moving image may be stored in an uncompressed state. In the embodiment, the moving image data from the input source is compressed and encoded, but may be uncompressed. Furthermore, in the embodiment, an example in which the present invention is applied to a set-top box has been described. However, the present invention may be applied to other devices, or may be applied to a display device that can be mounted thereon.

以上説明したように本実施形態によれば、映像の特性とディスプレイの特性としてスキャンタイミングを考慮し、被写体のスキャンタイミングと映像表示のスキャンタイミングが一致するようフレームレート変換する。これにより、映像表示に於いて現実の被写体の動きより理想的に再現し、好適な映像表示を得ることができる。   As described above, according to the present embodiment, the frame rate conversion is performed so that the scan timing of the subject matches the scan timing of the video display, considering the scan timing as the video characteristics and the display characteristics. As a result, it is possible to reproduce the ideal image display more ideally than the actual movement of the subject in the image display.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

映像源からの入力映像のフレームレートを、表示装置が表示する映像のフレームレートに変換する画像処理装置であって、
前記入力映像を撮像した撮像素子の各ラインの露光タイミング、及び、前記入力映像のフレームレートを示す情報を取得する第1の取得手段と、
前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置が表示する表示映像のフレームレートを示す情報を取得する第2の取得手段と、
前記第1の取得手段で取得した各ラインの露光タイミング及び前記第2の取得手段で取得したスキャンタイミングを示す情報に基づき、前記入力映像と前記表示映像との間の各ラインの補正出力タイミング情報を生成する生成手段と、
前記表示装置で表示されることになるフレームの着目ライン上の各画素データを、前記補正出力タイミング情報を参照し、当該着目ラインを時間軸に沿って挟む2つの入力映像フレームの該当するライン上の各画素データを補間することで生成し、当該生成の処理を全ライン分だけ実行することで、前記表示装置で表示するためのフレームの画像データを生成する画像生成手段と
を備えることを特徴とする画像処理装置。
An image processing device that converts a frame rate of an input video from a video source into a frame rate of a video displayed by a display device,
First acquisition means for acquiring information indicating the exposure timing of each line of the image sensor that has captured the input video and the frame rate of the input video;
Second acquisition means for acquiring information indicating a scan timing of each line displayed by the display device and a frame rate of a display image displayed by the display device;
Based on information indicating the exposure timing of each line acquired by the first acquisition unit and the scan timing acquired by the second acquisition unit, corrected output timing information of each line between the input video and the display video Generating means for generating
Each pixel data on the target line of the frame to be displayed on the display device is referred to the correction output timing information, and on the corresponding line of two input video frames sandwiching the target line along the time axis. Image generation means for generating image data of a frame to be displayed on the display device by performing the generation process for all lines by generating the pixel data of each of the image data by interpolation. An image processing apparatus.
前記入力映像のフレームにおけるライン数を前記表示装置の表示ライン数と同じくなるように、前記入力映像のフレームのラインの並びに沿って線形補間する手段を更に備えることを特徴とする請求項1に記載の画像処理装置。   2. The apparatus according to claim 1, further comprising means for linearly interpolating along a line of the lines of the input video so that the number of lines in the frame of the input video is the same as the number of display lines of the display device. Image processing apparatus. 記憶媒体に格納された符号化された動画像データを入力し、当該符号化された画像データを復号することで、前記入力映像を生成する復号手段を更に有し、
前記第1の取得手段は、前記入力映像を撮像した撮像素子の各ラインの露光タイミング、及び、前記入力映像のフレームレートを示す情報を格納したファイルを、前記記憶媒体から取得することを特徴とする請求項1に記載の画像処理装置。
A decoding unit configured to input the encoded moving image data stored in the storage medium and generate the input video by decoding the encoded image data;
The first acquisition means acquires from the storage medium a file storing information indicating the exposure timing of each line of the image sensor that has captured the input video and the frame rate of the input video. The image processing apparatus according to claim 1.
前記第1の取得手段は、前記ファイルの取得に失敗したとき、前記入力映像を撮像した撮像素子の各ラインの露光タイミングは全て同じであるものとして見なすことを特徴とする請求項3に記載の画像処理装置。   The said 1st acquisition means considers that the exposure timing of each line of the image pick-up element which imaged the said input image | video is all the same, when acquisition of the said file fails. Image processing device. 前記表示装置と双方向通信する通信手段を更に有し、
前記第2の取得手段は、前記通信手段を介して、前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置の表示のためのフレームレートを示す情報を取得することを特徴とする請求項1に記載の画像処理装置。
A communication means for bidirectional communication with the display device;
The second acquisition unit acquires information indicating a scan timing of each line displayed on the display device and a frame rate for display on the display device via the communication unit. The image processing apparatus according to claim 1.
前記第2の取得手段は、前記通信手段を介して、前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置の表示のためのフレームレートを示す情報の取得に失敗したとき、前記表示装置が表示する各ラインは同じタイミングで表示されるものとして見なすことを特徴とする請求項5に記載の画像処理装置。   When the second acquisition unit fails to acquire information indicating the scan timing of each line displayed by the display device and the frame rate for display of the display device via the communication unit, 6. The image processing apparatus according to claim 5, wherein each line displayed by the display device is regarded as being displayed at the same timing. 前記画像生成手段で生成された各フレームを、符号化して符号化データとして生成する符号化手段と、
該符号化手段で生成された符号化データを、前記表示装置に出力するための記憶手段に格納する格納手段と
を更に備えることを特徴とする請求項1に記載の画像処理装置。
Encoding means for encoding each frame generated by the image generation means to generate encoded data;
The image processing apparatus according to claim 1, further comprising: a storage unit that stores the encoded data generated by the encoding unit in a storage unit that outputs the encoded data to the display device.
映像源からの入力映像のフレームレートを、表示装置が表示する映像のフレームレートに変換する画像処理装置の制御方法であって、
第1の取得手段が、前記入力映像を撮像した撮像素子の各ラインの露光タイミング、及び、前記入力映像のフレームレートを示す情報を取得する第1の取得工程と、
第2の取得手段が、前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置が表示する表示映像のフレームレートを示す情報を取得する第2の取得工程と、
生成手段が、前記第1の取得工程で取得した各ラインの露光タイミング及び前記第2の取得工程で取得したスキャンタイミングを示す情報に基づき、前記入力映像と前記表示映像との間の各ラインの補正出力タイミング情報を生成する生成工程と、
画像生成手段が、前記表示装置で表示されることになるフレームの着目ライン上の各画素データを、前記補正出力タイミング情報を参照し、当該着目ラインを時間軸に沿って挟む2つの入力映像フレームの該当するライン上の各画素データを補間することで生成し、当該生成の処理を全ライン分だけ実行することで、前記表示装置で表示するためのフレームの画像データを生成する画像生成工程と
を有することを特徴とする画像処理装置の制御方法。
A control method of an image processing device for converting a frame rate of an input video from a video source into a frame rate of a video displayed by a display device,
A first acquisition unit that acquires information indicating an exposure timing of each line of an image sensor that has captured the input video and a frame rate of the input video;
A second acquisition step in which a second acquisition unit acquires information indicating a scan timing of each line displayed by the display device and a frame rate of a display video displayed by the display device;
Based on the information indicating the exposure timing of each line acquired in the first acquisition step and the scan timing acquired in the second acquisition step, the generation unit generates each line between the input image and the display image. A generation step of generating corrected output timing information;
Two input video frames in which the image generating means refers to each pixel data on the target line of the frame to be displayed on the display device with reference to the correction output timing information and sandwiches the target line along the time axis Generating by interpolating each pixel data on the corresponding line, and generating the image data of the frame to be displayed on the display device by executing the generation process for all lines; and A control method for an image processing apparatus, comprising:
コンピュータに読み込ませ実行させることで、前記コンピュータを、映像源からの入力映像のフレームレートを、表示装置が表示する映像のフレームレートに変換する画像処理装置として機能させるプログラムであって、
前記コンピュータを、
前記入力映像を撮像した撮像素子の各ラインの露光タイミング、及び、前記入力映像のフレームレートを示す情報を取得する第1の取得手段、
前記表示装置が表示する各ラインのスキャンタイミング、及び、前記表示装置が表示する表示映像のフレームレートを示す情報を取得する第2の取得手段、
前記第1の取得手段で取得した各ラインの露光タイミング及び前記第2の取得手段で取得したスキャンタイミングを示す情報に基づき、前記入力映像と前記表示映像との間の各ラインの補正出力タイミング情報を生成する生成手段、
前記表示装置で表示されることになるフレームの着目ライン上の各画素データを、前記補正出力タイミング情報を参照し、当該着目ラインを時間軸に沿って挟む2つの入力映像フレームの該当するライン上の各画素データを補間することで生成し、当該生成の処理を全ライン分だけ実行することで、前記表示装置で表示するためのフレームの画像データを生成する画像生成手段
として機能させることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that converts a frame rate of an input video from a video source into a frame rate of a video displayed by a display device by being read and executed by a computer,
The computer,
First acquisition means for acquiring information indicating an exposure timing of each line of the image sensor that has captured the input video and a frame rate of the input video;
Second acquisition means for acquiring information indicating a scan timing of each line displayed by the display device and a frame rate of a display image displayed by the display device;
Based on information indicating the exposure timing of each line acquired by the first acquisition unit and the scan timing acquired by the second acquisition unit, corrected output timing information of each line between the input video and the display video Generating means for generating
Each pixel data on the target line of the frame to be displayed on the display device is referred to the correction output timing information, and on the corresponding line of two input video frames sandwiching the target line along the time axis. Each of the pixel data is interpolated, and the generation process is executed for all lines, thereby functioning as image generation means for generating image data of a frame to be displayed on the display device. Program.
請求項9に記載のプログラムを格納したことを特徴とするコンピュータが読み込み可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2010229039A 2010-10-08 2010-10-08 Image processing device and controlling method of the same Withdrawn JP2012085069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010229039A JP2012085069A (en) 2010-10-08 2010-10-08 Image processing device and controlling method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229039A JP2012085069A (en) 2010-10-08 2010-10-08 Image processing device and controlling method of the same

Publications (1)

Publication Number Publication Date
JP2012085069A true JP2012085069A (en) 2012-04-26

Family

ID=46243473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229039A Withdrawn JP2012085069A (en) 2010-10-08 2010-10-08 Image processing device and controlling method of the same

Country Status (1)

Country Link
JP (1) JP2012085069A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114624263A (en) * 2022-03-23 2022-06-14 成都智元汇信息技术股份有限公司 Double-source double-view-angle target identification-based graph cutting method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114624263A (en) * 2022-03-23 2022-06-14 成都智元汇信息技术股份有限公司 Double-source double-view-angle target identification-based graph cutting method and system

Similar Documents

Publication Publication Date Title
US5973755A (en) Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
RU2506713C2 (en) Image processing apparatus and method
JP4564613B2 (en) Image processing apparatus, television receiver, and image processing method
JP2003501902A (en) Video signal encoding
US20110310225A1 (en) Three-dimensional image processing apparatus and method of controlling the same
JP2011077956A (en) Video signal processing apparatus and video signal processing method
JP5899503B2 (en) Drawing apparatus and method
JP2007142649A (en) Image processor and program
KR101557163B1 (en) Apparatus and method for converting image in an image processing system
US8102914B2 (en) Image decoder
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
JP2009044538A (en) Monitoring system and imaging device employed therefor
JP5113479B2 (en) Image signal processing apparatus and image signal processing method
JP5847752B2 (en) Movie playback device
WO2000011612A1 (en) Methods and apparatus for reducing the amount of buffer memory required for decoding mpeg data and for performing scan conversion
JP2003333540A (en) Frame rate converting apparatus, video display apparatus using the same, and a television broadcast receiving apparatus
JP2012085069A (en) Image processing device and controlling method of the same
TWI568247B (en) Methods and apparatus for decoding video images
KR101711650B1 (en) Apparatus and method for converting image in an image processing system
JP2011015262A (en) Image decoder
JP2006074684A (en) Image processing method and apparatus
JP2009218965A (en) Image processor, imaging device mounted with the same and image reproduction device
JP2008011079A (en) Moving picture encoding device, moving picture decoding device, and moving picture transmission system
WO2016047250A1 (en) Signal processing apparatus, imaging apparatus and signal processing method
JP4323130B2 (en) Method and apparatus for displaying freeze images on a video display device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107