JP2008276302A - Information processing apparatus, image processing method and image processing program - Google Patents

Information processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2008276302A
JP2008276302A JP2007115833A JP2007115833A JP2008276302A JP 2008276302 A JP2008276302 A JP 2008276302A JP 2007115833 A JP2007115833 A JP 2007115833A JP 2007115833 A JP2007115833 A JP 2007115833A JP 2008276302 A JP2008276302 A JP 2008276302A
Authority
JP
Japan
Prior art keywords
region
frame
area
information
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007115833A
Other languages
Japanese (ja)
Inventor
Yukie Takahashi
幸恵 高橋
Takashi Imada
敬 今田
Yoshihiro Kikuchi
義浩 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007115833A priority Critical patent/JP2008276302A/en
Publication of JP2008276302A publication Critical patent/JP2008276302A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing apparatus, an image processing method and an image processing program capable of enhancing quality of images by area while taking the edges of objects into consideration. <P>SOLUTION: The information processing apparatus 10 has a CPU 11, a RAM 12, a ROM 13, a network connection 14, a selected subject storage part 15, an area setting storage part 16, an EPG data storage part 17, a recorded file storage part 18, and an interface part 20. The CPU 11 loads into the RAM 12 both an image processing program stored in the ROM 13 and the data required to execute the program, and, for a recorded file that is the subject of an image enhancement process, performs the process of enhancing quality of images by area in accordance with the image processing program while taking the edges of objects into consideration. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、高画像化処理を行う情報処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an information processing apparatus, an image processing method, and an image processing program that perform high image processing.

動画像は、複数枚のフレーム画像により構成される。動画像から一枚の静止画像を抽出する場合、複数のフレーム画像にもとづいて原画像の画素間を補完することにより、高画像化することができる。この高画像化処理は、一般に、処理時間が長くなってしまうことが多い。このため、高画像化した静止画像を抽出する際には、この静止画像を複数領域に分割し、あまり重要でない領域の画質を落とすことにより、処理時間の短縮を図ることが多い。   A moving image is composed of a plurality of frame images. When a single still image is extracted from a moving image, a high image can be obtained by complementing the pixels of the original image based on a plurality of frame images. In general, this high image processing often requires a long processing time. For this reason, when extracting a high-quality still image, the processing time is often shortened by dividing the still image into a plurality of regions and reducing the image quality of less important regions.

しかし、1枚の静止画像に画質の異なる領域が存在すると、領域の枠(境界)が目立ってしまう場合がある。   However, if a region having different image quality exists in one still image, the frame (boundary) of the region may become conspicuous.

従来、この種の領域の枠を滑らかにする技術に、特開2005−354124号公報(特許文献1)に開示されたものがある。   Conventionally, there is a technique disclosed in Japanese Patent Laid-Open No. 2005-354124 (Patent Document 1) for smoothing the frame of this type of region.

この特開2005−354124号公報(特許文献1)に開示された画像処理装置は、複数枚の低解像度フレームから1枚の高解像度フレームを生成する画像処理装置であって、高解像度フレームとなるべき領域を重点領域と重点領域を囲む遷移領域と非重点領域とを含む複数の領域に区分する領域区分部と、重点領域における画素値を2以上の第1の枚数の低解像度フレームを用いて決定した第1の画素値とし、非重点領域における画素値を第1の枚数より少ない第2の枚数の低解像度フレームを用いて決定した第2の画素値とし、遷移領域における画素値を第1の画素値に第1の重みを付した値と第2の画素値に第2の重みを付した値とを加算することにより決定する高解像度化処理部とを備える。   The image processing apparatus disclosed in Japanese Patent Laying-Open No. 2005-354124 (Patent Document 1) is an image processing apparatus that generates one high resolution frame from a plurality of low resolution frames, and becomes a high resolution frame. An area segmentation unit that divides a power area into a plurality of areas including an emphasis area, a transition area surrounding the emphasis area, and a non-emphasis area; The determined first pixel value, the pixel value in the non-weighted area as the second pixel value determined using the second number of low resolution frames smaller than the first number, and the pixel value in the transition area as the first pixel value. A resolution enhancement processing unit that is determined by adding a value obtained by adding a first weight to the pixel value and a value obtained by adding a second weight to the second pixel value.

この画像処理装置は、遷移領域を設けることにより、領域の枠(境界)における画質の変化が過剰に大きくなることを防ぐことで領域の枠が過剰に目立つことを防ぎ、領域別の高画像化に伴う見た目の違和感を緩和することができるようになっている。
特開2005−354124号公報
In this image processing apparatus, by providing a transition region, it is possible to prevent the change in image quality at the region frame (boundary) from becoming excessively large, thereby preventing the region frame from being excessively conspicuous and increasing the image quality for each region. This makes it possible to alleviate the uncomfortable appearance.
JP 2005-354124 A

高画像化処理を施すと、画像中の物体(たとえば人物など)のエッジ部分(端部、輪郭)の周辺は、数画素に渡る高画像化処理の影響を受けて、強調され膨張したように見える場合がある。このため、ある1つの物体のエッジ部分が画質の異なる領域にまたがっている場合、エッジ部分が不自然になり、見る者に違和感を与えてしまう。   When high image processing is performed, the periphery of the edge portion (edge, contour) of an object (such as a person) in the image seems to be emphasized and expanded under the influence of high image processing over several pixels. May be visible. For this reason, when the edge part of a certain object is straddling the area | region where image quality differs, an edge part becomes unnatural and will give a viewer a sense of incongruity.

しかし、従来の画像処理装置は、領域別の高画質化に伴う見た目の違和感緩和のために、重点領域の枠を囲む領域を遷移領域とするのみである。このため、物体のエッジが領域の枠の近傍に位置する場合(エッジが領域を横断する場合など)に、物体のエッジ部分が強調されてしまうことによる見た目の違和感を的確に緩和することができない。   However, the conventional image processing apparatus only uses the region surrounding the frame of the priority region as a transition region in order to reduce the uncomfortable appearance associated with the improvement in image quality for each region. For this reason, when the edge of the object is located in the vicinity of the frame of the region (for example, when the edge crosses the region), it is not possible to accurately relieve the uncomfortable appearance due to the enhancement of the edge portion of the object. .

本発明は、上述した事情を考慮してなされたもので、物体のエッジを考慮して領域別に高画像化を行うことができる情報処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances, and an object of the present invention is to provide an information processing apparatus, an image processing method, and an image processing program capable of performing high image enhancement for each region in consideration of an edge of an object. And

本発明に係る情報処理装置は、上述した課題を解決するために、フレーム中において特に高画像化すべき領域の情報を取得する領域情報取得手段と、前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とする最終注目領域決定手段と、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するエッジ判定手段と、前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定する緩衝領域設定手段と、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施す高画像化処理手段と、を備えたことを特徴とするものである。   In order to solve the above-described problem, the information processing apparatus according to the present invention actually includes a region information acquisition unit that acquires information on a region to be highly imaged in a frame, and a region that is to be highly imaged. Final attention area determination means as a first area to be imaged, and edge determination for determining whether there is an end of an object drawn in the frame in the vicinity of the inside of the frame of the first area And when there is an end portion of the object in the vicinity of the inside of the frame portion of the first region, a region within a predetermined distance from the frame portion outside the frame portion of the first region is defined as the second region. A buffer area setting means for setting, and applying high image processing at a first intensity to each pixel belonging to the first area, and for each pixel belonging to the second area from the first intensity Apply high image processing at the second strength which is inferior, High image processing means for performing high image processing at a third intensity that is inferior to the second intensity with respect to a third area that does not belong to any of the first area and the second area; It is characterized by comprising.

また、本発明に係る情報処理装置は、上述した課題を解決するために、フレーム中において特に高画像化すべき対象物の種別の情報を取得する選択対象物種別取得手段と、前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得する対象物位置取得手段と、前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とする最終注目領域決定手段と、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するエッジ判定手段と、前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定する緩衝領域設定手段と、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施す高画像化処理手段と、を備えたことを特徴とするものである。   In addition, in order to solve the above-described problem, the information processing apparatus according to the present invention includes a selection target type acquisition unit that acquires information on a type of a target to be particularly imaged in a frame, and the above-described information in the frame. Based on the object position acquisition means for acquiring position information including the outline position of the object belonging to the type, and the position information of the object belonging to the type, within the required distance from the outline of the object belonging to the type The final attention area determination means that sets the area as the first area that should be particularly high in image, and the edge of the object drawn in the frame is located near the inside of the frame of the first area. An edge determination means for determining whether or not there is an end of the object in the vicinity of the inside of the frame portion of the first region, and a region within a predetermined distance from the frame portion outside the frame portion of the first region With the second region A buffer area setting means for setting, and applying high image processing at a first intensity to each pixel belonging to the first area, and applying the first intensity to each pixel belonging to the second area A third image that is inferior to the second intensity with respect to a third area that does not belong to any of the first area and the second area is subjected to high image processing at a second intensity that is inferior. And high image processing means for performing high image processing at high intensity.

一方、本発明に係る画像処理方法は、上述した課題を解決するために、フレーム中において特に高画像化すべき領域の情報を取得するステップと、前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とするステップと、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、を有することを特徴とする方法である。   On the other hand, in order to solve the above-described problem, the image processing method according to the present invention obtains information on a region that should be particularly high in the frame, and the region that should be particularly high is actually high. A first region to be imaged, a step of determining whether there is an end portion of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region, and the first region A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the region; Each pixel belonging to one region is subjected to high image processing at a first intensity, and each pixel belonging to the second region is subjected to high image processing at a second intensity inferior to the first intensity. And applying the first region and the second region A method characterized in that it comprises the steps of: applying a high image processing in a third intensity less than the second strength to the third region that does not belong to any region of the band.

また、本発明に係る画像処理方法は、上述した課題を解決するために、フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とするステップと、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、を有することを特徴とする方法である。   In addition, in order to solve the above-described problem, the image processing method according to the present invention obtains information on the type of an object to be particularly imaged in a frame, and an object belonging to the type in the frame. Acquiring position information including the contour position of the object, and, based on the information on the position of the object belonging to the type, the area within the required distance from the contour of the object belonging to the type A first region to be performed, a step of determining whether or not there is an end of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region, When there is an end of the object in the vicinity of the inside of the frame portion, a step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as the second region; Belonging to an area High image processing at a first intensity for each pixel, and high image processing at a second intensity inferior to the first intensity for each pixel belonging to the second region, Applying a high image processing to a third region that does not belong to any of the first region and the second region at a third intensity that is inferior to the second intensity. It is a characteristic method.

他方、本発明に係る画像処理プログラムは、上述した課題を解決するために、コンピュータに、フレーム中において特に高画像化すべき領域の情報を取得するステップと、前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とするステップと、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、前記実際に特に高画像化を行うべき領域の枠部内側近傍に前記物体の端部がある場合に、最終注目領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、を実行させるためのプログラムである。   On the other hand, in order to solve the above-described problem, the image processing program according to the present invention actually obtains a step of acquiring information on a region to be highly imaged in a frame and a region to be highly imaged in a frame. A first region to be subjected to a particularly high image quality, a step of determining whether or not there is an end of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region, When there is an end of the object in the vicinity of the inside of the frame portion of the region where the image should be increased in particular, the region within the required distance from the frame portion outside the frame portion of the final attention region is set as the second region A setting step; applying a high-image-processing process with a first intensity to each pixel belonging to the first area; and a second inferior to the first intensity with respect to each pixel belonging to the second area High image quality with high intensity Performing a high image processing with a third intensity that is inferior to the second intensity with respect to a third area that does not belong to any of the first area and the second area; , Is a program for executing.

また、本発明に係る画像処理プログラムは、上述した課題を解決するために、コンピュータに、フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とするステップと、前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、を実行させるためのプログラムである。   In addition, in order to solve the above-described problem, the image processing program according to the present invention acquires, in a computer, information on the type of an object to be imaged particularly in a frame, and the type in the frame. A step of acquiring position information including a contour position of the target object, and based on the position information of the target object belonging to the type, an area within a required distance from the contour of the target object belonging to the type is actually A step of setting a first region to be image-enhanced, a step of determining whether there is an end of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region, and the first A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end of the object is in the vicinity of the frame portion inside the region of Each pixel belonging to the first region is subjected to high image processing at a first intensity, and each pixel belonging to the second region is high at a second intensity that is inferior to the first intensity. An imaging process is performed, and a high imaging process is performed at a third intensity that is inferior to the second intensity with respect to a third area that does not belong to any of the first area and the second area Is a program for executing steps.

本発明に係る情報処理装置、画像形成方法および画像形成プログラムによれば、物体のエッジを考慮して領域別に高画像化を行うことができる。   According to the information processing apparatus, the image forming method, and the image forming program according to the present invention, it is possible to increase the image for each region in consideration of the edge of the object.

本発明に係る情報処理装置、画像処理方法および画像処理プログラムの実施の形態について、添付図面を参照して説明する。   Embodiments of an information processing apparatus, an image processing method, and an image processing program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る情報処理装置10の一実施形態を示す概略的な全体構成図である。   FIG. 1 is a schematic overall configuration diagram showing an embodiment of an information processing apparatus 10 according to the present invention.

なお、本実施形態では、情報処理装置10として、HDD/DVDレコーダや、テレビチューナを備えたパソコンなどの、映像や音声からなるデータを記録、再生する記録再生装置を用いる場合の一例について示す。   In the present embodiment, an example in which a recording / reproducing apparatus that records and reproduces data including video and audio, such as an HDD / DVD recorder or a personal computer equipped with a TV tuner, is used as the information processing apparatus 10.

情報処理装置10は、CPU11、RAM12、ROM13、ネットワーク接続部14、選択対象物記憶部15、領域設定記憶部16、EPGデータ記憶部17、録画ファイル記憶部18およびインターフェイス部20を有する。   The information processing apparatus 10 includes a CPU 11, a RAM 12, a ROM 13, a network connection unit 14, a selection target storage unit 15, an area setting storage unit 16, an EPG data storage unit 17, a recording file storage unit 18, and an interface unit 20.

CPU11は、ROM13内に記憶されたプログラムにしたがって、情報処理装置10の処理動作を制御する。CPU11は、ROM13内に記憶された画像処理プログラムおよびプログラムの実行のために必要なデータを、RAM12へロードし、画像処理プログラムに従って、高画像化処理を行う対象となる録画ファイルについて、物体のエッジ部分(端部、輪郭)を考慮して領域別に高画像化を行う処理を実行する。   The CPU 11 controls the processing operation of the information processing apparatus 10 according to a program stored in the ROM 13. The CPU 11 loads the image processing program stored in the ROM 13 and data necessary for executing the program into the RAM 12, and in accordance with the image processing program, the object edge of the recording file to be subjected to the high image processing is loaded. Considering the part (edge, contour), processing is performed to increase the image for each region.

RAM12は、CPU11が実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。   The RAM 12 provides a work area for temporarily storing programs executed by the CPU 11 and data.

ROM13は、情報処理装置10の起動プログラム、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The ROM 13 stores a startup program for the information processing apparatus 10, an image processing program, and various data necessary for executing these programs.

なお、ROM13は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPU11により読み取り可能な記録媒体を含んだ構成を有し、ROM13内のプログラムおよびデータの一部または全部は電子ネットワークを介してダウンロードされるように構成してもよい。   The ROM 13 has a configuration including a recording medium readable by the CPU 11 such as a magnetic or optical recording medium or a semiconductor memory, and a part or all of the programs and data in the ROM 13 are transmitted via an electronic network. It may be configured to be downloaded.

ネットワーク接続部14は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部14は、この各種プロトコルにしたがって情報処理装置10と記録再生装置とEPGサーバデータベース30とを接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   The network connection unit 14 implements various information communication protocols according to the network form. The network connection unit 14 connects the information processing apparatus 10, the recording / reproducing apparatus, and the EPG server database 30 according to these various protocols. For this connection, an electrical connection via an electronic network can be applied. Here, the electronic network means an entire information communication network using telecommunications technology. In addition to a LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, and a satellite communication network. Etc.

図3は、選択対象物記憶部15に記憶される、カテゴリに関連付けられた選択対象物種別を示す説明図である。   FIG. 3 is an explanatory diagram showing the selection object types associated with the categories stored in the selection object storage unit 15.

選択対象物記憶部15は、あらかじめ、ドラマや歌番組などのカテゴリに関連付けて、特に高画像化すべき対象物の種別(顔、テロップ(歌詞等)など)(以下、注目対象物種別という)の情報を記憶しておく。   The selected object storage unit 15 is associated with categories such as dramas and song programs in advance for the types of objects (faces, telops (lyrics, etc.)) to be particularly high-imaged (hereinafter referred to as “target object types”). Remember the information.

また、この各カテゴリに関連付けられた注目対象物種別の情報は、各カテゴリの対象物種別の選択画面を、画像処理プログラムに従ってCPU11により表示装置22に表示させ、この選択画面にもとづいてユーザにより入力装置23を介して指示を受けて、選択対象物記憶部15に格納するようにしてもよい。   In addition, the target object type information associated with each category is displayed on the display device 22 by the CPU 11 according to the image processing program on the target type selection screen of each category, and input by the user based on this selection screen. An instruction may be received via the device 23 and stored in the selection target storage unit 15.

領域設定記憶部16は、あらかじめ、特に高画像化すべき領域(以下、注目領域という)の情報を記憶しておく。この注目領域は、ユーザにより入力装置23を介して指示を受けた領域としてもよい。また、領域設定記憶部16は、あらかじめ、注目領域にもとづく高画像化を実行するか否かの情報を記憶しておく。   The region setting storage unit 16 stores in advance information on a region that should be particularly high (hereinafter referred to as a region of interest). This attention area may be an area for which an instruction is received by the user via the input device 23. In addition, the area setting storage unit 16 stores in advance information as to whether or not to perform high image formation based on the attention area.

EPGデータは、一般に、放送される番組の、カテゴリ(ジャンル名)、放送開始日時および終了日時、番組名、番組内容および出演者名などの情報を内容とする。記録再生装置は、このEPGデータにもとづき、インターフェイス部20を介して表示装置22にEPG(電子番組表)を表示可能に構成されている。   The EPG data generally includes information such as a category (genre name), broadcast start date / time and end date / time, program name, program content, and performer name of the program to be broadcast. The recording / reproducing apparatus is configured to display an EPG (electronic program guide) on the display device 22 via the interface unit 20 based on the EPG data.

EPGデータ記憶部17は、放送局がテレビ放送信号にEPGデータを多重して送信している場合、インターフェイス部20を介してチューナ21が受信したEPGデータを格納する。また、EPGデータがインターネット配信されている場合は、ネットワーク接続部14を介してEPGサーバデータベース30から取得したEPGデータを格納する。   The EPG data storage unit 17 stores the EPG data received by the tuner 21 via the interface unit 20 when the broadcast station multiplexes and transmits the EPG data to the television broadcast signal. When the EPG data is distributed over the Internet, the EPG data acquired from the EPG server database 30 via the network connection unit 14 is stored.

録画ファイル記憶部18は、インターフェイス部20を介して入力されるチューナ21の受信した放送された番組の映像データなどを、必要に応じて録画ファイルとして格納する。   The recorded file storage unit 18 stores video data of a broadcasted program received by the tuner 21 input via the interface unit 20 as a recorded file as necessary.

インターフェイス部20は、放送される番組の映像データおよびEPGデータなどを受信し記録再生装置に与えるチューナ21と、チューナ21の受信した映像データおよびEPGデータや記録再生装置から出力される映像データおよびEPGデータを表示するCRTやLCDなどの表示装置22と、ユーザの意思を記録再生装置に伝える機能を有するリモコンなどの入力装置23と接続される。表示装置22は、たとえば液晶ディスプレイやCRTディスプレイなどの一般的な表示出力装置により構成される。   The interface unit 20 receives a video data, EPG data, and the like of a broadcasted program and applies the data to the recording / reproducing device. The video data and EPG data received by the tuner 21, the video data output from the recording / reproducing device, and the EPG It is connected to a display device 22 such as a CRT or LCD for displaying data and an input device 23 such as a remote controller having a function of transmitting the user's intention to the recording / reproducing device. The display device 22 is configured by a general display output device such as a liquid crystal display or a CRT display.

EPGサーバデータベース30は、EPGサーバがインターネット配信するEPGデータを保存している。   The EPG server database 30 stores EPG data distributed by the EPG server over the Internet.

図2は、図1に示すCPU11による機能実現部の構成例を示す概略的なブロック図である。なお、この機能実現部は、CPU11を用いることなく回路などのハードウエアロジックによって構成してもよい。   FIG. 2 is a schematic block diagram showing a configuration example of a function realization unit by the CPU 11 shown in FIG. In addition, this function realization part may be comprised by hardware logics, such as a circuit, without using CPU11.

CPU11は、画像処理プログラムによって、少なくとも選択対象物情報取得部11a、選択対象物種別判定部11b、対象物位置取得部11c、領域指定判定部11d、領域情報取得部11e、最終注目領域決定部11f、強度設定部11g、エッジ判定部11h、緩衝領域設定部11iおよび高画像化処理部11jとして機能する。この各部11a〜11jは、RAM12の所要のワークエリアを、データの一時的な格納場所として利用する。   The CPU 11 executes at least a selection object information acquisition unit 11a, a selection object type determination unit 11b, an object position acquisition unit 11c, an area designation determination unit 11d, an area information acquisition unit 11e, and a final attention area determination unit 11f according to an image processing program. , Function as an intensity setting unit 11g, an edge determination unit 11h, a buffer region setting unit 11i, and a high image processing unit 11j. Each of the units 11a to 11j uses a required work area of the RAM 12 as a temporary storage location for data.

次に、CPU11の各部11a〜11jについて説明する。   Next, each part 11a-11j of CPU11 is demonstrated.

選択対象物情報取得部11aは、選択対象物記憶部15から特に高画像化すべき対象物種別(注目対象物種別)の情報を取得し、この注目対象物種別の情報を選択対象物種別判定部11bに与える。   The selection target information acquisition unit 11a acquires information on a target type (target target type) that should be particularly high-imaged from the selection target storage unit 15, and uses this target target type information as a selection target type determination unit. 11b.

選択対象物種別判定部11bは、注目対象物種別として、顔が選択されているかどうか、およびテロップが選択されているかどうかをそれぞれ判定する。   The selection target type determination unit 11b determines whether a face is selected as a target target type and whether a telop is selected.

対象物位置取得部11cは、注目対象物種別ごとに、対象物の位置情報を取得し、この位置情報をRAM12の所要のワークエリアに格納する。たとえば注目対象物種別が顔である場合、対象物位置取得部11cは、高画像化処理を行う対象となる録画ファイルを構成する各フレーム中の顔の位置情報(少なくとも顔の輪郭の位置情報を含む)を取得する。   The object position acquisition unit 11c acquires the position information of the object for each target object type, and stores this position information in a required work area of the RAM 12. For example, when the target object type is a face, the object position acquisition unit 11c includes face position information (at least position information of a face outline) in each frame constituting a recording file to be subjected to high image processing. Including).

なお、対象物のフレーム中の位置を特定する技術は、従来各種のものが知られており、これらのうち任意のものを適用することが可能である。たとえば、対象物が顔の場合は、対象物位置取得部11cは、従来の顔認識技術を適用することにより、フレーム中の顔の位置の情報を取得することができる。また、対象物がテロップの場合は、対象物位置取得部11cは、従来のテロップ認識技術を適用することにより、フレーム中のテロップの位置を取得することができる。   Various techniques for identifying the position of the object in the frame are known, and any of these techniques can be applied. For example, when the object is a face, the object position acquisition unit 11c can acquire information on the position of the face in the frame by applying a conventional face recognition technique. When the object is a telop, the object position acquisition unit 11c can acquire the position of the telop in the frame by applying a conventional telop recognition technique.

なお、本実施形態においては、注目対象種別として顔およびテロップを選択可能な場合の例について示したが、フレーム中の位置情報を取得可能な対象物であれば、顔およびテロップ以外の対象物であっても、注目対象物種別とすることができる。   In this embodiment, an example in which a face and a telop can be selected as the target object type has been described. However, any object other than a face and a telop can be used as long as the object can acquire position information in a frame. Even if it exists, it can be set as an attention object classification.

領域指定判定部11dは、領域設定記憶部16を検索し、注目領域にもとづく高画像化を実行するかどうかを判定する。   The region designation determination unit 11d searches the region setting storage unit 16 to determine whether or not to perform high image formation based on the region of interest.

領域情報取得部11eは、領域設定記憶部16から注目領域の情報を取得し、この注目領域の情報をRAM12の所要のワークエリアに格納する。   The area information acquisition unit 11 e acquires the information on the attention area from the area setting storage unit 16 and stores the information on the attention area in a required work area of the RAM 12.

最終注目領域決定部11fは、注目対象物種別に属する対象物の位置の情報および注目領域の情報にもとづき、実際に特に高画像化を行うべき領域(以下、最終注目領域という)を決定する。注目対象物種別のみにもとづく高画像化を実行する場合は、最終注目領域決定部11fは、注目対象物の輪郭から所要の距離内の領域を最終注目領域とする。   The final attention area determination unit 11f determines an area (hereinafter, referred to as a final attention area) that is to be actually increased in image quality based on information on the position of the object belonging to the attention object type and information on the attention area. In the case of executing high image formation based only on the target object type, the final attention area determination unit 11f sets an area within a predetermined distance from the outline of the attention object as the final attention area.

強度設定部11gは、フレーム中の各領域に対して、高画像化処理の強度を割り当てる。本実施形態では、高画像化処理の強度を0、1および2の3段階とする場合の一例について説明する。強度設定部11gは、最終注目領域には強度2を割り当てる。また、最終注目領域以外の領域には強度0を割り当てる。緩衝領域がある場合には、緩衝領域に強度1を割り当てる。なお、本実施形態において、強度が高い高画像化処理を施された領域の方がより高画像であるものとする。   The intensity setting unit 11g assigns the intensity of high image processing to each area in the frame. In the present embodiment, an example in which the intensity of the high image processing is set to three levels of 0, 1 and 2 will be described. The intensity setting unit 11g assigns intensity 2 to the final attention area. In addition, an intensity of 0 is assigned to areas other than the final attention area. When there is a buffer area, strength 1 is assigned to the buffer area. In the present embodiment, it is assumed that the region subjected to the high image processing with high intensity is a higher image.

エッジ判定部11hは、最終注目領域の枠部内側近傍に、物体のエッジ部分(端部、輪郭)があるかどうか判定する。ここで、最終注目領域の枠部内側近傍に物体のエッジがある場合とは、物体のエッジ部分が最終注目領域の枠部を横断する場合も含むものとする。   The edge determination unit 11h determines whether or not there is an edge portion (end portion or contour) of the object near the inside of the frame portion of the final attention area. Here, the case where the edge of the object is in the vicinity of the inside of the frame portion of the final attention area includes the case where the edge portion of the object crosses the frame portion of the final attention area.

緩衝領域設定部11iは、最終注目領域の枠部外側におけるこの枠部から所要の距離内の領域を緩衝領域として設定する。   The buffer region setting unit 11i sets a region within a predetermined distance from the frame portion outside the frame portion of the final target region as a buffer region.

高画像化処理部11jは、各領域に属する画素について、強度設定部11gにより各領域に割り当てられた強度に応じて、高画像化処理を行う。たとえば、強度2が割り当てられた領域(最終注目領域)については、超解像度などの、鮮鋭度は良いが処理負荷が高く処理時間を要する高画像化処理を施し、強度0が割り当てられた領域については、三次補間(Cubic Convolution)などの、より処理負荷の低い高画像化処理を施すようにする。   The high image processing unit 11j performs high image processing on the pixels belonging to each region according to the intensity assigned to each region by the intensity setting unit 11g. For example, for an area to which intensity 2 is assigned (final attention area), a high-resolution processing such as super-resolution, which has a high sharpness but a high processing load and requires processing time, is applied to an area to which intensity 0 is assigned. In such a case, an image processing with a lower processing load such as cubic interpolation is performed.

次に、本実施形態に係る情報処理装置10の動作の一例について説明する。   Next, an example of the operation of the information processing apparatus 10 according to the present embodiment will be described.

図4は、図1に示す情報処理装置10のCPU11により、高画像化処理を行う対象となる録画ファイルについて、物体のエッジを考慮して領域別に高画像化を行う際の手順を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 4 is a flowchart showing a procedure when the CPU 11 of the information processing apparatus 10 shown in FIG. 1 performs high image by region in consideration of the edge of an object for a recording file to be subjected to high image processing. is there. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

なお、図4には、高画像化処理を行う対象となる録画ファイルを構成する複数のフレームの1つについて、物体のエッジを考慮して領域別に高画像化を行う際の手順を示した。図4に示した手順を、録画ファイルを構成する全てのフレームについて繰り返すことにより、録画ファイル全体を高画像化することができる。   Note that FIG. 4 shows a procedure for performing image enhancement for each region in consideration of the edge of an object for one of a plurality of frames constituting a recording file to be subjected to image enhancement processing. By repeating the procedure shown in FIG. 4 for all the frames constituting the recording file, the entire recording file can be made high-image.

ステップS1において、選択対象物情報取得部11aは、高画像化処理を行う対象となる録画ファイルのカテゴリをEPGデータ記憶部17から取得し、選択対象物記憶部15からこのカテゴリに関連付けられた注目対象物種別の情報を取得する。この結果、この録画ファイルについての注目対象物種別が特定される。   In step S1, the selection target information acquisition unit 11a acquires the category of the recording file to be subjected to the high image processing from the EPG data storage unit 17, and the attention associated with this category from the selection target storage unit 15 Get information about the object type. As a result, the target object type for this recorded file is specified.

次に、ステップS2において、選択対象物種別判定部11bは、注目対象物種別として、顔が選択されているかどうかを判定する。顔が選択されている場合は、ステップS3に進む。一方、顔が選択されていない場合は、ステップS4に進む。   Next, in step S2, the selection target type determination unit 11b determines whether a face is selected as the target target type. If a face has been selected, the process proceeds to step S3. On the other hand, if no face is selected, the process proceeds to step S4.

次に、ステップS3において、対象物位置取得部11cは、高画像化処理を行うフレーム中の顔の位置情報を取得する。   Next, in step S <b> 3, the object position acquisition unit 11 c acquires position information of the face in the frame on which the high image processing is performed.

次に、ステップS4において、選択対象物種別判定部11bは、注目対象物種別として、テロップが選択されているかどうかを判定する。テロップが選択されている場合は、ステップS5に進む。一方、顔が選択されていない場合は、ステップS6に進む。   Next, in step S4, the selection target type determination unit 11b determines whether a telop is selected as the target target type. If a telop is selected, the process proceeds to step S5. On the other hand, if no face is selected, the process proceeds to step S6.

次に、ステップS5において、対象物位置取得部11cは、高画像化処理を行うフレーム中のテロップの位置情報を取得する。   Next, in step S5, the object position acquisition unit 11c acquires the position information of the telop in the frame on which the high image processing is performed.

次に、ステップS6において、領域指定判定部11dは、領域設定記憶部16を検索し、注目領域にもとづく高画像化を実行するかどうかを判定する。注目領域にもとづく高画像化を実行する場合はステップS7に進む。一方、注目領域にもとづく高画像化を実行しない場合は、ステップS8に進む。   Next, in step S6, the region designation determination unit 11d searches the region setting storage unit 16 to determine whether or not to perform high image formation based on the region of interest. In the case of executing the image enhancement based on the attention area, the process proceeds to step S7. On the other hand, when the high image formation based on the attention area is not executed, the process proceeds to step S8.

以上の手順により、注目対象物種別および注目領域にもとづく高画像化を実行するかどうかを判定することができる。注目対象物種別および注目領域のいずれも利用しない場合は、フレームの全領域について高画像化を行うことになる。   By the above procedure, it is possible to determine whether or not to perform high image formation based on the target object type and the target area. When neither the target object type nor the attention area is used, the whole area of the frame is increased in image.

次に、ステップS7において、領域情報取得部11eは、領域設定記憶部16から注目領域の情報を取得する。   Next, in step S <b> 7, the region information acquisition unit 11 e acquires information on the attention region from the region setting storage unit 16.

次に、ステップS8において、最終注目領域決定部11fは、注目対象物種別に属する対象物の位置の情報および注目領域の情報にもとづき、実際に特に高画像化すべき領域(最終注目領域)を決定する。   Next, in step S8, the final attention area determination unit 11f determines an area (final attention area) that is to be a particularly high image based on information on the position of the object belonging to the target object type and information on the attention area. To do.

次に、ステップS9において、強度設定部11gは、最終注目領域に対し、高画像化処理強度として強度2を割り当てる。   Next, in step S9, the intensity setting unit 11g assigns intensity 2 as the high image processing intensity to the final attention area.

次に、ステップS10において、エッジ判定部11hは、最終注目領域の枠部内側近傍に、物体のエッジがあるかどうか判定する。最終注目領域の枠部内側近傍に物体のエッジがある場合は、ステップS11に進む。ない場合は、ステップS13に進む。   Next, in step S10, the edge determination unit 11h determines whether or not there is an object edge near the inside of the frame portion of the final region of interest. If there is an edge of the object in the vicinity of the inner side of the final attention area, the process proceeds to step S11. If not, the process proceeds to step S13.

次に、ステップS11において、緩衝領域設定部11iは、エッジ判定部11hから最終注目領域の枠部内側近傍に物体のエッジが存在するとの判定結果を受け、最終注目領域の枠部外側におけるこの枠部から所要の距離内の領域を緩衝領域として設定する。   Next, in step S11, the buffer area setting unit 11i receives a determination result that the edge of the object exists in the vicinity of the inner frame part of the final attention area from the edge determination unit 11h, and this frame outside the frame part of the final attention area. An area within a required distance from the section is set as a buffer area.

次に、ステップS12において、強度設定部11gは、緩衝領域に対し、高画像化処理強度として強度1を割り当てる。   Next, in step S12, the intensity setting unit 11g assigns intensity 1 as the high image processing intensity to the buffer area.

次に、ステップS13において、強度設定部11gは、最終注目領域および緩衝領域以外の領域に対し、高画像化処理強度として強度0を割り当てる。   Next, in step S13, the intensity setting unit 11g assigns intensity 0 as the high image processing intensity to the area other than the final target area and the buffer area.

ここで、物体のエッジ部分と緩衝領域との関係について簡単に説明する。   Here, the relationship between the edge portion of the object and the buffer region will be briefly described.

図5は、注目領域のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の一例を示す説明図である。   FIG. 5 is an explanatory diagram showing an example of the final attention area in the frame when the image is increased based only on the attention area.

図5に示す例では、注目対象物種別の指定がないため、領域情報取得部11eが取得した注目領域が最終注目領域となる。破線で示した最終注目領域内部(強度2)に対して、最終注目領域外部(強度0)に比べより強度の高い高画像化処理が行われる。   In the example shown in FIG. 5, since the attention object type is not specified, the attention area acquired by the area information acquisition unit 11e is the final attention area. Higher-intensity image processing is performed on the inside of the final region of interest (intensity 2) indicated by the broken line, compared to the outside of the final region of interest (intensity 0).

高画像化処理を施すと、フレーム中の物体のエッジ部分(輪郭)の周辺が、数画素に渡る高画像化処理の影響を受けて、強調されて膨張したように見えてしまう場合がある。このため、たとえば、ある1つの物体のエッジ部分が高画像化処理強度の異なる領域にまたがっている場合、ユーザは、エッジ部分が不連続となってしまっている印象を受け、不自然だと感じるおそれがある。   When the high image processing is performed, the periphery of the edge portion (contour) of the object in the frame may appear to be enhanced and expanded under the influence of the high image processing over several pixels. For this reason, for example, when the edge portion of a certain object extends over regions having different high image processing strength, the user receives an impression that the edge portion is discontinuous and feels unnatural. There is a fear.

この画像中の物体は、注目対象物に限られない。たとえば注目対象物種別が顔であり、顔部分が同一の高画像化処理強度の領域内にある場合でも、画像中に自転車や木などの物体があり、これらの物体が高画像化処理強度の異なる領域にまたがっている場合には、これらの物体のエッジ部分について不連続感が生じるおそれがある。   The object in this image is not limited to the target object. For example, even if the target object type is a face and the face part is in the same high image processing strength area, there are objects such as bicycles and trees in the image, and these objects have high image processing strength. In the case of straddling different areas, there is a risk that discontinuity will occur in the edge portions of these objects.

ユーザにエッジ部分の不連続感を与えないためには、1つの物体のエッジ部分は、同一の高画像化処理強度の領域内に存在することが好ましい。このエッジ部分が、領域の枠部内側近傍に存在しなければ、より好ましい。   In order not to give the user a discontinuity of the edge portion, it is preferable that the edge portion of one object exists in the region of the same high image processing intensity. It is more preferable if this edge portion does not exist in the vicinity of the inside of the frame portion of the region.

しかし、あらかじめ領域設定記憶部16に記憶されている注目領域にもとづいて高画像化処理を行うと、1つの物体のエッジ部分が領域の枠部内側近傍に存在する場合(高画像化処理強度の異なる領域にまたがっている場合など)がある。これらの場合には、最終注目領域から外側にむかって、徐々に高画像化処理強度を下げるようにするとよい。徐々に高画像化処理強度が下がることにより、ユーザが受けるエッジ部分の不連続感を緩和することができる。本実施形態では、最終注目領域の枠部外側における枠部から所要の距離内の領域(緩衝領域)の高画像化処理強度を強度1とし、緩衝領域外の高画像化処理強度を強度0とする場合の例について示す。   However, when the image enhancement process is performed based on the attention area stored in advance in the area setting storage unit 16, the edge portion of one object exists in the vicinity of the inside of the frame of the area (the intensity of the image enhancement process). Etc.). In these cases, it is preferable to gradually decrease the high image processing intensity from the final attention area to the outside. By gradually decreasing the image processing intensity, it is possible to reduce the discontinuity of the edge portion that the user receives. In the present embodiment, the high image processing strength of the region (buffer region) within a required distance from the frame portion outside the frame portion of the final target region is strength 1, and the high image processing strength outside the buffer region is strength 0. An example of this is shown.

図5において、フレーム中の物体は、飛行機と山のみであり、いずれも同一の高画像化処理強度の領域内に存在し、かつ各物体のエッジ部分は領域の枠部内側近傍に存在しない。このため、最終注目領域の内外で高画像化処理強度が強度2から強度0へと急激に変化するものの、ユーザに物体の不連続性を感じさせるおそれはなく、エッジの存在にもとづく緩衝領域を設ける必要はない。もちろん、この場合にも、緩衝領域を設けても構わない。   In FIG. 5, the objects in the frame are only airplanes and mountains, both of which are present in the region of the same high image processing intensity, and the edge portion of each object is not present near the inside of the frame of the region. For this reason, although the high image processing intensity changes rapidly from intensity 2 to intensity 0 inside and outside the final attention area, there is no possibility of causing the user to feel the discontinuity of the object, and a buffer area based on the presence of the edge is provided. There is no need to provide it. Of course, a buffer region may be provided also in this case.

図6は、注目領域のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の他の例を示す説明図である。   FIG. 6 is an explanatory diagram showing another example of the final attention area in the frame when the image is increased based only on the attention area.

図6において、フレーム中の物体である人物は、最終注目領域の枠をまたがって存在している。このため、エッジの存在にもとづく緩衝領域を設ける必要がある。   In FIG. 6, the person who is the object in the frame exists across the frame of the final attention area. For this reason, it is necessary to provide a buffer area based on the presence of an edge.

図7は、図6に示したフレームについて緩衝領域を設定した場合の一例について示す説明図である。   FIG. 7 is an explanatory diagram showing an example when a buffer area is set for the frame shown in FIG.

図7に示すように、一点鎖線と破線で囲まれた領域として示した緩衝領域を設けることにより、フレーム中の物体である人物のエッジ部分の画質の変化は、緩衝領域を設けない場合に比べ、より滑らかなものにすることができる。   As shown in FIG. 7, by providing a buffer area shown as an area surrounded by a one-dot chain line and a broken line, the change in image quality of the edge portion of a person, which is an object in the frame, is compared with the case where no buffer area is provided. Can be smoother.

図8は、注目対象物種別(顔)のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の一例を示す説明図である。   FIG. 8 is an explanatory diagram illustrating an example of a final attention area in a frame when performing high-resolution based only on the target object type (face).

図8に示す例では、注目領域の指定がないため、顔の輪郭から所要の距離内の領域が最終注目領域となる。図8においても、フレーム中の物体である人物は、最終注目領域の枠をまたがって存在しているため、一点鎖線と破線で囲まれた領域として示した緩衝領域を設ける。   In the example shown in FIG. 8, since the attention area is not specified, an area within a predetermined distance from the face contour is the final attention area. Also in FIG. 8, since the person who is an object in the frame exists across the frame of the final attention area, a buffer area shown as an area surrounded by a one-dot chain line and a broken line is provided.

図9は、注目対象物種別(顔)に属する対象物の位置の情報および注目領域の情報にもとづき高画像化を行う際の、領域設定手順について説明するための図である。   FIG. 9 is a diagram for explaining a region setting procedure when performing high-image formation based on information on the position of an object belonging to the target object type (face) and information on the target area.

また、図10は、図9に示したフレームにおける領域設定の一例を示す説明図である。   FIG. 10 is an explanatory diagram showing an example of area setting in the frame shown in FIG.

図9に示す例では、注目領域と、顔の輪郭から所要の距離内の領域とが、重なっている。つまり、注目領域外に顔が存在する。しかし、顔にも強度2の高画像化処理を行う必要がある。   In the example illustrated in FIG. 9, the attention area and the area within a predetermined distance from the face outline overlap. That is, the face exists outside the attention area. However, it is necessary to perform high-intensity image processing with intensity 2 on the face.

この場合、最終注目領域決定部11fは、図10に示すように、注目対象物種別に属する対象物の位置の情報および注目領域の情報にもとづいて、注目対象物の輪郭から所要の距離内の領域と、領域情報取得部11eが取得した注目領域とからなる領域を、最終注目領域として決定する。また、人物の下半身が最終注目領域の枠部を横断しているため、一点鎖線と破線で囲まれた領域として示した緩衝領域を設ける。   In this case, as shown in FIG. 10, the final attention area determination unit 11f is within a predetermined distance from the outline of the target object based on the information on the position of the target object belonging to the target object type and the information on the target area. An area composed of the area and the attention area acquired by the area information acquisition unit 11e is determined as the final attention area. Further, since the lower body of the person crosses the frame of the final attention area, a buffer area shown as an area surrounded by a dashed line and a broken line is provided.

図5〜図10を用いて説明したように、物体のエッジ部分が最終注目領域の枠部内側近傍に存在する場合(最終注目領域の枠部を横断している場合など)には、緩衝領域を設けるようにするとよい。   As described with reference to FIGS. 5 to 10, when the edge portion of the object exists in the vicinity of the inside of the frame portion of the final attention area (for example, when crossing the frame portion of the final attention area), the buffer area It is good to provide.

最後に、ステップS14において、高画像化処理部11jは、各領域に属する画素について、強度設定部11gにより割り当てられた強度に応じて、高画像化処理を行う。   Finally, in step S14, the high image processing unit 11j performs high image processing on the pixels belonging to each region according to the intensity assigned by the intensity setting unit 11g.

以上の手順を、録画ファイルを構成する全てのフレームについて繰り返すことにより、高画像化処理を行う対象となる録画ファイルについて、物体のエッジを考慮して領域別に高画像化を行うことができる。   By repeating the above procedure for all the frames constituting the recording file, it is possible to increase the image for each region in consideration of the edge of the object for the recording file to be subjected to the high image processing.

本実施形態に示す情報処理装置10は、フレームの画像に対して領域別に高画像化処理を行う際に、フレーム中に存在する物体のエッジ部分が最終注目領域の枠部内側近傍に存在するかどうかを判定する。このため、この判定結果にもとづきエッジ部分を考慮した高画像化処理を行うことができる。   When the information processing apparatus 10 according to the present embodiment performs high image processing for each image on a frame image, whether the edge portion of the object existing in the frame exists in the vicinity of the inside of the frame portion of the final target region. Determine if. For this reason, it is possible to perform high image processing in consideration of the edge portion based on the determination result.

したがって、本実施形態に係る情報処理装置10によれば、連続したエッジ部分に対して異なる高解像度化処理が行われる際に、不連続感を緩和することができる。また、エッジ部分が同一領域内に存在している場合でも、このエッジ部分が枠部内側近傍にある場合に視認されうるエッジ部分の膨張感を、緩和することができる。   Therefore, according to the information processing apparatus 10 according to the present embodiment, the discontinuity can be reduced when different resolution enhancement processing is performed on continuous edge portions. Further, even when the edge portion exists in the same region, the feeling of expansion of the edge portion that can be visually recognized when the edge portion is in the vicinity of the inside of the frame portion can be reduced.

また、本実施形態に係る情報処理装置10によれば、エッジ部分が領域の枠部内側近傍に存在しない場合にのみ、最終注目領域とこの領域以外の領域の強度差を大きく取ることが可能である。したがって、闇雲に高画像化処理強度の勾配をつける従来の技術に比べ、処理時間の無駄を省くことができる。   Further, according to the information processing apparatus 10 according to the present embodiment, it is possible to increase the intensity difference between the final attention area and the area other than this area only when the edge portion does not exist near the inside of the frame portion of the area. is there. Therefore, waste of processing time can be saved as compared with the conventional technique in which the gradient of high image processing intensity is applied to the dark clouds.

さらに、本実施形態に係る情報処理装置10は、注目対象物種別に属する対象物の位置の情報および注目領域の情報にもとづいて、最終注目領域を決定する(図10参照)。このため、ユーザが求める対象物および対象領域の両者について、無駄なく高画像化することができる。したがって、本実施形態に係る情報処理装置10は、ユーザに画質の不連続性を感じさせることなく、高速に高画像化処理を行うことが可能である。   Further, the information processing apparatus 10 according to the present embodiment determines the final attention area based on the information on the position of the object belonging to the attention object type and the information on the attention area (see FIG. 10). For this reason, it is possible to increase the image without waste for both the target object and the target area desired by the user. Therefore, the information processing apparatus 10 according to the present embodiment can perform high-image processing at high speed without causing the user to feel discontinuity in image quality.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.

たとえば、高画像化処理において、複数のフレームを必要としない方法を用いた場合、各フレームについての高画像化処理は、前後のフレームとは独立に行うことができる。この場合、動画のみならず、1枚(1フレーム)の静止画像に対しても、本発明を適用することが可能である。   For example, when a method that does not require a plurality of frames is used in the image enhancement process, the image enhancement process for each frame can be performed independently of the preceding and succeeding frames. In this case, the present invention can be applied not only to moving images but also to one (one frame) still image.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.

本発明に係る情報処理装置の一実施形態を示す概略的な全体構成図。1 is a schematic overall configuration diagram showing an embodiment of an information processing apparatus according to the present invention. 図1に示すCPUによる機能実現部の構成例を示す概略的なブロック図。FIG. 2 is a schematic block diagram illustrating a configuration example of a function realizing unit by a CPU illustrated in FIG. 1. 選択対象物記憶部に記憶される、カテゴリに関連付けられた選択対象物種別を示す説明図。Explanatory drawing which shows the selection target type linked | related with the category memorize | stored in a selection target memory | storage part. 図1に示す情報処理装置のCPUにより、高画像化処理を行う対象となる録画ファイルについて、物体のエッジを考慮して領域別に高画像化を行う際の手順を示すフローチャート。The flowchart which shows the procedure at the time of performing the high image according to area | region considering the edge of an object about the recording file used as the object which performs the high image processing by CPU of the information processing apparatus shown in FIG. 注目領域のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の一例を示す説明図。Explanatory drawing which shows an example of the last attention area | region in a flame | frame at the time of performing high-image-izing based only on attention area. 注目領域のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の他の例を示す説明図。Explanatory drawing which shows the other example of the final attention area | region in a flame | frame at the time of performing high-image-izing based only on attention area. 図6に示したフレームについて緩衝領域を設定した場合の一例について示す説明図。FIG. 7 is an explanatory diagram showing an example when a buffer area is set for the frame shown in FIG. 6. 注目対象物種別(顔)のみにもとづく高画像化を行う際の、フレーム中の最終注目領域の一例を示す説明図。Explanatory drawing which shows an example of the last attention area | region in a flame | frame at the time of performing high-image-izing based only on attention object classification (face). 注目対象物種別(顔)に属する対象物の位置の情報および注目領域の情報にもとづき高画像化を行う際の、領域設定手順について説明するための図。The figure for demonstrating the area | region setting procedure at the time of performing high-image-izing based on the information on the position of the target object which belongs to the target object type (face) and the information on the target area. 図9に示したフレームにおける領域設定の一例を示す説明図。Explanatory drawing which shows an example of the area | region setting in the flame | frame shown in FIG.

符号の説明Explanation of symbols

10 情報処理装置
11 CPU
11a 選択対象物情報取得部
11b 選択対象物種別判定部
11c 対象物位置取得部
11d 領域指定判定部
11e 領域情報取得部
11f 最終注目領域決定部
11g 強度設定部
11h エッジ判定部
11i 緩衝領域設定部
11j 高画像化処理部
12 RAM
13 ROM
14 ネットワーク接続部
15 選択対象物記憶部
16 領域設定記憶部
17 EPGデータ記憶部
18 録画ファイル記憶部
20 インターフェイス部
21 チューナ
22 表示装置
23 入力装置
30 EPGサーバデータベース
10 Information processing apparatus 11 CPU
11a Selection target information acquisition unit 11b Selection target type determination unit 11c Target position acquisition unit 11d Region designation determination unit 11e Region information acquisition unit 11f Final attention region determination unit 11g Intensity setting unit 11h Edge determination unit 11i Buffer region setting unit 11j High image processing unit 12 RAM
13 ROM
14 Network connection unit 15 Selection object storage unit 16 Area setting storage unit 17 EPG data storage unit 18 Recording file storage unit 20 Interface unit 21 Tuner 22 Display device 23 Input device 30 EPG server database

Claims (15)

フレーム中において特に高画像化すべき領域の情報を取得する領域情報取得手段と、
前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とする最終注目領域決定手段と、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するエッジ判定手段と、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定する緩衝領域設定手段と、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施す高画像化処理手段と、
を備えたことを特徴とする情報処理装置。
Area information acquisition means for acquiring information of an area that should be particularly high in the frame;
A final region of interest determination means that sets the region to be highly imaged as the first region to be actually imaged particularly high;
Edge determination means for determining whether or not there is an end of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region;
A buffer for setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. Region setting means;
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. The third region that does not belong to any one of the first region and the second region is subjected to a high image processing with a third intensity that is inferior to the second intensity. Imaging processing means;
An information processing apparatus comprising:
フレーム中において特に高画像化すべき対象物の種別の情報を取得する選択対象物種別取得手段と、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得する対象物位置取得手段と、
前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とする最終注目領域決定手段と、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するエッジ判定手段と、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定する緩衝領域設定手段と、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施す高画像化処理手段と、
を備えたことを特徴とする情報処理装置。
A selection object type acquisition means for acquiring information on the type of object to be imaged particularly in the frame;
Object position acquisition means for acquiring position information including a contour position of an object belonging to the type in the frame;
Based on the information on the position of the object belonging to the type, the final region of interest is determined as a first region in which a region within a required distance from the outline of the object belonging to the type is to be actually increased in image Means,
Edge determination means for determining whether or not there is an end of an object drawn in the frame in the vicinity of the inside of the frame portion of the first region;
A buffer for setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. Region setting means;
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. The third region that does not belong to any one of the first region and the second region is subjected to a high image processing with a third intensity that is inferior to the second intensity. Imaging processing means;
An information processing apparatus comprising:
フレーム中において特に高画像化すべき対象物の種別の情報を取得する選択対象物種別取得手段と、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得する対象物位置取得手段と、
をさらに備え、
前記最終注目領域決定手段は、
前記種別に属する対象物の位置の情報と、前記特に高画像化すべき領域の情報とにもとづいて、前記実際に特に高画像化を行うべき前記第1の領域を決定するよう構成された、
請求項1記載の情報処理装置。
A selection object type acquisition means for acquiring information on the type of object to be imaged particularly in the frame;
Object position acquisition means for acquiring position information including a contour position of an object belonging to the type in the frame;
Further comprising
The final attention area determination means includes
Based on the information on the position of the object belonging to the type and the information on the area to be imaged in particular, the first area to be actually imaged in particular is determined.
The information processing apparatus according to claim 1.
前記フレームは、前記フレームを含む複数枚のフレームにより構成される画像データの一部である、
請求項3記載の情報処理装置。
The frame is a part of image data composed of a plurality of frames including the frame.
The information processing apparatus according to claim 3.
前記特に高画像化すべき対象物の種別の情報を、カテゴリと関連付けて記憶する選択対象物記憶手段と、
少なくとも前記画像データが属する前記カテゴリの情報を含むEPGデータを記憶するEPGデータ記憶手段と、
をさらに備え、
前記選択対象物種別取得手段は、
前記EPGデータ記憶手段から取得した前記画像データが属する前記カテゴリにもとづいて、前記カテゴリに関連付けられた前記特に高画像化すべき対象物の種別の情報を前記選択対象物記憶手段から取得するよう構成された、
請求項4記載の情報処理装置。
A selection object storage means for storing the information of the type of the object to be highly imaged in association with a category;
EPG data storage means for storing EPG data including at least information on the category to which the image data belongs;
Further comprising
The selection object type acquisition means includes
Based on the category to which the image data acquired from the EPG data storage means belongs, it is configured to acquire information on the type of the object to be highly imaged associated with the category from the selection target storage means. The
The information processing apparatus according to claim 4.
フレーム中において特に高画像化すべき領域の情報を取得するステップと、
前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とするステップと、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、
を有することを特徴とする画像処理方法。
Obtaining information of a region that should be particularly high in the frame;
Making the region to be highly imaged a first region to be actually imaged particularly high;
Determining whether there is an edge of an object drawn in the frame in the vicinity of the inside of the frame of the first region;
A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. When,
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. Performing high image processing at a third intensity that is inferior to the second intensity on a third area that does not belong to any of the first area and the second area. When,
An image processing method comprising:
フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、
前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とするステップと、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、
を有することを特徴とする画像処理方法。
Obtaining information of the type of the object to be particularly imaged in the frame;
Obtaining position information including a contour position of an object belonging to the type in the frame;
Based on the information on the position of the object belonging to the type, a region within a required distance from the contour of the object belonging to the type is set as a first region that should be subjected to actual high image processing,
Determining whether there is an edge of an object drawn in the frame in the vicinity of the inside of the frame of the first region;
A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. When,
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. Performing high image processing at a third intensity that is inferior to the second intensity on a third area that does not belong to any of the first area and the second area. When,
An image processing method comprising:
フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、
をさらに備え、
前記第1の領域とするステップは、
前記種別に属する対象物の位置の情報と、前記特に高画像化すべき領域の情報とにもとづいて、前記実際に特に高画像化を行うべき前記第1の領域を決定するステップである、
請求項6記載の画像処理方法。
Obtaining information of the type of the object to be particularly imaged in the frame;
Obtaining position information including a contour position of an object belonging to the type in the frame;
Further comprising
The step of setting the first region includes
The step of determining the first region to be actually imaged particularly based on the information on the position of the object belonging to the type and the information on the region to be imaged in particular.
The image processing method according to claim 6.
前記フレームは、前記フレームを含む複数枚のフレームにより構成される画像データの一部である、
請求項8記載の画像処理方法。
The frame is a part of image data composed of a plurality of frames including the frame.
The image processing method according to claim 8.
前記特に高画像化すべき対象物の種別の情報を、カテゴリと関連付けて記憶するステップと、
少なくとも前記画像データが属する前記カテゴリの情報を含むEPGデータを記憶するステップと、
をさらに備え、
前記特に高画像化すべき対象物の種別の情報を取得するステップは、
前記画像データが属する前記カテゴリの情報を取得し、この前記カテゴリにもとづいて、前記カテゴリに関連付けられた前記特に高画像化すべき対象物の種別の情報を取得するステップである、
請求項9記載の画像処理方法。
Storing the information of the type of the object to be highly imaged in association with the category;
Storing EPG data including at least information of the category to which the image data belongs;
Further comprising
The step of acquiring the information of the type of the object to be imaged in particular,
Obtaining information on the category to which the image data belongs, and obtaining information on the type of the object to be imaged in particular associated with the category based on the category;
The image processing method according to claim 9.
コンピュータに、
フレーム中において特に高画像化すべき領域の情報を取得するステップと、
前記特に高画像化すべき領域を、実際に特に高画像化を行うべき第1の領域とするステップと、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、
を実行させるための画像処理プログラム。
On the computer,
Obtaining information of a region that should be particularly high in the frame;
Making the region to be highly imaged a first region to be actually imaged particularly high;
Determining whether there is an edge of an object drawn in the frame in the vicinity of the inside of the frame of the first region;
A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. When,
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. Performing high image processing at a third intensity that is inferior to the second intensity on a third area that does not belong to any of the first area and the second area. When,
An image processing program for executing
コンピュータに、
フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、
前記種別に属する対象物の位置の情報にもとづいて、前記種別に属する対象物の輪郭から所要の距離内の領域を、実際に特に高画像化を行うべき第1の領域とするステップと、
前記第1の領域の枠部内側近傍に、前記フレーム中に描画される物体の端部があるかどうか判定するステップと、
前記第1の領域の枠部内側近傍に前記物体の端部がある場合に、前記第1の領域の枠部外側におけるこの枠部から所要の距離内の領域を第2の領域として設定するステップと、
前記第1の領域に属する各画素に対して第1の強度で高画像化処理を施し、前記第2の領域に属する各画素に対して前記第1の強度より劣る第2の強度で高画像化処理を施し、前記第1の領域および前記第2の領域のいずれの領域にも属さない第3の領域に対して前記第2の強度より劣る第3の強度で高画像化処理を施すステップと、
を実行させるための画像処理プログラム。
On the computer,
Obtaining information of the type of the object to be particularly imaged in the frame;
Obtaining position information including a contour position of an object belonging to the type in the frame;
Based on the information on the position of the object belonging to the type, a region within a required distance from the contour of the object belonging to the type is set as a first region that should be subjected to actual high image processing,
Determining whether there is an edge of an object drawn in the frame in the vicinity of the inside of the frame of the first region;
A step of setting a region within a predetermined distance from the frame portion outside the frame portion of the first region as a second region when the end portion of the object is near the inside of the frame portion of the first region. When,
Each pixel belonging to the first area is subjected to high image processing with a first intensity, and each pixel belonging to the second area is subjected to a high image with a second intensity inferior to the first intensity. Performing high image processing at a third intensity that is inferior to the second intensity on a third area that does not belong to any of the first area and the second area. When,
An image processing program for executing
コンピュータに、さらに
フレーム中において特に高画像化すべき対象物の種別の情報を取得するステップと、
前記フレーム中における前記種別に属する対象物の輪郭位置を含む位置情報を取得するステップと、
を実行させ、
前記第1の領域とするステップは、
前記種別に属する対象物の位置の情報と、前記特に高画像化すべき領域の情報とにもとづいて、前記実際に特に高画像化を行うべき前記第1の領域を決定するステップである、
請求項11記載の画像処理プログラム。
Obtaining information on the type of the object to be imaged especially in the frame in the computer;
Obtaining position information including a contour position of an object belonging to the type in the frame;
And execute
The step of setting the first region includes
The step of determining the first region to be actually imaged particularly based on the information on the position of the object belonging to the type and the information on the region to be imaged in particular.
The image processing program according to claim 11.
前記フレームは、前記フレームを含む複数のフレームにより構成される画像データの一部である、
請求項13記載の画像処理プログラム。
The frame is a part of image data composed of a plurality of frames including the frame.
The image processing program according to claim 13.
コンピュータに、さらに
前記特に高画像化すべき対象物の種別の情報を、カテゴリと関連付けて記憶するステップと、
少なくとも前記画像データが属する前記カテゴリの情報を含むEPGデータを記憶するステップと、
を実行させ、
前記特に高画像化すべき対象物の種別の情報を取得するステップは、
前記画像データが属する前記カテゴリの情報を取得し、この前記カテゴリにもとづいて、前記カテゴリに関連付けられた前記特に高画像化すべき対象物の種別の情報を取得するステップである、
請求項14記載の画像処理プログラム。
Storing in the computer further information on the type of the object to be imaged especially in association with the category;
Storing EPG data including at least information of the category to which the image data belongs;
And execute
The step of acquiring the information of the type of the object to be imaged in particular,
Obtaining information on the category to which the image data belongs, and obtaining information on the type of the object to be imaged in particular associated with the category based on the category;
The image processing program according to claim 14.
JP2007115833A 2007-04-25 2007-04-25 Information processing apparatus, image processing method and image processing program Abandoned JP2008276302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007115833A JP2008276302A (en) 2007-04-25 2007-04-25 Information processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007115833A JP2008276302A (en) 2007-04-25 2007-04-25 Information processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2008276302A true JP2008276302A (en) 2008-11-13

Family

ID=40054217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007115833A Abandoned JP2008276302A (en) 2007-04-25 2007-04-25 Information processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2008276302A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192111A (en) * 2008-12-19 2021-12-16 株式会社半導体エネルギー研究所 Method of driving liquid display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628438A (en) * 1992-07-10 1994-02-04 Hitachi Ltd Drawing processing system
JP2004215163A (en) * 2003-01-08 2004-07-29 Seiko Epson Corp Image interpolation system, image interpolation method, and image interpolation program
JP2005354124A (en) * 2004-06-08 2005-12-22 Seiko Epson Corp Production of high pixel density image from a plurality of low pixel density images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628438A (en) * 1992-07-10 1994-02-04 Hitachi Ltd Drawing processing system
JP2004215163A (en) * 2003-01-08 2004-07-29 Seiko Epson Corp Image interpolation system, image interpolation method, and image interpolation program
JP2005354124A (en) * 2004-06-08 2005-12-22 Seiko Epson Corp Production of high pixel density image from a plurality of low pixel density images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192111A (en) * 2008-12-19 2021-12-16 株式会社半導体エネルギー研究所 Method of driving liquid display device
US11543700B2 (en) 2008-12-19 2023-01-03 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device
US11899311B2 (en) 2008-12-19 2024-02-13 Semiconductor Energy Laboratory Co., Ltd. Method for driving liquid crystal display device

Similar Documents

Publication Publication Date Title
CN111464833B (en) Target image generation method, target image generation device, medium and electronic device
US20100156916A1 (en) Display device
CN109345490B (en) Method and system for enhancing real-time video image quality of mobile playing terminal
US7006156B2 (en) Image data output device and receiving device
US8279938B2 (en) Encoding device and method, decoding device and method, program, recording medium, and data structure
JP2010041336A (en) Image processing unit and image processing method
CN111738951B (en) Image processing method and device
JP4528857B2 (en) Image processing apparatus and image processing method
JP4940024B2 (en) Information processing apparatus, motion vector generation program, and interpolated image generation program
JP7014158B2 (en) Image processing equipment, image processing method, and program
JP4144258B2 (en) Image output apparatus and image output method
US9460544B2 (en) Device, method and computer program for generating a synthesized image from input images representing differing views
JP2008276302A (en) Information processing apparatus, image processing method and image processing program
US8938088B2 (en) Method and apparatus for classifying sections of an image into a plurality of embedded areas
JPH11296666A (en) Image connection method, image connector and medium for storing image connection processing program
JP3589620B2 (en) Bitmap data generation device and pointing device
CN114286159A (en) Video editing method and device and electronic equipment
JP3898347B2 (en) Movie data control apparatus, movie data control method, and computer-readable recording medium on which movie data control program is recorded
WO2023000805A1 (en) Video mask display method and apparatus, device, and medium
US20240212233A1 (en) Real-time data processing device
JP2014096745A (en) Image transmission system
JP3188237B2 (en) Image encoding device and image decoding device
CN117135381A (en) Video processing method, device, medium and equipment
US9854258B2 (en) Video quality through compression-aware graphics layout
JP5075923B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091222

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110802