JP4752409B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP4752409B2 JP4752409B2 JP2005262489A JP2005262489A JP4752409B2 JP 4752409 B2 JP4752409 B2 JP 4752409B2 JP 2005262489 A JP2005262489 A JP 2005262489A JP 2005262489 A JP2005262489 A JP 2005262489A JP 4752409 B2 JP4752409 B2 JP 4752409B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- zoom
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Description
本発明は画像処理装置および方法、並びにプログラムに関し、特に、より簡単な操作で、より効果的に画像を表示させることができるようにした画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can display an image more effectively with a simpler operation.
テレビジョン受像機においては、送信局から送信されてくる放送信号が受信され、テレビジョン放送番組としての画像が表示されるとともに、その画像に付随する音声が出力される。従来のテレビジョン受像機は、単体で動作することを前提とするものであり、ユーザが新たにテレビジョン受像機を購入する場合には、ユーザが所有していたテレビジョン受像機は不要となり、まだ使用可能であっても廃棄されることが多い。 In a television receiver, a broadcast signal transmitted from a transmission station is received, an image as a television broadcast program is displayed, and sound accompanying the image is output. Conventional television receivers are premised on operating alone, and when a user purchases a new television receiver, the television receiver owned by the user becomes unnecessary, Even if it is still usable, it is often discarded.
従って、多数のテレビジョン受像機を接続した場合に、単体の場合よりも高機能を実現することができれば、使用可能なテレビジョン受像機の廃棄を防止して、資源の有効利用に資することができる。 Therefore, when a large number of television receivers are connected and higher functions can be realized than when a single television receiver is connected, the disposal of usable television receivers can be prevented, thereby contributing to effective use of resources. it can.
そこで、多数のテレビジョン受像機等の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにする技術が提案されている(例えば、特許文献1参照。) In view of this, a technique has been proposed in which, when a large number of display devices such as television receivers are connected and used, higher functions can be realized than when used alone (for example, Patent Documents). (See 1)
特許文献1の技術によれば、例えば、9台の表示装置のそれぞれに、単体として画像を表示させることもでき、また、9台の表示装置からなる表示装置の集合体により1つの画像が表示されるようにすることができる。
According to the technique of
ところで、多数のテレビジョン受像機等の表示装置を接続して使用した場合の画像の表示方法には、多くの応用例が考えられる。例えば、表示装置に表示される画像の一部分を、その表示装置に接続されている他の表示装置に拡大して表示させることができれば、より効果的に画像を表示させることができ、ユーザは、表示装置に表示された画像の全体と、その一部が拡大された画像とを同時に視聴して楽しむことができる。 By the way, many application examples are conceivable as a method for displaying an image when a large number of display devices such as television receivers are connected and used. For example, if a part of the image displayed on the display device can be enlarged and displayed on another display device connected to the display device, the image can be displayed more effectively. It is possible to view and enjoy the entire image displayed on the display device and an image in which part of the image is enlarged simultaneously.
しかしながら、上述した技術では、画像の一部を拡大して表示させるためには、ユーザは、拡大させる画像上の領域をいちいち指定しなければならず、ユーザは、その操作を行っている間、表示装置に表示される画像の視聴に集中することができなかった。 However, in the above-described technique, in order to enlarge and display a part of the image, the user must specify each area on the image to be enlarged, and the user can perform the operation while performing the operation. It was not possible to concentrate on viewing the image displayed on the display device.
本発明は、このような状況に鑑みてなされたものであり、より簡単な操作で、より効果的に画像を表示させることができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to display an image more effectively with a simpler operation.
本発明の一側面の画像処理装置には、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域の画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出手段と、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較手段と、前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段と、抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段とが設けられている。 In the image processing apparatus according to the aspect of the present invention, the predetermined number of the first region is determined based on the number of pixels satisfying the predetermined condition based on the pixel value among the pixels of the first region on the first image. The feature amount indicating the feature of the second region is calculated, and the second region is obtained based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from the first image. A calculating means for calculating a feature amount indicating the feature of the region; and a feature amount of the first region by calculating a difference between the feature amount of the first region and the feature amount of the second region; The difference between the feature quantity of the first area and the feature quantity of the second area as a result of comparison by the comparison means comparing the feature quantity of the second area and the comparison means is a predetermined threshold value. If it is more, among the pixels of the first area, the area included the condition is satisfied pixels, have the above characteristics That as a characteristic region, extracting means for extracting from said first region, and display control means for extracting said feature regions that control the display of the second image is enlarged is provided.
前記表示制御手段には、前記第1の画像および前記第2の画像が同時に表示されるように、前記第2の画像の表示を制御させるようにすることができる。 The display control means can control display of the second image so that the first image and the second image are displayed simultaneously.
前記算出手段には、前記第1の領域または前記第2の領域の色相を示す特徴量を算出させるようにすることができる。 The calculation unit may calculate a feature amount indicating a hue of the first region or the second region.
前記算出手段には、前記第1の領域または前記第2の領域の明度を示す特徴量を算出させるようにすることができる。 The calculation unit may calculate a feature amount indicating the brightness of the first region or the second region.
前記算出手段には、前記第1の領域または前記第2の領域の彩度を示す特徴量を算出させるようにすることができる。 The calculation means may be configured to calculate a feature amount indicating a saturation of the first area or the second area.
前記算出手段には、前記第1の領域または前記第2の領域におけるエッジを構成する画素の割合を示す特徴量を算出させるようにすることができる。 The calculation unit may calculate a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region.
前記抽出手段には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、最も面積が大きい領域を前記特徴領域として抽出させるようにすることができる。 The extraction means detects a region in which pixels satisfying the condition are continuous in the first region, and extracts a region having the largest area among the detected regions as the feature region. Can do.
前記抽出手段には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、前記第1の画像の中心から最も近い領域を前記特徴領域として抽出させるようにすることができる。 The extracting means detects a region in which pixels satisfying the condition are continuous on the first region, and among the detected regions, a region closest to the center of the first image is used as the feature region. It can be made to extract.
本発明の一側面の画像処理方法またはプログラムは、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域の画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出し、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し、抽出された前記特徴領域が拡大された第2の画像の表示を制御するステップを含む。 An image processing method or program according to one aspect of the present invention is based on the number of pixels satisfying a predetermined condition based on a pixel value among pixels of a first region on a first image. Based on the number of pixels that satisfy the above condition among the pixels in the second region obtained by calculating a feature amount indicating a predetermined feature and excluding the first region from the first image , the second And calculating a feature amount indicating the feature of the first region, and obtaining a difference between the feature amount of the first region and the feature amount of the second region, and the feature amount of the first region, When the feature amount of the second region is compared, and the difference between the feature amount of the first region and the feature amount of the second region is equal to or greater than a predetermined threshold as a result of the comparison, of the pixels in the region, the region including the pixel satisfying, as the feature region having the feature, the Extracting from the first region, the extracted the feature regions includes the step of controlling the display of the second image that has been enlarged.
本発明の一側面においては、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量が算出され、前記第1の画像から前記第1の領域を除いて得られる第2の領域の画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量が算出され、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とが比較され、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域が、前記特徴を有する特徴領域として、前記第1の領域から抽出され、抽出された前記特徴領域が拡大された第2の画像の表示が制御される。 In one aspect of the present invention, the predetermined characteristic of the first region is indicated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image. The feature of the second region is calculated based on the number of pixels that satisfy the condition among the pixels of the second region obtained by calculating the feature amount and excluding the first region from the first image. Is calculated, and the difference between the feature amount of the first region and the feature amount of the second region is obtained, thereby obtaining the feature amount of the first region and the second region. When the difference between the feature amount of the first region and the feature amount of the second region is equal to or greater than a predetermined threshold as a result of the comparison, the feature amount is compared with the pixel of the first region of, a region containing the pixel satisfying there is, as a characteristic region having the feature, extracted from the first region It is, extracted the feature region has been the display of the second image that has been magnified is controlled.
以上のように、本発明の一側面によれば、画像を表示させることができる。特に、本発明の一側面によれば、より簡単な操作で、より効果的に画像を表示させることができる。 As described above, according to one aspect of the present invention, an image can be displayed. In particular, according to one aspect of the present invention, an image can be displayed more effectively with a simpler operation.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.
本発明の一側面の画像処理装置は、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域の画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出手段(例えば、図26の算出部662)と、前記第1の領域の特徴量と、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第2の領域の特徴量とを比較する比較手段(例えば、図26の比較部663)と、前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段(例えば、図26の抽出部651)と、抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段(例えば、図26のズーム処理部113)とを備える。
The image processing apparatus according to an aspect of the present invention provides a predetermined number of pixels in the first region based on the number of pixels that satisfy a predetermined condition based on a pixel value among the pixels in the first region on the first image. The second region is calculated based on the number of pixels that satisfy the condition among the pixels of the second region obtained by calculating a feature amount indicating a feature and excluding the first region from the first image. Calculating means (for example, the calculation unit 662 in FIG. 26), a feature amount of the first region, a feature amount of the first region, and a feature amount of the second region By calculating the difference from the feature amount, a comparison unit (for example, the
前記表示制御手段(例えば、図7のステップS66の処理を実行するズーム処理部113)には、前記第1の画像および前記第2の画像が同時に表示されるように、前記第2の画像の表示を制御させるようにすることができる。
The display control means (for example, the
前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の色相を示す特徴量を算出させるようにすることができる。 The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the hue of the first region or the second region.
前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の明度を示す特徴量を算出させるようにすることができる。 The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the brightness of the first region or the second region.
前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の彩度を示す特徴量を算出させるようにすることができる。 The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the saturation of the first region or the second region. .
前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域におけるエッジを構成する画素の割合を示す特徴量を算出させるようにすることができる。 The calculation means (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) is configured to calculate a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region. Can be.
前記抽出手段(例えば、図27のステップS345の処理を実行する抽出部651)には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、最も面積が大きい領域を前記特徴領域として抽出させるようにすることができる。
The extraction means (for example, the
前記抽出手段(例えば、図27のステップS345の処理を実行する抽出部651)には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、前記第1の画像の中心から最も近い領域を前記特徴領域として抽出させるようにすることができる。
The extraction means (for example, the
本発明の一側面の画像処理方法またはプログラムは、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域の画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出し(例えば、図27のステップS343)、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し(例えば、図27のステップS344)、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し(例えば、図27のステップS345)、抽出された前記特徴領域が拡大された第2の画像の表示を制御する(例えば、図7のステップS66)ステップを含む。 An image processing method or program according to one aspect of the present invention is based on the number of pixels satisfying a predetermined condition based on a pixel value among pixels of a first region on a first image. Based on the number of pixels that satisfy the above condition among the pixels in the second region obtained by calculating a feature amount indicating a predetermined feature and excluding the first region from the first image , the second The feature amount indicating the feature of the region is calculated (for example, step S343 in FIG. 27), and the difference between the feature amount of the first region and the feature amount of the second region is obtained . The feature amount of the first region is compared with the feature amount of the second region (for example, step S344 in FIG. 27), and as a result of the comparison, the feature amount of the first region and the second region are compared. If the difference between the feature quantity of not less than the predetermined threshold value, among pixels of the first area, before The region containing the pixel satisfying, as the feature region having the feature, extracted from the first area (e.g., step S345 in FIG. 27), the extracted second image the feature region is magnified (For example, step S66 in FIG. 7) is included.
以下、図面を参照して本発明を適用した実施の形態について説明する。 Embodiments to which the present invention is applied will be described below with reference to the drawings.
図1は、本発明を適用したスケーラブルテレビジョンシステムの外観の構成例を示す図である。図1では、9(3×3)台の表示装置21−1乃至表示装置21−9を取り付けることができるスケーラブルテレビジョンシステム11が示されている。スケーラブルテレビジョンシステム11は、例えば、複数の表示装置を、所定の取り付け位置に取り付けることが可能なユニットを、複数台接続することにより構成されており、接続されるユニットの数を増やしたり減らしたりすることで、表示装置の台数を自由に増やしたり減らしたりすることが可能となるように構成されている。
FIG. 1 is a diagram showing a configuration example of the appearance of a scalable television system to which the present invention is applied. FIG. 1 shows a
例えば、表示装置21−1、表示装置21−4、および表示装置21−7の3台を図中縦方向に一列に取り付けることが可能なユニット、表示装置21−2、表示装置21−5、および表示装置21−8の3台を図中縦方向に一列に取り付けることが可能なユニット、並びに表示装置21−3、表示装置21−6、および表示装置21−9の3台を図中縦方向に一列に取り付けることが可能なユニットの3台のユニットが図中横方向に一列に並べられて接続されることにより、図1のスケーラブルテレビジョンシステム11が構成される。
For example, a unit capable of attaching three units of display device 21-1, display device 21-4, and display device 21-7 in a line in the vertical direction in the figure, display device 21-2, display device 21-5, And three units of display device 21-8 that can be attached in a row in the vertical direction in the figure, and three units of display device 21-3, display device 21-6, and display device 21-9 in the vertical direction in the figure. The
スケーラブルテレビジョンシステム11には、表示装置21−1乃至表示装置21−9の9台の表示装置がそれぞれ取り付けられている。表示装置21−1乃至表示装置21−9は、その表面(図中、手前側)に画像を表示する表示部が設けられ、背面の一部または全部が、上述したスケーラブルテレビジョンシステム11を構成するユニットに接触するようにして取り付けられている。また、表示装置21−1乃至表示装置21−9は、それぞれ他の表示装置との通信を行う通信機能を有している。
The
さらに、表示装置21−1乃至表示装置21−9の9台の表示装置のそれぞれは、同じ形状と機能を有し、例えば、放送信号、映像信号などを受信して表示部に画像を表示したり、スピーカなどで構成される音声出力部から音声を出力したりする。スケーラブルテレビジョンシステム11は、個々の表示装置を独立して機能させることは勿論、9台の表示装置の集合体をあたかも1台の表示装置として機能させるようにすることが可能である。
Further, each of the nine display devices 21-1 to 21-9 has the same shape and function, for example, receives a broadcast signal, a video signal, etc., and displays an image on the display unit. Or output audio from an audio output unit composed of a speaker or the like. The
なお、以下、表示装置21−1乃至表示装置21−9のそれぞれを個々に区別する必要のない場合、単に表示装置21と称する。
Hereinafter, when it is not necessary to distinguish each of the display devices 21-1 to 21-9, they are simply referred to as the
ところで、スケーラブルテレビジョンシステム11においては、個々の表示装置21を独立して機能させて、表示装置21−1乃至表示装置21−9のそれぞれに、別々の画像を表示させることができる。例えば、図2に示すように、9台の表示装置21のうち、図中、中央に位置する表示装置21−5に所定の画像を表示させ、それと同時に、表示装置21−5を囲むように配置されている表示装置21−1乃至表示装置21−4、および表示装置21−6乃至表示装置21−9のそれぞれに、表示装置21−5に表示されている画像の一部分を拡大して表示させることができる。
By the way, in the
図2では、表示装置21−5には、表示装置21−5の表示部の図中、右下に人41乃至人43が写っており(表示されており)、その背景に山46、山47、太陽44、ヘリコプタ45、および雲48が写っている(表示されている)画像が表示されている。また、表示装置21−1乃至表示装置21−3のそれぞれには、表示装置21−5に表示されている人41乃至人43のそれぞれが拡大された画像が表示されており、表示装置21−4には、太陽44が拡大された画像が表示されており、表示装置21−6には、ヘリコプタ45が拡大された画像が表示されている。さらに、表示装置21−7には、表示装置21−5に表示されている山46が拡大された画像が表示されており、表示装置21−8には、山47が拡大された画像が表示されており、表示装置21−9には、雲48が拡大された画像が表示されている。
In FIG. 2, the display device 21-5 shows (displays)
このように、複数の表示装置21のうちの1台に所定の画像を表示させ、同時に、それ以外(残り)の8台の表示装置21に、所定の画像の一部分を拡大して表示させることで、ユーザは、表示された所定の画像(すなわち、画像全体)を視聴するとともに、その画像の一部分が拡大された画像(すなわち、所定の画像の細部)も同時に視聴して楽しむことができる。
In this way, a predetermined image is displayed on one of the plurality of
なお、図2では、表示装置21−5が所定の画像(以下、全体画像とも称する)を表示して、表示装置21−1乃至表示装置21−4、および表示装置21−6乃至表示装置21−9のそれぞれが全体画像の一部分を拡大した画像(以下、ズーム画像とも称する)を表示させる例について説明したが、全体画像を表示する表示装置21は、表示装置21−5に限らず、他の表示装置21としてもよく、複数の表示装置21が全体画像を同時に表示させるようにしてもよい。同様に、複数の表示装置21のうち、どの表示装置21がズーム画像を表示してもよく、複数の表示装置21が同一のズーム画像を表示するようにしてもよい。
In FIG. 2, the display device 21-5 displays a predetermined image (hereinafter also referred to as an entire image), and the display devices 21-1 to 21-4 and the display devices 21-6 to 21-21. Although the example in which each of -9 displays an image in which a part of the entire image is enlarged (hereinafter also referred to as a zoom image) has been described, the
図3は、図1のスケーラブルテレビジョンシステム11の構成例を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration example of the
スケーラブルテレビジョンシステム11は、表示装置21−1乃至表示装置21−9(表示装置21−3乃至表示装置21−8は図示せず)のそれぞれを含むように構成され、それぞれの表示装置21には、分配機71、分配機72、受信部73、およびネットワークハブ74が接続されている。
The
分配機71は、図示せぬアンテナが受信した、テレビジョン放送番組を再生するための放送信号を表示装置21−1乃至表示装置21−9に供給する。分配機72は、図示せぬ外部入力機器から供給された、映像(動画像)を再生するための映像信号を表示装置21−1乃至表示装置21−9に供給する。
The
また、例えば、ユーザが、図示せぬリモートコマンダを操作することにより、表示装置21に対して所定の処理の実行を指示すると、リモートコマンダからはユーザの操作に応じた赤外線信号が送信される。受信部73は、リモートコマンダから送信されてきた赤外線信号を受信(受光)して光電変換し、これにより得られたコマンド信号を表示装置21−1乃至表示装置21−9に供給する。ネットワークハブ74は、表示装置21−1乃至表示装置21−9のそれぞれから供給された各種の信号を、他の表示装置21に供給する。
Further, for example, when the user operates the remote commander (not shown) to instruct the
表示装置21は、分配機71から供給された放送信号、または分配機72から供給された映像信号を基に、テレビジョン放送番組や映像を再生する。また、それぞれの表示装置21は、ネットワークハブ74を介して互いに通信を行ったり、受信部73から供給されたコマンド信号に応じて、所定の処理を行ったりする。
The
図4は、表示装置21の機能の構成例を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration example of functions of the
表示装置21は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、画像処理部95、表示部96、および音声出力部97を含むように構成される。
The
制御情報通信部91は、ネットワークハブ74に接続され、表示装置21と他の表示装置21との通信を制御する。制御情報通信部91は、ネットワークハブ74を介して、他の表示装置から送信されてきた各種の制御信号を受信し、中央処理部93に供給する。また、制御情報通信部91は、中央処理部93から供給された各種の制御信号を、ネットワークハブ74を介して他の表示装置21に供給する。さらに、制御情報通信部91は、受信部73から供給されたコマンド信号を中央処理部93に供給する。
The control
入力部92は、例えば、マウス、タブレット、ボタン、スイッチなどから構成され、ユーザの操作に応じた入力信号を中央処理部93に供給する。中央処理部93は、制御情報通信部91から供給された制御信号、または入力部92から供給された入力信号に応じて、表示装置21全体を制御し、各種の処理を行う。
The
例えば、中央処理部93は、画像処理部95を制御して、表示部96に画像を表示させる。また、中央処理部93は、他の表示装置21を制御するための制御信号を生成して、制御情報通信部91に供給し、他の表示装置21に送信させる。
For example, the
さらに、中央処理部93は、受信部73または入力部92から表示装置21を特定するID(Identification)を示す信号が供給されると、その信号により示されるIDを記憶する。例えば、互いに接続されている表示装置21は予め順序付けられており、それぞれの表示装置21には、自分自身の順番を示すIDが割り振られる。例えば、表示装置21は、表示装置21−1乃至表示装置21−9の順番で順序付けられており、表示装置21−1のIDは、自分自身の順番が1番目である“1”とされる。なお、このIDは、中央処理部93が予め記憶しておくようにしてもよく、ユーザにより変更できるようにしてもよい。
Further, when a signal indicating an ID (Identification) for specifying the
信号取得部94は、例えば、チューナなどを含むように構成される。信号取得部94は、中央処理部93の制御の基に選局を行い、分配機71から供給された放送信号から画像を表示させるための画像データ、および音声を再生させるための音声データを抽出する。また、信号取得部94は、分配機72から供給された映像信号から画像データおよび音声データを抽出する。信号取得部94は、抽出した画像データを画像処理部95に供給し、音声データを音声出力部97に供給する。
The
画像処理部95は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から肌色の領域を抽出して、その領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部95は、領域決定部111、パラメータ決定部112、およびズーム処理部113を含むように構成される。
Under the control of the
領域決定部111は、肌色領域検出部121を含むように構成される。領域決定部111の肌色領域検出部121は、信号取得部94から供給された画像データに基づく画像(全体画像)から肌色の領域を検出する。領域決定部111は、肌色の領域の検出結果に基づき、全体画像のうちのズーム画像として表示させる領域(以下、ズーム領域とも称する)の候補となる領域を定める(選択する)。
The
パラメータ決定部112は、パラメータ保持部122を含むように構成され、領域決定部111により定められたズーム領域の候補となる領域の中心座標、およびその領域を拡大させるズーム倍率を算出する。パラメータ決定部112のパラメータ保持部122は、算出された中心座標およびズーム倍率を保持する。また、パラメータ決定部112は、過去に算出した所定の数の中心座標の重心(の座標)、およびズーム倍率の平均値を算出して、ズーム処理部113に供給する。
The
ズーム処理部113は、信号取得部94から供給された画像データ、並びにパラメータ決定部112から供給された中心座標の重心(の座標)およびズーム倍率の平均値を基に、ズーム画像を表示させるための画像データを生成して表示部96に供給する。
The
また、ズーム処理部113は、ズーム画像を表示させずに、全体画像を表示させる場合、信号取得部94から供給された画像データをそのまま表示部96に供給する。
In addition, when displaying the entire image without displaying the zoom image, the
表示部96は、例えば、液晶ディスプレイ、CRT(Cathode Ray Tube)などから構成され、画像処理部95から供給された画像データを基に画像を表示する。音声出力部97は、例えば、スピーカなどから構成され、信号取得部94から供給された音声データを基に音声を再生する。
The
スケーラブルテレビジョンシステム11においては、全体画像を表示する表示装置21と、ズーム画像を表示する表示装置21とが予め定められているようにしてもよく、ユーザが、表示装置21ごとに全体画像を表示させるか、またはズーム画像を表示させるかを設定できるようにしてもよい。
In the
ユーザがリモートコマンダを操作して、表示装置21に画像の表示を指示すると、受信部73は、リモートコマンダから送信されてきた赤外線信号を受信して光電変換し、その結果得られるコマンド信号を表示装置21に供給する。
When the user operates the remote commander to instruct the
表示装置21の中央処理部93は、制御情報通信部91を介して受信部73からのコマンド信号を受信すると、そのコマンド信号に応じて表示部96に画像(全体画像またはズーム画像)を表示させる。
When the
以下、図5のフローチャートを参照して、全体画像を表示する表示装置21による、全体画像の表示処理について説明する。
Hereinafter, with reference to the flowchart of FIG. 5, the display processing of the entire image by the
ステップS11において、信号取得部94は、中央処理部93の制御の基に、分配機71から供給された放送信号、または分配機72から供給された映像信号から、画像データおよび音声データを抽出する。そして、信号取得部94は、抽出した画像データをズーム処理部113に供給し、音声データを音声出力部97に供給する。
In step S <b> 11, the
ステップS12において、ズーム処理部113は、信号取得部94から供給された画像データをそのまま表示部96に供給して、表示部96に全体画像を表示させる。
In step S <b> 12, the
ステップS13において、音声出力部97は、信号取得部94から供給された音声データを基に音声を再生する。
In step S <b> 13, the
ステップS14において、中央処理部93は、処理を終了するか否かを判定する。例えば、中央処理部93は、制御情報通信部91を介して受信部73から、全体画像の表示の終了を指示するコマンド信号が供給された場合、処理を終了すると判定する。
In step S14, the
ステップS14において、処理を終了しないと判定された場合、ステップS15に進み、中央処理部93は、ユーザの操作に応じた処理を行い、処理はステップS11に戻る。例えば、ユーザがリモートコマンダを操作して、チャンネルの変更を指示した場合、中央処理部93は、制御情報通信部91を介して受信部73から供給されたコマンド信号に応じて、信号取得部94を制御して選局させる。
If it is determined in step S14 that the process is not ended, the process proceeds to step S15, the
また、ステップS14において、処理を終了すると判定された場合、中央処理部93は、信号取得部94および画像処理部95を制御して、全体画像を表示させる処理を終了させて、全体画像の表示処理は終了する。
If it is determined in step S14 that the process is to be ended, the
このようにして、全体画像を表示する表示装置21は、ユーザの操作に応じて全体画像を表示する。
In this way, the
次に、図6のフローチャートを参照して、他の表示装置21に表示されている全体画像の一部分を拡大して表示する表示装置21による、ズーム画像の表示処理について説明する。このズーム画像の表示処理は、互いに接続されている他の表示装置21による、全体画像の表示処理(図5)と独立に、かつ並行して行われる。
Next, zoom image display processing by the
ステップS31において、中央処理部93は、ズーム画像の表示が指示されたか否かを判定する。例えば、ユーザが、リモートコマンダを操作して、リモートコマンダから受信部73に、ズーム画像の表示を指示する赤外線信号が送信され、これに応じて、受信部73から制御情報通信部91を介して中央処理部93に、ズーム画像の表示を指示するコマンド信号が供給された場合、中央処理部93は、ズーム画像の表示が指示されたと判定する。
In step S31, the
ステップS31において、ズーム画像の表示が指示されたと判定された場合、ステップS32に進み、画像処理部95は、中央処理部93の制御の基に、自動ズーム処理を行う。なお、自動ズーム処理の詳細は後述するが、自動ズーム処理において、画像処理部95は、信号取得部94から供給された画像データを基に、ズーム画像を表示させるための画像データを生成する。そして、画像処理部95は、生成した画像データを表示部96に供給して、他の表示装置21に全体画像が表示されるのと同時に、表示部96にズーム画像を表示させる。
If it is determined in step S31 that display of a zoom image has been instructed, the process proceeds to step S32, and the
ステップS33において、中央処理部93は、ズーム画像の表示を終了するか否かを判定する。例えば、ユーザにより、リモートコマンダが操作されて、リモートコマンダから受信部73に、ズーム画像の表示の終了を指示する赤外線信号が送信され、これに応じて、受信部73から、制御情報通信部91を介して中央処理部93に、ズーム画像の表示の終了を指示するコマンド信号が供給された場合、中央処理部93は、ズーム画像の表示を終了すると判定する。
In step S33, the
ステップS33において、ズーム画像の表示を終了しないと判定された場合、ステップS32に戻り、表示部96には継続してズーム画像が表示される。
If it is determined in step S33 that display of the zoom image is not finished, the process returns to step S32, and the zoom image is continuously displayed on the
これに対して、ステップS33において、ズーム画像の表示を終了すると判定された場合、ステップS34に進む。ステップS34において、中央処理部93は、信号取得部94および画像処理部95を制御して、表示部96へのズーム画像の表示を終了させ、処理はステップS31に戻る。
On the other hand, if it is determined in step S33 that display of the zoom image is to be terminated, the process proceeds to step S34. In step S34, the
また、ステップS31において、ズーム画像の表示が指示されていないと判定された場合、ステップS35に進み、中央処理部93は、処理を終了するか否かを判定する。例えば、中央処理部93は、制御情報通信部91を介して受信部73から、全体画像の表示の終了を指示するコマンド信号が供給された場合、処理を終了すると判定する。
If it is determined in step S31 that display of a zoom image is not instructed, the process proceeds to step S35, and the
ステップS35において、処理を終了しないと判定された場合、ステップS36に進み、中央処理部93は、ユーザの操作に応じた処理を行い、処理はステップS31に戻る。例えば、ユーザがリモートコマンダを操作して、チャンネルの変更を指示した場合、中央処理部93は、制御情報通信部91を介して受信部73から供給されたコマンド信号に応じて、信号取得部94を制御して選局させる。
If it is determined in step S35 that the process is not ended, the process proceeds to step S36, the
また、ステップS35において、処理を終了すると判定された場合、中央処理部93は、表示装置21が行っている処理を終了させて、ズーム画像の表示処理は終了する。
If it is determined in step S35 that the process is to be terminated, the
このようにして、表示装置21は、他の表示装置21に全体画像が表示されているときに、ユーザによりズーム画像の表示が指示されると、表示部96にズーム画像を表示させる。
In this way, the
このように、全体画像が表示されるのと同時に、ズーム画像を表示させることにより、表示装置21は、より効果的に画像を表示することができる。これにより、ユーザは、リモートコマンダまたは入力部92を操作し、ズーム画像の表示を指示するという簡単な操作で、全体画像を見るとともに、全体画像の細部まで同時に観察して、画像の視聴を楽しむことができる。ユーザは、新しい画角で画像を見ることで、従来にはない視覚的効果を得ることができ、新しい発見をすることができる。しかもこの場合、ユーザは、拡大して表示させる領域(ズーム領域)をいちいち指定する必要がないので、画像の視聴に集中することができる。
Thus, by displaying the zoom image at the same time as the entire image is displayed, the
次に、図7のフローチャートを参照して、図6のステップS32の処理に対応する、自動ズーム処理について説明する。 Next, the automatic zoom process corresponding to the process of step S32 of FIG. 6 will be described with reference to the flowchart of FIG.
ステップS61において、画像処理部95は肌色領域の検出処理を行う。なお、肌色領域の検出処理の詳細は後述するが、肌色領域の検出処理において、画像処理部95の領域決定部111は、全体画像から肌色の領域を検出し、その検出結果に基づいて、全体画像のうちのズーム画像として表示させるズーム領域の候補を定める。そして、画像処理部95のパラメータ決定部112は、定められたズーム領域の候補の中心座標およびズーム倍率を算出する。
In step S61, the
ステップS62において、パラメータ保持部122は、パラメータ決定部112により算出されたズーム領域の候補の中心座標およびズーム倍率を保持する。
In step S 62, the
ステップS63において、パラメータ決定部112は、パラメータ保持部122に保持されている過去N個(但し、Nは自然数)の中心座標の重心(の座標)を求める。パラメータ保持部122には、過去のフレームの全体画像上において、ズーム領域の候補とされた領域の中心座標が保持されている。パラメータ決定部112は、パラメータ保持部122が保持している過去N個の中心座標の重心を求める。
In step S63, the
例えば、パラメータ保持部122に保持されている中心座標のうち、最後からi番目(但し、iは自然数)に算出されたXY空間上の中心座標を(Xi,Yi)とすると、パラメータ決定部112は、式(1)および式(2)を計算することによって、最後から1番目乃至N番目に算出された中心座標の重心の座標(Xg,Yg)を求める。
For example, if the center coordinate in the XY space calculated from the last i-th (where i is a natural number) among the center coordinates held in the
Xg=(ΣXi)/N ・・・(1) Xg = (ΣXi) / N (1)
Yg=(ΣYi)/N ・・・(2) Yg = (ΣYi) / N (2)
ここで、式(1)におけるΣは、Xiのiを1からNまで変えて総和をとることを表わし、同様に、式(2)におけるΣは、Yiのiを1からNまで変えて総和をとることを表す。また、Nの値は予め定められているものとする。 Here, Σ in Equation (1) represents that the sum of Xi is changed from 1 to N, and similarly, Σ in Equation (2) is the sum of Yi changed from 1 to N. Represents taking. The value of N is assumed to be predetermined.
ステップS64において、パラメータ決定部112は、パラメータ保持部122に保持されている過去N個(Nフレーム分)(但し、Nは自然数)のズーム倍率の平均値を算出する。例えば、パラメータ保持部122に保持されているズーム倍率のうち、最後からi番目(但し、iは自然数)に算出されたズーム倍率をZiとすると、パラメータ決定部112は、式(3)を計算することによって、最後から1番目乃至N番目に算出されたズーム倍率の平均値Zgを算出する。
In step S <b> 64, the
Zg=(ΣZi)/N ・・・(3) Zg = (ΣZi) / N (3)
ここで、式(3)におけるΣは、Ziのiを1からNまで変えて総和をとることを表す。 Here, Σ in Equation (3) represents that the sum of Zi is changed from 1 to N.
パラメータ決定部112は、中心座標の重心(Xg,Yg)およびズーム倍率の平均値Zgを算出すると、算出した中心座標の重心(の座標)およびズーム倍率の平均値をズーム処理部113に供給する。
When the
ステップS65において、ズーム処理部113は、信号取得部94から供給された画像データ、並びにパラメータ決定部112から供給された中心座標の重心の座標およびズーム倍率の平均値を基に、ズーム画像の画像データを生成する。
In step S65, the
例えば、図8に示すように、図中、右方向をX軸方向とし、下方向をY軸方向として、XY空間上における全体画像の領域を、0≦X≦Xdの範囲と、0≦Y≦Ydの範囲とで囲まれる領域151とする。また、ズーム画像の中心座標を、式(1)および式(2)により求めた中心座標の重心(Xg,Yg)とし、ズーム倍率の平均値をZgとすると、ズーム領域のX方向の長さWx、およびズーム領域のY方向の長さHyは、それぞれ式(4)および式(5)により求められる。なお、ここでは、説明を簡単にするため、全体画像の画素数と、表示装置21における表示部96の表示画面の画素数とが同一であるものとして説明する。
For example, as shown in FIG. 8, in the figure, the right direction is the X-axis direction, the lower direction is the Y-axis direction, and the entire image area in the XY space is defined as 0 ≦ X ≦ Xd and 0 ≦
Wx=Xd/Zg ・・・(4) Wx = Xd / Zg (4)
Hy=Yd/Zg ・・・(5) Hy = Yd / Zg (5)
したがって、図8におけるズーム領域は、Xg−(Xd/(2Zg))≦X≦Xg+(Xd/(2Zg))の範囲と、Yg−(Yd/(2Zg))≦Y≦Yg+(Yd/(2Zg))の範囲とで囲まれる領域152となる。ズーム処理部113は、例えば、信号取得部94から供給された画像データに所定の画像変換処理を施して、全体画像のうちの領域152がズーム倍率Zg倍で拡大された画像(ズーム画像)を表示させるための画像データを生成する(ズーム画像を表示させる画像データに変換する)。
Therefore, the zoom region in FIG. 8 has a range of Xg− (Xd / (2Zg)) ≦ X ≦ Xg + (Xd / (2Zg)) and Yg− (Yd / (2Zg)) ≦ Y ≦ Yg + (Yd / (Yd / ( 2Zg)). The
図7のフローチャートの説明に戻り、ステップS66において、ズーム処理部113は、生成したズーム画像の画像データを表示部96に供給し、表示部96にズーム画像を表示させて、処理は図6のステップS33に進む。
Returning to the description of the flowchart of FIG. 7, in step S <b> 66, the
このようにして、画像処理部95は、ズーム領域の候補となる領域の中心座標の重心、およびズーム倍率の平均値を求める。そして、これらを基にズーム領域を定めて画像データを生成し、ズーム画像を表示させる。
In this manner, the
このように、ズーム領域の候補となる領域の中心座標の重心、およびズーム倍率の平均値を算出してズーム領域を定めることによって、全体画像上におけるズーム領域の位置が、フレームごとに大きく変化することを抑制することができる。 In this way, by determining the zoom area by calculating the center coordinates of the center coordinates of the areas that are candidates for the zoom area and the average value of the zoom magnification, the position of the zoom area on the entire image varies greatly from frame to frame. This can be suppressed.
例えば、中心座標の重心、およびズーム倍率の平均値を求めるために用いる中心座標、およびズーム倍率の個数、すなわち式(1)乃至式(3)におけるNの値を、1乃至10程度の比較的小さい値とすると、ズーム領域の中心座標がフレームごとに大きく変化する(動く)場合がある。そのような場合、表示部96に表示されるズーム画像(とされる全体画像上における領域)は、フレームごとに大きく変化するので、例えば、ズーム画像として表示される人の顔などがぶれてしまい、ユーザにとって見づらくなってしまう可能性がある。 For example, the center coordinates of the center coordinates, the center coordinates used for obtaining the average value of the zoom magnification, and the number of zoom magnifications, that is, the value of N in the equations (1) to (3) are relatively in the order of 1 to 10. If the value is small, the center coordinate of the zoom area may change (move) greatly every frame. In such a case, the zoom image displayed on the display unit 96 (the area on the entire image to be taken) varies greatly from frame to frame. For example, the face of a person displayed as a zoom image is blurred. , It may be difficult for the user to see.
そこで、例えば、スポーツなどのコンテンツの画像を表示させるときには、シーンの急激な変化や、表示されるスポーツ選手、ボールなどの速い動きに追従できるように、Nの値を比較的小さい値とし、対談番組などのコンテンツの画像を表示させるときには、動きの少ない対談者などが拡大された画像をより見やすくするために、Nの値を30程度の比較的大きい値とすることができる。 Therefore, for example, when displaying an image of a content such as sports, the value of N is set to a relatively small value so that it can follow a rapid change of the scene or a fast movement of a displayed athlete, ball, etc. When displaying an image of a content such as a program, the value of N can be set to a relatively large value of about 30 in order to make it easier for a talker or the like with less movement to see an enlarged image.
このNの値は、表示装置21ごとに予め定めるようにしてもよく、また、表示される画像(コンテンツ)のシーンやユーザの好みに応じて、表示装置21ごとにユーザが設定できるようにしてもよい。このように、Nの値を表示装置21ごとに変化させると、ユーザは、複数の表示装置21に表示されるズーム画像のうち、そのときの視聴条件にあったズーム画像を選択的に視聴することができる。
The value of N may be determined in advance for each
また、中心座標の重心、およびズーム倍率の平均値を求めずに、ステップS61において定められたズーム領域の候補をそのままズーム領域とする(すなわち、Nを1とする)ようにしてもよく、最後に求められた中心座標、およびズーム倍率が、それよりも前に求められた過去(N−1)個の中心座標、およびズーム倍率と比較して、大きく異なる場合にだけ、定められたズーム領域の候補をそのままズーム領域とするようにしてもよい。 Further, without obtaining the center of gravity of the center coordinates and the average value of the zoom magnification, the zoom area candidate determined in step S61 may be used as the zoom area as it is (that is, N is set to 1). The zoom region determined only when the center coordinates and the zoom magnification obtained in the above are significantly different from the previous (N-1) center coordinates and zoom magnification obtained before that. These candidates may be directly used as a zoom area.
さらに、例えば、図8に示したズーム領域としての領域152の画像を、複数台の表示装置21で表示させるようにしてもよい。この場合、例えば、互いに隣接して設置されている、予め定められたN×N台(横N台×縦N台)(但し、Nは自然数)の表示装置21で1つのズーム画像(領域152の画像)を表示させる。
Further, for example, the image of the
ここで、図8の領域152をズーム領域としてズーム画像を表示する表示装置21のうち、図中、領域152の左上の端の領域を表示する表示装置21を、左から1番目であり、かつ上から1番目である表示装置21とし、領域152の右上の端の領域を表示する表示装置21を、左からN番目であり、かつ上から1番目である表示装置21とする。また、図中、領域152の左下の端の領域を表示する表示装置21を、左から1番目であり、かつ上からN番目である表示装置21とする。
Here, among the
そして、Xg−(Xd/(2Zg))=Xbとし、Xg+(Xd/(2Zg))=Xeとし、Yg−(Yd/(2Zg))=Ybとし、Yg+(Yd/(2Zg))=Yeとする。このとき、左からi番目(1≦i≦N)であり、上からj番目(1≦j≦N)である表示装置21がズーム画像として表示する領域を、Xib≦X≦Xieの範囲と、Yjb≦Y≦Yjeの範囲とで囲まれる領域とすると、Xib、Xie、Yjb、およびYjeのそれぞれの値は、式(6)乃至式(9)のそれぞれにより表わされる値となる。
Xg− (Xd / (2Zg)) = Xb, Xg + (Xd / (2Zg)) = Xe, Yg− (Yd / (2Zg)) = Yb, and Yg + (Yd / (2Zg)) = Ye And At this time, an area displayed as a zoom image by the
Xib=Xb+((i−1)×((Xe−Xb)/N)) ・・・(6) Xib = Xb + ((i−1) × ((Xe−Xb) / N)) (6)
Xie=Xb+(i×((Xe−Xb)/N)) ・・・(7) Xie = Xb + (i × ((Xe−Xb) / N)) (7)
Yjb=Yb+((j−1)×((Ye−Yb)/N)) ・・・(8) Yjb = Yb + ((j−1) × ((Ye−Yb) / N)) (8)
Yje=Yb+(j×((Ye−Yb)/N)) ・・・(9) Yje = Yb + (j × ((Ye−Yb) / N)) (9)
したがって、左からi番目(1≦i≦N)であり、上からj番目(1≦j≦N)である表示装置21は、図8の領域152のうち、Xib≦X≦Xieの範囲と、Yjb≦Y≦Yjeの範囲とで囲まれる領域がズーム倍率Zg倍で拡大された画像(ズーム画像)を表示させるための画像データを生成して、表示部96に画像を表示させる。これにより、互いに隣接して設置されているN×N台の表示装置21により、領域152がズーム倍率Zg倍で拡大された画像(ズーム画像)が表示される。
Therefore, the
このように、1つのズーム領域を複数の連続した領域に分割して、分割された1つの領域を1つの表示装置21に表示させることにより、複数の表示装置21により1つの画像を表示させることができる。その結果、より大きいズーム倍率でズーム画像を表示させることができ、ユーザは、全体画像のうちの一部の細部まで観察することができる。
As described above, one zoom area is divided into a plurality of continuous areas, and one divided area is displayed on one
なお、1つのズーム画像を表示する複数の表示装置21は、予め定められているようにしてもよく、ユーザがリモートコマンダ、または入力部92を操作して定めることができるようにしてもよい。
The plurality of
次に、図9のフローチャートを参照して、図7のステップS61の処理に対応する、肌色領域の検出処理について説明する。上述したように、この肌色領域の検出処理において画像処理部95は、全体画像から肌色の領域を検出し、ズーム領域の候補となる領域を定める(選択する)。
Next, a skin color area detection process corresponding to the process of step S61 of FIG. 7 will be described with reference to the flowchart of FIG. As described above, in the skin color area detection process, the
なお、全体画像上において、肌色の領域を検出する対象となる領域は、全体画像の全体としてもよく、全体画像のうちの一部の領域としてもよい。さらに、肌色の領域を検出する対象となる領域は、表示装置21ごとに予め定めておくようにしてもよく、ユーザが設定できるようにしてもよい。
It should be noted that on the whole image, the area that is the target for detecting the skin color area may be the whole whole image or a part of the whole image. Further, the area to be detected for the skin color area may be predetermined for each
ステップS91において、肌色領域検出部121は、信号取得部94から供給された画像データの画像(全体画像)上における、肌色の領域を検出する対象となる領域の1つの画素を選択する。
In step S <b> 91, the skin color
ステップS92において、肌色領域検出部121は、選択した画素の画素値を基に、HSV(Hue Saturation value Value)形式の色空間のH(Hue)の値を求める。
In step S92, the skin color
例えば、選択された画素の画素値の赤(R)、緑(G)、青(B)のそれぞれの値をR、G、Bとする(但し、R、G、Bのそれぞれの値は、0以上1以下とされる)。また、R、G、Bのそれぞれの値のうちの最大の値をMAX(R,G,B)とし、R、G、Bのそれぞれの値のうちの最小の値をMIN(R,G,B)とする。さらに、R、G、Bのそれぞれの値が0である場合は、Hの値は定義できないものとする。 For example, the red (R), green (G), and blue (B) values of the pixel value of the selected pixel are R, G, and B (however, the values of R, G, and B are 0 to 1). In addition, the maximum value among the R, G, and B values is MAX (R, G, B), and the minimum value among the R, G, and B values is MIN (R, G, B). B). Furthermore, when the values of R, G, and B are 0, the value of H cannot be defined.
R、G、Bのそれぞれの値のうち、Rの値が最大である場合、肌色領域検出部121は、式(10)を計算することによりHの値を求める。
When the value of R is the maximum among the values of R, G, and B, the skin color
H=60×(G−B)/D ・・・(10) H = 60 × (GB) / D (10)
ここで、Dは、MAX(R,G,B)と、MIN(R,G,B)との差であり、式(11)により表わされる。 Here, D is a difference between MAX (R, G, B) and MIN (R, G, B), and is expressed by Expression (11).
D=MAX(R,G,B)−MIN(R,G,B) ・・・(11) D = MAX (R, G, B) −MIN (R, G, B) (11)
なお、式(10)により求まるHの値が0よりも小さい場合、すなわちHの値が負の値となる場合には、肌色領域検出部121は、式(10)ではなく、式(12)を計算することによりHの値を求める。
Note that when the value of H obtained by Expression (10) is smaller than 0, that is, when the value of H becomes a negative value, the skin color
H=(60×(G−B)/D)+360 ・・・(12) H = (60 × (GB) / D) +360 (12)
また、R、G、Bのそれぞれの値のうち、Gの値が最大である場合、肌色領域検出部121は、式(13)を計算することによりHの値を求め、Bの値が最大である場合、肌色領域検出部121は、式(14)を計算することによりHの値を求める。
When the value of G is the maximum among the values of R, G, and B, the skin color
H=60×(2+((B−R)/D)) ・・・(13) H = 60 × (2 + ((BR) / D)) (13)
H=60×(4+((R−G)/D)) ・・・(14) H = 60 × (4 + ((RG) / D)) (14)
このようにして求められるHの値は、0以上、かつ360未満の値となる。ここで、図10に、R、G、Bの各値を基に算出されたHの値の一例を示す。例えば、Rの値が0.39であり、Gの値が0.78であり、Bの値が0.39である場合、Gの値が最も大きいので、式(13)より、Hの値は、120(=60×(2+((0.39−0.39)/0.39)))となる。また、Rの値が0.78であり、Gの値が0.39であり、Bの値が0.39である場合、Rの値が最も大きいので、式(10)より、Hの値は、0(=60×(0.39−0.39)/0.39)となる。 The value of H obtained in this way is a value of 0 or more and less than 360. Here, FIG. 10 shows an example of the value of H calculated based on the R, G, and B values. For example, when the value of R is 0.39, the value of G is 0.78, and the value of B is 0.39, the value of G is the largest. Therefore, from the equation (13), the value of H is 120 (= 60 × (2 + ((0.39−0.39) /0.39))). In addition, when the value of R is 0.78, the value of G is 0.39, and the value of B is 0.39, the value of R is the largest. Therefore, from the equation (10), the value of H is 0 (= 60 × (0.39−0.39) /0.39).
同様に、Rの値が0.39であり、Gの値が0.39であり、Bの値が0.78である場合、Bの値が最も大きいので、式(14)より、Hの値は、240(=60×(4+((0.39−0.39)/0.39)))となる。また、Rの値が0.78であり、Gの値が0.39であり、Bの値が0.78である場合、Rの値が最も大きく、式(10)にR、G、Bのそれぞれの値を代入した値は、−60(=60×(0.39−0.78)/0.39)となり、負の値となるので、式(12)より、Hの値は、300(=(60×(0.39−0.78)/0.39)+360)となる。 Similarly, when the value of R is 0.39, the value of G is 0.39, and the value of B is 0.78, since the value of B is the largest, the value of H is 240 (= 60 × (4 + ((0.39−0.39) /0.39))). Further, when the value of R is 0.78, the value of G is 0.39, and the value of B is 0.78, the value of R is the largest, and the values of R, G, and B are substituted into Expression (10). The value obtained is −60 (= 60 × (0.39−0.78) /0.39), which is a negative value. From the equation (12), the value of H is 300 (= (60 × (0.39−0.78) / 0.39) +360).
さらに、Rの値が0.78であり、Gの値が0.78であり、Bの値が0.39である場合、Rの値が最も大きいので、式(10)より、Hの値は、60(=60×(0.78−0.39)/0.39))となり、Rの値が0.39であり、Gの値が0.78であり、Bの値が0.78である場合、Gの値が最も大きいので、式(13)より、Hの値は、180(=60×(2+((0.78−0.39)/0.39)))となる。 Further, when the value of R is 0.78, the value of G is 0.78, and the value of B is 0.39, the value of R is the largest, so that the value of H is 60 (= 60 from Equation (10). X (0.78−0.39) /0.39)), when the value of R is 0.39, the value of G is 0.78, and the value of B is 0.78, the value of G is the largest. , H is 180 (= 60 × (2 + ((0.78−0.39) /0.39))).
図9のフローチャートの説明に戻り、Hの値が求められると、ステップS93において、肌色領域検出部121は、求めたHの値が予め定められた所定の範囲内の値であるか否かを判定する。例えば、肌色領域検出部121は、Hの値が0より大きく、かつ60より小さいか否かを判定する。また、選択された画素の画素値のR、G、Bの値のそれぞれが0であり、Hの値が定義されない場合には、ステップS93において、所定の範囲内の値でないと判定される。
Returning to the description of the flowchart of FIG. 9, when the value of H is obtained, in step S <b> 93, the skin color
ステップS93において、所定の範囲内の値であると判定された場合、ステップS94に進み、肌色領域検出部121は、選択した画素を肌色の画素とする。例えば、肌色領域検出部121は、図11に示すように、肌色の領域を検出する対象となる領域の画素ごとに、その画素が肌色の画素であるか否かのフラグを設定する。
If it is determined in step S93 that the value is within the predetermined range, the process proceeds to step S94, and the skin color
図11では、1つの四角形が1つの画素を表わしており、その四角形の中の“1”または“0”が、肌色の画素であるか否かのフラグを示している。四角形の中のフラグ“1”は、その画素が肌色の画素であることを示しており、四角形の中のフラグ“0”は、その画素が肌色の画素ではないことを示している。 In FIG. 11, one square represents one pixel, and “1” or “0” in the square represents a flag indicating whether the pixel is a skin color pixel. A flag “1” in the square indicates that the pixel is a flesh-colored pixel, and a flag “0” in the square indicates that the pixel is not a flesh-colored pixel.
肌色領域検出部121は、選択した画素が肌色の画素である場合、その画素のフラグに“1”を設定する(フラグをセットする)。図11の例では、領域181に含まれる4つの画素、領域182に含まれる2つの画素、および領域183に含まれる3つの画素のそれぞれが、肌色の画素とされており、それ以外の画素は肌色ではない画素とされている。
When the selected pixel is a skin color pixel, the skin color
図9のフローチャートの説明に戻り、ステップS94において、選択した画素を肌色の画素とすると、ステップS96に進む。 Returning to the description of the flowchart of FIG. 9, if the selected pixel is a flesh-colored pixel in step S94, the process proceeds to step S96.
これに対して、ステップS93において、所定の範囲内の値ではないと判定された場合、ステップS95に進み、選択した画素を肌色以外の色の画素とする。例えば、肌色領域検出部121は、図11に示したように、選択した画素のフラグに“0”を設定する(フラグをリセットする)。
On the other hand, if it is determined in step S93 that the value is not within the predetermined range, the process proceeds to step S95, and the selected pixel is set as a pixel other than the skin color. For example, as shown in FIG. 11, the skin color
ステップS94において、選択した画素を肌色の画素とするか、またはステップS95において、選択した画素を肌色以外の色の画素とすると、ステップS96において、肌色領域検出部121は、肌色の領域を検出する対象となる領域の全ての画素を選択したか否かを判定する。
In step S94, if the selected pixel is a skin color pixel, or if the selected pixel is a pixel other than the skin color in step S95, the skin color
ステップS96において、まだ全ての画素を選択していないと判定された場合、ステップS91に戻り、次の画素を選択して、その画素が肌色の画素であるか否かを判定する処理を行う。 If it is determined in step S96 that all the pixels have not yet been selected, the process returns to step S91 to select the next pixel and determine whether or not the pixel is a skin color pixel.
一方、ステップS96において、全ての画素を選択したと判定された場合、ステップS97に進み、領域決定部111は、全体画像上のズーム領域の候補となる領域を定める(選択する)。領域決定部111は、ズーム領域の候補となる領域を定めると、その領域を示す情報を生成し、パラメータ決定部112に供給する。
On the other hand, if it is determined in step S96 that all the pixels have been selected, the process proceeds to step S97, where the
例えば、領域決定部111は、XY空間上における、全体画像上(肌色の領域を検出する対象となる領域)の肌色である画素のX座標のうちの最大値および最小値と、肌色である画素のY座標のうちの最大値および最小値とを算出して、全ての肌色の画素が含まれる領域を、ズーム領域の候補となる領域として定める。ここで、肌色である画素のX座標のうちの最大値および最小値をそれぞれXmax、Xminとし、肌色である画素のY座標のうちの最大値および最小値をそれぞれYmax、Yminとすると、領域決定部111は、XY空間上における、Xmin≦X≦Xmaxの範囲と、Ymin≦Y≦Ymaxの範囲とで囲まれる領域が含まれる領域を、ズーム領域の候補となる領域として定める。なお、ズーム領域の候補となる領域は、表示部96の表示画面と相似形(同じアスペクト比)となるように定められる。
For example, the
また、領域決定部111が、肌色の領域を検出する対象となる領域上において、肌色の画素が連続する領域を検出して、検出された領域のうち、最も面積(画素数)の大きい領域をズーム領域の候補となる領域とするようにしてもよい。この場合、図11に示した例では、肌色の画素が連続する領域として、領域181乃至領域183が検出され、最も面積の大きい領域181を含む領域が、ズーム領域の候補となる領域として定められる。
In addition, the
さらに、領域決定部111が、肌色の領域を検出する対象となる領域上において、肌色の画素が連続する領域を検出して、検出された領域のうち、最も全体画像の中心に近い領域を含む領域を、ズーム領域の候補となる領域とするようにしてもよい。
Further, the
ズーム領域の候補となる領域が定められると、ステップS98において、パラメータ決定部112は、ズーム領域の候補となる領域を示す情報を基に、ズーム領域の候補となる領域の中心座標を算出する。例えば、ズーム領域の候補となる領域が、XY空間上におけるXmin≦X≦Xmaxの範囲と、Ymin≦Y≦Ymaxの範囲とで囲まれる領域であるとすると、パラメータ決定部112は、中心座標(Xi,Yi)のX座標XiおよびY座標Yiを、式(15)および式(16)により算出する。
When the zoom region candidate region is determined, in step S98, the
Xi=(Xmin+Xmax)/2 ・・・(15) Xi = (Xmin + Xmax) / 2 (15)
Yi=(Ymin+Ymax)/2 ・・・(16) Yi = (Ymin + Ymax) / 2 (16)
ステップS99において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、XY空間上における、ズーム領域の候補となる領域のX方向の長さ(画素数)をXidとし、表示部96の表示画面のX方向の長さ(画素数)をXdとすると、パラメータ決定部112は、式(17)によりズーム倍率Ziを算出する。
In step S99, the
Zi=Xd/Xid ・・・(17) Zi = Xd / Xid (17)
このようにして、画像処理部95は、肌色の領域を検出し、その検出結果に基づいて、ズーム領域の候補となる領域を定める。
In this way, the
このように、肌色の領域を検出し、その検出結果を基にズーム領域の候補となる領域を定めることで、ユーザは、いちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。 In this way, by detecting the skin color area and determining the candidate areas for the zoom area based on the detection result, the user does not need to specify the zoom area one by one, and the entire image can be obtained with a simpler operation. You can enjoy watching images by observing the details.
また、肌色の領域を検出して、ズーム領域の候補となる領域を定めることで、全体画像上において、ユーザに注目されることが多い、人(すなわち、肌色の領域)が含まれる領域を、ズーム画像として拡大し、効果的に表示することができる。 In addition, by detecting a skin color region and determining a region that is a candidate for a zoom region, a region that includes a person (that is, a skin color region) that is often noticed by the user on the entire image, It can be enlarged and displayed effectively as a zoom image.
なお、肌色の領域の検出結果を基に、ズーム領域の候補となる領域を定める方法は、表示装置21ごとに異なる方法としてもよい。例えば、表示装置21−1は、全ての肌色の画素が含まれる領域を候補となる領域とし、表示装置21−2は、肌色の画素が連続する領域のうち、最も面積の大きい領域が含まれる領域を、候補となる領域とするようにすることができる。
Note that a method for determining a region that is a candidate for the zoom region based on the detection result of the skin color region may be different for each
また、選択した画素が肌色の画素であるか否かの判定に用いられるHの値の範囲も、表示装置21ごとに変化させるようにしてもよい。これにより、表示装置21には、肌色の領域でも、比較的明るい肌色の領域を検出させたり、比較的暗い肌色の領域を検出させたりすることができる。さらに、以上においては、全体画像から肌色の領域を検出すると説明したが、肌色以外の色の領域を検出してズーム領域としたり、HSV形式の色空間のSまたはVの値を算出して、全体画像上の画素のうち、SまたはVの値に基づく所定の条件を満たす画素を含む領域を検出してズーム領域としたりしてもよい。
Further, the range of the value of H used for determining whether or not the selected pixel is a skin color pixel may be changed for each
ところで、図7のフローチャートを参照して説明した自動ズーム処理では、ステップS61(肌色領域の検出処理)において、肌色の領域を検出してズーム領域の候補となる領域を定めると説明したが、ステップS61の処理において、全体画像から、いわゆる前景等となっているもの(例えば、物体や人など)の一部分(または全部)であるオブジェクトを検出し、検出されたオブジェクトを含む領域をズーム領域の候補となる領域とすることもできる。 Incidentally, in the automatic zoom process described with reference to the flowchart of FIG. 7, it has been described that in step S <b> 61 (skin color area detection process), a skin color area is detected to determine a zoom area candidate area. In the process of S61, an object which is a part (or all) of what is called a foreground (for example, an object or a person) is detected from the entire image, and an area including the detected object is selected as a zoom area candidate. It can also be set as an area.
そのような場合、表示装置は、例えば、図12に示すように構成される。 In such a case, the display device is configured as shown in FIG. 12, for example.
表示装置211は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部231を含むように構成される。なお、表示装置211の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。
The
画像処理部231は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から所定のオブジェクトを検出して、そのオブジェクトを含む領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部231は、オブジェクト選択部241、パラメータ決定部112、およびズーム処理部113を含むように構成される。なお、パラメータ決定部112およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。
Under the control of the
オブジェクト選択部241は、信号取得部94から供給された画像データに基づく画像(全体画像)からオブジェクトを検出する。オブジェクト選択部241は、検出したオブジェクトから、拡大して表示させるオブジェクトを選択し、そのオブジェクトを示す情報をパラメータ決定部112に供給する。オブジェクト選択部241は、検出部251および変数保持部252を含むように構成される。
The
オブジェクト選択部241の変数保持部252は、オブジェクトを検出するために必要な所定の変数を保持する。オブジェクト選択部241の検出部251は、変数保持部252に保持されている変数を用いて、全体画像からオブジェクトを検出する。
The
表示装置211は、図7を参照して説明した自動ズーム処理を行い、ステップS61の処理において、オブジェクトを含む領域をズーム領域の候補となる領域として定める。以下、図13のフローチャートを参照して、画像処理部231によるオブジェクト領域の検出処理について説明する。
The
ステップS121において、オブジェクト選択部241は、オブジェクト検出処理を行う。なお、オブジェクト検出処理の詳細は後述するが、オブジェクト検出処理において、オブジェクト選択部241は、全体画像からオブジェクトを検出する。
In step S121, the
なお、全体画像上において、オブジェクトを検出する対象となる領域は、全体画像の全体としてもよく、全体画像のうちの一部の領域としてもよい。さらに、オブジェクトを検出する対象となる領域は、表示装置211ごとに予め定めておくようにしてもよく、ユーザが設定できるようにしてもよい。
It should be noted that the area on which the object is detected on the whole image may be the whole whole image or a part of the whole image. Furthermore, an area that is a target for detecting an object may be predetermined for each
ステップS122において、オブジェクト選択部241は、検出したオブジェクトから、ズーム画像として表示するオブジェクトの候補を選択する。
In step S122, the
例えば、オブジェクト選択部241は、検出されたオブジェクトのうち、ある程度の大きさのオブジェクトは、拡大して表示しなくても十分な大きさで表示されているとして、比較的小さいオブジェクトを、表示するオブジェクトの候補として選択する。オブジェクト選択部241は、検出された各オブジェクトの面積(オブジェクトの画素数)を算出し、各オブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを候補として選択する。
For example, the
また、面積が10画素程度であるオブジェクトはノイズであるとして、表示するオブジェクトの候補から除外するようにしてもよい。この場合には、オブジェクト選択部241は、検出されたオブジェクトのうち、面積が予め定められた所定の範囲内の値であるオブジェクトを候補として選択する。
In addition, an object having an area of about 10 pixels may be excluded from the candidate objects to be displayed, assuming that it is noise. In this case, the
さらに、オブジェクト選択部241は、検出されたオブジェクトから、面積が小さい順に、予め定められた所定の数だけオブジェクトを選択して、選択されたオブジェクトを表示するオブジェクトの候補としたり、検出されたオブジェクトの面積の平均値を求めて、求められた平均値の10分の1よりも小さいオブジェクトを、表示するオブジェクトの候補として選択したりしてもよい。
Furthermore, the
ズーム画像として表示するオブジェクトの候補が選択されると、ステップS123において、オブジェクト選択部241は、選択したオブジェクトの候補から、ズーム画像として表示するオブジェクトを選択する。オブジェクト選択部241は、オブジェクトを選択すると、選択したオブジェクトを示す情報を生成してパラメータ決定部112に供給する。
When an object candidate to be displayed as a zoom image is selected, in step S123, the
オブジェクト選択部241は、候補として選択されたオブジェクトが1つである場合、そのオブジェクトをズーム画像として表示するオブジェクトとして選択する。また、候補として選択されたオブジェクトが複数ある場合には、オブジェクト選択部241は、複数の候補の中から1または複数のオブジェクトを、表示するオブジェクトとして選択する。
When there is one object selected as a candidate, the
複数の候補の中からオブジェクトを選択する場合、例えば、オブジェクト選択部241は、オブジェクトの面積が小さい順に、所定の数のオブジェクトを選択したり、オブジェクトの位置が全体画像の中心に近い順に、所定の数のオブジェクトを選択したりする。また、オブジェクト選択部241が、複数の候補の中から、所定の色のオブジェクトをズーム画像として表示するオブジェクトとして選択するようにしてもよい。この場合には、例えば、複数の候補の中から肌色のオブジェクトを選択することによって、人の画像をズーム画像として表示させることができる。
When selecting an object from among a plurality of candidates, for example, the
さらに、例えば、オブジェクト選択部241が、候補として選択された全てのオブジェクトを、ズーム画像として表示するオブジェクトとして選択したり、複数の候補のうち、互いに隣接している複数のオブジェクトを、ズーム画像として表示する1つのオブジェクトとして選択したりするようにしてもよい。
Further, for example, the
このようにして、検出されたオブジェクトから、表示するオブジェクトの候補を選択し、さらに、その候補から、表示するオブジェクトを選択することで、所定の条件を満たすオブジェクトを選択することができる。 In this manner, an object that satisfies a predetermined condition can be selected by selecting a candidate for an object to be displayed from the detected objects and further selecting an object to be displayed from the candidates.
ズーム画像として表示するオブジェクトが選択されると、ステップS124において、パラメータ決定部112は、オブジェクト選択部241から供給された、ズーム画像として表示するオブジェクトを示す情報を基に、その情報により示されるオブジェクトを含む領域をズーム領域の候補となる領域とし、その領域の中心座標を算出する。
When an object to be displayed as a zoom image is selected, in step S124, the
例えば、オブジェクト選択部241が、ズーム画像として表示するオブジェクトとして、1つのオブジェクトを選択した場合、パラメータ決定部112は、選択されたオブジェクトのXY空間上における重心の座標を、中心座標として算出する。
For example, when the
ここで、オブジェクト選択部241により選択されたオブジェクトを構成するN個(但しNは自然数)の画素のそれぞれを、画素Gk(1≦k≦N)とし、XY空間上の画素Gkの座標を(Xk,Yk)とすると、パラメータ決定部112は、中心座標(Xi,Yi)のX座標Xi、およびY座標Yiを式(18)および式(19)により算出する。
Here, each of N pixels (where N is a natural number) constituting the object selected by the
Xi=(ΣXk)/N ・・・(18) Xi = (ΣXk) / N (18)
Yi=(ΣYk)/N ・・・(19) Yi = (ΣYk) / N (19)
ここで、式(18)におけるΣは、Xkのkを1からNまで変えて総和をとることを表わし、式(19)におけるΣは、Ykのkを1からNまで変えて総和をとることを表わす。 Here, Σ in the equation (18) represents that the sum of Xk is changed from 1 to N, and Σ in the equation (19) is the sum of Yk changed from 1 to N. Represents.
また、例えば、オブジェクト選択部241が、ズーム画像として表示するオブジェクトとして、複数のオブジェクトを選択した場合、パラメータ決定部112は、選択された複数のオブジェクトを含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標として算出する。さらに、選択されたオブジェクトが1つである場合にも、そのオブジェクトを含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標としてもよく、選択されたオブジェクトが複数である場合にも、選択されたそれぞれのオブジェクトを構成する画素のXY空間上における重心の座標を、中心座標としてもよい。
For example, when the
ステップS125において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム倍率Ziを算出する。
In step S125, the
このようにして、画像処理部231は、全体画像からオブジェクトを検出し、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを含む領域をズーム領域の候補とする。これにより、表示部96には、所定の条件を満たすオブジェクトが拡大された画像が、ズーム画像として表示される。
In this way, the
例えば、図14Aに示すように、全体画像281が、人291と背景としての山とが写っている(表示されている)画像であるとする。表示装置211(画像処理部231)は、全体画像281からオブジェクトを検出し、例えば、検出されたオブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを、表示するオブジェクトの候補として選択し、さらにその候補から、1つのオブジェクトを選択する。
For example, as shown in FIG. 14A, it is assumed that the
図14Bに示すように、表示装置211がズーム画像として表示するオブジェクトとして、全体画像281に写っている(表示されている)人291の顔292の部分が選択されると、表示装置211は、表示部96に図14Cに示すズーム画像301を表示する。図14Cでは、ズーム画像301には、選択されたオブジェクトとしての顔292が表示されている。
As illustrated in FIG. 14B, when the portion of the
また、例えば、図15Aに示すように、全体画像321が、人331、飛行物体332、および背景としての山が写っている(表示されている)画像であるとする。表示装置211は、全体画像321からオブジェクトを検出し、例えば、検出されたオブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを、表示するオブジェクトの候補として選択する。
Further, for example, as shown in FIG. 15A, it is assumed that the
その結果、例えば、図15Bに示すように、全体画像321から、ズーム画像として表示するオブジェクトの候補として、人331の顔341、人331の胴体342、および飛行物体332が選択される。
As a result, for example, as shown in FIG. 15B, the
表示装置211が、全ての候補をズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、表示部96に図15Cに示すズーム画像351を表示する。図15Cでは、ズーム画像351には、選択されたオブジェクトとしての人331の顔341および胴体342と、飛行物体332とが表示されている。
When the
また、例えば、表示装置211が、互いに隣接している複数のオブジェクトを、ズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、図15Bの全体画像321上において、互いに隣接しているオブジェクトとしての人331の顔341および胴体342を選択し、表示部96に図15Dに示すズーム画像352を表示する。図15Dでは、ズーム画像352には、選択されたオブジェクトとしての顔341および胴体342からなる人331が表示されている。
For example, when the
さらに、例えば、表示装置211が、最も面積が小さい候補をズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、図15Bの全体画像321上において、最も面積が小さいオブジェクトである飛行物体332を選択して、表示部96に、図15Eに示すズーム画像353を表示する。図15Eでは、ズーム画像353には、最も面積が小さいオブジェクトとして選択された、オブジェクトとしての飛行物体332が表示されている。
Further, for example, when the
このように、画像処理部231は、全体画像からオブジェクトを検出し、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを含む領域をズーム領域の候補とするので、ユーザはいちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。
In this manner, the
また、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを選択することで、ユーザの要望(ニーズ)に合ったオブジェクトを拡大して効果的に表示することができる。これによりユーザは、全体画像上の見たいと思うオブジェクトの細部まで観察することができる。 In addition, by selecting an object that satisfies a predetermined condition from the detected objects, it is possible to enlarge and effectively display an object that meets the user's needs (needs). As a result, the user can observe the details of the object he / she wants to see on the entire image.
特に、本出願人が行ったアンケートでは、全体画像に表示されているオブジェクトのうち、拡大して表示させたいオブジェクトとして、人物以外の小さいオブジェクトと回答した人が多かったという結果が得られている。 In particular, in a questionnaire conducted by the present applicant, among the objects displayed in the entire image, there was a result that there were many people who answered that they were small objects other than people as objects to be enlarged and displayed. .
したがって、上述したように、面積が予め定められた所定の値以下であるオブジェクトを候補として選択するなどして、検出されたオブジェクトのうち、比較的小さい(面積が小さい)オブジェクトをズーム画像のオブジェクトとすることにより、全体画像上のオブジェクトのうちの比較的小さいオブジェクトを自動的に検出し、拡大して表示することができる。これにより、全体画像上における、ユーザが拡大させて見たいと思うオブジェクトを、拡大してより見やすく表示することができる。ユーザは、自分が見たいと思うオブジェクトが拡大されて表示されるので、全体画像上における小さいオブジェクトを凝視する必要がなくなり、全体画像の視聴時におけるユーザのストレスも軽減される。 Therefore, as described above, an object whose area is equal to or less than a predetermined value is selected as a candidate, and among the detected objects, a relatively small (small area) object is selected as an object of the zoom image. By doing so, it is possible to automatically detect a relatively small object among the objects on the entire image and display it in an enlarged manner. Thereby, the object that the user wants to enlarge and see on the entire image can be enlarged and displayed more easily. Since the object that the user wants to see is enlarged and displayed, the user does not need to stare at a small object on the entire image, and the stress on the user when viewing the entire image is reduced.
なお、ズーム画像のオブジェクトとして、小さいオブジェクトに限らず、予め定められた所定の値よりも大きいオブジェクトや、全体画像の中心に近いオブジェクトを選択するようにしてもよい。 Note that the zoom image object is not limited to a small object, and an object larger than a predetermined value or an object close to the center of the entire image may be selected.
次に、図16のフローチャートを参照して、図13のステップS121の処理に対応する、オブジェクト検出処理について説明する。上述したように、このオブジェクト検出処理においてオブジェクト選択部241は、全体画像からオブジェクトを検出する。
Next, the object detection process corresponding to the process of step S121 of FIG. 13 will be described with reference to the flowchart of FIG. As described above, in this object detection process, the
ステップS151において、検出部251は初期化処理を行う。例えば、検出部251は、オブジェクトを検出する対象となる領域に含まれている、全ての画素のオブジェクト番号を0とする。ここで、オブジェクト番号とは、全体画像上のオブジェクトを特定するための番号をいい、検出部251は、全ての画素に1以上の所定の数をオブジェクト番号として付して、オブジェクトに分類する。また、オブジェクト番号0は、その画素は、未だどのオブジェクトにも分類されていないことを示している。
In step S151, the
例えば、図17に示す領域381を、オブジェクトを検出する対象となる領域とすると、検出部251は、初期化処理において、領域381に含まれる全ての画素にオブジェクト番号0を付す。なお、図中、領域381に含まれる1つの四角形は、1つの画素を表わしている。
For example, if the
また、図中、一番左上の画素を基準として、右方向にi番目であり、下方向にj番目である画素を画素G(i,j)とし、画素G(i,j)のオブジェクト番号をObj(i,j)とする。検出部251は、初期化処理を行った後、画素G(i,j)を特定するための変数i、および変数jを変化させて、領域381に含まれる全ての画素G(i,j)に対して、オブジェクト番号Obj(i,j)を付すことにより、画素G(i,j)を、オブジェクト番号Obj(i,j)により示されるオブジェクトに分類する。
Also, in the figure, the pixel that is i-th in the right direction and j-th in the downward direction with the pixel at the top left as a reference is the pixel G (i, j), and the object number of the pixel G (i, j) Is Obj (i, j). After performing the initialization process, the
なお、以下では、領域381の図中、一番右側の列の画素を画素G(w,j)とし、領域381の図中、一番下の行の画素を画素G(i,h)として説明する。したがって、図17の例においては、w=6であり、h=4である。
In the following description, the pixel in the rightmost column in the drawing of the
図16のフローチャートの説明に戻り、初期化処理が行われると、ステップS152において、検出部251は、変数保持部252が保持している変数i、変数j、および変数numを、それぞれi=1、j=1、およびnum=1とする。
Returning to the description of the flowchart of FIG. 16, when initialization processing is performed, in step S152, the
ここで、変数iおよび変数jは、画素G(i,j)を特定するための変数であり、i=1、およびj=1である状態においては、画素G(i,j)は、画素G(1,1)を示すものとする。したがって、図17の例においては、i=1、およびj=1である場合、画素G(i,j)とは、図中、一番左上の画素を示している。また、変数numは、各画素G(i,j)に付されるオブジェクト番号を示す変数である。 Here, the variable i and the variable j are variables for specifying the pixel G (i, j). In a state where i = 1 and j = 1, the pixel G (i, j) Let G (1,1) denote. Therefore, in the example of FIG. 17, when i = 1 and j = 1, the pixel G (i, j) indicates the upper leftmost pixel in the drawing. A variable num is a variable indicating an object number assigned to each pixel G (i, j).
ステップS153において、検出部251は、オブジェクト番号Obj(i,j)=0であるか否かを判定する。例えば、初期化処理が行われ、変数i、変数j、および変数numが、それぞれi=1、j=1、およびnum=1である場合、すなわち、ステップS152からステップS153に進んだ場合、まだ全ての画素のオブジェクト番号が0であり、オブジェクトに分類されていない。この場合、画素G(i,j)は、i=1、j=1であるからG(1,1)であり、G(1,1)のオブジェクト番号Obj(1,1)も0であるから、検出部251は、Obj(i,j)=0であると判定する。
In step S153, the
ステップS153において、Obj(i,j)=0であると判定された場合、ステップS154に進み、検出部251は、Obj(i,j)=numとする。例えば、変数保持部252が保持している変数i、変数j、および変数numが、それぞれi=1、j=1、およびnum=1である場合、検出部251は、Obj(1,1)=1とする。
If it is determined in step S153 that Obj (i, j) = 0, the process proceeds to step S154, and the
ステップS155において、検出部251は差分演算処理を行う。なお、差分演算処理の詳細は後述するが、差分演算処理において、検出部251は、変数保持部252が保持している変数i、変数jにより特定される画素G(i,j)の画素値と、画素G(i,j)に隣接する画素G(i,j−1)、画素G(i−1,j)、画素G(i+1,j)、および画素G(i,j+1)のそれぞれの画素値との差分を計算する。検出部251は、計算された差分の絶対値が、予め定められた閾値よりも小さい画素のオブジェクト番号に、画素G(i,j)のオブジェクト番号Obj(i,j)と同じ番号を付し、画素G(i,j)と同じオブジェクトに分類する。
In step S155, the
ステップS156において、検出部251は、変数保持部252が保持している変数numをインクリメントし、ステップS157に進む。
In step S156, the
また、ステップS153において、Obj(i,j)=0でないと判定された場合、既に画素G(i,j)には、オブジェクト番号が付されており、オブジェクトに分類されているので、ステップS154の処理乃至ステップS156の処理はスキップされて、ステップS157に進む。 If it is determined in step S153 that Obj (i, j) = 0 is not satisfied, the pixel G (i, j) has already been assigned an object number and is classified as an object. The processes from step S156 to step S156 are skipped, and the process proceeds to step S157.
ステップS156において、変数numがインクリメントされるか、ステップS153において、Obj(i,j)=0でないと判定されると、ステップS157において、検出部251は、変数保持部252が保持している変数iが、i=wであるか否かを判定する。例えば、オブジェクトを検出する対象となる領域が、図17に示した領域381であり、変数iが、i=6である場合、検出部251はi=wであると判定する。
If the variable num is incremented in step S156, or if it is determined in step S153 that Obj (i, j) = 0 is not satisfied, the
ステップS157において、i=wでないと判定された場合、ステップS158に進み、検出部251は、変数保持部252が保持している変数iをインクリメントして、ステップS153に戻る。このように、検出部251は、ステップS157において、i=wであると判定されるまで、変数iを1からwに変えて、それぞれの画素G(i,j)(j行目の全ての画素)にオブジェクト番号を付し、オブジェクトに分類する。
If it is determined in step S157 that i = w is not satisfied, the process proceeds to step S158, and the
また、ステップS157において、i=wであると判定された場合、ステップS159に進み、検出部251は、変数保持部252が保持している変数jが、j=hであるか否かを判定する。例えば、オブジェクトを検出する対象となる領域が、図17に示した領域381であり、変数jが、j=4である場合、検出部251はj=hであると判定する。
If it is determined in step S157 that i = w, the process proceeds to step S159, and the
ステップS159において、j=hでないと判定された場合、まだ全ての画素をオブジェクトに分類していないので、ステップS160に進み、検出部251は、変数保持部252が保持している変数iを、i=1とする。
If it is determined in step S159 that j = h is not satisfied, since all the pixels have not yet been classified as objects, the process proceeds to step S160, and the
ステップS161において、検出部251は、変数保持部252が保持している変数jをインクリメントし、ステップS153に戻る。このように、検出部251は、ステップS159において、j=hであると判定されるまで、変数jを1からhに変えて、それぞれの画素G(i,j)にオブジェクト番号を付し、オブジェクトに分類する。
In step S161, the
また、ステップS159において、j=hであると判定された場合、全ての画素をオブジェクトに分類したので、処理は図13のステップS122に進む。 If it is determined in step S159 that j = h, all the pixels are classified as objects, and the process proceeds to step S122 in FIG.
このようにして、検出部251は、オブジェクトを検出する対象となる領域に含まれる全ての画素に、オブジェクト番号を付してオブジェクトに分類する。例えば、図17に示した領域381からオブジェクトを検出する場合、検出部251は、図中、一番上の行の各画素を、一番左側の画素から一番右側の画素まで順番に選択してオブジェクトに分類し、順次、次の行の各画素を、一番左側の画素から一番右側の画素まで順番に選択してオブジェクトに分類して、一番上の行から一番下の行まで順番に、各画素をオブジェクトに分類していく。
In this way, the
ここで、オブジェクト番号が同一の画素は、同じオブジェクトに含まれる(オブジェクトを構成する)画素とされる。換言すれば、1つのオブジェクトは、そのオブジェクトを特定するオブジェクト番号が付された画素からなる全体画像上の領域とされる。 Here, pixels having the same object number are pixels included in the same object (constitute the object). In other words, one object is an area on the entire image made up of pixels to which an object number specifying the object is attached.
次に、図18および図19のフローチャートを参照して、図16のステップS155の処理に対応する差分演算処理について説明する。 Next, the difference calculation process corresponding to the process of step S155 of FIG. 16 will be described with reference to the flowcharts of FIGS.
ステップS201において、検出部251は、画素G(i,j)と隣接する画素G(i,j−1)のオブジェクト番号が、Obj(i,j−1)=0であるか否かを判定する。すなわち、検出部251は、画素G(i,j)と隣接する画素G(i,j−1)が、すでにオブジェクトに分類されているか否かを判定する。
In step S201, the
ステップS201において、Obj(i,j−1)=0であると判定された場合、画素G(i,j−1)は、まだオブジェクトに分類されていないので、ステップS202に進み、検出部251は、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分を計算する。
If it is determined in step S201 that Obj (i, j-1) = 0, the pixel G (i, j-1) is not yet classified as an object, so the process proceeds to step S202, and the
例えば、検出部251は、画素G(i,j)の画素値、および画素G(i,j−1)の画素値を基に、画素G(i,j)の輝度値、および画素G(i,j−1)の輝度値を計算し、その結果得られた輝度値の差を求めることにより、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分を計算する。
For example, based on the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i, j−1), the
ステップS203において、検出部251は、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。
In step S203, the
ステップS203において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i,j−1)は同じオブジェクトの画素であるとされて、ステップS204に進み、検出部251は、画素G(i,j−1)のオブジェクト番号を、Obj(i,j−1)=numとする。例えば、変数保持部252に保持されている変数numが、num=1である場合、検出部251は、Obj(i,j−1)=1とする。
If it is determined in step S203 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j-1) are assumed to be pixels of the same object. In step S204, the
ステップS205において、検出部251は、変数保持部252に保持されている変数jをデクリメントする。
In step S205, the
ステップS206において、検出部251は、差分演算処理を行う。なお、ステップS206における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。
In step S206, the
ステップS207において、検出部251は、変数保持部252に保持されている変数jをインクリメントし、処理はステップS208に進む。
In step S207, the
また、ステップS203において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i,j−1)は同じオブジェクトの画素ではないとされ、ステップS204の処理乃至ステップS207の処理はスキップされて、ステップS208に進む。 If it is determined in step S203 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j-1) are pixels of the same object. If not, the process from step S204 to step S207 is skipped, and the process proceeds to step S208.
さらに、ステップS201において、Obj(i,j−1)=0でないと判定された場合、画素G(i,j−1)は、すでにオブジェクトに分類されているので、ステップS202の処理乃至ステップS207の処理はスキップされて、ステップS208に進む。 Furthermore, if it is determined in step S201 that Obj (i, j-1) = 0, the pixel G (i, j-1) has already been classified as an object, so the process from step S202 to step S207 are performed. This process is skipped and the process proceeds to step S208.
ステップS201において、Obj(i,j−1)=0でないと判定されるか、ステップS203において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS207において、変数jがインクリメントされると、ステップS208において、検出部251は、画素G(i,j)と隣接する画素G(i−1,j)のオブジェクト番号が、Obj(i−1,j)=0であるか否かを判定する。
In step S201, it is determined that Obj (i, j-1) = 0 is not satisfied, in step S203, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S207. In step S208, the
ステップS208において、Obj(i−1,j)=0であると判定された場合、画素G(i−1,j)は、まだオブジェクトに分類されていないので、ステップS209に進み、検出部251は、画素G(i,j)の画素値と、画素G(i−1,j)の画素値との差分を計算する。
If it is determined in step S208 that Obj (i−1, j) = 0, the pixel G (i−1, j) has not yet been classified as an object, so the process proceeds to step S209, and the
ステップS210において、検出部251は、画素G(i,j)の画素値と、画素G(i−1,j)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。
In step S210, the
ステップS210において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i−1,j)は同じオブジェクトの画素であるとされて、ステップS211に進み、検出部251は、画素G(i−1,j)のオブジェクト番号を、Obj(i−1,j)=numとする。
If it is determined in step S210 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i-1, j) are determined to be pixels of the same object. In step S211, the
ステップS212において、検出部251は、変数保持部252に保持されている変数iをデクリメントする。
In step S <b> 212, the
ステップS213において、検出部251は、差分演算処理を行う。なお、ステップS213における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。
In step S213, the
ステップS214において、検出部251は、変数保持部252に保持されている変数iをインクリメントし、処理はステップS215に進む。
In step S214, the
また、ステップS210において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i−1,j)は同じオブジェクトの画素ではないとされ、ステップS211の処理乃至ステップS214の処理はスキップされて、ステップS215に進む。 If it is determined in step S210 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i-1, j) are pixels of the same object. If not, the process from step S211 to step S214 is skipped, and the process proceeds to step S215.
さらに、ステップS208において、Obj(i−1,j)=0でないと判定された場合、画素G(i−1,j)は、すでにオブジェクトに分類されているので、ステップS209の処理乃至ステップS214の処理はスキップされて、ステップS215に進む。 Further, if it is determined in step S208 that Obj (i-1, j) = 0, the pixel G (i-1, j) has already been classified as an object, so the processing from step S209 to step S214. This process is skipped, and the process proceeds to step S215.
ステップS208において、Obj(i−1,j)=0でないと判定されるか、ステップS210において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS214において、変数iがインクリメントされると、ステップS215において、検出部251は、画素G(i,j)と隣接する画素G(i+1,j)のオブジェクト番号が、Obj(i+1,j)=0であるか否かを判定する。
In step S208, it is determined that Obj (i-1, j) = 0 is not satisfied, in step S210, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S214. When the variable i is incremented, in step S215, the
ステップS215において、Obj(i+1,j)=0であると判定された場合、画素G(i+1,j)は、まだオブジェクトに分類されていないので、ステップS216に進み、検出部251は、画素G(i,j)の画素値と、画素G(i+1,j)の画素値との差分を計算する。
If it is determined in step S215 that Obj (i + 1, j) = 0, the pixel G (i + 1, j) is not yet classified as an object, so the process proceeds to step S216, and the
ステップS217において、検出部251は、画素G(i,j)の画素値と、画素G(i+1,j)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。
In step S217, the
ステップS217において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i+1,j)は同じオブジェクトの画素であるとされて、ステップS218に進み、検出部251は、画素G(i+1,j)のオブジェクト番号を、Obj(i+1,j)=numとする。
If it is determined in step S217 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i + 1, j) are assumed to be pixels of the same object. In step S218, the
ステップS219において、検出部251は、変数保持部252に保持されている変数iをインクリメントする。
In step S219, the
ステップS220において、検出部251は、差分演算処理を行う。なお、ステップS220における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。
In step S220, the
ステップS221において、検出部251は、変数保持部252に保持されている変数iをデクリメントし、処理はステップS222に進む。
In step S221, the
また、ステップS217において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i+1,j)は同じオブジェクトの画素ではないとされ、ステップS218の処理乃至ステップS221の処理はスキップされて、ステップS222に進む。 If it is determined in step S217 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i + 1, j) are not pixels of the same object. Then, the process from step S218 to step S221 is skipped, and the process proceeds to step S222.
さらに、ステップS215において、Obj(i+1,j)=0でないと判定された場合、画素G(i+1,j)は、すでにオブジェクトに分類されているので、ステップS216の処理乃至ステップS221の処理はスキップされて、ステップS222に進む。 Furthermore, if it is determined in step S215 that Obj (i + 1, j) = 0, the pixel G (i + 1, j) has already been classified as an object, so the processing from step S216 to step S221 is skipped. Then, the process proceeds to step S222.
ステップS215において、Obj(i+1,j)=0でないと判定されるか、ステップS217において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS221において、変数iがデクリメントされると、ステップS222において、検出部251は、画素G(i,j)と隣接する画素G(i,j+1)のオブジェクト番号が、Obj(i,j+1)=0であるか否かを判定する。
In step S215, it is determined that Obj (i + 1, j) = 0, or in step S217, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S221, When the variable i is decremented, in step S222, the
ステップS222において、Obj(i,j+1)=0であると判定された場合、画素G(i,j+1)は、まだオブジェクトに分類されていないので、ステップS223に進み、検出部251は、画素G(i,j)の画素値と、画素G(i,j+1)の画素値との差分を計算する。
If it is determined in step S222 that Obj (i, j + 1) = 0, the pixel G (i, j + 1) has not yet been classified as an object, so the process proceeds to step S223, and the
ステップS224において、検出部251は、画素G(i,j)の画素値と、画素G(i,j+1)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。
In step S224, the
ステップS224において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i,j+1)は同じオブジェクトの画素であるとされて、ステップS225に進み、検出部251は、画素G(i,j+1)のオブジェクト番号を、Obj(i,j+1)=numとする。
If it is determined in step S224 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j + 1) are assumed to be pixels of the same object. In step S225, the
ステップS226において、検出部251は、変数保持部252に保持されている変数jをインクリメントする。
In step S226, the
ステップS227において、検出部251は、差分演算処理を行う。なお、ステップS227における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。
In step S227, the
ステップS228において、検出部251は、変数保持部252に保持されている変数jをデクリメントし、処理は図16のステップS156に進む。
In step S228, the
また、ステップS224において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i,j+1)は同じオブジェクトの画素ではないとされ、ステップS225の処理乃至ステップS228の処理はスキップされて、処理は図16のステップS156に進む。 If it is determined in step S224 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j + 1) are not pixels of the same object. Then, the process from step S225 to step S228 is skipped, and the process proceeds to step S156 in FIG.
さらに、ステップS222において、Obj(i,j+1)=0でないと判定された場合、画素G(i,j+1)は、すでにオブジェクトに分類されているので、ステップS223の処理乃至ステップS228の処理はスキップされて、処理は図16のステップS156に進む。 Furthermore, if it is determined in step S222 that Obj (i, j + 1) = 0 is not satisfied, the pixel G (i, j + 1) has already been classified as an object, so the processing from step S223 to step S228 is skipped. Then, the process proceeds to step S156 in FIG.
なお、ステップS201の処理、ステップS208の処理、ステップS215の処理、またはステップS222の処理において、画素G(i,j)に隣接する画素が、オブジェクトを検出する対象となる領域の画素ではない場合には、画素G(i,j)に隣接する画素のオブジェクト番号は、0ではないと判定される。 Note that, in the process of step S201, the process of step S208, the process of step S215, or the process of step S222, the pixel adjacent to the pixel G (i, j) is not a pixel in a region that is a target for detecting an object. , It is determined that the object number of the pixel adjacent to the pixel G (i, j) is not zero.
このようにして、検出部251は、変数保持部252が保持している変数i、変数jにより特定される画素G(i,j)の画素値と、画素G(i,j)に隣接する画素の画素値との差分を計算する。そして、検出部251は、計算された差分の絶対値が、予め定められた閾値よりも小さい場合、画素G(i,j)と隣接する画素は、画素G(i,j)と同じオブジェクトに分類されるとして、その画素のオブジェクト番号に、画素G(i,j)のオブジェクト番号Obj(i,j)と同じ番号を付す。
In this way, the
このように、所定の画素の画素値と、その画素に隣接する画素の画素値との差分を計算し、その結果に基づいて、画素にオブジェクト番号を付すことによって、全体画像からオブジェクトを検出することができる。これにより、検出されたオブジェクトを含む領域をズーム領域の候補とすることができ、ユーザは、いちいちズーム領域を指定する必要がなくなるので、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。 In this way, an object is detected from the entire image by calculating the difference between the pixel value of a predetermined pixel and the pixel value of a pixel adjacent to that pixel, and assigning an object number to the pixel based on the result. be able to. As a result, the area including the detected object can be a candidate for the zoom area, and the user does not need to specify the zoom area one by one, so the details of the entire image can be observed with a simpler operation, You can enjoy viewing images.
ところで、スケーラブルテレビジョンシステム11(図1)においては、スケーラブルテレビジョンシステム11を構成する9台の表示装置21のそれぞれが、全体画像上の予め定められた領域(またはユーザにより定められた領域)から、肌色の領域を検出して、ズーム領域の候補となる領域を定めると説明したが、それぞれの表示装置21ごとに、肌色の領域を検出する対象となる領域を動的に決めるようにすることも可能である。
By the way, in the scalable television system 11 (FIG. 1), each of the nine
図4を参照して説明したように、互いに接続されている表示装置21は予め順序付けられており、それぞれの表示装置21(中央処理部93)は、自分自身の順番を示すID(自分自身を特定するID)を記憶している。そこで、表示装置21の順番に基づいて、肌色の領域を検出する対象となる領域を動的に決めることにより、それぞれの表示装置21が、それぞれ異なる領域から、肌色の領域を検出することができるようになる。
As described with reference to FIG. 4, the
例えば、表示装置21に供給された画像データに基づく画像(全体画像)が、図20Aに示す画像411であるとすると、複数の表示装置21は、画像411全体を肌色の領域を検出する対象として、画像411から、肌色の領域を検出する。
For example, if the image (entire image) based on the image data supplied to the
そして、図20Bに示すように、画像411から肌色の領域421が検出され、ズーム領域の候補とされると、記憶しているIDにより示される順番が、1番目である表示装置21は、この領域421をズーム領域として、ズーム画像を表示する。
Then, as shown in FIG. 20B, when the
これに対して、記憶しているIDにより示される順番が、1番目ではない表示装置21(2番目以降の表示装置21)は、図20Cに示すように、画像411から領域421を除いた領域を、肌色の領域を検出する対象とし、再び肌色の領域を検出する。
On the other hand, the
その結果、図20Dに示すように、画像411から領域421を除いた領域から、肌色の領域422が検出され、ズーム領域の候補とされると、記憶しているIDにより示される順番が、2番目である表示装置21は、この領域422をズーム領域として、ズーム画像を表示する。
As a result, as shown in FIG. 20D, when the skin-colored
さらに、記憶しているIDにより示される順番が、1番目および2番目ではない表示装置21(3番目以降の表示装置21)は、図20Eに示すように、画像411から領域421および領域422を除いた領域を、肌色の領域を検出する対象とし、さらに肌色の領域を検出する。
Further, the display device 21 (the third and subsequent display devices 21) whose order indicated by the stored ID is not the first and second, as shown in FIG. 20E, displays the
このように、表示装置21は、肌色の領域を検出する対象となる領域から、すでに肌色が検出され、ズーム領域の候補とされた領域が除かれた領域を、新たに肌色の領域を検出する対象となる領域として、自分自身の順番となるまで、肌色の領域を検出する処理を繰り返し行う。
As described above, the
次に、肌色の領域を検出する対象となる領域を動的に決める場合において、表示装置21が行う処理について説明する。スケーラブルテレビジョンシステム11を構成する表示装置21のうち、ズーム画像を表示する表示装置21は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置21は、図6のステップS32において、肌色の領域を検出する対象となる領域を動的に決めて、ズーム画像を表示する。
Next, a process performed by the
以下、図21のフローチャートを参照して、肌色の領域を検出する対象となる領域を動的に決める場合に表示装置21が行う、図6のステップS32の処理に対応する自動ズーム処理について説明する。
Hereinafter, the automatic zoom process corresponding to the process of step S32 of FIG. 6 performed by the
ステップS261において、中央処理部93は、記憶しているIDを参照して、自分自身の順番を定める。例えば、記憶しているIDにより示される順番が2番目である場合、中央処理部93は、自分自身の順番を2番とする。
In step S261, the
ステップS262において、画像処理部95は、中央処理部93の制御の基に、肌色領域の検出処理を行う。なお、ステップS262における肌色領域の検出処理は、図9のフローチャートを参照して説明した肌色領域の検出処理と同様であるため、その説明は省略する。また、肌色領域の検出処理において、画像処理部95は、予め定められた領域、またはステップS264において設定された領域を、検出の対象となる領域として、肌色の領域を検出し、ズーム領域の候補となる領域を定める。
In step S <b> 262, the
肌色の領域が検出されると、ステップS263において、中央処理部93は、自分の順番であるか否かを判定する。例えば、ステップS261において定めた順番が2番目である場合、全体画像から、肌色の領域を2回検出したとき(肌色領域の検出処理を2回行ったとき)、中央処理部93は、自分の順番であると判定する。
When the skin color region is detected, in step S263, the
ステップS263において、自分の順番でないと判定された場合、継続して肌色の領域を検出するので、ステップS264に進み、画像処理部95は、これまでズーム領域の候補とされた領域を除く領域を、肌色の領域の検出の対象となる領域として設定し、ステップS262に戻り、設定した領域から、肌色の領域を検出する。
If it is determined in step S263 that it is not the order of the player, the skin color area is continuously detected. Therefore, the process proceeds to step S264, and the
例えば、図20Dに示すように、画像(全体画像)411から、肌色の領域421(ズーム領域の候補となる領域)および領域422(ズーム領域の候補となる領域)が検出され、ステップS263において、自分の順番ではないと判定された場合、ステップS264において、画像処理部95は、図20Eに示したように、画像411から、領域421および領域422が除かれた領域を、次の肌色の領域を検出する対象となる領域として設定する。
For example, as shown in FIG. 20D, a skin color region 421 (a region that is a candidate for a zoom region) and a region 422 (a region that is a candidate for a zoom region) are detected from an image (entire image) 411, and in step S263, If it is determined that the order is not the order, in step S264, the
一方、ステップS263において、自分の順番であると判定された場合、ステップS265に進む。なお、ステップS265の処理およびステップS266の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。ステップS266において、画像(ズーム画像)が表示されると、処理は図6のステップS33に進む。 On the other hand, if it is determined in step S263 that it is the turn of the player, the process proceeds to step S265. Note that the processing in step S265 and the processing in step S266 are the same as the processing in step S65 and the processing in step S66 in FIG. If an image (zoom image) is displayed in step S266, the process proceeds to step S33 in FIG.
また、図7では、検出された肌色の領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにしたが、図21を参照して説明した自動ズーム処理においては、ステップS262において定められたズーム領域の候補となる領域、すなわち、検出された肌色の領域を含む領域がそのままズーム領域とされ、その領域が拡大されて表示される。なお、図7における場合と同様に、検出された肌色の領域を含む領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにすることも勿論可能である。 In FIG. 7, the detected skin color region is set as a candidate for the zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. However, the zoom region is described with reference to FIG. 21. In the automatic zoom process, a region that is a candidate for the zoom region determined in step S262, that is, a region including the detected skin color region is directly used as a zoom region, and the region is enlarged and displayed. As in the case of FIG. 7, it is possible to determine the zoom area by determining the area including the detected skin color area as a candidate for the zoom area and obtaining the center of gravity of the center coordinates and the average value of the zoom magnification. Is possible.
このようにして、表示装置21は、肌色の領域を検出する対象となる領域を動的に決めて、その領域から検出された肌色の領域を含む領域をズーム領域として、ズーム画像を表示する。
In this manner, the
このように、それぞれの表示装置21ごとに、肌色の領域を検出する対象となる領域を動的に決めるようにすることで、互いに接続されている表示装置21ごとに、異なる領域から肌色の領域を検出することができ、その結果、表示装置21ごとに異なるズーム画像をより効果的に表示させることができる。したがって、ユーザは、複数の表示装置21のそれぞれに表示されたズーム画像から、自分が見たいズーム画像を選択的に視聴することができる。
In this way, for each
なお、ステップS262において、肌色の領域を検出することにより、ズーム領域を定めると説明したが、表示装置を、図12を参照して説明した構成とし、ステップS262において、図13を参照して説明したオブジェクト領域の検出処理を行うようにしてもよい。この場合、表示装置211ごとに、オブジェクトを検出する対象となる領域が動的に決められ、その領域から検出されたオブジェクトを含む領域がズーム領域とされて、ズーム画像が表示される。
Although it has been described that the zoom region is determined by detecting the skin color region in step S262, the display device is configured as described with reference to FIG. 12, and in step S262, the description is made with reference to FIG. The detected object area may be detected. In this case, for each
また、表示装置の機能の構成を、図4を参照して説明した機能、および図12を参照して説明した機能を有する構成とし、ステップS262において、肌色領域の検出処理(図9)と、オブジェクト領域の検出処理(図13)とを交互に行ったりするようにしてもよい。この場合、例えば、1回目にズーム領域を定める時には、ステップS262において、肌色領域の検出処理が行われ、次にズーム領域を定めるとき(2回目にステップS262の処理を行うとき)には、ステップS262において、オブジェクト領域の検出処理が行われる。 Further, the function configuration of the display device is configured to have the function described with reference to FIG. 4 and the function described with reference to FIG. 12, and in step S262, a skin color area detection process (FIG. 9); The object area detection process (FIG. 13) may be alternately performed. In this case, for example, when the zoom area is defined for the first time, a skin color area detection process is performed in step S262, and when the zoom area is determined next (when the process of step S262 is performed for the second time), the step is performed. In S262, an object area detection process is performed.
さらに、ステップS262において、肌色領域の検出処理を行うか、またはオブジェクト領域の検出処理を行うかをユーザが設定できるようにしたり、表示装置によって、肌色領域の検出処理を行うか、またはオブジェクト領域の検出処理を行うかが異なるようにしたりしてもよい。 Furthermore, in step S262, the user can set whether to perform the skin color area detection process or the object area detection process, or the display apparatus can perform the skin color area detection process or the object area detection process. The detection process may be performed differently.
さらに、また、表示装置の機能の構成を、図4を参照して説明した機能、および図12を参照して説明した機能を有する構成とし、スケーラブルテレビジョンシステムを構成する複数の表示装置のうち、肌色領域の検出処理(図9)を行ってズーム画像を表示する表示装置の数と、オブジェクト領域の検出処理(図13)を行ってズーム画像を表示する表示装置の数とを動的に変化させるようにしてもよい。 Furthermore, the configuration of the function of the display device is the configuration having the function described with reference to FIG. 4 and the function described with reference to FIG. 12, and among the plurality of display devices constituting the scalable television system. The number of display devices that display the zoom image by performing the skin color region detection process (FIG. 9) and the number of display devices that display the zoom image by performing the object region detection process (FIG. 13) are dynamically determined. It may be changed.
例えば、図22Aに示すように、全体画像461上において、肌色の領域が人471および人472の顔の部分だけである場合、2台の表示装置が、それぞれ人471および人472の顔の部分をズーム画像として表示させると、画像461上における肌色の領域は、全て拡大されて表示されることになる。
For example, as shown in FIG. 22A, when the skin color region is only the face portion of the
これに対して、図22Bに示すように、全体画像481上において、肌色の領域が人491乃至人497の顔の部分である場合、人491乃至人497の顔の部分を、それぞれ1台の表示装置が表示するようにすると、肌色の領域を検出して表示する表示装置は、7台必要となる。
On the other hand, as shown in FIG. 22B, when the skin-colored area is the face portion of the
このように、全体画面上において、肌色の領域が大きい場合と、肌色の領域が小さい場合とでは、肌色の領域を表示するために必要となる表示装置の数は異なる。そこで、全体画面上における肌色の領域の面積によって、肌色の領域を検出して表示する表示装置の数と、オブジェクトを検出して表示する表示装置の数とを動的に変化させることによって、ズーム画像をより効果的に表示させることができる。 As described above, the number of display devices required to display the skin color region differs depending on whether the skin color region is large or the skin color region is small on the entire screen. Therefore, zooming is performed by dynamically changing the number of display devices that detect and display the skin color area and the number of display devices that detect and display the object according to the area of the skin color region on the entire screen. Images can be displayed more effectively.
例えば、図22Aに示したように、全体画像461上において、肌色の領域が人471および人472の顔の部分だけであり、全体画像461上における肌色の領域の面積が、所定の値よりも小さい場合には、肌色領域の検出処理を行う表示装置を4台、オブジェクト領域の検出処理を行う表示装置を4台とし、図22Bに示したように、全体画像481上において、肌色の領域が人491乃至人497の顔の部分であり、全体画像481上における肌色の領域の面積が、所定の値以上である場合には、肌色領域の検出処理を行う表示装置を7台、オブジェクト領域の検出処理を行う表示装置を1台とすることができる。
For example, as shown in FIG. 22A, the skin color area is only the face portion of the
肌色の領域の面積によって、肌色領域の検出処理を行う表示装置の数と、オブジェクト領域の検出処理を行う表示装置の数とを動的に変化させる場合、表示装置は、例えば、図23に示すように構成される。 When the number of display devices that perform skin color region detection processing and the number of display devices that perform object region detection processing are dynamically changed depending on the area of the skin color region, the display device is, for example, illustrated in FIG. Configured as follows.
表示装置531は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部541を含むように構成される。なお、表示装置531の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。
The display device 531 is configured to include a control
画像処理部541は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から、肌色の領域またはオブジェクトを検出して、検出された肌色の領域またはオブジェクトが含まれる領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部541は、領域決定部111、オブジェクト選択部241、パラメータ決定部112、およびズーム処理部113を含むように構成される。
Under the control of the
なお、領域決定部111、パラメータ決定部112、およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。また、オブジェクト選択部241は、図12における場合と対応するため同一の符号を付してあり、その説明は省略する。
Note that the
図23に示す表示装置531では、信号取得部94により抽出された画像データは、領域決定部111、オブジェクト選択部241、およびズーム処理部113に供給される。また、パラメータ決定部112には、領域決定部111およびオブジェクト選択部241が接続されている。
In the display device 531 shown in FIG. 23, the image data extracted by the
ユーザがリモートコマンダを操作して、表示装置531に画像の表示を指示すると、表示装置531は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置531は、図6のステップS32において、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めて、ズーム画像を表示する。 When the user operates the remote commander to instruct the display device 531 to display an image, the display device 531 performs the zoom image display processing described with reference to FIG. In step S32 of FIG. 6, the display device 531 dynamically determines whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area, and displays the zoom image. .
以下、図24のフローチャートを参照して、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決める場合に表示装置531が行う、図6のステップS32の処理に対応する自動ズーム処理について説明する。 Hereinafter, referring to the flowchart of FIG. 24, the display device 531 performs when dynamically determining whether the region including the skin color region is the zoom region or the region including the object is the zoom region. The automatic zoom process corresponding to the process in step S32 will be described.
ステップS301において、肌色領域検出部121は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)上における、肌色の領域の面積を算出する。例えば、肌色領域検出部121は、図9のフローチャートを参照して説明したように、各画素の画素値を基に、上述した式(10)乃至式(14)を適宜用いて、HSV形式の色空間のHの値を求め、全体画像上の肌色の領域の面積を算出する。
In step S <b> 301, the skin color
ステップS302において、中央処理部93は、肌色領域検出部121が算出した全体画像上の肌色の領域の面積が、予め定められた所定の値以上であるか否かを判定する。
In step S302, the
ステップS302において、所定の値以上であると判定された場合、ステップS303に進み、中央処理部93は、互いに接続された、ズーム画像を表示する8台の表示装置531のうち、肌色の領域をズーム領域とする表示装置531を5台とし、オブジェクトを含む領域をズーム領域とする表示装置531を3台とする。
If it is determined in step S302 that the value is equal to or greater than the predetermined value, the process advances to step S303, and the
これに対して、ステップS302において、所定の値以上でないと判定された場合、ステップS304に進み、中央処理部93は、互いに接続された、ズーム画像を表示する8台の表示装置531のうち、肌色の領域をズーム領域とする表示装置531を3台とし、オブジェクトを含む領域をズーム領域とする表示装置531を5台とする。
On the other hand, if it is determined in step S302 that the value is not equal to or greater than the predetermined value, the process proceeds to step S304, and the
ステップS303またはステップS304において、肌色の領域をズーム領域とする表示装置531の台数と、オブジェクトを含む領域をズーム領域とする表示装置531の台数を定めると、ステップS305に進み、中央処理部93は、記憶しているIDを参照して、自分自身の順番を定める。
In step S303 or step S304, when the number of display devices 531 whose skin color area is a zoom area and the number of display devices 531 whose area includes an object are determined, the process proceeds to step S305, and the
表示装置21における場合と同様に、互いに接続されている表示装置531は、予め順序付けられており、それぞれの表示装置531(中央処理部93)は、自分自身の順番を示すIDを記憶している。例えば、記憶しているIDにより示される順番が2番目である場合、中央処理部93は、自分自身の順番を2番とする。
As in the case of the
ステップS306において、中央処理部93は、肌色の領域をズーム領域とするか否かを判定する。例えば、ズーム画像を表示する8台の表示装置531のそれぞれは、自分自身の順番が1番乃至8番のいずれかを示すIDを記憶している。そして、ステップS303において、肌色の領域をズーム領域とする表示装置531が5台とされ、オブジェクトを含む領域をズーム領域とする表示装置531が3台とされた場合、順番が1番乃至5番である表示装置531は、肌色の領域をズーム領域とすると判定し、順番が6番乃至8番である表示装置531は、肌色の領域をズーム領域としないと判定する。
In step S306, the
また、ステップS304において、肌色の領域をズーム領域とする表示装置531が3台とされ、オブジェクトを含む領域をズーム領域とする表示装置531が5台とされた場合、順番が1番乃至3番である表示装置531は、肌色の領域をズーム領域とすると判定し、順番が4番乃至8番である表示装置531は、肌色の領域をズーム領域としないと判定する。 Further, in step S304, if there are three display devices 531 having the skin-colored region as the zoom region and five display devices 531 having the region including the object as the zoom region, the order is Nos. 1 to 3. The display device 531 determines that the skin color region is the zoom region, and the display device 531 whose order is Nos. 4 to 8 determines that the skin color region is not the zoom region.
ステップS306において、肌色の領域をズーム領域とすると判定された場合、中央処理部93は、画像処理部541に、肌色領域の検出処理の実行を指示して、処理はステップS307に進む。
If it is determined in step S306 that the skin color area is the zoom area, the
ステップS307において、画像処理部541(領域決定部111およびパラメータ決定部112)は、肌色領域の検出処理を行い、ステップS309に進む。なお、肌色領域の検出処理は、図9のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。
In step S307, the image processing unit 541 (the
一方、ステップS306において、肌色の領域をズーム領域としないと判定された場合、オブジェクトを含む領域をズーム領域とするので、中央処理部93は、画像処理部541に、オブジェクト領域の検出処理の実行を指示して、処理はステップS308に進む。
On the other hand, if it is determined in step S306 that the skin color area is not the zoom area, the area including the object is the zoom area, and the
ステップS308において、画像処理部541(オブジェクト選択部241およびパラメータ決定部112)は、オブジェクト領域の検出処理を行い、ステップS309に進む。なお、オブジェクト領域の検出処理は、図13のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。
In step S308, the image processing unit 541 (the
ステップS307において、肌色領域の検出処理が行われるか、またはステップS308において、オブジェクト領域の検出処理が行われると、処理はステップS309に進む。なお、ステップS309の処理およびステップS310の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。ステップS310において、画像(ズーム画像)が表示されると、処理は図6のステップS33に進む。 If the skin color area detection process is performed in step S307 or the object area detection process is performed in step S308, the process proceeds to step S309. Note that the processing in step S309 and the processing in step S310 are the same as the processing in step S65 and the processing in step S66 in FIG. When an image (zoom image) is displayed in step S310, the process proceeds to step S33 in FIG.
また、図7では、検出された肌色の領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにしたが、図24を参照して説明した自動ズーム処理においては、ステップS307またはステップS308において定められたズーム領域の候補となる領域がそのままズーム領域とされ、その領域が拡大されて表示される。なお、図7における場合と同様に、検出された肌色の領域を含む領域、またはオブジェクトを含む領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにすることも勿論可能である。 In FIG. 7, the detected skin color region is used as a candidate for the zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. However, the zoom region is described with reference to FIG. 24. In the automatic zoom process, a region that is a candidate for the zoom region determined in step S307 or step S308 is directly used as a zoom region, and the region is enlarged and displayed. As in the case of FIG. 7, a region including a detected skin color region or a region including an object is set as a candidate for a zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. Of course, it is also possible to do so.
このようにして、表示装置531は、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めて、ズーム画像を表示する。 In this way, the display device 531 dynamically determines whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area, and displays the zoom image.
このように、それぞれの表示装置531ごとに、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めるようにすることで、互いに接続されている表示装置531のうち、肌色の領域をズーム領域としてズーム画像を表示させるのに必要な表示装置531の台数を動的に決めることができ、ズーム画像をより効果的に表示させることができる。 As described above, each display device 531 is connected to each other by dynamically determining whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area. Among the display devices 531, the number of display devices 531 necessary for displaying a zoom image using the skin-colored region as a zoom region can be determined dynamically, and the zoom image can be displayed more effectively. .
なお、肌色の領域の面積が、予め定められた値以上であるか否かの判定を基に、肌色の領域をズーム領域とする表示装置531の台数を定めると説明したが、肌色の領域の面積に応じて、肌色の領域をズーム領域とする表示装置531の台数が、1台乃至7台まで連続的に変化するようにしてもよい。 Although it has been described that the number of display devices 531 having the skin color region as a zoom region is determined based on the determination whether the area of the skin color region is equal to or greater than a predetermined value, Depending on the area, the number of display devices 531 having a skin-colored region as a zoom region may be continuously changed from 1 to 7 units.
ところで、本出願人が行ったアンケートでは、全体画像上において、拡大して表示させたい領域として、小さいオブジェクトの他に、目立つ領域(例えば、目立つオブジェクトを含む領域)と回答した人が多かったという結果が得られている。 By the way, in a questionnaire conducted by the present applicant, there were many people who responded as a conspicuous region (for example, a region including a conspicuous object) as a region to be enlarged and displayed on the entire image. The result is obtained.
ここで、全体画像上における目立つ領域とは、その領域の色、明るさ、鮮やかさ、その領域におけるエッジの量などが、全体画像上における他の領域と比較して顕著に異なる領域、すなわち全体画像上において、他の領域には少ない所定の特徴が集中して存在する領域ということができる。 Here, the conspicuous area on the entire image is an area in which the color, brightness, vividness of the area, the amount of edges in the area, etc. are significantly different from other areas on the entire image, that is, the entire area. On the image, it can be said that other predetermined areas are concentrated and exist in other areas.
そこで、全体画像から、他の領域と色、明るさ、鮮やかさ、その領域におけるエッジの量などが大きく異なる領域を検出することができれば、全体画像上において目立つ領域をズーム画像として拡大して表示することができる。 Therefore, if it is possible to detect a region that differs greatly from other regions in color, brightness, vividness, and the amount of edges in that region, the conspicuous region on the entire image is enlarged and displayed as a zoom image. can do.
例えば、図25Aに示すように、全体画像581の図中、中央に、黄色の星の図形591が写っており(表示されており)、全体画像581の星の図形591以外の領域が白であるとする。このとき、星の図形591の色(黄色)と、他の領域の色(白)とは異なる色であるので、星の図形591(の領域)は、全体画像581の他の領域と比較して、特徴のある領域ということができる。つまり、星の図形591(の領域)は、目立つ領域であるということができる。
For example, as shown in FIG. 25A, a yellow star graphic 591 is shown (displayed) in the center of the
全体画像581から星の図形591の領域を検出するために、例えば、図25Bに示すように、全体画像581の図中、中央の領域601と、全体画像581から領域601が除かれた領域とを比較する。領域601には、星の図形591の一部分が含まれており、また、全体画像581から領域601が除かれた領域にも、星の図形591の一部分が含まれているので、この場合には、領域601と、全体画像581から領域601が除かれた領域とから黄色い領域およびエッジが検出され、領域601は、全体画像581において特徴のある領域とはならない。
In order to detect the area of the star graphic 591 from the
また、図25Cに示すように、全体画像581の図中、左上の領域602と、全体画像581から領域602が除かれた領域とを比較する場合を考える。領域602には、星の図形591の一部分が含まれており、また、全体画像581から領域602が除かれた領域にも、星の図形591の一部分が含まれている。したがって、この場合も図25Bの場合と同様に、領域602と、全体画像581から領域602が除かれた領域とから黄色い領域およびエッジが検出され、領域602は、全体画像581において特徴のある領域とはならない。
Further, as shown in FIG. 25C, a case is considered in which the upper
これに対して、図25Dに示すように、全体画像581の図中、中央の領域603と、全体画像581から領域603が除かれた領域とを比較する場合を考える。領域603には、星の図形591が含まれており、全体画像581から領域603が除かれた領域には、星の図形591が含まれていない。したがって、領域603からは、黄色い領域およびエッジが検出されるが、全体画像581から領域603が除かれた領域からは、黄色い領域およびエッジは検出されないので、領域603は、全体画像581において特徴のある領域とすることができる。
On the other hand, as shown in FIG. 25D, consider a case where a
このように、全体画像上の一部の領域と、その領域を除く、全体画像上の領域とを比較することによって、全体画像上において目立つ領域(特徴のある領域)を検出し、ズーム画像として表示することができる。 In this way, a conspicuous area (characteristic area) on the entire image is detected by comparing a part of the area on the entire image with an area on the entire image excluding the area. Can be displayed.
全体画像上において目立つ領域を検出し、ズーム画像として表示する場合、スケーラブルテレビジョンシステムを構成する表示装置は、例えば、図26に示すように構成される。 When detecting a conspicuous region on the entire image and displaying it as a zoom image, the display device constituting the scalable television system is configured as shown in FIG. 26, for example.
表示装置631は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部641を含むように構成される。なお、表示装置631の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。
The
画像処理部641は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から目立つ領域を抽出して、その領域が含まれる領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部641は、抽出部651、パラメータ決定部112、およびズーム処理部113を含むように構成される。なお、パラメータ決定部112およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。
The
抽出部651は、信号取得部94から供給された画像データに基づく画像(全体画像)から目立つ領域を抽出する。抽出部651は、抽出した目立つ領域を示す情報をパラメータ決定部112に供給する。抽出部651は、生成部661、算出部662、および比較部663を含むように構成され、生成部661、算出部662、および比較部663は、互いにデータを授受することが可能とされている。
The
抽出部651の生成部661は、信号取得部94から供給された画像データを基に、全体画像の一部の領域の画像(以下、部分画像とも称する)の画像データを生成する。
The
抽出部651の算出部662は、信号取得部94から供給された画像データを基に、全体画像から部分画像が除かれた領域の画像(以下、比較画像とも称する)の特徴を示す特徴量を算出する。また、抽出部651の算出部662は、生成部661が生成した画像データを基に、部分画像の特徴を示す特徴量を算出する。
Based on the image data supplied from the
ここで、特徴量とは、画像の色、明るさ、鮮やかさ、その画像におけるエッジを構成する画素の割合などの、その画像の特徴を示す値をいう。 Here, the feature amount refers to a value indicating the feature of the image, such as the color, brightness, and vividness of the image, and the ratio of pixels constituting the edge in the image.
抽出部651の比較部663は、算出部662により算出された特徴量を基に、部分画像と比較画像とを比較して、全体画像から目立つ領域(特徴のある領域)を検出する。
The
ユーザがリモートコマンダを操作して、表示装置631に画像の表示を指示すると、表示装置631は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置631は、ステップS32の処理に対応する自動ズーム処理(図7)を行い、図7のステップS61の処理において、目立つ領域をズーム領域の候補となる領域として選択する。以下、図27のフローチャートを参照して、目立つ領域の検出処理について説明する。
When the user operates the remote commander to instruct the
ステップS341において、生成部661は、信号取得部94から供給された画像データを基に、部分画像の画像データを生成する。ここで、部分画像とされる領域は、表示装置631ごとに予め定められているようにしてもよく、ユーザが、表示装置631ごとに設定することができるようにしてもよい。
In step S341, the
例えば、図28に示すように、全体画像701上の予め定められた領域702−1乃至領域702−8のそれぞれが部分画像とされる。スケーラブルテレビジョンシステムを構成する8台の表示装置631が、領域702−1乃至領域702−8のうちの、それぞれ異なる領域を部分画像としてもよく、また、1台の表示装置631が、領域702−1乃至領域702−8のそれぞれを部分画像として、領域702−1乃至領域702−8のそれぞれから目立つ領域を検出するようにしてもよい。
For example, as shown in FIG. 28, each of predetermined regions 702-1 to 702-8 on the
生成部661が部分画像の画像データを生成すると、ステップ342において、算出部662は、信号取得部94から供給された画像データ、および生成部661が生成した画像データを基に、部分画像および比較画像の各画素の特徴を示す値を算出する。
When the
ここで、各画素の特徴を示す値は、例えば、各画素の色味(色相)を示すHSV形式の色空間のHの値、各画素の鮮やかさ(彩度)を示すHSV形式の色空間のS(Saturation value)の値、各画素の明るさ(明度)を示すHSV形式の色空間のV(Value)の値、各画素の画素値と、その画素に隣接する画素の画素値との差分などとすることができる。 Here, the values indicating the characteristics of each pixel are, for example, the H value of the HSV format color space indicating the color (hue) of each pixel, and the HSV format color space indicating the vividness (saturation) of each pixel. S (Saturation value) value, V (Value) value of color space in HSV format indicating the brightness (brightness) of each pixel, the pixel value of each pixel, and the pixel value of the pixel adjacent to that pixel It can be a difference.
例えば、図28に示した領域702−1が部分画像とされ、各画素の特徴を示す値として、Hの値が算出される場合、算出部662は、領域702−1の各画素の画素値を基に、上述した式(10)乃至式(14)(図9のフローチャート参照)を適宜用いて、各画素のHの値を算出する。さらに、算出部662は、領域702−2乃至領域702−8からなる領域の画像を比較画像として、比較画像の各画素の画素値を基に、上述した式(10)乃至式(14)を適宜用いて、各画素のHの値を算出する。 For example, when the region 702-1 illustrated in FIG. 28 is a partial image, and the value of H is calculated as a value indicating the feature of each pixel, the calculation unit 662 displays the pixel value of each pixel in the region 702-1. Based on the above, the value of H of each pixel is calculated using the above-described equations (10) to (14) (see the flowchart of FIG. 9) as appropriate. Further, the calculation unit 662 uses the image of the region composed of the regions 702-2 to 702-8 as a comparison image, and based on the pixel value of each pixel of the comparison image, the above equations (10) to (14) are obtained. The value of H for each pixel is calculated as appropriate.
また、例えば、各画素の特徴を示す値として、画素の画素値と、その画素に隣接する画素の画素値との差分が算出される場合、算出部662は、部分画像の各画素の画素値を基に各画素の輝度値を算出し、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分を算出し、これを各画素の特徴を示す値とする。同様に、算出部662は、比較画像の各画素の画素値を基に各画素の輝度値を算出し、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分を算出して、各画素の特徴を示す値とする。 For example, when the difference between the pixel value of a pixel and the pixel value of a pixel adjacent to the pixel is calculated as a value indicating the feature of each pixel, the calculation unit 662 displays the pixel value of each pixel of the partial image. Is used to calculate the luminance value of each pixel, and the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to the pixel is calculated, and this is used as a value indicating the characteristic of each pixel. Similarly, the calculation unit 662 calculates the luminance value of each pixel based on the pixel value of each pixel of the comparison image, and calculates the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to that pixel. A value indicating the feature of each pixel is calculated.
さらに、算出部662が、所定の画素の輝度値と、その画素に隣接する4つの画素の輝度値のそれぞれとの差分の平均値を算出し、算出された平均値をその画素の特徴を示す値としてもよい。 Further, the calculation unit 662 calculates the average value of the difference between the luminance value of the predetermined pixel and the luminance values of the four pixels adjacent to the pixel, and the calculated average value indicates the feature of the pixel. It may be a value.
各画素の特徴を示す値が算出されると、ステップS343において、算出部662は、各画素の特徴を示す値に基づいて、部分画像の特徴を示す特徴量、および比較画像の特徴を示す特徴量を算出する。 When the value indicating the feature of each pixel is calculated, in step S343, the calculation unit 662 based on the value indicating the feature of each pixel, the feature amount indicating the feature of the partial image and the feature indicating the feature of the comparison image. Calculate the amount.
例えば、各画素の特徴を示す値として、Hの値が算出された場合、算出部662は、部分画像の各画素のHの値を基に、図29に示すヒストグラムを生成する。図29において、横方向はHの値を示しており、縦方向は、部分画像の画素のうち、Hの値が所定の範囲内である画素の数を示している。 For example, when the value of H is calculated as a value indicating the feature of each pixel, the calculation unit 662 generates the histogram shown in FIG. 29 based on the value of H of each pixel of the partial image. In FIG. 29, the horizontal direction indicates the value of H, and the vertical direction indicates the number of pixels in the partial image whose H value is within a predetermined range.
例えば、部分画像の画素のうち、Hの値が0以上30未満である画素は1400個であり、Hの値が30以上60未満である画素は500個であり、Hの値が60以上90未満である画素は600個であり、Hの値が90以上120未満である画素は500個である。 For example, among the pixels of the partial image, there are 1400 pixels having an H value of 0 or more and less than 30, 500 pixels having an H value of 30 or more and less than 60, and an H value of 60 or more and 90 The number of pixels that are less than 600 is 600, and the number of pixels whose H value is 90 or more and less than 120 is 500.
また、部分画像の画素のうち、Hの値が120以上150未満である画素は600個であり、Hの値が150以上180未満である画素は700個であり、Hの値が180以上210未満である画素は800個であり、Hの値が210以上240未満である画素は700個である。さらに、Hの値が240以上270未満である画素は600個であり、Hの値が270以上300未満である画素は500個であり、Hの値が300以上330未満である画素は600個であり、Hの値が330以上360未満である画素は800個である。 Further, among the pixels of the partial image, there are 600 pixels having an H value of 120 or more and less than 150, 700 pixels having an H value of 150 or more and less than 180, and an H value of 180 or more and 210. The number of pixels that are less than 800 is 800, and the number of pixels whose H value is 210 or more and less than 240 is 700. Furthermore, 600 pixels have an H value of 240 or more and less than 270, 500 pixels have an H value of 270 or more and less than 300, and 600 pixels have an H value of 300 or more and less than 330. And the number of pixels having an H value of 330 or more and less than 360 is 800.
図29の例では、Hの値が0以上30未満である画素が、他の範囲の画素(例えば、Hの値が30以上60未満である画素)と比べて多いことが分かる。算出部662は、各Hの値の範囲のうち、画素の数が一番多いHの値の範囲を選択し、そのHの値の範囲の画素の数に基づいて、部分画像の特徴量を算出する。 In the example of FIG. 29, it can be seen that the number of pixels having an H value of 0 or more and less than 30 is larger than the pixels in other ranges (for example, pixels having an H value of 30 or more and less than 60). The calculation unit 662 selects the H value range having the largest number of pixels from each H value range, and calculates the feature amount of the partial image based on the number of pixels in the H value range. calculate.
図29の例においては、各Hの値の範囲のうち、Hの値が0以上30未満である画素の数が一番多いので、算出部662は、Hの値が0以上30未満である画素の数に基づいて、部分画像の特徴量を算出する。例えば、算出部662は、Hの値が0以上30未満である画素の数を、部分画像の画素の数で割り算した値を特徴量として算出する。この場合、部分画像の特徴量は、部分画像の画素数に対する、Hの値が0以上30未満である画素数の割合を示している。 In the example of FIG. 29, since the number of pixels having an H value of 0 or more and less than 30 is the largest in the range of each H value, the calculation unit 662 has an H value of 0 or more and less than 30. A feature amount of the partial image is calculated based on the number of pixels. For example, the calculation unit 662 calculates, as a feature amount, a value obtained by dividing the number of pixels having an H value of 0 or more and less than 30 by the number of pixels of the partial image. In this case, the feature amount of the partial image indicates a ratio of the number of pixels in which the value of H is 0 or more and less than 30 to the number of pixels of the partial image.
部分画像における場合と同様に、算出部662は、比較画像の各画素のHの値を基に、図29に示したヒストグラムと同様のヒストグラムを生成する。そして、算出部662は、各Hの値の範囲のうち、部分画像のヒストグラムにおいて、画素の数が一番多いHの値の範囲を選択し、選択したHの値の範囲の画素の数(比較画像における画素の数)に基づいて、比較画像の特徴量を算出する。 As in the case of the partial image, the calculation unit 662 generates a histogram similar to the histogram shown in FIG. 29 based on the H value of each pixel of the comparison image. Then, the calculation unit 662 selects the H value range having the largest number of pixels in the histogram of the partial image from among the H value ranges, and the number of pixels in the selected H value range ( The feature amount of the comparison image is calculated based on the number of pixels in the comparison image.
図29の例においては、部分画像の画素の各Hの値の範囲のうち、Hの値が0以上30未満である画素の数が一番多いので、算出部662は、比較画像の画素のうちの、Hの値が0以上30未満である画素の数に基づいて、比較画像の特徴量を算出する。例えば、算出部662は、比較画像の画素のうちの、Hの値が0以上30未満である画素の数を、比較画像の画素の数で割り算した値を特徴量として算出する。 In the example of FIG. 29, since the number of pixels having the H value of 0 or more and less than 30 is the largest in the range of H values of the pixels of the partial image, the calculation unit 662 displays the pixel values of the comparison image. The feature amount of the comparative image is calculated based on the number of pixels in which the value of H is 0 or more and less than 30. For example, the calculation unit 662 calculates, as a feature amount, a value obtained by dividing the number of pixels having a H value of 0 or more and less than 30 among the pixels of the comparison image by the number of pixels of the comparison image.
なお、各画素のHの値を基にヒストグラムを生成して、各Hの値の範囲のうち、画素の数が一番多いHの値の範囲を選択し、そのHの値の範囲の画素の数に基づいて、部分画像の特徴量を算出すると説明したが、各画素のHの値を基に、各Hの値の画素の数を示す分布図を生成して部分画像の特徴量を算出するようにしてもよい。 A histogram is generated based on the H value of each pixel, and the H value range having the largest number of pixels is selected from the respective H value ranges, and pixels in the H value range are selected. It has been described that the feature amount of the partial image is calculated based on the number of pixels. However, based on the H value of each pixel, a distribution diagram indicating the number of pixels having each H value is generated to calculate the feature amount of the partial image. You may make it calculate.
この場合、例えば、画素数の一番多いHの値を中心とする所定のHの値の範囲を定める。そして、その定められたHの値の範囲の画素の数を、部分画像の画素の数で割り算した値が、特徴量として算出される。さらに、部分画像における場合と同様に、比較画像についても、各Hの値の画素の数を示す分布図が生成されて、比較画像の画素のうち、部分画像の特徴量の算出時に定められたHの値の範囲の画素の数を、比較画像の画素の数で割り算した値が、特徴量として算出される。 In this case, for example, a predetermined H value range centering on the H value having the largest number of pixels is determined. Then, a value obtained by dividing the number of pixels in the determined H value range by the number of pixels of the partial image is calculated as a feature amount. Further, as in the case of the partial image, for the comparative image, a distribution diagram indicating the number of pixels having each H value is generated and is determined when calculating the feature amount of the partial image among the pixels of the comparative image. A value obtained by dividing the number of pixels in the H value range by the number of pixels in the comparison image is calculated as the feature amount.
また、各画素の特徴を示す値として、各画素のSの値、またはVの値が算出された場合においても、各画素の特徴を示す値として、各画素のHの値が算出された場合と同様に、ヒストグラムを生成し、各Sの値(またはVの値)の範囲のうち、画素の数が一番多いSの値(またはVの値)の範囲を選択して、部分画像および比較画像の特徴量を算出することができる。 In addition, even when the S value or V value of each pixel is calculated as a value indicating the feature of each pixel, the H value of each pixel is calculated as a value indicating the feature of each pixel. In the same manner as above, a histogram is generated, and a range of S values (or V values) having the largest number of pixels is selected from a range of each S value (or V value), and a partial image and The feature amount of the comparative image can be calculated.
さらに、例えば、各画素の特徴を示す値として、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分が算出された場合、算出部662は、部分画像の画素のうち、各画素の画素値の差分の絶対値が、予め定められた閾値以上である画素の数を、部分画像の画素の数で割り算した値を、部分画像の特徴量として算出する。この場合、部分画像の特徴量は、部分画像の画素の数に対する、エッジを構成する画素の数(エッジの部分の画素の数)の割合を示している。 Further, for example, when the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to the pixel is calculated as a value indicating the characteristic of each pixel, the calculation unit 662 displays the pixel value of the partial image. Among them, a value obtained by dividing the number of pixels in which the absolute value of the difference between the pixel values of each pixel is equal to or greater than a predetermined threshold by the number of pixels of the partial image is calculated as a feature amount of the partial image. In this case, the feature amount of the partial image indicates the ratio of the number of pixels constituting the edge (the number of pixels in the edge portion) to the number of pixels in the partial image.
同様に、算出部662は、比較画像の画素のうち、各画素の画素値の差分の絶対値が、予め定められた閾値(部分画像における場合と同じ値の閾値)以上である画素の数を、比較画像の画素の数で割り算した値を、比較画像の特徴量として算出する。 Similarly, the calculation unit 662 calculates the number of pixels in the comparison image where the absolute value of the difference between the pixel values of each pixel is equal to or greater than a predetermined threshold (the same threshold as in the partial image). Then, a value divided by the number of pixels of the comparison image is calculated as a feature amount of the comparison image.
このように、算出部662は、部分画像(または比較画像)の画素のうち、所定の条件を満たす画素の数に基づいて、部分画像(または比較画像)の特徴量を算出する。 Thus, the calculation unit 662 calculates the feature amount of the partial image (or comparison image) based on the number of pixels that satisfy the predetermined condition among the pixels of the partial image (or comparison image).
図27のフローチャートの説明に戻り、部分画像および比較画像の特徴量が算出されると、ステップS344において、比較部663は、算出された部分画像および比較画像の特徴量に基づいて、部分画像と比較画像とを比較する。
Returning to the description of the flowchart of FIG. 27, when the feature amounts of the partial image and the comparison image are calculated, in step S344, the
例えば、比較部663は、部分画像の特徴量と、比較画像の特徴量との差を求めて(部分画像の特徴量から、比較画像の特徴量を減算して)、求められた差が、予め定められた値以上であるとき、部分画像に特徴のある領域(目立つ領域)が含まれているとする。
For example, the
なお、部分画像に目立つ領域が含まれていないとされた場合には、例えば、部分画像および比較画像の特徴量を他の方法で求めて(他の特徴を示す特徴量を求めて)、再び部分画像と比較画像とを比較するようにしてもよく、全体領域のうち、部分画像とされた領域とは異なる領域を新たな部分画像として、新たな部分画像と比較画像とを比較するようにしてもよい。 If it is determined that the partial image does not include a conspicuous area, for example, the feature amounts of the partial image and the comparison image are obtained by another method (feature amounts indicating other features) and again. The partial image and the comparative image may be compared, and the new partial image and the comparative image are compared with each other as a new partial image in the entire region that is different from the partial image. May be.
ステップS345において、抽出部651は、部分画像のうち、所定の条件を満たす画素を含む領域を目立つ領域として、部分画像から目立つ領域を抽出する。抽出部651は、抽出した目立つ領域を示す情報を生成してパラメータ決定部112に供給する。
In step S345, the
例えば、図29を参照して説明したように、Hの値が0以上30未満である画素の数を基に、部分画像の特徴量が算出された場合、抽出部651は、Hの値が0以上30未満である画素を、所定の条件を満たす画素とし、Hの値が0以上30未満である画素を含む領域を目立つ領域として、部分画像から抽出する。
For example, as described with reference to FIG. 29, when the feature amount of the partial image is calculated based on the number of pixels whose H value is 0 or more and less than 30, the
また、例えば、抽出部651は、部分画像のうち、所定の条件を満たす画素が連続する領域を目立つ領域として、部分画像から目立つ領域を抽出するようにしてもよい。このように所定の条件を満たす画素が連続する領域を目立つ領域とすると、部分画像からは、複数の目立つ領域が検出される場合がある。このような場合、抽出部651は、目立つ領域の面積が小さい順に、所定の数の目立つ領域を選択して抽出したり、目立つ領域の位置が全体画像の中心に近い順に、所定の数の目立つ領域を選択して抽出したりする。
Further, for example, the
さらに、抽出部651が、複数の目立つ領域の中から、所定の色の領域(目立つ領域)を選択するようにしてもよい。この場合には、例えば、複数の目立つ領域の中から肌色の領域を選択することによって、人の画像をズーム画像として表示させることができる。
Further, the
部分画像から目立つ領域が抽出されると、ステップS346において、パラメータ決定部112は、抽出部651から供給された、抽出された目立つ領域を示す情報を基に、その情報により示される目立つ領域を含む領域をズーム領域の候補となる領域とし、その領域の中心座標を算出する。
When the conspicuous region is extracted from the partial image, in step S346, the
例えば、パラメータ決定部112は、目立つ領域を構成する、所定の条件を満たす画素のXY空間上における重心の座標を、中心座標として算出する。また、例えば、ズーム画像として表示する目立つ領域として、複数の目立つ領域が抽出された場合、パラメータ決定部112は、複数の目立つ領域を含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標として算出する。
For example, the
ステップS347において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム倍率Ziを算出する。
In step S347, the
このようにして、画像処理部641は、全体画像から目立つ領域を抽出(検出)し、抽出された目立つ領域を含む領域をズーム領域の候補とする。これにより、表示部96には、抽出された目立つ領域が拡大された画像が、ズーム画像として表示される。
In this manner, the
例えば、図30Aに示すように、全体画像731の図中、左上に赤色の太陽741が写っており(表示されており)、全体画像731における赤い領域が、太陽741の領域だけであるとする。図30Bに示すように、表示装置631が、全体画像731(図30A)のうち、太陽741が含まれる領域751を部分画像とし、領域751(部分画像751)の画素の数に対する、赤い画素の数の割合を示す特徴量を算出して、目立つ領域を検出すると、比較画像(全体画像731から領域751が除かれた領域)には赤い領域はないので、太陽741が目立つ領域として検出される。
For example, as shown in FIG. 30A, the
そして、表示装置631は、部分画像751から、太陽741が含まれる領域752を抽出して、領域752をズーム領域の候補とし、図30Cに示すように、太陽741が含まれるズーム画像761を表示する。
Then, the
また、図31Aに示すように、部分画像801に、太陽802、人の顔803、人の胴体804、および飛行物体805が写っており(表示されており)、表示装置631が目立つ領域を検出した結果、目立つ領域として、太陽802を含む領域806、人の顔803を含む領域807、人の胴体804を含む領域808、および飛行物体805を含む領域809が検出されたとする。
In addition, as shown in FIG. 31A, the
このように、部分画像801から、複数の目立つ領域が検出された場合、上述したように、表示装置631は、全ての目立つ領域が含まれる領域を、ズーム領域の候補となる領域としたり、複数の目立つ領域のうち、1つの目立つ領域が含まれる領域を、ズーム領域の候補となる領域としたりすることができる。
As described above, when a plurality of conspicuous regions are detected from the
例えば、部分画像801から、目立つ領域として検出された領域806乃至領域809が含まれる領域をズーム領域の候補となる領域とすると、表示装置631は、図31Bに示すように、目立つ領域として検出された領域に含まれる、太陽802、人の顔803、人の胴体804、および飛行物体805が含まれるズーム画像811を表示する。
For example, if a
また、例えば、図31Aに示した、目立つ領域として検出された領域806乃至領域809のうち、領域809が含まれる領域をズーム領域の候補となる領域とすると、表示装置631は、図31Cに示すように、目立つ領域として検出された領域809に含まれる、飛行物体805が含まれるズーム画像812を表示する。
Further, for example, if the region including the
以上のように、表示装置631(画像処理部641)は、部分画像と比較画像とを比較して、全体画像から目立つ領域を抽出し、抽出された目立つ領域を含む領域をズーム領域の候補とするので、全体画像上における目立つ領域を、拡大してより見やすく表示することができる。これにより、ユーザはいちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。 As described above, the display device 631 (the image processing unit 641) compares the partial image and the comparative image, extracts a conspicuous region from the entire image, and selects the region including the extracted conspicuous region as a candidate for a zoom region. Therefore, a conspicuous area on the entire image can be enlarged and displayed more easily. This eliminates the need for the user to designate the zoom area one by one, and allows the user to view the details of the entire image and enjoy viewing the image with a simpler operation.
また、ユーザは、目立つ領域が拡大されて表示されるので、全体画像上において、ユーザが気になる領域(目立つ領域)を凝視する必要がなくなり、全体画像の視聴時におけるユーザのストレスも軽減される。 In addition, since the user sees the conspicuous area in an enlarged manner, the user does not need to stare at the area of interest (the conspicuous area) on the entire image, and the user's stress when viewing the entire image is reduced. The
以上においては、スケーラブルテレビジョンシステムを構成する表示装置が、ズーム領域を定めてズーム画像を表示すると説明したが、ユーザがズーム領域を指定して、表示装置にズーム画像を表示させることも可能である。 In the above description, it has been described that the display device configuring the scalable television system defines the zoom region and displays the zoom image. However, the user can specify the zoom region and display the zoom image on the display device. is there.
ズーム領域は、例えば、ユーザがリモートコマンダを操作して、表示部96にズーム領域を示す枠などを表示させ、その枠の大きさを変化させたり、その位置を移動させたりすることにより定めることができる。また、ユーザにより指定されたズーム領域に基づいて、ズーム画像を表示させ、ユーザが実際に表示されたズーム画像を見ながら、ズーム領域の位置や大きさを調整できるようにしてもよい。
The zoom area is determined by, for example, the user operating the remote commander to display a frame indicating the zoom area on the
ユーザがズーム領域を指定してズーム画像を表示させる場合、スケーラブルテレビジョンシステム11を構成する表示装置21(図4)は、図6を参照して説明したズーム画像の表示処理を行う。ユーザによりズーム領域が指定されると、表示装置21は、ステップS32において、指定された領域をズーム領域としてズーム画像を表示する。
When the user designates a zoom area to display a zoom image, the display device 21 (FIG. 4) constituting the
以下、図32のフローチャートを参照して、ユーザによりズーム領域が指定される場合における自動ズーム処理について説明する。 Hereinafter, with reference to the flowchart of FIG. 32, the automatic zoom process when the zoom area is designated by the user will be described.
ステップS381において、中央処理部93(図4)は、ズーム領域を定める。例えば、ユーザがリモートコマンダを操作してズーム領域を指定すると、リモートコマンダからはユーザの操作に応じた赤外線信号が送信される。受信部73(図3)は、リモートコマンダから送信されてきた赤外線信号を受信(受光)して光電変換し、コマンド信号を制御情報通信部91を介して中央処理部93に供給する。
In step S381, the central processing unit 93 (FIG. 4) determines a zoom area. For example, when the user operates the remote commander to specify the zoom area, an infrared signal corresponding to the user operation is transmitted from the remote commander. The receiving unit 73 (FIG. 3) receives (receives) an infrared signal transmitted from the remote commander, performs photoelectric conversion, and supplies a command signal to the
中央処理部93は、制御情報通信部91から供給されたコマンド信号に基づいて、ユーザにより指定された領域をズーム領域として定める。中央処理部93は、ズーム領域を示す情報を生成し、画像処理部95に供給する。
The
ステップS382において、パラメータ決定部112は、中央処理部93の制御の基に、中央処理部93から供給されたズーム領域を示す情報により示されるズーム領域の中心座標を算出する。
In step S <b> 382, the
ステップS383において、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム領域のズーム倍率Ziを算出する。この場合、式(17)において、Xidは、XY空間上におけるズーム領域のX方向の長さ(画素数)とされる。
In step S383, the
ズーム領域のズーム倍率が算出されると、その後、ステップS384の処理およびステップS385の処理が行われて、処理は図6のステップS33に進むが、ステップS384の処理およびステップS385の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。 When the zoom magnification of the zoom area is calculated, the process of step S384 and the process of step S385 are performed thereafter, and the process proceeds to step S33 of FIG. 6, but the process of step S384 and the process of step S385 are illustrated in FIG. 7 is the same as the process in step S65 and the process in step S66, and the description thereof is omitted.
なお、ユーザによりズーム領域が指定されると、その後、ユーザにより新たにズーム領域が指定されるまでは、ユーザにより指定された領域を継続してズーム領域とする。この場合には、ズーム領域の中心座標およびズーム倍率は変化しないので、図6のステップS33からステップS32に戻ったとき、図32のステップS381の処理乃至ステップS383の処理は省略される。 When the zoom area is designated by the user, the area designated by the user is continuously used as the zoom area until a new zoom area is designated by the user. In this case, since the center coordinates and zoom magnification of the zoom area do not change, when returning from step S33 in FIG. 6 to step S32, the processing from step S381 to step S383 in FIG. 32 is omitted.
このようにして、表示装置21は、ユーザにより指定されたズーム領域の画像を拡大してズーム画像を表示する。
In this way, the
以上のように、本発明においては、全体画像から肌色の領域を検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。 As described above, in the present invention, the skin color region is detected from the entire image, and the zoom image is displayed based on the detection result. Therefore, the user can perform more effectively with a simpler operation. An image can be displayed.
また、本発明においては、全体画像からオブジェクトを検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。 In the present invention, since an object is detected from the entire image and a zoom image is displayed based on the detection result, the user can display the image more effectively with a simpler operation. Can do.
さらに、本発明においては、全体画像から目立つ領域を検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。 Furthermore, in the present invention, a conspicuous region is detected from the entire image, and the zoom image is displayed based on the detection result, so that the user can display the image more effectively with a simpler operation. be able to.
なお、上述したスケーラブルテレビジョンシステムにおいては、それぞれの表示装置が、ズーム領域を定めてズーム画像を表示する処理を独立して行うと説明したが、各表示装置が互いに通信を行って、ズーム領域を定めるようにしてもよい。そのような場合、表示装置は、互いに通信を行って、表示装置ごとに、肌色の領域を検出してズーム画像を表示するか、オブジェクトを検出してズーム画像を表示するか、または目立つ領域を検出してズーム画像を表示するかなどを定める。 In the scalable television system described above, it has been described that each display device independently performs a process of determining a zoom region and displaying a zoom image, but each display device communicates with each other to perform a zoom region. May be determined. In such a case, the display devices communicate with each other, and for each display device, detect a skin color region and display a zoom image, detect an object and display a zoom image, or display a conspicuous region. Whether to detect and display a zoom image is determined.
また、以上においては、スケーラブルテレビジョンシステムが9台の表示装置により構成される例について説明したが、表示装置の台数は9台に限られるものではなく、例えば、4台、16台などであってもよい。 In the above description, an example in which a scalable television system is configured by nine display devices has been described. However, the number of display devices is not limited to nine, for example, four or sixteen. May be.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図33は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ901の構成の例を示すブロック図である。CPU(Central Processing Unit)911は、ROM(Read Only Memory)912、または記録部918に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)913には、CPU911が実行するプログラムやデータなどが適宜記憶される。これらのCPU911、ROM912、およびRAM913は、バス914により相互に接続されている。
FIG. 33 is a block diagram showing an example of the configuration of a
CPU911にはまた、バス914を介して入出力インターフェース915が接続されている。入出力インターフェース915には、キーボード、マウス、マイクロホンなどよりなる入力部916、ディスプレイ、スピーカなどよりなる出力部917が接続されている。CPU911は、入力部916から入力される指令に対応して各種の処理を実行する。そして、CPU911は、処理の結果を出力部917に出力する。
An input /
入出力インターフェース915に接続されている記録部918は、例えばハードディスクからなり、CPU911が実行するプログラムや各種のデータを記録する。通信部919は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部919を介してプログラムを取得し、記録部918に記録してもよい。
Further, a program may be acquired via the
入出力インターフェース915に接続されているドライブ920は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア931が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部918に転送され、記録される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図33に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア931、または、プログラムが一時的もしくは永続的に格納されるROM912や、記録部918を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部919を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 33, a program recording medium that stores a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disk), or
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
11 スケーラブルテレビジョンシステム, 21−1乃至21−9,21 表示装置, 93 中央処理部, 95 画像処理部, 96 表示部, 111 領域決定部, 112 パラメータ決定部, 113 ズーム処理部, 121 肌色領域検出部, 122 パラメータ保持部, 211 表示装置, 231 画像処理部, 241 オブジェクト選択部, 251 検出部, 252 変数保持部, 531 表示装置, 541 画像処理部, 631 表示装置, 641 画像処理部, 651 抽出部, 661 生成部, 662 算出部, 663 比較部, 901 パーソナルコンピュータ, 911 CPU, 912 ROM, 913 RAM, 918 記録部, 931 リムーバブルメディア
DESCRIPTION OF
Claims (10)
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較手段と、
前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段と、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段と
を備える画像処理装置。 A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Calculation for calculating a feature amount indicating the feature of the second region based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image Means,
Comparing means for comparing the feature quantity of the first area and the feature quantity of the second area by obtaining a difference between the feature quantity of the first area and the feature quantity of the second area. When,
Result of comparison by the comparing means, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the condition Extraction means for extracting, from the first region, a region including pixels that satisfy the condition as a feature region having the feature;
An image processing apparatus comprising: display control means for controlling display of a second image in which the extracted feature region is enlarged.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display control unit controls display of the second image so that the first image and the second image are displayed simultaneously.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating a hue of the first region or the second region.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating brightness of the first region or the second region.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating a saturation of the first region or the second region.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the calculating unit calculates a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region.
請求項1に記載の画像処理装置。 The extraction means detects a region in which pixels satisfying the condition continue in the first region, and extracts a region having the largest area among the detected regions as the feature region. Image processing apparatus.
請求項1に記載の画像処理装置。 The extraction unit detects a region in which pixels satisfying the condition are continuous on the first region, and extracts a region closest to the center of the first image among the detected regions as the feature region. The image processing apparatus according to claim 1.
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し、
その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する
ステップを含む画像処理方法。 A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image, the feature amount indicating the feature of the second region is calculated,
The feature amount of the first region is compared with the feature amount of the second region by obtaining a difference between the feature amount of the first region and the feature amount of the second region,
Result of the comparison, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the pixel satisfying Is extracted from the first region as a feature region having the feature,
An image processing method including a step of controlling display of a second image in which the extracted feature region is enlarged.
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較ステップと、
前記比較ステップにおける比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出ステップと、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御ステップと
をコンピュータに実行させるプログラム。 A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Calculation for calculating a feature amount indicating the feature of the second region based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image Steps,
A comparison step of comparing the feature amount of the first region with the feature amount of the second region by obtaining a difference between the feature amount of the first region and the feature amount of the second region. When,
Result of comparison in the comparison step, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the condition An extraction step of extracting, from the first region, a region including pixels that satisfy the condition as a feature region having the feature;
And a display control step for controlling display of the second image in which the extracted feature region is enlarged.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005262489A JP4752409B2 (en) | 2005-09-09 | 2005-09-09 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005262489A JP4752409B2 (en) | 2005-09-09 | 2005-09-09 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007074674A JP2007074674A (en) | 2007-03-22 |
JP4752409B2 true JP4752409B2 (en) | 2011-08-17 |
Family
ID=37935683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005262489A Expired - Fee Related JP4752409B2 (en) | 2005-09-09 | 2005-09-09 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4752409B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101686099B1 (en) * | 2010-07-09 | 2016-12-13 | 엘지디스플레이 주식회사 | Driving circuit for image display device and method for driving the same |
WO2013186979A1 (en) * | 2012-06-11 | 2013-12-19 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0622192A (en) * | 1992-06-30 | 1994-01-28 | Toshiba Corp | Camera remote controller |
JP4153108B2 (en) * | 1998-10-29 | 2008-09-17 | 富士フイルム株式会社 | Image processing method, image processing apparatus, and recording medium |
JP3482923B2 (en) * | 1999-10-28 | 2004-01-06 | セイコーエプソン株式会社 | Automatic composition determination device |
JP3979144B2 (en) * | 2002-03-27 | 2007-09-19 | ソニー株式会社 | Multi-display device, image display device and method, and computer program |
JP4058293B2 (en) * | 2002-04-26 | 2008-03-05 | アジア航測株式会社 | Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model |
JP4098021B2 (en) * | 2002-07-30 | 2008-06-11 | 富士フイルム株式会社 | Scene identification method, apparatus, and program |
JP2004135184A (en) * | 2002-10-11 | 2004-04-30 | Fuji Photo Film Co Ltd | Digital camera |
JP4052128B2 (en) * | 2003-01-23 | 2008-02-27 | セイコーエプソン株式会社 | Image trimming apparatus, image trimming method, and program |
JP2004288082A (en) * | 2003-03-25 | 2004-10-14 | Fuji Photo Film Co Ltd | Portrait creation method, portrait creation device, as well as program |
JP4706197B2 (en) * | 2003-07-15 | 2011-06-22 | オムロン株式会社 | Object determining apparatus and imaging apparatus |
JP4746295B2 (en) * | 2003-08-25 | 2011-08-10 | 富士フイルム株式会社 | Digital camera and photographing method |
-
2005
- 2005-09-09 JP JP2005262489A patent/JP4752409B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007074674A (en) | 2007-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10127889B2 (en) | Display system for enhancing visibility and methods thereof | |
JP6065913B2 (en) | Information processing apparatus, information processing method, and program | |
US20170162171A1 (en) | Display apparatus and control method thereof | |
US20160080645A1 (en) | Image pickup apparatus, information processing apparatus, display apparatus, information processing system, image data sending method, image displaying method, and computer program | |
KR101411962B1 (en) | Motion adaptive ambient lighting | |
JP2008269396A (en) | Image processor, image processing method, and program | |
KR102662951B1 (en) | Signal processing device and image display apparatus including the same | |
JP4752410B2 (en) | Image processing apparatus and method, and program | |
KR20200087979A (en) | Video wall | |
KR20180051202A (en) | Display apparatus and control method thereof | |
JP4752409B2 (en) | Image processing apparatus and method, and program | |
KR20200114898A (en) | Image display apparatus | |
US10182184B2 (en) | Image processing apparatus and image processing method | |
JP2009100186A (en) | Image quality adjusting device, imaging quality adjustment method, and program | |
JP4752408B2 (en) | Image processing apparatus and method, and program | |
KR20150078229A (en) | Display apparatus and channel map manage method thereof | |
US20140176799A1 (en) | Content processing apparatus, content processing method, and storage medium | |
CN107430841B (en) | Information processing apparatus, information processing method, program, and image display system | |
KR102604170B1 (en) | Electronic apparatus and the control method thereof | |
JP4839782B2 (en) | Output control system and method, output control apparatus and method, and program | |
JP2006352511A (en) | Display device | |
WO2016157920A1 (en) | Information processing device, information processing method, and program | |
US10157589B2 (en) | Display apparatus and method of controlling the same | |
CN115803772A (en) | System and method for detecting and displaying whiteboard text and/or active speakers | |
KR102615070B1 (en) | Display apparatus and method of controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110328 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110509 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |