JP4752409B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP4752409B2
JP4752409B2 JP2005262489A JP2005262489A JP4752409B2 JP 4752409 B2 JP4752409 B2 JP 4752409B2 JP 2005262489 A JP2005262489 A JP 2005262489A JP 2005262489 A JP2005262489 A JP 2005262489A JP 4752409 B2 JP4752409 B2 JP 4752409B2
Authority
JP
Japan
Prior art keywords
region
image
zoom
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005262489A
Other languages
Japanese (ja)
Other versions
JP2007074674A (en
Inventor
哲二郎 近藤
良拓 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005262489A priority Critical patent/JP4752409B2/en
Publication of JP2007074674A publication Critical patent/JP2007074674A/en
Application granted granted Critical
Publication of JP4752409B2 publication Critical patent/JP4752409B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、より簡単な操作で、より効果的に画像を表示させることができるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can display an image more effectively with a simpler operation.

テレビジョン受像機においては、送信局から送信されてくる放送信号が受信され、テレビジョン放送番組としての画像が表示されるとともに、その画像に付随する音声が出力される。従来のテレビジョン受像機は、単体で動作することを前提とするものであり、ユーザが新たにテレビジョン受像機を購入する場合には、ユーザが所有していたテレビジョン受像機は不要となり、まだ使用可能であっても廃棄されることが多い。   In a television receiver, a broadcast signal transmitted from a transmission station is received, an image as a television broadcast program is displayed, and sound accompanying the image is output. Conventional television receivers are premised on operating alone, and when a user purchases a new television receiver, the television receiver owned by the user becomes unnecessary, Even if it is still usable, it is often discarded.

従って、多数のテレビジョン受像機を接続した場合に、単体の場合よりも高機能を実現することができれば、使用可能なテレビジョン受像機の廃棄を防止して、資源の有効利用に資することができる。   Therefore, when a large number of television receivers are connected and higher functions can be realized than when a single television receiver is connected, the disposal of usable television receivers can be prevented, thereby contributing to effective use of resources. it can.

そこで、多数のテレビジョン受像機等の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにする技術が提案されている(例えば、特許文献1参照。)   In view of this, a technique has been proposed in which, when a large number of display devices such as television receivers are connected and used, higher functions can be realized than when used alone (for example, Patent Documents). (See 1)

特許文献1の技術によれば、例えば、9台の表示装置のそれぞれに、単体として画像を表示させることもでき、また、9台の表示装置からなる表示装置の集合体により1つの画像が表示されるようにすることができる。   According to the technique of Patent Literature 1, for example, an image can be displayed as a single unit on each of nine display devices, and one image is displayed by an aggregate of display devices including nine display devices. Can be done.

特開2003−198989号公報JP 2003-198989 A

ところで、多数のテレビジョン受像機等の表示装置を接続して使用した場合の画像の表示方法には、多くの応用例が考えられる。例えば、表示装置に表示される画像の一部分を、その表示装置に接続されている他の表示装置に拡大して表示させることができれば、より効果的に画像を表示させることができ、ユーザは、表示装置に表示された画像の全体と、その一部が拡大された画像とを同時に視聴して楽しむことができる。   By the way, many application examples are conceivable as a method for displaying an image when a large number of display devices such as television receivers are connected and used. For example, if a part of the image displayed on the display device can be enlarged and displayed on another display device connected to the display device, the image can be displayed more effectively. It is possible to view and enjoy the entire image displayed on the display device and an image in which part of the image is enlarged simultaneously.

しかしながら、上述した技術では、画像の一部を拡大して表示させるためには、ユーザは、拡大させる画像上の領域をいちいち指定しなければならず、ユーザは、その操作を行っている間、表示装置に表示される画像の視聴に集中することができなかった。   However, in the above-described technique, in order to enlarge and display a part of the image, the user must specify each area on the image to be enlarged, and the user can perform the operation while performing the operation. It was not possible to concentrate on viewing the image displayed on the display device.

本発明は、このような状況に鑑みてなされたものであり、より簡単な操作で、より効果的に画像を表示させることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to display an image more effectively with a simpler operation.

本発明の一側面の画像処理装置には、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出手段と、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較手段と、前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段と、抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段とが設けられている。 In the image processing apparatus according to the aspect of the present invention, the predetermined number of the first region is determined based on the number of pixels satisfying the predetermined condition based on the pixel value among the pixels of the first region on the first image. The feature amount indicating the feature of the second region is calculated, and the second region is obtained based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from the first image. A calculating means for calculating a feature amount indicating the feature of the region; and a feature amount of the first region by calculating a difference between the feature amount of the first region and the feature amount of the second region; The difference between the feature quantity of the first area and the feature quantity of the second area as a result of comparison by the comparison means comparing the feature quantity of the second area and the comparison means is a predetermined threshold value. If it is more, among the pixels of the first area, the area included the condition is satisfied pixels, have the above characteristics That as a characteristic region, extracting means for extracting from said first region, and display control means for extracting said feature regions that control the display of the second image is enlarged is provided.

前記表示制御手段には、前記第1の画像および前記第2の画像が同時に表示されるように、前記第2の画像の表示を制御させるようにすることができる。   The display control means can control display of the second image so that the first image and the second image are displayed simultaneously.

前記算出手段には、前記第1の領域または前記第2の領域の色相を示す特徴量を算出させるようにすることができる。   The calculation unit may calculate a feature amount indicating a hue of the first region or the second region.

前記算出手段には、前記第1の領域または前記第2の領域の明度を示す特徴量を算出させるようにすることができる。   The calculation unit may calculate a feature amount indicating the brightness of the first region or the second region.

前記算出手段には、前記第1の領域または前記第2の領域の彩度を示す特徴量を算出させるようにすることができる。   The calculation means may be configured to calculate a feature amount indicating a saturation of the first area or the second area.

前記算出手段には、前記第1の領域または前記第2の領域におけるエッジを構成する画素の割合を示す特徴量を算出させるようにすることができる。   The calculation unit may calculate a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region.

前記抽出手段には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、最も面積が大きい領域を前記特徴領域として抽出させるようにすることができる。   The extraction means detects a region in which pixels satisfying the condition are continuous in the first region, and extracts a region having the largest area among the detected regions as the feature region. Can do.

前記抽出手段には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、前記第1の画像の中心から最も近い領域を前記特徴領域として抽出させるようにすることができる。   The extracting means detects a region in which pixels satisfying the condition are continuous on the first region, and among the detected regions, a region closest to the center of the first image is used as the feature region. It can be made to extract.

本発明の一側面の画像処理方法またはプログラムは、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出し、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し、抽出された前記特徴領域が拡大された第2の画像の表示を制御するステップを含む。 An image processing method or program according to one aspect of the present invention is based on the number of pixels satisfying a predetermined condition based on a pixel value among pixels of a first region on a first image. Based on the number of pixels that satisfy the above condition among the pixels in the second region obtained by calculating a feature amount indicating a predetermined feature and excluding the first region from the first image , the second And calculating a feature amount indicating the feature of the first region, and obtaining a difference between the feature amount of the first region and the feature amount of the second region, and the feature amount of the first region, When the feature amount of the second region is compared, and the difference between the feature amount of the first region and the feature amount of the second region is equal to or greater than a predetermined threshold as a result of the comparison, of the pixels in the region, the region including the pixel satisfying, as the feature region having the feature, the Extracting from the first region, the extracted the feature regions includes the step of controlling the display of the second image that has been enlarged.

本発明の一側面においては、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量が算出され、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量が算出され、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とが比較され、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域が、前記特徴を有する特徴領域として、前記第1の領域から抽出され、抽出された前記特徴領域が拡大された第2の画像の表示が制御される。 In one aspect of the present invention, the predetermined characteristic of the first region is indicated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image. The feature of the second region is calculated based on the number of pixels that satisfy the condition among the pixels of the second region obtained by calculating the feature amount and excluding the first region from the first image. Is calculated, and the difference between the feature amount of the first region and the feature amount of the second region is obtained, thereby obtaining the feature amount of the first region and the second region. When the difference between the feature amount of the first region and the feature amount of the second region is equal to or greater than a predetermined threshold as a result of the comparison, the feature amount is compared with the pixel of the first region of, a region containing the pixel satisfying there is, as a characteristic region having the feature, extracted from the first region It is, extracted the feature region has been the display of the second image that has been magnified is controlled.

以上のように、本発明の一側面によれば、画像を表示させることができる。特に、本発明の一側面によれば、より簡単な操作で、より効果的に画像を表示させることができる。   As described above, according to one aspect of the present invention, an image can be displayed. In particular, according to one aspect of the present invention, an image can be displayed more effectively with a simpler operation.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.

本発明の一側面の画像処理装置は、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出手段(例えば、図26の算出部662)と、前記第1の領域の特徴量と、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第2の領域の特徴量とを比較する比較手段(例えば、図26の比較部663)と、前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段(例えば、図26の抽出部651)と、抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段(例えば、図26のズーム処理部113)とを備える。 The image processing apparatus according to an aspect of the present invention provides a predetermined number of pixels in the first region based on the number of pixels that satisfy a predetermined condition based on a pixel value among the pixels in the first region on the first image. The second region is calculated based on the number of pixels that satisfy the condition among the pixels of the second region obtained by calculating a feature amount indicating a feature and excluding the first region from the first image. Calculating means (for example, the calculation unit 662 in FIG. 26), a feature amount of the first region, a feature amount of the first region, and a feature amount of the second region By calculating the difference from the feature amount, a comparison unit (for example, the comparison unit 663 in FIG. 26) that compares the feature amount of the second region and a comparison result of the comparison unit, If the feature amount, the difference between the feature quantity of the second region is greater than a predetermined threshold value, said first region Of Motono, a region included the condition is satisfied pixels, as the feature region having the feature, the first extracting means for extracting from the region (e.g., the extraction unit 651 of FIG. 26), extracted the feature Display control means (for example, the zoom processing unit 113 in FIG. 26) that controls the display of the second image in which the area is enlarged is provided.

前記表示制御手段(例えば、図7のステップS66の処理を実行するズーム処理部113)には、前記第1の画像および前記第2の画像が同時に表示されるように、前記第2の画像の表示を制御させるようにすることができる。   The display control means (for example, the zoom processing unit 113 that executes the process of step S66 in FIG. 7) displays the second image so that the first image and the second image are displayed simultaneously. The display can be controlled.

前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の色相を示す特徴量を算出させるようにすることができる。   The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the hue of the first region or the second region.

前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の明度を示す特徴量を算出させるようにすることができる。   The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the brightness of the first region or the second region.

前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域の彩度を示す特徴量を算出させるようにすることができる。   The calculation unit (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) may be configured to calculate a feature amount indicating the saturation of the first region or the second region. .

前記算出手段(例えば、図27のステップS343の処理を実行する算出部662)には、前記第1の領域または前記第2の領域におけるエッジを構成する画素の割合を示す特徴量を算出させるようにすることができる。   The calculation means (for example, the calculation unit 662 that executes the process of step S343 in FIG. 27) is configured to calculate a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region. Can be.

前記抽出手段(例えば、図27のステップS345の処理を実行する抽出部651)には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、最も面積が大きい領域を前記特徴領域として抽出させるようにすることができる。   The extraction means (for example, the extraction unit 651 that executes the process of step S345 in FIG. 27) detects a region in which pixels satisfying the condition are continuous on the first region, and among the detected regions The region with the largest area can be extracted as the feature region.

前記抽出手段(例えば、図27のステップS345の処理を実行する抽出部651)には、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出させ、検出された領域のうち、前記第1の画像の中心から最も近い領域を前記特徴領域として抽出させるようにすることができる。   The extraction means (for example, the extraction unit 651 that executes the process of step S345 in FIG. 27) detects a region in which pixels satisfying the condition are continuous on the first region, and among the detected regions The region closest to the center of the first image can be extracted as the feature region.

本発明の一側面の画像処理方法またはプログラムは、第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出し(例えば、図27のステップS343)、前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し(例えば、図27のステップS344)、その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し(例えば、図27のステップS345)、抽出された前記特徴領域が拡大された第2の画像の表示を制御する(例えば、図7のステップS66)ステップを含む。 An image processing method or program according to one aspect of the present invention is based on the number of pixels satisfying a predetermined condition based on a pixel value among pixels of a first region on a first image. Based on the number of pixels that satisfy the above condition among the pixels in the second region obtained by calculating a feature amount indicating a predetermined feature and excluding the first region from the first image , the second The feature amount indicating the feature of the region is calculated (for example, step S343 in FIG. 27), and the difference between the feature amount of the first region and the feature amount of the second region is obtained . The feature amount of the first region is compared with the feature amount of the second region (for example, step S344 in FIG. 27), and as a result of the comparison, the feature amount of the first region and the second region are compared. If the difference between the feature quantity of not less than the predetermined threshold value, among pixels of the first area, before The region containing the pixel satisfying, as the feature region having the feature, extracted from the first area (e.g., step S345 in FIG. 27), the extracted second image the feature region is magnified (For example, step S66 in FIG. 7) is included.

以下、図面を参照して本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図1は、本発明を適用したスケーラブルテレビジョンシステムの外観の構成例を示す図である。図1では、9(3×3)台の表示装置21−1乃至表示装置21−9を取り付けることができるスケーラブルテレビジョンシステム11が示されている。スケーラブルテレビジョンシステム11は、例えば、複数の表示装置を、所定の取り付け位置に取り付けることが可能なユニットを、複数台接続することにより構成されており、接続されるユニットの数を増やしたり減らしたりすることで、表示装置の台数を自由に増やしたり減らしたりすることが可能となるように構成されている。   FIG. 1 is a diagram showing a configuration example of the appearance of a scalable television system to which the present invention is applied. FIG. 1 shows a scalable television system 11 to which nine (3 × 3) display devices 21-1 to 21-9 can be attached. The scalable television system 11 is configured, for example, by connecting a plurality of units capable of mounting a plurality of display devices at a predetermined mounting position, and increasing or decreasing the number of connected units. By doing so, the number of display devices can be freely increased or decreased.

例えば、表示装置21−1、表示装置21−4、および表示装置21−7の3台を図中縦方向に一列に取り付けることが可能なユニット、表示装置21−2、表示装置21−5、および表示装置21−8の3台を図中縦方向に一列に取り付けることが可能なユニット、並びに表示装置21−3、表示装置21−6、および表示装置21−9の3台を図中縦方向に一列に取り付けることが可能なユニットの3台のユニットが図中横方向に一列に並べられて接続されることにより、図1のスケーラブルテレビジョンシステム11が構成される。   For example, a unit capable of attaching three units of display device 21-1, display device 21-4, and display device 21-7 in a line in the vertical direction in the figure, display device 21-2, display device 21-5, And three units of display device 21-8 that can be attached in a row in the vertical direction in the figure, and three units of display device 21-3, display device 21-6, and display device 21-9 in the vertical direction in the figure. The scalable television system 11 of FIG. 1 is configured by connecting three units of units that can be attached in a row in the direction and arranged in a row in the horizontal direction in the drawing.

スケーラブルテレビジョンシステム11には、表示装置21−1乃至表示装置21−9の9台の表示装置がそれぞれ取り付けられている。表示装置21−1乃至表示装置21−9は、その表面(図中、手前側)に画像を表示する表示部が設けられ、背面の一部または全部が、上述したスケーラブルテレビジョンシステム11を構成するユニットに接触するようにして取り付けられている。また、表示装置21−1乃至表示装置21−9は、それぞれ他の表示装置との通信を行う通信機能を有している。   The scalable television system 11 is provided with nine display devices, display devices 21-1 to 21-9. The display devices 21-1 to 21-9 are each provided with a display unit for displaying an image on the front surface (front side in the figure), and a part or all of the rear surface constitutes the scalable television system 11 described above. It is attached so as to come into contact with the unit. The display devices 21-1 to 21-9 each have a communication function for performing communication with other display devices.

さらに、表示装置21−1乃至表示装置21−9の9台の表示装置のそれぞれは、同じ形状と機能を有し、例えば、放送信号、映像信号などを受信して表示部に画像を表示したり、スピーカなどで構成される音声出力部から音声を出力したりする。スケーラブルテレビジョンシステム11は、個々の表示装置を独立して機能させることは勿論、9台の表示装置の集合体をあたかも1台の表示装置として機能させるようにすることが可能である。   Further, each of the nine display devices 21-1 to 21-9 has the same shape and function, for example, receives a broadcast signal, a video signal, etc., and displays an image on the display unit. Or output audio from an audio output unit composed of a speaker or the like. The scalable television system 11 allows each display device to function independently, as well as a set of nine display devices to function as a single display device.

なお、以下、表示装置21−1乃至表示装置21−9のそれぞれを個々に区別する必要のない場合、単に表示装置21と称する。   Hereinafter, when it is not necessary to distinguish each of the display devices 21-1 to 21-9, they are simply referred to as the display device 21.

ところで、スケーラブルテレビジョンシステム11においては、個々の表示装置21を独立して機能させて、表示装置21−1乃至表示装置21−9のそれぞれに、別々の画像を表示させることができる。例えば、図2に示すように、9台の表示装置21のうち、図中、中央に位置する表示装置21−5に所定の画像を表示させ、それと同時に、表示装置21−5を囲むように配置されている表示装置21−1乃至表示装置21−4、および表示装置21−6乃至表示装置21−9のそれぞれに、表示装置21−5に表示されている画像の一部分を拡大して表示させることができる。   By the way, in the scalable television system 11, each display apparatus 21 can be functioned independently, and a separate image can be displayed on each of the display apparatuses 21-1 to 21-9. For example, as shown in FIG. 2, among the nine display devices 21, a predetermined image is displayed on the display device 21-5 located in the center in the figure, and at the same time, the display device 21-5 is surrounded. A part of the image displayed on the display device 21-5 is enlarged and displayed on each of the display devices 21-1 to 21-4 and the display devices 21-6 to 21-9. Can be made.

図2では、表示装置21−5には、表示装置21−5の表示部の図中、右下に人41乃至人43が写っており(表示されており)、その背景に山46、山47、太陽44、ヘリコプタ45、および雲48が写っている(表示されている)画像が表示されている。また、表示装置21−1乃至表示装置21−3のそれぞれには、表示装置21−5に表示されている人41乃至人43のそれぞれが拡大された画像が表示されており、表示装置21−4には、太陽44が拡大された画像が表示されており、表示装置21−6には、ヘリコプタ45が拡大された画像が表示されている。さらに、表示装置21−7には、表示装置21−5に表示されている山46が拡大された画像が表示されており、表示装置21−8には、山47が拡大された画像が表示されており、表示装置21−9には、雲48が拡大された画像が表示されている。   In FIG. 2, the display device 21-5 shows (displays) people 41 to 43 in the lower right in the figure of the display unit of the display device 21-5, and the background is a mountain 46 and a mountain. 47, the sun 44, the helicopter 45, and the cloud 48 are displayed (displayed). In addition, in each of the display devices 21-1 to 21-3, an enlarged image of each of the people 41 to 43 displayed on the display device 21-5 is displayed, and the display device 21- 4, an image in which the sun 44 is enlarged is displayed, and an image in which the helicopter 45 is enlarged is displayed on the display device 21-6. Further, the display device 21-7 displays an image in which the mountain 46 displayed on the display device 21-5 is enlarged, and the display device 21-8 displays an image in which the mountain 47 is enlarged. Thus, an image in which the cloud 48 is enlarged is displayed on the display device 21-9.

このように、複数の表示装置21のうちの1台に所定の画像を表示させ、同時に、それ以外(残り)の8台の表示装置21に、所定の画像の一部分を拡大して表示させることで、ユーザは、表示された所定の画像(すなわち、画像全体)を視聴するとともに、その画像の一部分が拡大された画像(すなわち、所定の画像の細部)も同時に視聴して楽しむことができる。   In this way, a predetermined image is displayed on one of the plurality of display devices 21, and at the same time, a part of the predetermined image is enlarged and displayed on the other eight (remaining) display devices 21. Thus, the user can view and enjoy the displayed predetermined image (that is, the entire image) and simultaneously view and enjoy the image in which a part of the image is enlarged (that is, the details of the predetermined image).

なお、図2では、表示装置21−5が所定の画像(以下、全体画像とも称する)を表示して、表示装置21−1乃至表示装置21−4、および表示装置21−6乃至表示装置21−9のそれぞれが全体画像の一部分を拡大した画像(以下、ズーム画像とも称する)を表示させる例について説明したが、全体画像を表示する表示装置21は、表示装置21−5に限らず、他の表示装置21としてもよく、複数の表示装置21が全体画像を同時に表示させるようにしてもよい。同様に、複数の表示装置21のうち、どの表示装置21がズーム画像を表示してもよく、複数の表示装置21が同一のズーム画像を表示するようにしてもよい。   In FIG. 2, the display device 21-5 displays a predetermined image (hereinafter also referred to as an entire image), and the display devices 21-1 to 21-4 and the display devices 21-6 to 21-21. Although the example in which each of -9 displays an image in which a part of the entire image is enlarged (hereinafter also referred to as a zoom image) has been described, the display device 21 that displays the entire image is not limited to the display device 21-5. Or a plurality of display devices 21 may simultaneously display the entire image. Similarly, any of the plurality of display devices 21 may display the zoom image, and the plurality of display devices 21 may display the same zoom image.

図3は、図1のスケーラブルテレビジョンシステム11の構成例を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration example of the scalable television system 11 of FIG.

スケーラブルテレビジョンシステム11は、表示装置21−1乃至表示装置21−9(表示装置21−3乃至表示装置21−8は図示せず)のそれぞれを含むように構成され、それぞれの表示装置21には、分配機71、分配機72、受信部73、およびネットワークハブ74が接続されている。   The scalable television system 11 is configured to include each of the display devices 21-1 to 21-9 (the display devices 21-3 to 21-8 are not shown). Are connected to a distributor 71, a distributor 72, a receiver 73, and a network hub 74.

分配機71は、図示せぬアンテナが受信した、テレビジョン放送番組を再生するための放送信号を表示装置21−1乃至表示装置21−9に供給する。分配機72は、図示せぬ外部入力機器から供給された、映像(動画像)を再生するための映像信号を表示装置21−1乃至表示装置21−9に供給する。   The distributor 71 supplies a broadcast signal received by an antenna (not shown) for reproducing a television broadcast program to the display devices 21-1 to 21-9. The distributor 72 supplies a video signal for reproducing a video (moving image) supplied from an external input device (not shown) to the display devices 21-1 to 21-9.

また、例えば、ユーザが、図示せぬリモートコマンダを操作することにより、表示装置21に対して所定の処理の実行を指示すると、リモートコマンダからはユーザの操作に応じた赤外線信号が送信される。受信部73は、リモートコマンダから送信されてきた赤外線信号を受信(受光)して光電変換し、これにより得られたコマンド信号を表示装置21−1乃至表示装置21−9に供給する。ネットワークハブ74は、表示装置21−1乃至表示装置21−9のそれぞれから供給された各種の信号を、他の表示装置21に供給する。   Further, for example, when the user operates the remote commander (not shown) to instruct the display device 21 to execute a predetermined process, an infrared signal corresponding to the user operation is transmitted from the remote commander. The receiving unit 73 receives (receives) an infrared signal transmitted from the remote commander, performs photoelectric conversion, and supplies a command signal obtained thereby to the display devices 21-1 to 21-9. The network hub 74 supplies various signals supplied from the display devices 21-1 to 21-9 to the other display devices 21.

表示装置21は、分配機71から供給された放送信号、または分配機72から供給された映像信号を基に、テレビジョン放送番組や映像を再生する。また、それぞれの表示装置21は、ネットワークハブ74を介して互いに通信を行ったり、受信部73から供給されたコマンド信号に応じて、所定の処理を行ったりする。   The display device 21 reproduces a television broadcast program or video based on the broadcast signal supplied from the distributor 71 or the video signal supplied from the distributor 72. In addition, the respective display devices 21 communicate with each other via the network hub 74 or perform predetermined processing according to a command signal supplied from the receiving unit 73.

図4は、表示装置21の機能の構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a configuration example of functions of the display device 21.

表示装置21は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、画像処理部95、表示部96、および音声出力部97を含むように構成される。   The display device 21 is configured to include a control information communication unit 91, an input unit 92, a central processing unit 93, a signal acquisition unit 94, an image processing unit 95, a display unit 96, and an audio output unit 97.

制御情報通信部91は、ネットワークハブ74に接続され、表示装置21と他の表示装置21との通信を制御する。制御情報通信部91は、ネットワークハブ74を介して、他の表示装置から送信されてきた各種の制御信号を受信し、中央処理部93に供給する。また、制御情報通信部91は、中央処理部93から供給された各種の制御信号を、ネットワークハブ74を介して他の表示装置21に供給する。さらに、制御情報通信部91は、受信部73から供給されたコマンド信号を中央処理部93に供給する。   The control information communication unit 91 is connected to the network hub 74 and controls communication between the display device 21 and another display device 21. The control information communication unit 91 receives various control signals transmitted from other display devices via the network hub 74 and supplies them to the central processing unit 93. Further, the control information communication unit 91 supplies various control signals supplied from the central processing unit 93 to the other display device 21 via the network hub 74. Further, the control information communication unit 91 supplies the command signal supplied from the receiving unit 73 to the central processing unit 93.

入力部92は、例えば、マウス、タブレット、ボタン、スイッチなどから構成され、ユーザの操作に応じた入力信号を中央処理部93に供給する。中央処理部93は、制御情報通信部91から供給された制御信号、または入力部92から供給された入力信号に応じて、表示装置21全体を制御し、各種の処理を行う。   The input unit 92 includes, for example, a mouse, a tablet, a button, a switch, and the like, and supplies an input signal corresponding to a user operation to the central processing unit 93. The central processing unit 93 controls the entire display device 21 according to a control signal supplied from the control information communication unit 91 or an input signal supplied from the input unit 92, and performs various processes.

例えば、中央処理部93は、画像処理部95を制御して、表示部96に画像を表示させる。また、中央処理部93は、他の表示装置21を制御するための制御信号を生成して、制御情報通信部91に供給し、他の表示装置21に送信させる。   For example, the central processing unit 93 controls the image processing unit 95 to display an image on the display unit 96. The central processing unit 93 generates a control signal for controlling the other display device 21, supplies the control signal to the control information communication unit 91, and causes the other display device 21 to transmit the control signal.

さらに、中央処理部93は、受信部73または入力部92から表示装置21を特定するID(Identification)を示す信号が供給されると、その信号により示されるIDを記憶する。例えば、互いに接続されている表示装置21は予め順序付けられており、それぞれの表示装置21には、自分自身の順番を示すIDが割り振られる。例えば、表示装置21は、表示装置21−1乃至表示装置21−9の順番で順序付けられており、表示装置21−1のIDは、自分自身の順番が1番目である“1”とされる。なお、このIDは、中央処理部93が予め記憶しておくようにしてもよく、ユーザにより変更できるようにしてもよい。   Further, when a signal indicating an ID (Identification) for specifying the display device 21 is supplied from the receiving unit 73 or the input unit 92, the central processing unit 93 stores the ID indicated by the signal. For example, the display devices 21 connected to each other are ordered in advance, and each display device 21 is assigned an ID indicating its own order. For example, the display device 21 is ordered in the order of the display devices 21-1 to 21-9, and the ID of the display device 21-1 is “1”, which is the first in its own order. . The ID may be stored in advance by the central processing unit 93 or may be changed by the user.

信号取得部94は、例えば、チューナなどを含むように構成される。信号取得部94は、中央処理部93の制御の基に選局を行い、分配機71から供給された放送信号から画像を表示させるための画像データ、および音声を再生させるための音声データを抽出する。また、信号取得部94は、分配機72から供給された映像信号から画像データおよび音声データを抽出する。信号取得部94は、抽出した画像データを画像処理部95に供給し、音声データを音声出力部97に供給する。   The signal acquisition unit 94 is configured to include, for example, a tuner. The signal acquisition unit 94 selects a channel based on the control of the central processing unit 93, and extracts image data for displaying an image and audio data for reproducing sound from the broadcast signal supplied from the distributor 71. To do. The signal acquisition unit 94 extracts image data and audio data from the video signal supplied from the distributor 72. The signal acquisition unit 94 supplies the extracted image data to the image processing unit 95 and supplies the audio data to the audio output unit 97.

画像処理部95は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から肌色の領域を抽出して、その領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部95は、領域決定部111、パラメータ決定部112、およびズーム処理部113を含むように構成される。   Under the control of the central processing unit 93, the image processing unit 95 extracts a skin color region from an image (entire image) based on the image data supplied from the signal acquisition unit 94, and enlarges and displays the region. Image data is generated and supplied to the display unit 96. The image processing unit 95 is configured to include an area determination unit 111, a parameter determination unit 112, and a zoom processing unit 113.

領域決定部111は、肌色領域検出部121を含むように構成される。領域決定部111の肌色領域検出部121は、信号取得部94から供給された画像データに基づく画像(全体画像)から肌色の領域を検出する。領域決定部111は、肌色の領域の検出結果に基づき、全体画像のうちのズーム画像として表示させる領域(以下、ズーム領域とも称する)の候補となる領域を定める(選択する)。   The region determination unit 111 is configured to include a skin color region detection unit 121. The skin color region detection unit 121 of the region determination unit 111 detects a skin color region from an image (entire image) based on the image data supplied from the signal acquisition unit 94. The region determination unit 111 determines (selects) a region that is a candidate for a region to be displayed as a zoom image (hereinafter also referred to as a zoom region) of the entire image based on the detection result of the skin color region.

パラメータ決定部112は、パラメータ保持部122を含むように構成され、領域決定部111により定められたズーム領域の候補となる領域の中心座標、およびその領域を拡大させるズーム倍率を算出する。パラメータ決定部112のパラメータ保持部122は、算出された中心座標およびズーム倍率を保持する。また、パラメータ決定部112は、過去に算出した所定の数の中心座標の重心(の座標)、およびズーム倍率の平均値を算出して、ズーム処理部113に供給する。   The parameter determination unit 112 is configured to include the parameter holding unit 122, and calculates the center coordinates of the region that is a candidate for the zoom region determined by the region determination unit 111 and the zoom magnification for enlarging the region. The parameter holding unit 122 of the parameter determining unit 112 holds the calculated center coordinates and zoom magnification. Further, the parameter determination unit 112 calculates the center of gravity (coordinates) of a predetermined number of center coordinates calculated in the past and the average value of the zoom magnification, and supplies the calculated values to the zoom processing unit 113.

ズーム処理部113は、信号取得部94から供給された画像データ、並びにパラメータ決定部112から供給された中心座標の重心(の座標)およびズーム倍率の平均値を基に、ズーム画像を表示させるための画像データを生成して表示部96に供給する。   The zoom processing unit 113 displays a zoom image based on the image data supplied from the signal acquisition unit 94, the center of gravity (the coordinates thereof) of the center coordinates supplied from the parameter determination unit 112, and the average value of the zoom magnification. Image data is generated and supplied to the display unit 96.

また、ズーム処理部113は、ズーム画像を表示させずに、全体画像を表示させる場合、信号取得部94から供給された画像データをそのまま表示部96に供給する。   In addition, when displaying the entire image without displaying the zoom image, the zoom processing unit 113 supplies the image data supplied from the signal acquisition unit 94 to the display unit 96 as it is.

表示部96は、例えば、液晶ディスプレイ、CRT(Cathode Ray Tube)などから構成され、画像処理部95から供給された画像データを基に画像を表示する。音声出力部97は、例えば、スピーカなどから構成され、信号取得部94から供給された音声データを基に音声を再生する。   The display unit 96 includes, for example, a liquid crystal display, a CRT (Cathode Ray Tube), and the like, and displays an image based on the image data supplied from the image processing unit 95. The audio output unit 97 includes, for example, a speaker and reproduces audio based on the audio data supplied from the signal acquisition unit 94.

スケーラブルテレビジョンシステム11においては、全体画像を表示する表示装置21と、ズーム画像を表示する表示装置21とが予め定められているようにしてもよく、ユーザが、表示装置21ごとに全体画像を表示させるか、またはズーム画像を表示させるかを設定できるようにしてもよい。   In the scalable television system 11, the display device 21 that displays the entire image and the display device 21 that displays the zoom image may be determined in advance, and the user can display the entire image for each display device 21. You may enable it to set whether to display or to display a zoom image.

ユーザがリモートコマンダを操作して、表示装置21に画像の表示を指示すると、受信部73は、リモートコマンダから送信されてきた赤外線信号を受信して光電変換し、その結果得られるコマンド信号を表示装置21に供給する。   When the user operates the remote commander to instruct the display device 21 to display an image, the receiving unit 73 receives an infrared signal transmitted from the remote commander, performs photoelectric conversion, and displays a command signal obtained as a result. It supplies to the apparatus 21.

表示装置21の中央処理部93は、制御情報通信部91を介して受信部73からのコマンド信号を受信すると、そのコマンド信号に応じて表示部96に画像(全体画像またはズーム画像)を表示させる。   When the central processing unit 93 of the display device 21 receives a command signal from the receiving unit 73 via the control information communication unit 91, the central processing unit 93 displays an image (entire image or zoom image) on the display unit 96 according to the command signal. .

以下、図5のフローチャートを参照して、全体画像を表示する表示装置21による、全体画像の表示処理について説明する。   Hereinafter, with reference to the flowchart of FIG. 5, the display processing of the entire image by the display device 21 that displays the entire image will be described.

ステップS11において、信号取得部94は、中央処理部93の制御の基に、分配機71から供給された放送信号、または分配機72から供給された映像信号から、画像データおよび音声データを抽出する。そして、信号取得部94は、抽出した画像データをズーム処理部113に供給し、音声データを音声出力部97に供給する。   In step S <b> 11, the signal acquisition unit 94 extracts image data and audio data from the broadcast signal supplied from the distributor 71 or the video signal supplied from the distributor 72 under the control of the central processing unit 93. . Then, the signal acquisition unit 94 supplies the extracted image data to the zoom processing unit 113 and supplies the audio data to the audio output unit 97.

ステップS12において、ズーム処理部113は、信号取得部94から供給された画像データをそのまま表示部96に供給して、表示部96に全体画像を表示させる。   In step S <b> 12, the zoom processing unit 113 supplies the image data supplied from the signal acquisition unit 94 to the display unit 96 as it is, and causes the display unit 96 to display the entire image.

ステップS13において、音声出力部97は、信号取得部94から供給された音声データを基に音声を再生する。   In step S <b> 13, the audio output unit 97 reproduces audio based on the audio data supplied from the signal acquisition unit 94.

ステップS14において、中央処理部93は、処理を終了するか否かを判定する。例えば、中央処理部93は、制御情報通信部91を介して受信部73から、全体画像の表示の終了を指示するコマンド信号が供給された場合、処理を終了すると判定する。   In step S14, the central processing unit 93 determines whether or not to end the process. For example, the central processing unit 93 determines to end the processing when a command signal instructing the end of the display of the entire image is supplied from the receiving unit 73 via the control information communication unit 91.

ステップS14において、処理を終了しないと判定された場合、ステップS15に進み、中央処理部93は、ユーザの操作に応じた処理を行い、処理はステップS11に戻る。例えば、ユーザがリモートコマンダを操作して、チャンネルの変更を指示した場合、中央処理部93は、制御情報通信部91を介して受信部73から供給されたコマンド信号に応じて、信号取得部94を制御して選局させる。   If it is determined in step S14 that the process is not ended, the process proceeds to step S15, the central processing unit 93 performs a process according to the user's operation, and the process returns to step S11. For example, when the user operates the remote commander to instruct the channel change, the central processing unit 93 responds to the command signal supplied from the receiving unit 73 via the control information communication unit 91 and the signal acquisition unit 94. To select a channel.

また、ステップS14において、処理を終了すると判定された場合、中央処理部93は、信号取得部94および画像処理部95を制御して、全体画像を表示させる処理を終了させて、全体画像の表示処理は終了する。   If it is determined in step S14 that the process is to be ended, the central processing unit 93 controls the signal acquisition unit 94 and the image processing unit 95 to end the process of displaying the entire image, thereby displaying the entire image. The process ends.

このようにして、全体画像を表示する表示装置21は、ユーザの操作に応じて全体画像を表示する。   In this way, the display device 21 that displays the entire image displays the entire image in accordance with a user operation.

次に、図6のフローチャートを参照して、他の表示装置21に表示されている全体画像の一部分を拡大して表示する表示装置21による、ズーム画像の表示処理について説明する。このズーム画像の表示処理は、互いに接続されている他の表示装置21による、全体画像の表示処理(図5)と独立に、かつ並行して行われる。   Next, zoom image display processing by the display device 21 that enlarges and displays a part of the entire image displayed on the other display device 21 will be described with reference to the flowchart of FIG. 6. The zoom image display process is performed independently and in parallel with the entire image display process (FIG. 5) by the other display devices 21 connected to each other.

ステップS31において、中央処理部93は、ズーム画像の表示が指示されたか否かを判定する。例えば、ユーザが、リモートコマンダを操作して、リモートコマンダから受信部73に、ズーム画像の表示を指示する赤外線信号が送信され、これに応じて、受信部73から制御情報通信部91を介して中央処理部93に、ズーム画像の表示を指示するコマンド信号が供給された場合、中央処理部93は、ズーム画像の表示が指示されたと判定する。   In step S31, the central processing unit 93 determines whether display of a zoom image has been instructed. For example, when the user operates the remote commander, an infrared signal instructing display of the zoom image is transmitted from the remote commander to the receiving unit 73, and in response thereto, the receiving unit 73 via the control information communication unit 91. When the command signal for instructing the display of the zoom image is supplied to the central processing unit 93, the central processing unit 93 determines that the display of the zoom image has been instructed.

ステップS31において、ズーム画像の表示が指示されたと判定された場合、ステップS32に進み、画像処理部95は、中央処理部93の制御の基に、自動ズーム処理を行う。なお、自動ズーム処理の詳細は後述するが、自動ズーム処理において、画像処理部95は、信号取得部94から供給された画像データを基に、ズーム画像を表示させるための画像データを生成する。そして、画像処理部95は、生成した画像データを表示部96に供給して、他の表示装置21に全体画像が表示されるのと同時に、表示部96にズーム画像を表示させる。   If it is determined in step S31 that display of a zoom image has been instructed, the process proceeds to step S32, and the image processing unit 95 performs automatic zoom processing under the control of the central processing unit 93. Although details of the automatic zoom process will be described later, in the automatic zoom process, the image processing unit 95 generates image data for displaying a zoom image based on the image data supplied from the signal acquisition unit 94. Then, the image processing unit 95 supplies the generated image data to the display unit 96 and causes the display unit 96 to display the zoom image simultaneously with the display of the entire image on the other display device 21.

ステップS33において、中央処理部93は、ズーム画像の表示を終了するか否かを判定する。例えば、ユーザにより、リモートコマンダが操作されて、リモートコマンダから受信部73に、ズーム画像の表示の終了を指示する赤外線信号が送信され、これに応じて、受信部73から、制御情報通信部91を介して中央処理部93に、ズーム画像の表示の終了を指示するコマンド信号が供給された場合、中央処理部93は、ズーム画像の表示を終了すると判定する。   In step S33, the central processing unit 93 determines whether or not to end the display of the zoom image. For example, the remote commander is operated by the user, and an infrared signal instructing the end of the display of the zoom image is transmitted from the remote commander to the receiving unit 73, and the control information communication unit 91 is received from the receiving unit 73 accordingly. When the command signal for instructing the end of the display of the zoom image is supplied to the central processing unit 93 via the central processing unit 93, the central processing unit 93 determines to end the display of the zoom image.

ステップS33において、ズーム画像の表示を終了しないと判定された場合、ステップS32に戻り、表示部96には継続してズーム画像が表示される。   If it is determined in step S33 that display of the zoom image is not finished, the process returns to step S32, and the zoom image is continuously displayed on the display unit 96.

これに対して、ステップS33において、ズーム画像の表示を終了すると判定された場合、ステップS34に進む。ステップS34において、中央処理部93は、信号取得部94および画像処理部95を制御して、表示部96へのズーム画像の表示を終了させ、処理はステップS31に戻る。   On the other hand, if it is determined in step S33 that display of the zoom image is to be terminated, the process proceeds to step S34. In step S34, the central processing unit 93 controls the signal acquisition unit 94 and the image processing unit 95 to end the display of the zoom image on the display unit 96, and the process returns to step S31.

また、ステップS31において、ズーム画像の表示が指示されていないと判定された場合、ステップS35に進み、中央処理部93は、処理を終了するか否かを判定する。例えば、中央処理部93は、制御情報通信部91を介して受信部73から、全体画像の表示の終了を指示するコマンド信号が供給された場合、処理を終了すると判定する。   If it is determined in step S31 that display of a zoom image is not instructed, the process proceeds to step S35, and the central processing unit 93 determines whether or not to end the process. For example, the central processing unit 93 determines to end the processing when a command signal instructing the end of the display of the entire image is supplied from the receiving unit 73 via the control information communication unit 91.

ステップS35において、処理を終了しないと判定された場合、ステップS36に進み、中央処理部93は、ユーザの操作に応じた処理を行い、処理はステップS31に戻る。例えば、ユーザがリモートコマンダを操作して、チャンネルの変更を指示した場合、中央処理部93は、制御情報通信部91を介して受信部73から供給されたコマンド信号に応じて、信号取得部94を制御して選局させる。   If it is determined in step S35 that the process is not ended, the process proceeds to step S36, the central processing unit 93 performs a process according to the user's operation, and the process returns to step S31. For example, when the user operates the remote commander to instruct the channel change, the central processing unit 93 responds to the command signal supplied from the receiving unit 73 via the control information communication unit 91 and the signal acquisition unit 94. To select a channel.

また、ステップS35において、処理を終了すると判定された場合、中央処理部93は、表示装置21が行っている処理を終了させて、ズーム画像の表示処理は終了する。   If it is determined in step S35 that the process is to be terminated, the central processing unit 93 terminates the process performed by the display device 21, and the zoom image display process is terminated.

このようにして、表示装置21は、他の表示装置21に全体画像が表示されているときに、ユーザによりズーム画像の表示が指示されると、表示部96にズーム画像を表示させる。   In this way, the display device 21 causes the display unit 96 to display a zoom image when an instruction to display a zoom image is given by the user while the entire image is displayed on another display device 21.

このように、全体画像が表示されるのと同時に、ズーム画像を表示させることにより、表示装置21は、より効果的に画像を表示することができる。これにより、ユーザは、リモートコマンダまたは入力部92を操作し、ズーム画像の表示を指示するという簡単な操作で、全体画像を見るとともに、全体画像の細部まで同時に観察して、画像の視聴を楽しむことができる。ユーザは、新しい画角で画像を見ることで、従来にはない視覚的効果を得ることができ、新しい発見をすることができる。しかもこの場合、ユーザは、拡大して表示させる領域(ズーム領域)をいちいち指定する必要がないので、画像の視聴に集中することができる。   Thus, by displaying the zoom image at the same time as the entire image is displayed, the display device 21 can display the image more effectively. Thus, the user can view the entire image and observe the details of the entire image at the same time with a simple operation of operating the remote commander or the input unit 92 and instructing the display of the zoom image, and enjoy viewing the image. be able to. The user can obtain an unprecedented visual effect and make a new discovery by viewing the image at a new angle of view. In addition, in this case, the user does not have to specify the area (zoom area) to be enlarged and displayed, so that the user can concentrate on viewing the image.

次に、図7のフローチャートを参照して、図6のステップS32の処理に対応する、自動ズーム処理について説明する。   Next, the automatic zoom process corresponding to the process of step S32 of FIG. 6 will be described with reference to the flowchart of FIG.

ステップS61において、画像処理部95は肌色領域の検出処理を行う。なお、肌色領域の検出処理の詳細は後述するが、肌色領域の検出処理において、画像処理部95の領域決定部111は、全体画像から肌色の領域を検出し、その検出結果に基づいて、全体画像のうちのズーム画像として表示させるズーム領域の候補を定める。そして、画像処理部95のパラメータ決定部112は、定められたズーム領域の候補の中心座標およびズーム倍率を算出する。   In step S61, the image processing unit 95 performs skin color region detection processing. Although details of the skin color area detection process will be described later, in the skin color area detection process, the area determination unit 111 of the image processing unit 95 detects a skin color area from the entire image, and based on the detection result, A candidate for a zoom area to be displayed as a zoom image of the images is determined. Then, the parameter determination unit 112 of the image processing unit 95 calculates the center coordinates and zoom magnification of the determined zoom region candidate.

ステップS62において、パラメータ保持部122は、パラメータ決定部112により算出されたズーム領域の候補の中心座標およびズーム倍率を保持する。   In step S 62, the parameter holding unit 122 holds the center coordinates and zoom magnification of the zoom area candidate calculated by the parameter determination unit 112.

ステップS63において、パラメータ決定部112は、パラメータ保持部122に保持されている過去N個(但し、Nは自然数)の中心座標の重心(の座標)を求める。パラメータ保持部122には、過去のフレームの全体画像上において、ズーム領域の候補とされた領域の中心座標が保持されている。パラメータ決定部112は、パラメータ保持部122が保持している過去N個の中心座標の重心を求める。   In step S63, the parameter determination unit 112 obtains the centroid (coordinates) of the past N pieces (where N is a natural number) held in the parameter holding unit 122. The parameter holding unit 122 holds the center coordinates of a region that is a candidate for the zoom region on the entire image of the past frame. The parameter determination unit 112 obtains the center of gravity of the past N center coordinates held by the parameter holding unit 122.

例えば、パラメータ保持部122に保持されている中心座標のうち、最後からi番目(但し、iは自然数)に算出されたXY空間上の中心座標を(Xi,Yi)とすると、パラメータ決定部112は、式(1)および式(2)を計算することによって、最後から1番目乃至N番目に算出された中心座標の重心の座標(Xg,Yg)を求める。   For example, if the center coordinate in the XY space calculated from the last i-th (where i is a natural number) among the center coordinates held in the parameter holding unit 122 is (Xi, Yi), the parameter determination unit 112. Obtains the coordinates (Xg, Yg) of the center of gravity of the first to Nth center coordinates calculated from the last by calculating Expression (1) and Expression (2).

Xg=(ΣXi)/N ・・・(1)   Xg = (ΣXi) / N (1)

Yg=(ΣYi)/N ・・・(2)   Yg = (ΣYi) / N (2)

ここで、式(1)におけるΣは、Xiのiを1からNまで変えて総和をとることを表わし、同様に、式(2)におけるΣは、Yiのiを1からNまで変えて総和をとることを表す。また、Nの値は予め定められているものとする。   Here, Σ in Equation (1) represents that the sum of Xi is changed from 1 to N, and similarly, Σ in Equation (2) is the sum of Yi changed from 1 to N. Represents taking. The value of N is assumed to be predetermined.

ステップS64において、パラメータ決定部112は、パラメータ保持部122に保持されている過去N個(Nフレーム分)(但し、Nは自然数)のズーム倍率の平均値を算出する。例えば、パラメータ保持部122に保持されているズーム倍率のうち、最後からi番目(但し、iは自然数)に算出されたズーム倍率をZiとすると、パラメータ決定部112は、式(3)を計算することによって、最後から1番目乃至N番目に算出されたズーム倍率の平均値Zgを算出する。   In step S <b> 64, the parameter determination unit 112 calculates the average value of the past N zoom magnifications (for N frames) (where N is a natural number) held in the parameter holding unit 122. For example, if the zoom magnification calculated i-th (where i is a natural number) from among the zoom magnifications held in the parameter holding unit 122 is Zi, the parameter determination unit 112 calculates Equation (3). Thus, the average value Zg of the zoom magnifications calculated from the first to the Nth from the end is calculated.

Zg=(ΣZi)/N ・・・(3)   Zg = (ΣZi) / N (3)

ここで、式(3)におけるΣは、Ziのiを1からNまで変えて総和をとることを表す。   Here, Σ in Equation (3) represents that the sum of Zi is changed from 1 to N.

パラメータ決定部112は、中心座標の重心(Xg,Yg)およびズーム倍率の平均値Zgを算出すると、算出した中心座標の重心(の座標)およびズーム倍率の平均値をズーム処理部113に供給する。   When the parameter determination unit 112 calculates the center of gravity (Xg, Yg) of the center coordinates and the average value Zg of the zoom magnification, the parameter determination unit 112 supplies the calculated center coordinates of the center coordinates (the coordinates thereof) and the average value of the zoom magnification to the zoom processing unit 113. .

ステップS65において、ズーム処理部113は、信号取得部94から供給された画像データ、並びにパラメータ決定部112から供給された中心座標の重心の座標およびズーム倍率の平均値を基に、ズーム画像の画像データを生成する。   In step S65, the zoom processing unit 113, based on the image data supplied from the signal acquisition unit 94 and the center of gravity coordinates of the center coordinates supplied from the parameter determination unit 112 and the average value of the zoom magnification, Generate data.

例えば、図8に示すように、図中、右方向をX軸方向とし、下方向をY軸方向として、XY空間上における全体画像の領域を、0≦X≦Xdの範囲と、0≦Y≦Ydの範囲とで囲まれる領域151とする。また、ズーム画像の中心座標を、式(1)および式(2)により求めた中心座標の重心(Xg,Yg)とし、ズーム倍率の平均値をZgとすると、ズーム領域のX方向の長さWx、およびズーム領域のY方向の長さHyは、それぞれ式(4)および式(5)により求められる。なお、ここでは、説明を簡単にするため、全体画像の画素数と、表示装置21における表示部96の表示画面の画素数とが同一であるものとして説明する。   For example, as shown in FIG. 8, in the figure, the right direction is the X-axis direction, the lower direction is the Y-axis direction, and the entire image area in the XY space is defined as 0 ≦ X ≦ Xd and 0 ≦ Y An area 151 surrounded by a range of ≦ Yd. Further, assuming that the center coordinates of the zoom image are the center of gravity (Xg, Yg) of the center coordinates obtained by the expressions (1) and (2) and the average value of the zoom magnification is Zg, the length of the zoom area in the X direction Wx and the length Hy of the zoom area in the Y direction are obtained by Expression (4) and Expression (5), respectively. Here, in order to simplify the description, it is assumed that the number of pixels of the entire image and the number of pixels of the display screen of the display unit 96 in the display device 21 are the same.

Wx=Xd/Zg ・・・(4)   Wx = Xd / Zg (4)

Hy=Yd/Zg ・・・(5)   Hy = Yd / Zg (5)

したがって、図8におけるズーム領域は、Xg−(Xd/(2Zg))≦X≦Xg+(Xd/(2Zg))の範囲と、Yg−(Yd/(2Zg))≦Y≦Yg+(Yd/(2Zg))の範囲とで囲まれる領域152となる。ズーム処理部113は、例えば、信号取得部94から供給された画像データに所定の画像変換処理を施して、全体画像のうちの領域152がズーム倍率Zg倍で拡大された画像(ズーム画像)を表示させるための画像データを生成する(ズーム画像を表示させる画像データに変換する)。   Therefore, the zoom region in FIG. 8 has a range of Xg− (Xd / (2Zg)) ≦ X ≦ Xg + (Xd / (2Zg)) and Yg− (Yd / (2Zg)) ≦ Y ≦ Yg + (Yd / (Yd / ( 2Zg)). The zoom processing unit 113 performs, for example, predetermined image conversion processing on the image data supplied from the signal acquisition unit 94, and an image (zoom image) obtained by enlarging the region 152 in the entire image with the zoom magnification Zg times. Image data to be displayed is generated (converted into image data to display a zoom image).

図7のフローチャートの説明に戻り、ステップS66において、ズーム処理部113は、生成したズーム画像の画像データを表示部96に供給し、表示部96にズーム画像を表示させて、処理は図6のステップS33に進む。   Returning to the description of the flowchart of FIG. 7, in step S <b> 66, the zoom processing unit 113 supplies image data of the generated zoom image to the display unit 96 and causes the display unit 96 to display the zoom image. Proceed to step S33.

このようにして、画像処理部95は、ズーム領域の候補となる領域の中心座標の重心、およびズーム倍率の平均値を求める。そして、これらを基にズーム領域を定めて画像データを生成し、ズーム画像を表示させる。   In this manner, the image processing unit 95 obtains the center of gravity of the center coordinates of the zoom region candidate and the average value of the zoom magnification. Based on these, a zoom area is determined to generate image data, and a zoom image is displayed.

このように、ズーム領域の候補となる領域の中心座標の重心、およびズーム倍率の平均値を算出してズーム領域を定めることによって、全体画像上におけるズーム領域の位置が、フレームごとに大きく変化することを抑制することができる。   In this way, by determining the zoom area by calculating the center coordinates of the center coordinates of the areas that are candidates for the zoom area and the average value of the zoom magnification, the position of the zoom area on the entire image varies greatly from frame to frame. This can be suppressed.

例えば、中心座標の重心、およびズーム倍率の平均値を求めるために用いる中心座標、およびズーム倍率の個数、すなわち式(1)乃至式(3)におけるNの値を、1乃至10程度の比較的小さい値とすると、ズーム領域の中心座標がフレームごとに大きく変化する(動く)場合がある。そのような場合、表示部96に表示されるズーム画像(とされる全体画像上における領域)は、フレームごとに大きく変化するので、例えば、ズーム画像として表示される人の顔などがぶれてしまい、ユーザにとって見づらくなってしまう可能性がある。   For example, the center coordinates of the center coordinates, the center coordinates used for obtaining the average value of the zoom magnification, and the number of zoom magnifications, that is, the value of N in the equations (1) to (3) are relatively in the order of 1 to 10. If the value is small, the center coordinate of the zoom area may change (move) greatly every frame. In such a case, the zoom image displayed on the display unit 96 (the area on the entire image to be taken) varies greatly from frame to frame. For example, the face of a person displayed as a zoom image is blurred. , It may be difficult for the user to see.

そこで、例えば、スポーツなどのコンテンツの画像を表示させるときには、シーンの急激な変化や、表示されるスポーツ選手、ボールなどの速い動きに追従できるように、Nの値を比較的小さい値とし、対談番組などのコンテンツの画像を表示させるときには、動きの少ない対談者などが拡大された画像をより見やすくするために、Nの値を30程度の比較的大きい値とすることができる。   Therefore, for example, when displaying an image of a content such as sports, the value of N is set to a relatively small value so that it can follow a rapid change of the scene or a fast movement of a displayed athlete, ball, etc. When displaying an image of a content such as a program, the value of N can be set to a relatively large value of about 30 in order to make it easier for a talker or the like with less movement to see an enlarged image.

このNの値は、表示装置21ごとに予め定めるようにしてもよく、また、表示される画像(コンテンツ)のシーンやユーザの好みに応じて、表示装置21ごとにユーザが設定できるようにしてもよい。このように、Nの値を表示装置21ごとに変化させると、ユーザは、複数の表示装置21に表示されるズーム画像のうち、そのときの視聴条件にあったズーム画像を選択的に視聴することができる。   The value of N may be determined in advance for each display device 21, and may be set by the user for each display device 21 according to the scene of the image (content) to be displayed and the user's preference. Also good. Thus, when the value of N is changed for each display device 21, the user selectively views a zoom image that meets the viewing condition at that time among the zoom images displayed on the plurality of display devices 21. be able to.

また、中心座標の重心、およびズーム倍率の平均値を求めずに、ステップS61において定められたズーム領域の候補をそのままズーム領域とする(すなわち、Nを1とする)ようにしてもよく、最後に求められた中心座標、およびズーム倍率が、それよりも前に求められた過去(N−1)個の中心座標、およびズーム倍率と比較して、大きく異なる場合にだけ、定められたズーム領域の候補をそのままズーム領域とするようにしてもよい。   Further, without obtaining the center of gravity of the center coordinates and the average value of the zoom magnification, the zoom area candidate determined in step S61 may be used as the zoom area as it is (that is, N is set to 1). The zoom region determined only when the center coordinates and the zoom magnification obtained in the above are significantly different from the previous (N-1) center coordinates and zoom magnification obtained before that. These candidates may be directly used as a zoom area.

さらに、例えば、図8に示したズーム領域としての領域152の画像を、複数台の表示装置21で表示させるようにしてもよい。この場合、例えば、互いに隣接して設置されている、予め定められたN×N台(横N台×縦N台)(但し、Nは自然数)の表示装置21で1つのズーム画像(領域152の画像)を表示させる。   Further, for example, the image of the area 152 as the zoom area shown in FIG. 8 may be displayed on a plurality of display devices 21. In this case, for example, one zoom image (area 152) is displayed on the display device 21 of N × N (N horizontal × N vertical) (where N is a natural number) that are installed adjacent to each other. Image).

ここで、図8の領域152をズーム領域としてズーム画像を表示する表示装置21のうち、図中、領域152の左上の端の領域を表示する表示装置21を、左から1番目であり、かつ上から1番目である表示装置21とし、領域152の右上の端の領域を表示する表示装置21を、左からN番目であり、かつ上から1番目である表示装置21とする。また、図中、領域152の左下の端の領域を表示する表示装置21を、左から1番目であり、かつ上からN番目である表示装置21とする。   Here, among the display devices 21 that display the zoom image with the region 152 of FIG. 8 as the zoom region, the display device 21 that displays the upper left end region of the region 152 in the figure is the first from the left, and The display device 21 that is the first from the top and the display device 21 that displays the upper right end region of the region 152 is the display device 21 that is the Nth from the left and the first from the top. In the figure, the display device 21 that displays the lower left end region of the region 152 is the display device 21 that is first from the left and Nth from the top.

そして、Xg−(Xd/(2Zg))=Xbとし、Xg+(Xd/(2Zg))=Xeとし、Yg−(Yd/(2Zg))=Ybとし、Yg+(Yd/(2Zg))=Yeとする。このとき、左からi番目(1≦i≦N)であり、上からj番目(1≦j≦N)である表示装置21がズーム画像として表示する領域を、Xib≦X≦Xieの範囲と、Yjb≦Y≦Yjeの範囲とで囲まれる領域とすると、Xib、Xie、Yjb、およびYjeのそれぞれの値は、式(6)乃至式(9)のそれぞれにより表わされる値となる。   Xg− (Xd / (2Zg)) = Xb, Xg + (Xd / (2Zg)) = Xe, Yg− (Yd / (2Zg)) = Yb, and Yg + (Yd / (2Zg)) = Ye And At this time, an area displayed as a zoom image by the display device 21 that is i-th (1 ≦ i ≦ N) from the left and j-th (1 ≦ j ≦ N) from the top is defined as a range of Xib ≦ X ≦ Xie. , Yjb ≦ Y ≦ Yje, the values of Xib, Xie, Yjb, and Yje are values represented by the equations (6) to (9), respectively.

Xib=Xb+((i−1)×((Xe−Xb)/N)) ・・・(6)   Xib = Xb + ((i−1) × ((Xe−Xb) / N)) (6)

Xie=Xb+(i×((Xe−Xb)/N)) ・・・(7)   Xie = Xb + (i × ((Xe−Xb) / N)) (7)

Yjb=Yb+((j−1)×((Ye−Yb)/N)) ・・・(8)   Yjb = Yb + ((j−1) × ((Ye−Yb) / N)) (8)

Yje=Yb+(j×((Ye−Yb)/N)) ・・・(9)   Yje = Yb + (j × ((Ye−Yb) / N)) (9)

したがって、左からi番目(1≦i≦N)であり、上からj番目(1≦j≦N)である表示装置21は、図8の領域152のうち、Xib≦X≦Xieの範囲と、Yjb≦Y≦Yjeの範囲とで囲まれる領域がズーム倍率Zg倍で拡大された画像(ズーム画像)を表示させるための画像データを生成して、表示部96に画像を表示させる。これにより、互いに隣接して設置されているN×N台の表示装置21により、領域152がズーム倍率Zg倍で拡大された画像(ズーム画像)が表示される。   Therefore, the display device 21 that is i-th (1 ≦ i ≦ N) from the left and j-th (1 ≦ j ≦ N) from the top has a range of Xib ≦ X ≦ Xie in the region 152 of FIG. , Yjb.ltoreq.Y.ltoreq.Yje. The image data for displaying an image (zoom image) in which the region surrounded by the range of Yjb.ltoreq.Y.ltoreq.Yje is enlarged at the zoom magnification Zg times is generated, and the image is displayed on the display unit 96. Thereby, an image (zoom image) in which the region 152 is enlarged at the zoom magnification Zg times is displayed by the N × N display devices 21 installed adjacent to each other.

このように、1つのズーム領域を複数の連続した領域に分割して、分割された1つの領域を1つの表示装置21に表示させることにより、複数の表示装置21により1つの画像を表示させることができる。その結果、より大きいズーム倍率でズーム画像を表示させることができ、ユーザは、全体画像のうちの一部の細部まで観察することができる。   As described above, one zoom area is divided into a plurality of continuous areas, and one divided area is displayed on one display device 21, whereby one image is displayed on the plurality of display devices 21. Can do. As a result, the zoom image can be displayed with a larger zoom magnification, and the user can observe some details of the entire image.

なお、1つのズーム画像を表示する複数の表示装置21は、予め定められているようにしてもよく、ユーザがリモートコマンダ、または入力部92を操作して定めることができるようにしてもよい。   The plurality of display devices 21 that display one zoom image may be determined in advance, or may be determined by the user by operating the remote commander or the input unit 92.

次に、図9のフローチャートを参照して、図7のステップS61の処理に対応する、肌色領域の検出処理について説明する。上述したように、この肌色領域の検出処理において画像処理部95は、全体画像から肌色の領域を検出し、ズーム領域の候補となる領域を定める(選択する)。   Next, a skin color area detection process corresponding to the process of step S61 of FIG. 7 will be described with reference to the flowchart of FIG. As described above, in the skin color area detection process, the image processing unit 95 detects a skin color area from the entire image, and determines (selects) a candidate area for the zoom area.

なお、全体画像上において、肌色の領域を検出する対象となる領域は、全体画像の全体としてもよく、全体画像のうちの一部の領域としてもよい。さらに、肌色の領域を検出する対象となる領域は、表示装置21ごとに予め定めておくようにしてもよく、ユーザが設定できるようにしてもよい。   It should be noted that on the whole image, the area that is the target for detecting the skin color area may be the whole whole image or a part of the whole image. Further, the area to be detected for the skin color area may be predetermined for each display device 21 or may be set by the user.

ステップS91において、肌色領域検出部121は、信号取得部94から供給された画像データの画像(全体画像)上における、肌色の領域を検出する対象となる領域の1つの画素を選択する。   In step S <b> 91, the skin color area detection unit 121 selects one pixel in an area to be detected as a skin color area on the image (overall image) of the image data supplied from the signal acquisition unit 94.

ステップS92において、肌色領域検出部121は、選択した画素の画素値を基に、HSV(Hue Saturation value Value)形式の色空間のH(Hue)の値を求める。   In step S92, the skin color area detection unit 121 obtains the value of H (Hue) in the color space of the HSV (Hue Saturation value Value) format based on the pixel value of the selected pixel.

例えば、選択された画素の画素値の赤(R)、緑(G)、青(B)のそれぞれの値をR、G、Bとする(但し、R、G、Bのそれぞれの値は、0以上1以下とされる)。また、R、G、Bのそれぞれの値のうちの最大の値をMAX(R,G,B)とし、R、G、Bのそれぞれの値のうちの最小の値をMIN(R,G,B)とする。さらに、R、G、Bのそれぞれの値が0である場合は、Hの値は定義できないものとする。   For example, the red (R), green (G), and blue (B) values of the pixel value of the selected pixel are R, G, and B (however, the values of R, G, and B are 0 to 1). In addition, the maximum value among the R, G, and B values is MAX (R, G, B), and the minimum value among the R, G, and B values is MIN (R, G, B). B). Furthermore, when the values of R, G, and B are 0, the value of H cannot be defined.

R、G、Bのそれぞれの値のうち、Rの値が最大である場合、肌色領域検出部121は、式(10)を計算することによりHの値を求める。   When the value of R is the maximum among the values of R, G, and B, the skin color area detection unit 121 calculates the value of H by calculating Expression (10).

H=60×(G−B)/D ・・・(10)   H = 60 × (GB) / D (10)

ここで、Dは、MAX(R,G,B)と、MIN(R,G,B)との差であり、式(11)により表わされる。   Here, D is a difference between MAX (R, G, B) and MIN (R, G, B), and is expressed by Expression (11).

D=MAX(R,G,B)−MIN(R,G,B) ・・・(11)   D = MAX (R, G, B) −MIN (R, G, B) (11)

なお、式(10)により求まるHの値が0よりも小さい場合、すなわちHの値が負の値となる場合には、肌色領域検出部121は、式(10)ではなく、式(12)を計算することによりHの値を求める。   Note that when the value of H obtained by Expression (10) is smaller than 0, that is, when the value of H becomes a negative value, the skin color area detection unit 121 does not use Expression (10) but Expression (12). The value of H is obtained by calculating.

H=(60×(G−B)/D)+360 ・・・(12)   H = (60 × (GB) / D) +360 (12)

また、R、G、Bのそれぞれの値のうち、Gの値が最大である場合、肌色領域検出部121は、式(13)を計算することによりHの値を求め、Bの値が最大である場合、肌色領域検出部121は、式(14)を計算することによりHの値を求める。   When the value of G is the maximum among the values of R, G, and B, the skin color area detection unit 121 calculates the value of H by calculating Expression (13), and the value of B is the maximum. In this case, the skin color area detection unit 121 calculates the value of H by calculating Expression (14).

H=60×(2+((B−R)/D)) ・・・(13)   H = 60 × (2 + ((BR) / D)) (13)

H=60×(4+((R−G)/D)) ・・・(14)   H = 60 × (4 + ((RG) / D)) (14)

このようにして求められるHの値は、0以上、かつ360未満の値となる。ここで、図10に、R、G、Bの各値を基に算出されたHの値の一例を示す。例えば、Rの値が0.39であり、Gの値が0.78であり、Bの値が0.39である場合、Gの値が最も大きいので、式(13)より、Hの値は、120(=60×(2+((0.39−0.39)/0.39)))となる。また、Rの値が0.78であり、Gの値が0.39であり、Bの値が0.39である場合、Rの値が最も大きいので、式(10)より、Hの値は、0(=60×(0.39−0.39)/0.39)となる。   The value of H obtained in this way is a value of 0 or more and less than 360. Here, FIG. 10 shows an example of the value of H calculated based on the R, G, and B values. For example, when the value of R is 0.39, the value of G is 0.78, and the value of B is 0.39, the value of G is the largest. Therefore, from the equation (13), the value of H is 120 (= 60 × (2 + ((0.39−0.39) /0.39))). In addition, when the value of R is 0.78, the value of G is 0.39, and the value of B is 0.39, the value of R is the largest. Therefore, from the equation (10), the value of H is 0 (= 60 × (0.39−0.39) /0.39).

同様に、Rの値が0.39であり、Gの値が0.39であり、Bの値が0.78である場合、Bの値が最も大きいので、式(14)より、Hの値は、240(=60×(4+((0.39−0.39)/0.39)))となる。また、Rの値が0.78であり、Gの値が0.39であり、Bの値が0.78である場合、Rの値が最も大きく、式(10)にR、G、Bのそれぞれの値を代入した値は、−60(=60×(0.39−0.78)/0.39)となり、負の値となるので、式(12)より、Hの値は、300(=(60×(0.39−0.78)/0.39)+360)となる。   Similarly, when the value of R is 0.39, the value of G is 0.39, and the value of B is 0.78, since the value of B is the largest, the value of H is 240 (= 60 × (4 + ((0.39−0.39) /0.39))). Further, when the value of R is 0.78, the value of G is 0.39, and the value of B is 0.78, the value of R is the largest, and the values of R, G, and B are substituted into Expression (10). The value obtained is −60 (= 60 × (0.39−0.78) /0.39), which is a negative value. From the equation (12), the value of H is 300 (= (60 × (0.39−0.78) / 0.39) +360).

さらに、Rの値が0.78であり、Gの値が0.78であり、Bの値が0.39である場合、Rの値が最も大きいので、式(10)より、Hの値は、60(=60×(0.78−0.39)/0.39))となり、Rの値が0.39であり、Gの値が0.78であり、Bの値が0.78である場合、Gの値が最も大きいので、式(13)より、Hの値は、180(=60×(2+((0.78−0.39)/0.39)))となる。   Further, when the value of R is 0.78, the value of G is 0.78, and the value of B is 0.39, the value of R is the largest, so that the value of H is 60 (= 60 from Equation (10). X (0.78−0.39) /0.39)), when the value of R is 0.39, the value of G is 0.78, and the value of B is 0.78, the value of G is the largest. , H is 180 (= 60 × (2 + ((0.78−0.39) /0.39))).

図9のフローチャートの説明に戻り、Hの値が求められると、ステップS93において、肌色領域検出部121は、求めたHの値が予め定められた所定の範囲内の値であるか否かを判定する。例えば、肌色領域検出部121は、Hの値が0より大きく、かつ60より小さいか否かを判定する。また、選択された画素の画素値のR、G、Bの値のそれぞれが0であり、Hの値が定義されない場合には、ステップS93において、所定の範囲内の値でないと判定される。   Returning to the description of the flowchart of FIG. 9, when the value of H is obtained, in step S <b> 93, the skin color area detection unit 121 determines whether or not the obtained value of H is a value within a predetermined range. judge. For example, the skin color area detection unit 121 determines whether the value of H is larger than 0 and smaller than 60. If each of the R, G, and B pixel values of the selected pixel is 0 and the H value is not defined, it is determined in step S93 that the value is not within the predetermined range.

ステップS93において、所定の範囲内の値であると判定された場合、ステップS94に進み、肌色領域検出部121は、選択した画素を肌色の画素とする。例えば、肌色領域検出部121は、図11に示すように、肌色の領域を検出する対象となる領域の画素ごとに、その画素が肌色の画素であるか否かのフラグを設定する。   If it is determined in step S93 that the value is within the predetermined range, the process proceeds to step S94, and the skin color area detection unit 121 sets the selected pixel as a skin color pixel. For example, as shown in FIG. 11, the skin color area detection unit 121 sets a flag as to whether or not the pixel is a skin color pixel for each pixel in the area to be detected as a skin color area.

図11では、1つの四角形が1つの画素を表わしており、その四角形の中の“1”または“0”が、肌色の画素であるか否かのフラグを示している。四角形の中のフラグ“1”は、その画素が肌色の画素であることを示しており、四角形の中のフラグ“0”は、その画素が肌色の画素ではないことを示している。   In FIG. 11, one square represents one pixel, and “1” or “0” in the square represents a flag indicating whether the pixel is a skin color pixel. A flag “1” in the square indicates that the pixel is a flesh-colored pixel, and a flag “0” in the square indicates that the pixel is not a flesh-colored pixel.

肌色領域検出部121は、選択した画素が肌色の画素である場合、その画素のフラグに“1”を設定する(フラグをセットする)。図11の例では、領域181に含まれる4つの画素、領域182に含まれる2つの画素、および領域183に含まれる3つの画素のそれぞれが、肌色の画素とされており、それ以外の画素は肌色ではない画素とされている。   When the selected pixel is a skin color pixel, the skin color area detection unit 121 sets “1” to the flag of the pixel (sets the flag). In the example of FIG. 11, each of the four pixels included in the region 181, the two pixels included in the region 182, and the three pixels included in the region 183 are skin-colored pixels. Pixels that are not skin-colored.

図9のフローチャートの説明に戻り、ステップS94において、選択した画素を肌色の画素とすると、ステップS96に進む。   Returning to the description of the flowchart of FIG. 9, if the selected pixel is a flesh-colored pixel in step S94, the process proceeds to step S96.

これに対して、ステップS93において、所定の範囲内の値ではないと判定された場合、ステップS95に進み、選択した画素を肌色以外の色の画素とする。例えば、肌色領域検出部121は、図11に示したように、選択した画素のフラグに“0”を設定する(フラグをリセットする)。   On the other hand, if it is determined in step S93 that the value is not within the predetermined range, the process proceeds to step S95, and the selected pixel is set as a pixel other than the skin color. For example, as shown in FIG. 11, the skin color area detection unit 121 sets “0” to the flag of the selected pixel (resets the flag).

ステップS94において、選択した画素を肌色の画素とするか、またはステップS95において、選択した画素を肌色以外の色の画素とすると、ステップS96において、肌色領域検出部121は、肌色の領域を検出する対象となる領域の全ての画素を選択したか否かを判定する。   In step S94, if the selected pixel is a skin color pixel, or if the selected pixel is a pixel other than the skin color in step S95, the skin color region detection unit 121 detects a skin color region in step S96. It is determined whether or not all the pixels in the target area have been selected.

ステップS96において、まだ全ての画素を選択していないと判定された場合、ステップS91に戻り、次の画素を選択して、その画素が肌色の画素であるか否かを判定する処理を行う。   If it is determined in step S96 that all the pixels have not yet been selected, the process returns to step S91 to select the next pixel and determine whether or not the pixel is a skin color pixel.

一方、ステップS96において、全ての画素を選択したと判定された場合、ステップS97に進み、領域決定部111は、全体画像上のズーム領域の候補となる領域を定める(選択する)。領域決定部111は、ズーム領域の候補となる領域を定めると、その領域を示す情報を生成し、パラメータ決定部112に供給する。   On the other hand, if it is determined in step S96 that all the pixels have been selected, the process proceeds to step S97, where the area determination unit 111 determines (selects) an area that is a candidate for the zoom area on the entire image. When the region determination unit 111 determines a region that is a candidate for the zoom region, the region determination unit 111 generates information indicating the region and supplies the information to the parameter determination unit 112.

例えば、領域決定部111は、XY空間上における、全体画像上(肌色の領域を検出する対象となる領域)の肌色である画素のX座標のうちの最大値および最小値と、肌色である画素のY座標のうちの最大値および最小値とを算出して、全ての肌色の画素が含まれる領域を、ズーム領域の候補となる領域として定める。ここで、肌色である画素のX座標のうちの最大値および最小値をそれぞれXmax、Xminとし、肌色である画素のY座標のうちの最大値および最小値をそれぞれYmax、Yminとすると、領域決定部111は、XY空間上における、Xmin≦X≦Xmaxの範囲と、Ymin≦Y≦Ymaxの範囲とで囲まれる領域が含まれる領域を、ズーム領域の候補となる領域として定める。なお、ズーム領域の候補となる領域は、表示部96の表示画面と相似形(同じアスペクト比)となるように定められる。   For example, the region determination unit 111 includes, in the XY space, the maximum value and the minimum value of the X coordinates of the pixels that are the skin color on the entire image (the region that is the target for detecting the skin color region), and the pixels that are the skin color The maximum value and the minimum value of the Y coordinates are calculated, and an area including all skin color pixels is determined as a candidate area for the zoom area. Here, if the maximum value and the minimum value of the X coordinate of the skin color pixel are Xmax and Xmin, respectively, and the maximum value and the minimum value of the Y coordinate of the skin color pixel are Ymax and Ymin, respectively, the region is determined. The unit 111 determines a region including a region surrounded by a range of Xmin ≦ X ≦ Xmax and a range of Ymin ≦ Y ≦ Ymax on the XY space as a candidate for a zoom region. It should be noted that the region that is a candidate for the zoom region is determined to have a similar shape (the same aspect ratio) as the display screen of the display unit 96.

また、領域決定部111が、肌色の領域を検出する対象となる領域上において、肌色の画素が連続する領域を検出して、検出された領域のうち、最も面積(画素数)の大きい領域をズーム領域の候補となる領域とするようにしてもよい。この場合、図11に示した例では、肌色の画素が連続する領域として、領域181乃至領域183が検出され、最も面積の大きい領域181を含む領域が、ズーム領域の候補となる領域として定められる。   In addition, the region determination unit 111 detects a region in which skin-colored pixels are continuous on a region that is a target for detecting a skin-colored region, and selects a region having the largest area (number of pixels) among the detected regions. You may make it be the area | region used as the candidate of a zoom area | region. In this case, in the example illustrated in FIG. 11, the regions 181 to 183 are detected as regions where skin color pixels are continuous, and the region including the region 181 having the largest area is determined as a region that is a candidate for the zoom region. .

さらに、領域決定部111が、肌色の領域を検出する対象となる領域上において、肌色の画素が連続する領域を検出して、検出された領域のうち、最も全体画像の中心に近い領域を含む領域を、ズーム領域の候補となる領域とするようにしてもよい。   Further, the region determination unit 111 detects a region in which skin color pixels are continuous on a region to be detected as a skin color region, and includes a region closest to the center of the entire image among the detected regions. The area may be a candidate area for the zoom area.

ズーム領域の候補となる領域が定められると、ステップS98において、パラメータ決定部112は、ズーム領域の候補となる領域を示す情報を基に、ズーム領域の候補となる領域の中心座標を算出する。例えば、ズーム領域の候補となる領域が、XY空間上におけるXmin≦X≦Xmaxの範囲と、Ymin≦Y≦Ymaxの範囲とで囲まれる領域であるとすると、パラメータ決定部112は、中心座標(Xi,Yi)のX座標XiおよびY座標Yiを、式(15)および式(16)により算出する。   When the zoom region candidate region is determined, in step S98, the parameter determination unit 112 calculates the center coordinates of the zoom region candidate region based on the information indicating the zoom region candidate region. For example, assuming that a candidate region for the zoom region is a region surrounded by a range of Xmin ≦ X ≦ Xmax and a range of Ymin ≦ Y ≦ Ymax in the XY space, the parameter determination unit 112 uses the center coordinates ( X-coordinate Xi and Y-coordinate Yi of Xi, Yi) are calculated by equations (15) and (16).

Xi=(Xmin+Xmax)/2 ・・・(15)   Xi = (Xmin + Xmax) / 2 (15)

Yi=(Ymin+Ymax)/2 ・・・(16)   Yi = (Ymin + Ymax) / 2 (16)

ステップS99において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、XY空間上における、ズーム領域の候補となる領域のX方向の長さ(画素数)をXidとし、表示部96の表示画面のX方向の長さ(画素数)をXdとすると、パラメータ決定部112は、式(17)によりズーム倍率Ziを算出する。   In step S99, the parameter determination unit 112 calculates the zoom magnification of the region that is a candidate for the zoom region, and the process proceeds to step S62 in FIG. For example, if the length (number of pixels) in the X direction of the region that is a candidate for the zoom region in the XY space is Xid, and the length (number of pixels) in the X direction of the display screen of the display unit 96 is Xd, The determination unit 112 calculates the zoom magnification Zi using Expression (17).

Zi=Xd/Xid ・・・(17)   Zi = Xd / Xid (17)

このようにして、画像処理部95は、肌色の領域を検出し、その検出結果に基づいて、ズーム領域の候補となる領域を定める。   In this way, the image processing unit 95 detects the skin color region, and determines a candidate region for the zoom region based on the detection result.

このように、肌色の領域を検出し、その検出結果を基にズーム領域の候補となる領域を定めることで、ユーザは、いちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。   In this way, by detecting the skin color area and determining the candidate areas for the zoom area based on the detection result, the user does not need to specify the zoom area one by one, and the entire image can be obtained with a simpler operation. You can enjoy watching images by observing the details.

また、肌色の領域を検出して、ズーム領域の候補となる領域を定めることで、全体画像上において、ユーザに注目されることが多い、人(すなわち、肌色の領域)が含まれる領域を、ズーム画像として拡大し、効果的に表示することができる。   In addition, by detecting a skin color region and determining a region that is a candidate for a zoom region, a region that includes a person (that is, a skin color region) that is often noticed by the user on the entire image, It can be enlarged and displayed effectively as a zoom image.

なお、肌色の領域の検出結果を基に、ズーム領域の候補となる領域を定める方法は、表示装置21ごとに異なる方法としてもよい。例えば、表示装置21−1は、全ての肌色の画素が含まれる領域を候補となる領域とし、表示装置21−2は、肌色の画素が連続する領域のうち、最も面積の大きい領域が含まれる領域を、候補となる領域とするようにすることができる。   Note that a method for determining a region that is a candidate for the zoom region based on the detection result of the skin color region may be different for each display device 21. For example, the display device 21-1 sets a region including all skin color pixels as a candidate region, and the display device 21-2 includes a region having the largest area among regions where skin color pixels are continuous. The region can be a candidate region.

また、選択した画素が肌色の画素であるか否かの判定に用いられるHの値の範囲も、表示装置21ごとに変化させるようにしてもよい。これにより、表示装置21には、肌色の領域でも、比較的明るい肌色の領域を検出させたり、比較的暗い肌色の領域を検出させたりすることができる。さらに、以上においては、全体画像から肌色の領域を検出すると説明したが、肌色以外の色の領域を検出してズーム領域としたり、HSV形式の色空間のSまたはVの値を算出して、全体画像上の画素のうち、SまたはVの値に基づく所定の条件を満たす画素を含む領域を検出してズーム領域としたりしてもよい。   Further, the range of the value of H used for determining whether or not the selected pixel is a skin color pixel may be changed for each display device 21. Accordingly, the display device 21 can detect a relatively light skin color region or a relatively dark skin color region even in the skin color region. Furthermore, in the above description, the skin color region is detected from the entire image. However, a region other than the skin color is detected to be a zoom region, or the S or V value of the HSV format color space is calculated, Of the pixels on the entire image, an area including a pixel that satisfies a predetermined condition based on the value of S or V may be detected and used as a zoom area.

ところで、図7のフローチャートを参照して説明した自動ズーム処理では、ステップS61(肌色領域の検出処理)において、肌色の領域を検出してズーム領域の候補となる領域を定めると説明したが、ステップS61の処理において、全体画像から、いわゆる前景等となっているもの(例えば、物体や人など)の一部分(または全部)であるオブジェクトを検出し、検出されたオブジェクトを含む領域をズーム領域の候補となる領域とすることもできる。   Incidentally, in the automatic zoom process described with reference to the flowchart of FIG. 7, it has been described that in step S <b> 61 (skin color area detection process), a skin color area is detected to determine a zoom area candidate area. In the process of S61, an object which is a part (or all) of what is called a foreground (for example, an object or a person) is detected from the entire image, and an area including the detected object is selected as a zoom area candidate. It can also be set as an area.

そのような場合、表示装置は、例えば、図12に示すように構成される。   In such a case, the display device is configured as shown in FIG. 12, for example.

表示装置211は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部231を含むように構成される。なお、表示装置211の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。   The display device 211 is configured to include a control information communication unit 91, an input unit 92, a central processing unit 93, a signal acquisition unit 94, a display unit 96, an audio output unit 97, and an image processing unit 231. The control information communication unit 91, the input unit 92, the central processing unit 93, the signal acquisition unit 94, the display unit 96, and the audio output unit 97 of the display device 211 correspond to the case in FIG. The description is omitted.

画像処理部231は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から所定のオブジェクトを検出して、そのオブジェクトを含む領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部231は、オブジェクト選択部241、パラメータ決定部112、およびズーム処理部113を含むように構成される。なお、パラメータ決定部112およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。   Under the control of the central processing unit 93, the image processing unit 231 detects a predetermined object from an image (entire image) based on the image data supplied from the signal acquisition unit 94, and enlarges a region including the object. The image data to be displayed is generated and supplied to the display unit 96. The image processing unit 231 is configured to include an object selection unit 241, a parameter determination unit 112, and a zoom processing unit 113. It should be noted that the parameter determination unit 112 and the zoom processing unit 113 are assigned the same reference numerals in order to correspond to the case in FIG.

オブジェクト選択部241は、信号取得部94から供給された画像データに基づく画像(全体画像)からオブジェクトを検出する。オブジェクト選択部241は、検出したオブジェクトから、拡大して表示させるオブジェクトを選択し、そのオブジェクトを示す情報をパラメータ決定部112に供給する。オブジェクト選択部241は、検出部251および変数保持部252を含むように構成される。   The object selection unit 241 detects an object from an image (entire image) based on the image data supplied from the signal acquisition unit 94. The object selection unit 241 selects an object to be enlarged and displayed from the detected objects, and supplies information indicating the object to the parameter determination unit 112. The object selection unit 241 is configured to include a detection unit 251 and a variable holding unit 252.

オブジェクト選択部241の変数保持部252は、オブジェクトを検出するために必要な所定の変数を保持する。オブジェクト選択部241の検出部251は、変数保持部252に保持されている変数を用いて、全体画像からオブジェクトを検出する。   The variable holding unit 252 of the object selection unit 241 holds a predetermined variable necessary for detecting an object. The detection unit 251 of the object selection unit 241 detects an object from the entire image using the variable held in the variable holding unit 252.

表示装置211は、図7を参照して説明した自動ズーム処理を行い、ステップS61の処理において、オブジェクトを含む領域をズーム領域の候補となる領域として定める。以下、図13のフローチャートを参照して、画像処理部231によるオブジェクト領域の検出処理について説明する。   The display device 211 performs the automatic zoom process described with reference to FIG. 7, and determines an area including the object as a candidate zoom area in the process of step S <b> 61. Hereinafter, the object region detection processing by the image processing unit 231 will be described with reference to the flowchart of FIG.

ステップS121において、オブジェクト選択部241は、オブジェクト検出処理を行う。なお、オブジェクト検出処理の詳細は後述するが、オブジェクト検出処理において、オブジェクト選択部241は、全体画像からオブジェクトを検出する。   In step S121, the object selection unit 241 performs object detection processing. Although details of the object detection process will be described later, in the object detection process, the object selection unit 241 detects an object from the entire image.

なお、全体画像上において、オブジェクトを検出する対象となる領域は、全体画像の全体としてもよく、全体画像のうちの一部の領域としてもよい。さらに、オブジェクトを検出する対象となる領域は、表示装置211ごとに予め定めておくようにしてもよく、ユーザが設定できるようにしてもよい。   It should be noted that the area on which the object is detected on the whole image may be the whole whole image or a part of the whole image. Furthermore, an area that is a target for detecting an object may be predetermined for each display device 211 or may be set by a user.

ステップS122において、オブジェクト選択部241は、検出したオブジェクトから、ズーム画像として表示するオブジェクトの候補を選択する。   In step S122, the object selection unit 241 selects an object candidate to be displayed as a zoom image from the detected objects.

例えば、オブジェクト選択部241は、検出されたオブジェクトのうち、ある程度の大きさのオブジェクトは、拡大して表示しなくても十分な大きさで表示されているとして、比較的小さいオブジェクトを、表示するオブジェクトの候補として選択する。オブジェクト選択部241は、検出された各オブジェクトの面積(オブジェクトの画素数)を算出し、各オブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを候補として選択する。   For example, the object selection unit 241 displays a relatively small object, assuming that an object of a certain size among the detected objects is displayed in a sufficient size without being enlarged and displayed. Select as a candidate for an object. The object selection unit 241 calculates the area of each detected object (the number of pixels of the object), and selects an object whose object area is equal to or less than a predetermined value from among the objects as a candidate.

また、面積が10画素程度であるオブジェクトはノイズであるとして、表示するオブジェクトの候補から除外するようにしてもよい。この場合には、オブジェクト選択部241は、検出されたオブジェクトのうち、面積が予め定められた所定の範囲内の値であるオブジェクトを候補として選択する。   In addition, an object having an area of about 10 pixels may be excluded from the candidate objects to be displayed, assuming that it is noise. In this case, the object selection unit 241 selects an object whose area is a value within a predetermined range as a candidate from the detected objects.

さらに、オブジェクト選択部241は、検出されたオブジェクトから、面積が小さい順に、予め定められた所定の数だけオブジェクトを選択して、選択されたオブジェクトを表示するオブジェクトの候補としたり、検出されたオブジェクトの面積の平均値を求めて、求められた平均値の10分の1よりも小さいオブジェクトを、表示するオブジェクトの候補として選択したりしてもよい。   Furthermore, the object selection unit 241 selects a predetermined number of objects from the detected objects in the order of decreasing area, and sets the selected objects as candidate objects for displaying the detected objects. Alternatively, an average value of the areas may be obtained, and an object smaller than 1/10 of the obtained average value may be selected as a candidate for an object to be displayed.

ズーム画像として表示するオブジェクトの候補が選択されると、ステップS123において、オブジェクト選択部241は、選択したオブジェクトの候補から、ズーム画像として表示するオブジェクトを選択する。オブジェクト選択部241は、オブジェクトを選択すると、選択したオブジェクトを示す情報を生成してパラメータ決定部112に供給する。   When an object candidate to be displayed as a zoom image is selected, in step S123, the object selection unit 241 selects an object to be displayed as a zoom image from the selected object candidates. When the object selection unit 241 selects an object, the object selection unit 241 generates information indicating the selected object and supplies the information to the parameter determination unit 112.

オブジェクト選択部241は、候補として選択されたオブジェクトが1つである場合、そのオブジェクトをズーム画像として表示するオブジェクトとして選択する。また、候補として選択されたオブジェクトが複数ある場合には、オブジェクト選択部241は、複数の候補の中から1または複数のオブジェクトを、表示するオブジェクトとして選択する。   When there is one object selected as a candidate, the object selection unit 241 selects that object as an object to be displayed as a zoom image. Further, when there are a plurality of objects selected as candidates, the object selection unit 241 selects one or a plurality of objects from among the plurality of candidates as objects to be displayed.

複数の候補の中からオブジェクトを選択する場合、例えば、オブジェクト選択部241は、オブジェクトの面積が小さい順に、所定の数のオブジェクトを選択したり、オブジェクトの位置が全体画像の中心に近い順に、所定の数のオブジェクトを選択したりする。また、オブジェクト選択部241が、複数の候補の中から、所定の色のオブジェクトをズーム画像として表示するオブジェクトとして選択するようにしてもよい。この場合には、例えば、複数の候補の中から肌色のオブジェクトを選択することによって、人の画像をズーム画像として表示させることができる。   When selecting an object from among a plurality of candidates, for example, the object selection unit 241 selects a predetermined number of objects in ascending order of the area of the object, or the predetermined number of objects in the order in which the object positions are closer to the center of the entire image. Or select the number of objects. Further, the object selection unit 241 may select an object of a predetermined color as an object to be displayed as a zoom image from among a plurality of candidates. In this case, for example, a human image can be displayed as a zoom image by selecting a skin color object from a plurality of candidates.

さらに、例えば、オブジェクト選択部241が、候補として選択された全てのオブジェクトを、ズーム画像として表示するオブジェクトとして選択したり、複数の候補のうち、互いに隣接している複数のオブジェクトを、ズーム画像として表示する1つのオブジェクトとして選択したりするようにしてもよい。   Further, for example, the object selection unit 241 selects all objects selected as candidates as objects to be displayed as a zoom image, or selects a plurality of objects adjacent to each other as a zoom image from among a plurality of candidates. You may make it select as one object to display.

このようにして、検出されたオブジェクトから、表示するオブジェクトの候補を選択し、さらに、その候補から、表示するオブジェクトを選択することで、所定の条件を満たすオブジェクトを選択することができる。   In this manner, an object that satisfies a predetermined condition can be selected by selecting a candidate for an object to be displayed from the detected objects and further selecting an object to be displayed from the candidates.

ズーム画像として表示するオブジェクトが選択されると、ステップS124において、パラメータ決定部112は、オブジェクト選択部241から供給された、ズーム画像として表示するオブジェクトを示す情報を基に、その情報により示されるオブジェクトを含む領域をズーム領域の候補となる領域とし、その領域の中心座標を算出する。   When an object to be displayed as a zoom image is selected, in step S124, the parameter determination unit 112, based on the information indicating the object to be displayed as a zoom image supplied from the object selection unit 241, the object indicated by the information The region including the is a region that is a candidate for the zoom region, and the center coordinates of the region are calculated.

例えば、オブジェクト選択部241が、ズーム画像として表示するオブジェクトとして、1つのオブジェクトを選択した場合、パラメータ決定部112は、選択されたオブジェクトのXY空間上における重心の座標を、中心座標として算出する。   For example, when the object selection unit 241 selects one object as an object to be displayed as a zoom image, the parameter determination unit 112 calculates the coordinates of the center of gravity of the selected object in the XY space as the center coordinate.

ここで、オブジェクト選択部241により選択されたオブジェクトを構成するN個(但しNは自然数)の画素のそれぞれを、画素Gk(1≦k≦N)とし、XY空間上の画素Gkの座標を(Xk,Yk)とすると、パラメータ決定部112は、中心座標(Xi,Yi)のX座標Xi、およびY座標Yiを式(18)および式(19)により算出する。   Here, each of N pixels (where N is a natural number) constituting the object selected by the object selection unit 241 is a pixel Gk (1 ≦ k ≦ N), and the coordinates of the pixel Gk in the XY space are ( Xk, Yk), the parameter determination unit 112 calculates the X coordinate Xi and the Y coordinate Yi of the center coordinate (Xi, Yi) by using the equations (18) and (19).

Xi=(ΣXk)/N ・・・(18)   Xi = (ΣXk) / N (18)

Yi=(ΣYk)/N ・・・(19)   Yi = (ΣYk) / N (19)

ここで、式(18)におけるΣは、Xkのkを1からNまで変えて総和をとることを表わし、式(19)におけるΣは、Ykのkを1からNまで変えて総和をとることを表わす。   Here, Σ in the equation (18) represents that the sum of Xk is changed from 1 to N, and Σ in the equation (19) is the sum of Yk changed from 1 to N. Represents.

また、例えば、オブジェクト選択部241が、ズーム画像として表示するオブジェクトとして、複数のオブジェクトを選択した場合、パラメータ決定部112は、選択された複数のオブジェクトを含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標として算出する。さらに、選択されたオブジェクトが1つである場合にも、そのオブジェクトを含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標としてもよく、選択されたオブジェクトが複数である場合にも、選択されたそれぞれのオブジェクトを構成する画素のXY空間上における重心の座標を、中心座標としてもよい。   For example, when the object selection unit 241 selects a plurality of objects as objects to be displayed as a zoom image, the parameter determination unit 112 sets a region including the selected plurality of objects as a zoom region candidate region. As a center coordinate of the area in the XY space is calculated. Furthermore, even when only one object is selected, the area including the object may be a candidate area for the zoom area, and the coordinates of the center of the area in the XY space may be used as the center coordinates. Even when there are a plurality of objects, the coordinates of the center of gravity of the pixels constituting each selected object in the XY space may be set as the center coordinates.

ステップS125において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム倍率Ziを算出する。   In step S125, the parameter determination unit 112 calculates the zoom magnification of the region that is a candidate for the zoom region, and the process proceeds to step S62 in FIG. For example, the parameter determination unit 112 calculates the zoom magnification Zi by calculating Equation (17) described above.

このようにして、画像処理部231は、全体画像からオブジェクトを検出し、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを含む領域をズーム領域の候補とする。これにより、表示部96には、所定の条件を満たすオブジェクトが拡大された画像が、ズーム画像として表示される。   In this way, the image processing unit 231 detects an object from the entire image, and sets an area including an object that satisfies a predetermined condition among the detected objects as a candidate for a zoom area. As a result, an image in which an object satisfying a predetermined condition is enlarged is displayed on the display unit 96 as a zoom image.

例えば、図14Aに示すように、全体画像281が、人291と背景としての山とが写っている(表示されている)画像であるとする。表示装置211(画像処理部231)は、全体画像281からオブジェクトを検出し、例えば、検出されたオブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを、表示するオブジェクトの候補として選択し、さらにその候補から、1つのオブジェクトを選択する。   For example, as shown in FIG. 14A, it is assumed that the entire image 281 is an image in which a person 291 and a mountain as a background are shown (displayed). The display device 211 (the image processing unit 231) detects an object from the entire image 281. For example, among the detected objects, an object that displays an object whose area is equal to or smaller than a predetermined value. Are selected as candidates, and one object is selected from the candidates.

図14Bに示すように、表示装置211がズーム画像として表示するオブジェクトとして、全体画像281に写っている(表示されている)人291の顔292の部分が選択されると、表示装置211は、表示部96に図14Cに示すズーム画像301を表示する。図14Cでは、ズーム画像301には、選択されたオブジェクトとしての顔292が表示されている。   As illustrated in FIG. 14B, when the portion of the face 292 of the person 291 that is displayed (displayed) in the entire image 281 is selected as an object that the display device 211 displays as a zoom image, the display device 211 A zoom image 301 shown in FIG. 14C is displayed on the display unit 96. In FIG. 14C, the zoom image 301 displays a face 292 as the selected object.

また、例えば、図15Aに示すように、全体画像321が、人331、飛行物体332、および背景としての山が写っている(表示されている)画像であるとする。表示装置211は、全体画像321からオブジェクトを検出し、例えば、検出されたオブジェクトのうち、オブジェクトの面積が、予め定められた所定の値以下であるオブジェクトを、表示するオブジェクトの候補として選択する。   Further, for example, as shown in FIG. 15A, it is assumed that the entire image 321 is an image in which a person 331, a flying object 332, and a mountain as a background are shown (displayed). The display device 211 detects an object from the entire image 321 and selects, for example, an object whose object area is equal to or smaller than a predetermined value among the detected objects as a candidate for an object to be displayed.

その結果、例えば、図15Bに示すように、全体画像321から、ズーム画像として表示するオブジェクトの候補として、人331の顔341、人331の胴体342、および飛行物体332が選択される。   As a result, for example, as shown in FIG. 15B, the face 341 of the person 331, the body 342 of the person 331, and the flying object 332 are selected from the entire image 321 as object candidates to be displayed as a zoom image.

表示装置211が、全ての候補をズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、表示部96に図15Cに示すズーム画像351を表示する。図15Cでは、ズーム画像351には、選択されたオブジェクトとしての人331の顔341および胴体342と、飛行物体332とが表示されている。   When the display device 211 selects all candidates as objects to be displayed as zoom images, the display device 211 displays a zoom image 351 illustrated in FIG. 15C on the display unit 96. In FIG. 15C, the zoom image 351 displays a face 341 and a torso 342 of a person 331 as a selected object, and a flying object 332.

また、例えば、表示装置211が、互いに隣接している複数のオブジェクトを、ズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、図15Bの全体画像321上において、互いに隣接しているオブジェクトとしての人331の顔341および胴体342を選択し、表示部96に図15Dに示すズーム画像352を表示する。図15Dでは、ズーム画像352には、選択されたオブジェクトとしての顔341および胴体342からなる人331が表示されている。   For example, when the display device 211 selects a plurality of objects adjacent to each other as an object to be displayed as a zoom image, the display device 211 is an object adjacent to each other on the entire image 321 in FIG. 15B. The face 341 and the torso 342 of the person 331 are selected, and a zoom image 352 shown in FIG. In FIG. 15D, the zoom image 352 displays a person 331 including a face 341 and a torso 342 as selected objects.

さらに、例えば、表示装置211が、最も面積が小さい候補をズーム画像として表示するオブジェクトとして選択する場合、表示装置211は、図15Bの全体画像321上において、最も面積が小さいオブジェクトである飛行物体332を選択して、表示部96に、図15Eに示すズーム画像353を表示する。図15Eでは、ズーム画像353には、最も面積が小さいオブジェクトとして選択された、オブジェクトとしての飛行物体332が表示されている。   Further, for example, when the display device 211 selects a candidate with the smallest area as an object to be displayed as a zoom image, the display device 211 is a flying object 332 that is the object with the smallest area on the entire image 321 in FIG. 15B. And the zoom image 353 shown in FIG. 15E is displayed on the display unit 96. In FIG. 15E, the zoom image 353 displays a flying object 332 as an object selected as the object having the smallest area.

このように、画像処理部231は、全体画像からオブジェクトを検出し、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを含む領域をズーム領域の候補とするので、ユーザはいちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。   In this manner, the image processing unit 231 detects an object from the entire image, and among the detected objects, an area including an object that satisfies a predetermined condition is set as a zoom area candidate. Therefore, the user designates the zoom area one by one. This makes it possible to observe the details of the entire image and enjoy viewing the image with a simpler operation.

また、検出されたオブジェクトのうち、所定の条件を満たすオブジェクトを選択することで、ユーザの要望(ニーズ)に合ったオブジェクトを拡大して効果的に表示することができる。これによりユーザは、全体画像上の見たいと思うオブジェクトの細部まで観察することができる。   In addition, by selecting an object that satisfies a predetermined condition from the detected objects, it is possible to enlarge and effectively display an object that meets the user's needs (needs). As a result, the user can observe the details of the object he / she wants to see on the entire image.

特に、本出願人が行ったアンケートでは、全体画像に表示されているオブジェクトのうち、拡大して表示させたいオブジェクトとして、人物以外の小さいオブジェクトと回答した人が多かったという結果が得られている。   In particular, in a questionnaire conducted by the present applicant, among the objects displayed in the entire image, there was a result that there were many people who answered that they were small objects other than people as objects to be enlarged and displayed. .

したがって、上述したように、面積が予め定められた所定の値以下であるオブジェクトを候補として選択するなどして、検出されたオブジェクトのうち、比較的小さい(面積が小さい)オブジェクトをズーム画像のオブジェクトとすることにより、全体画像上のオブジェクトのうちの比較的小さいオブジェクトを自動的に検出し、拡大して表示することができる。これにより、全体画像上における、ユーザが拡大させて見たいと思うオブジェクトを、拡大してより見やすく表示することができる。ユーザは、自分が見たいと思うオブジェクトが拡大されて表示されるので、全体画像上における小さいオブジェクトを凝視する必要がなくなり、全体画像の視聴時におけるユーザのストレスも軽減される。   Therefore, as described above, an object whose area is equal to or less than a predetermined value is selected as a candidate, and among the detected objects, a relatively small (small area) object is selected as an object of the zoom image. By doing so, it is possible to automatically detect a relatively small object among the objects on the entire image and display it in an enlarged manner. Thereby, the object that the user wants to enlarge and see on the entire image can be enlarged and displayed more easily. Since the object that the user wants to see is enlarged and displayed, the user does not need to stare at a small object on the entire image, and the stress on the user when viewing the entire image is reduced.

なお、ズーム画像のオブジェクトとして、小さいオブジェクトに限らず、予め定められた所定の値よりも大きいオブジェクトや、全体画像の中心に近いオブジェクトを選択するようにしてもよい。   Note that the zoom image object is not limited to a small object, and an object larger than a predetermined value or an object close to the center of the entire image may be selected.

次に、図16のフローチャートを参照して、図13のステップS121の処理に対応する、オブジェクト検出処理について説明する。上述したように、このオブジェクト検出処理においてオブジェクト選択部241は、全体画像からオブジェクトを検出する。   Next, the object detection process corresponding to the process of step S121 of FIG. 13 will be described with reference to the flowchart of FIG. As described above, in this object detection process, the object selection unit 241 detects an object from the entire image.

ステップS151において、検出部251は初期化処理を行う。例えば、検出部251は、オブジェクトを検出する対象となる領域に含まれている、全ての画素のオブジェクト番号を0とする。ここで、オブジェクト番号とは、全体画像上のオブジェクトを特定するための番号をいい、検出部251は、全ての画素に1以上の所定の数をオブジェクト番号として付して、オブジェクトに分類する。また、オブジェクト番号0は、その画素は、未だどのオブジェクトにも分類されていないことを示している。   In step S151, the detection unit 251 performs initialization processing. For example, the detection unit 251 sets the object numbers of all the pixels included in the region that is the object detection target to 0. Here, the object number refers to a number for specifying an object on the entire image, and the detection unit 251 classifies all the pixels by assigning a predetermined number of 1 or more to the object number. Object number 0 indicates that the pixel has not been classified into any object yet.

例えば、図17に示す領域381を、オブジェクトを検出する対象となる領域とすると、検出部251は、初期化処理において、領域381に含まれる全ての画素にオブジェクト番号0を付す。なお、図中、領域381に含まれる1つの四角形は、1つの画素を表わしている。   For example, if the region 381 shown in FIG. 17 is a region to be an object detection target, the detection unit 251 attaches the object number 0 to all the pixels included in the region 381 in the initialization process. In the drawing, one square included in the region 381 represents one pixel.

また、図中、一番左上の画素を基準として、右方向にi番目であり、下方向にj番目である画素を画素G(i,j)とし、画素G(i,j)のオブジェクト番号をObj(i,j)とする。検出部251は、初期化処理を行った後、画素G(i,j)を特定するための変数i、および変数jを変化させて、領域381に含まれる全ての画素G(i,j)に対して、オブジェクト番号Obj(i,j)を付すことにより、画素G(i,j)を、オブジェクト番号Obj(i,j)により示されるオブジェクトに分類する。   Also, in the figure, the pixel that is i-th in the right direction and j-th in the downward direction with the pixel at the top left as a reference is the pixel G (i, j), and the object number of the pixel G (i, j) Is Obj (i, j). After performing the initialization process, the detection unit 251 changes all the pixels G (i, j) included in the region 381 by changing the variable i and the variable j for specifying the pixel G (i, j). On the other hand, by assigning an object number Obj (i, j), the pixel G (i, j) is classified into an object indicated by the object number Obj (i, j).

なお、以下では、領域381の図中、一番右側の列の画素を画素G(w,j)とし、領域381の図中、一番下の行の画素を画素G(i,h)として説明する。したがって、図17の例においては、w=6であり、h=4である。   In the following description, the pixel in the rightmost column in the drawing of the region 381 is a pixel G (w, j), and the pixel in the bottom row in the drawing of the region 381 is a pixel G (i, h). explain. Therefore, in the example of FIG. 17, w = 6 and h = 4.

図16のフローチャートの説明に戻り、初期化処理が行われると、ステップS152において、検出部251は、変数保持部252が保持している変数i、変数j、および変数numを、それぞれi=1、j=1、およびnum=1とする。   Returning to the description of the flowchart of FIG. 16, when initialization processing is performed, in step S152, the detection unit 251 sets the variable i, the variable j, and the variable num held by the variable holding unit 252 to i = 1. , J = 1, and num = 1.

ここで、変数iおよび変数jは、画素G(i,j)を特定するための変数であり、i=1、およびj=1である状態においては、画素G(i,j)は、画素G(1,1)を示すものとする。したがって、図17の例においては、i=1、およびj=1である場合、画素G(i,j)とは、図中、一番左上の画素を示している。また、変数numは、各画素G(i,j)に付されるオブジェクト番号を示す変数である。   Here, the variable i and the variable j are variables for specifying the pixel G (i, j). In a state where i = 1 and j = 1, the pixel G (i, j) Let G (1,1) denote. Therefore, in the example of FIG. 17, when i = 1 and j = 1, the pixel G (i, j) indicates the upper leftmost pixel in the drawing. A variable num is a variable indicating an object number assigned to each pixel G (i, j).

ステップS153において、検出部251は、オブジェクト番号Obj(i,j)=0であるか否かを判定する。例えば、初期化処理が行われ、変数i、変数j、および変数numが、それぞれi=1、j=1、およびnum=1である場合、すなわち、ステップS152からステップS153に進んだ場合、まだ全ての画素のオブジェクト番号が0であり、オブジェクトに分類されていない。この場合、画素G(i,j)は、i=1、j=1であるからG(1,1)であり、G(1,1)のオブジェクト番号Obj(1,1)も0であるから、検出部251は、Obj(i,j)=0であると判定する。   In step S153, the detection unit 251 determines whether or not the object number Obj (i, j) = 0. For example, when initialization processing is performed and the variables i, j, and num are i = 1, j = 1, and num = 1, that is, when the process proceeds from step S152 to step S153, The object numbers of all the pixels are 0 and are not classified as objects. In this case, the pixel G (i, j) is G (1,1) because i = 1 and j = 1, and the object number Obj (1,1) of G (1,1) is also 0. Therefore, the detection unit 251 determines that Obj (i, j) = 0.

ステップS153において、Obj(i,j)=0であると判定された場合、ステップS154に進み、検出部251は、Obj(i,j)=numとする。例えば、変数保持部252が保持している変数i、変数j、および変数numが、それぞれi=1、j=1、およびnum=1である場合、検出部251は、Obj(1,1)=1とする。   If it is determined in step S153 that Obj (i, j) = 0, the process proceeds to step S154, and the detection unit 251 sets Obj (i, j) = num. For example, when the variable i, variable j, and variable num held by the variable holding unit 252 are i = 1, j = 1, and num = 1, the detection unit 251 uses Obj (1, 1). = 1.

ステップS155において、検出部251は差分演算処理を行う。なお、差分演算処理の詳細は後述するが、差分演算処理において、検出部251は、変数保持部252が保持している変数i、変数jにより特定される画素G(i,j)の画素値と、画素G(i,j)に隣接する画素G(i,j−1)、画素G(i−1,j)、画素G(i+1,j)、および画素G(i,j+1)のそれぞれの画素値との差分を計算する。検出部251は、計算された差分の絶対値が、予め定められた閾値よりも小さい画素のオブジェクト番号に、画素G(i,j)のオブジェクト番号Obj(i,j)と同じ番号を付し、画素G(i,j)と同じオブジェクトに分類する。   In step S155, the detection unit 251 performs difference calculation processing. Although details of the difference calculation process will be described later, in the difference calculation process, the detection unit 251 detects the pixel value of the pixel G (i, j) specified by the variable i and variable j held by the variable holding unit 252. And a pixel G (i, j−1), a pixel G (i−1, j), a pixel G (i + 1, j), and a pixel G (i, j + 1) adjacent to the pixel G (i, j), respectively. The difference from the pixel value of is calculated. The detection unit 251 assigns the same number as the object number Obj (i, j) of the pixel G (i, j) to the object number of the pixel whose absolute value of the calculated difference is smaller than a predetermined threshold value. And the same object as the pixel G (i, j).

ステップS156において、検出部251は、変数保持部252が保持している変数numをインクリメントし、ステップS157に進む。   In step S156, the detection unit 251 increments the variable num held by the variable holding unit 252 and proceeds to step S157.

また、ステップS153において、Obj(i,j)=0でないと判定された場合、既に画素G(i,j)には、オブジェクト番号が付されており、オブジェクトに分類されているので、ステップS154の処理乃至ステップS156の処理はスキップされて、ステップS157に進む。   If it is determined in step S153 that Obj (i, j) = 0 is not satisfied, the pixel G (i, j) has already been assigned an object number and is classified as an object. The processes from step S156 to step S156 are skipped, and the process proceeds to step S157.

ステップS156において、変数numがインクリメントされるか、ステップS153において、Obj(i,j)=0でないと判定されると、ステップS157において、検出部251は、変数保持部252が保持している変数iが、i=wであるか否かを判定する。例えば、オブジェクトを検出する対象となる領域が、図17に示した領域381であり、変数iが、i=6である場合、検出部251はi=wであると判定する。   If the variable num is incremented in step S156, or if it is determined in step S153 that Obj (i, j) = 0 is not satisfied, the detection unit 251 determines that the variable holding unit 252 holds the variable in step S157. It is determined whether i is i = w. For example, when the region that is the target for detecting the object is the region 381 illustrated in FIG. 17 and the variable i is i = 6, the detection unit 251 determines that i = w.

ステップS157において、i=wでないと判定された場合、ステップS158に進み、検出部251は、変数保持部252が保持している変数iをインクリメントして、ステップS153に戻る。このように、検出部251は、ステップS157において、i=wであると判定されるまで、変数iを1からwに変えて、それぞれの画素G(i,j)(j行目の全ての画素)にオブジェクト番号を付し、オブジェクトに分類する。   If it is determined in step S157 that i = w is not satisfied, the process proceeds to step S158, and the detection unit 251 increments the variable i held by the variable holding unit 252 and returns to step S153. In this way, the detection unit 251 changes the variable i from 1 to w until all the pixels G (i, j) (all the j-th rows are detected) until it is determined in step S157 that i = w. Pixel) is assigned an object number and is classified into an object.

また、ステップS157において、i=wであると判定された場合、ステップS159に進み、検出部251は、変数保持部252が保持している変数jが、j=hであるか否かを判定する。例えば、オブジェクトを検出する対象となる領域が、図17に示した領域381であり、変数jが、j=4である場合、検出部251はj=hであると判定する。   If it is determined in step S157 that i = w, the process proceeds to step S159, and the detection unit 251 determines whether or not the variable j held by the variable holding unit 252 is j = h. To do. For example, when the region that is the target for detecting the object is the region 381 illustrated in FIG. 17 and the variable j is j = 4, the detection unit 251 determines that j = h.

ステップS159において、j=hでないと判定された場合、まだ全ての画素をオブジェクトに分類していないので、ステップS160に進み、検出部251は、変数保持部252が保持している変数iを、i=1とする。   If it is determined in step S159 that j = h is not satisfied, since all the pixels have not yet been classified as objects, the process proceeds to step S160, and the detection unit 251 determines the variable i held in the variable holding unit 252 as i = 1.

ステップS161において、検出部251は、変数保持部252が保持している変数jをインクリメントし、ステップS153に戻る。このように、検出部251は、ステップS159において、j=hであると判定されるまで、変数jを1からhに変えて、それぞれの画素G(i,j)にオブジェクト番号を付し、オブジェクトに分類する。   In step S161, the detection unit 251 increments the variable j held by the variable holding unit 252 and returns to step S153. As described above, the detection unit 251 changes the variable j from 1 to h and assigns an object number to each pixel G (i, j) until it is determined in step S159 that j = h. Classify into objects.

また、ステップS159において、j=hであると判定された場合、全ての画素をオブジェクトに分類したので、処理は図13のステップS122に進む。   If it is determined in step S159 that j = h, all the pixels are classified as objects, and the process proceeds to step S122 in FIG.

このようにして、検出部251は、オブジェクトを検出する対象となる領域に含まれる全ての画素に、オブジェクト番号を付してオブジェクトに分類する。例えば、図17に示した領域381からオブジェクトを検出する場合、検出部251は、図中、一番上の行の各画素を、一番左側の画素から一番右側の画素まで順番に選択してオブジェクトに分類し、順次、次の行の各画素を、一番左側の画素から一番右側の画素まで順番に選択してオブジェクトに分類して、一番上の行から一番下の行まで順番に、各画素をオブジェクトに分類していく。   In this way, the detection unit 251 classifies all the pixels included in the object detection target area by assigning the object number to the object. For example, when detecting an object from the area 381 shown in FIG. 17, the detection unit 251 selects each pixel in the top row in the drawing in order from the leftmost pixel to the rightmost pixel. To the next row, select each pixel in the next row in order from the leftmost pixel to the rightmost pixel and classify them as objects, and then from the top row to the bottom row Each pixel is classified into an object in order.

ここで、オブジェクト番号が同一の画素は、同じオブジェクトに含まれる(オブジェクトを構成する)画素とされる。換言すれば、1つのオブジェクトは、そのオブジェクトを特定するオブジェクト番号が付された画素からなる全体画像上の領域とされる。   Here, pixels having the same object number are pixels included in the same object (constitute the object). In other words, one object is an area on the entire image made up of pixels to which an object number specifying the object is attached.

次に、図18および図19のフローチャートを参照して、図16のステップS155の処理に対応する差分演算処理について説明する。   Next, the difference calculation process corresponding to the process of step S155 of FIG. 16 will be described with reference to the flowcharts of FIGS.

ステップS201において、検出部251は、画素G(i,j)と隣接する画素G(i,j−1)のオブジェクト番号が、Obj(i,j−1)=0であるか否かを判定する。すなわち、検出部251は、画素G(i,j)と隣接する画素G(i,j−1)が、すでにオブジェクトに分類されているか否かを判定する。   In step S201, the detection unit 251 determines whether or not the object number of the pixel G (i, j-1) adjacent to the pixel G (i, j) is Obj (i, j-1) = 0. To do. That is, the detection unit 251 determines whether or not the pixel G (i, j−1) adjacent to the pixel G (i, j) has already been classified as an object.

ステップS201において、Obj(i,j−1)=0であると判定された場合、画素G(i,j−1)は、まだオブジェクトに分類されていないので、ステップS202に進み、検出部251は、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分を計算する。   If it is determined in step S201 that Obj (i, j-1) = 0, the pixel G (i, j-1) is not yet classified as an object, so the process proceeds to step S202, and the detection unit 251 is performed. Calculates the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i, j-1).

例えば、検出部251は、画素G(i,j)の画素値、および画素G(i,j−1)の画素値を基に、画素G(i,j)の輝度値、および画素G(i,j−1)の輝度値を計算し、その結果得られた輝度値の差を求めることにより、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分を計算する。   For example, based on the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i, j−1), the detection unit 251 determines the luminance value of the pixel G (i, j) and the pixel G ( The luminance value of i, j-1) is calculated, and the difference between the luminance values obtained as a result is obtained, whereby the pixel value of the pixel G (i, j) and the pixel of the pixel G (i, j-1) Calculate the difference from the value.

ステップS203において、検出部251は、画素G(i,j)の画素値と、画素G(i,j−1)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。   In step S203, the detection unit 251 determines whether the absolute value of the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i, j-1) is smaller than a predetermined threshold value. Determine whether or not.

ステップS203において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i,j−1)は同じオブジェクトの画素であるとされて、ステップS204に進み、検出部251は、画素G(i,j−1)のオブジェクト番号を、Obj(i,j−1)=numとする。例えば、変数保持部252に保持されている変数numが、num=1である場合、検出部251は、Obj(i,j−1)=1とする。   If it is determined in step S203 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j-1) are assumed to be pixels of the same object. In step S204, the detection unit 251 sets the object number of the pixel G (i, j-1) as Obj (i, j-1) = num. For example, when the variable num held in the variable holding unit 252 is num = 1, the detection unit 251 sets Obj (i, j−1) = 1.

ステップS205において、検出部251は、変数保持部252に保持されている変数jをデクリメントする。   In step S205, the detection unit 251 decrements the variable j held in the variable holding unit 252.

ステップS206において、検出部251は、差分演算処理を行う。なお、ステップS206における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。   In step S206, the detection unit 251 performs difference calculation processing. Note that the difference calculation processing in step S206 is the same as the difference calculation processing described with reference to FIGS.

ステップS207において、検出部251は、変数保持部252に保持されている変数jをインクリメントし、処理はステップS208に進む。   In step S207, the detection unit 251 increments the variable j held in the variable holding unit 252, and the process proceeds to step S208.

また、ステップS203において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i,j−1)は同じオブジェクトの画素ではないとされ、ステップS204の処理乃至ステップS207の処理はスキップされて、ステップS208に進む。   If it is determined in step S203 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j-1) are pixels of the same object. If not, the process from step S204 to step S207 is skipped, and the process proceeds to step S208.

さらに、ステップS201において、Obj(i,j−1)=0でないと判定された場合、画素G(i,j−1)は、すでにオブジェクトに分類されているので、ステップS202の処理乃至ステップS207の処理はスキップされて、ステップS208に進む。   Furthermore, if it is determined in step S201 that Obj (i, j-1) = 0, the pixel G (i, j-1) has already been classified as an object, so the process from step S202 to step S207 are performed. This process is skipped and the process proceeds to step S208.

ステップS201において、Obj(i,j−1)=0でないと判定されるか、ステップS203において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS207において、変数jがインクリメントされると、ステップS208において、検出部251は、画素G(i,j)と隣接する画素G(i−1,j)のオブジェクト番号が、Obj(i−1,j)=0であるか否かを判定する。   In step S201, it is determined that Obj (i, j-1) = 0 is not satisfied, in step S203, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S207. In step S208, the detection unit 251 determines that the object number of the pixel G (i-1, j) adjacent to the pixel G (i, j) is Obj (i-1, j). ) = 0.

ステップS208において、Obj(i−1,j)=0であると判定された場合、画素G(i−1,j)は、まだオブジェクトに分類されていないので、ステップS209に進み、検出部251は、画素G(i,j)の画素値と、画素G(i−1,j)の画素値との差分を計算する。   If it is determined in step S208 that Obj (i−1, j) = 0, the pixel G (i−1, j) has not yet been classified as an object, so the process proceeds to step S209, and the detection unit 251 is performed. Calculates the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i-1, j).

ステップS210において、検出部251は、画素G(i,j)の画素値と、画素G(i−1,j)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。   In step S210, the detection unit 251 determines whether the absolute value of the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i-1, j) is smaller than a predetermined threshold value. Determine whether or not.

ステップS210において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i−1,j)は同じオブジェクトの画素であるとされて、ステップS211に進み、検出部251は、画素G(i−1,j)のオブジェクト番号を、Obj(i−1,j)=numとする。   If it is determined in step S210 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i-1, j) are determined to be pixels of the same object. In step S211, the detection unit 251 sets the object number of the pixel G (i−1, j) as Obj (i−1, j) = num.

ステップS212において、検出部251は、変数保持部252に保持されている変数iをデクリメントする。   In step S <b> 212, the detection unit 251 decrements the variable i held in the variable holding unit 252.

ステップS213において、検出部251は、差分演算処理を行う。なお、ステップS213における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。   In step S213, the detection unit 251 performs difference calculation processing. Note that the difference calculation processing in step S213 is the same as the difference calculation processing described with reference to FIGS.

ステップS214において、検出部251は、変数保持部252に保持されている変数iをインクリメントし、処理はステップS215に進む。   In step S214, the detection unit 251 increments the variable i held in the variable holding unit 252, and the process proceeds to step S215.

また、ステップS210において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i−1,j)は同じオブジェクトの画素ではないとされ、ステップS211の処理乃至ステップS214の処理はスキップされて、ステップS215に進む。   If it is determined in step S210 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i-1, j) are pixels of the same object. If not, the process from step S211 to step S214 is skipped, and the process proceeds to step S215.

さらに、ステップS208において、Obj(i−1,j)=0でないと判定された場合、画素G(i−1,j)は、すでにオブジェクトに分類されているので、ステップS209の処理乃至ステップS214の処理はスキップされて、ステップS215に進む。   Further, if it is determined in step S208 that Obj (i-1, j) = 0, the pixel G (i-1, j) has already been classified as an object, so the processing from step S209 to step S214. This process is skipped, and the process proceeds to step S215.

ステップS208において、Obj(i−1,j)=0でないと判定されるか、ステップS210において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS214において、変数iがインクリメントされると、ステップS215において、検出部251は、画素G(i,j)と隣接する画素G(i+1,j)のオブジェクト番号が、Obj(i+1,j)=0であるか否かを判定する。   In step S208, it is determined that Obj (i-1, j) = 0 is not satisfied, in step S210, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S214. When the variable i is incremented, in step S215, the detection unit 251 determines that the object number of the pixel G (i + 1, j) adjacent to the pixel G (i, j) is Obj (i + 1, j) = 0. It is determined whether or not there is.

ステップS215において、Obj(i+1,j)=0であると判定された場合、画素G(i+1,j)は、まだオブジェクトに分類されていないので、ステップS216に進み、検出部251は、画素G(i,j)の画素値と、画素G(i+1,j)の画素値との差分を計算する。   If it is determined in step S215 that Obj (i + 1, j) = 0, the pixel G (i + 1, j) is not yet classified as an object, so the process proceeds to step S216, and the detection unit 251 The difference between the pixel value of (i, j) and the pixel value of pixel G (i + 1, j) is calculated.

ステップS217において、検出部251は、画素G(i,j)の画素値と、画素G(i+1,j)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。   In step S217, the detection unit 251 determines whether or not the absolute value of the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i + 1, j) is smaller than a predetermined threshold value. Determine.

ステップS217において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i+1,j)は同じオブジェクトの画素であるとされて、ステップS218に進み、検出部251は、画素G(i+1,j)のオブジェクト番号を、Obj(i+1,j)=numとする。   If it is determined in step S217 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i + 1, j) are assumed to be pixels of the same object. In step S218, the detection unit 251 sets the object number of the pixel G (i + 1, j) as Obj (i + 1, j) = num.

ステップS219において、検出部251は、変数保持部252に保持されている変数iをインクリメントする。   In step S219, the detection unit 251 increments the variable i held in the variable holding unit 252.

ステップS220において、検出部251は、差分演算処理を行う。なお、ステップS220における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。   In step S220, the detection unit 251 performs difference calculation processing. Note that the difference calculation processing in step S220 is the same as the difference calculation processing described with reference to FIGS.

ステップS221において、検出部251は、変数保持部252に保持されている変数iをデクリメントし、処理はステップS222に進む。   In step S221, the detection unit 251 decrements the variable i held in the variable holding unit 252, and the process proceeds to step S222.

また、ステップS217において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i+1,j)は同じオブジェクトの画素ではないとされ、ステップS218の処理乃至ステップS221の処理はスキップされて、ステップS222に進む。   If it is determined in step S217 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i + 1, j) are not pixels of the same object. Then, the process from step S218 to step S221 is skipped, and the process proceeds to step S222.

さらに、ステップS215において、Obj(i+1,j)=0でないと判定された場合、画素G(i+1,j)は、すでにオブジェクトに分類されているので、ステップS216の処理乃至ステップS221の処理はスキップされて、ステップS222に進む。   Furthermore, if it is determined in step S215 that Obj (i + 1, j) = 0, the pixel G (i + 1, j) has already been classified as an object, so the processing from step S216 to step S221 is skipped. Then, the process proceeds to step S222.

ステップS215において、Obj(i+1,j)=0でないと判定されるか、ステップS217において、差分の絶対値が、予め定められた閾値よりも小さくないと判定されるか、または、ステップS221において、変数iがデクリメントされると、ステップS222において、検出部251は、画素G(i,j)と隣接する画素G(i,j+1)のオブジェクト番号が、Obj(i,j+1)=0であるか否かを判定する。   In step S215, it is determined that Obj (i + 1, j) = 0, or in step S217, it is determined that the absolute value of the difference is not smaller than a predetermined threshold value, or in step S221, When the variable i is decremented, in step S222, the detection unit 251 determines whether the object number of the pixel G (i, j + 1) adjacent to the pixel G (i, j) is Obj (i, j + 1) = 0. Determine whether or not.

ステップS222において、Obj(i,j+1)=0であると判定された場合、画素G(i,j+1)は、まだオブジェクトに分類されていないので、ステップS223に進み、検出部251は、画素G(i,j)の画素値と、画素G(i,j+1)の画素値との差分を計算する。   If it is determined in step S222 that Obj (i, j + 1) = 0, the pixel G (i, j + 1) has not yet been classified as an object, so the process proceeds to step S223, and the detection unit 251 The difference between the pixel value of (i, j) and the pixel value of pixel G (i, j + 1) is calculated.

ステップS224において、検出部251は、画素G(i,j)の画素値と、画素G(i,j+1)の画素値との差分の絶対値が、予め定められた閾値よりも小さいか否かを判定する。   In step S224, the detection unit 251 determines whether or not the absolute value of the difference between the pixel value of the pixel G (i, j) and the pixel value of the pixel G (i, j + 1) is smaller than a predetermined threshold value. Determine.

ステップS224において、差分の絶対値が、予め定められた閾値よりも小さいと判定された場合、画素G(i,j)および画素G(i,j+1)は同じオブジェクトの画素であるとされて、ステップS225に進み、検出部251は、画素G(i,j+1)のオブジェクト番号を、Obj(i,j+1)=numとする。   If it is determined in step S224 that the absolute value of the difference is smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j + 1) are assumed to be pixels of the same object. In step S225, the detection unit 251 sets the object number of the pixel G (i, j + 1) as Obj (i, j + 1) = num.

ステップS226において、検出部251は、変数保持部252に保持されている変数jをインクリメントする。   In step S226, the detection unit 251 increments the variable j held in the variable holding unit 252.

ステップS227において、検出部251は、差分演算処理を行う。なお、ステップS227における差分演算処理は、図18および図19を参照して説明する差分演算処理と同様であるので、その説明は省略する。   In step S227, the detection unit 251 performs difference calculation processing. Note that the difference calculation processing in step S227 is the same as the difference calculation processing described with reference to FIGS.

ステップS228において、検出部251は、変数保持部252に保持されている変数jをデクリメントし、処理は図16のステップS156に進む。   In step S228, the detection unit 251 decrements the variable j held in the variable holding unit 252, and the process proceeds to step S156 in FIG.

また、ステップS224において、差分の絶対値が、予め定められた閾値よりも小さくないと判定された場合、画素G(i,j)および画素G(i,j+1)は同じオブジェクトの画素ではないとされ、ステップS225の処理乃至ステップS228の処理はスキップされて、処理は図16のステップS156に進む。   If it is determined in step S224 that the absolute value of the difference is not smaller than a predetermined threshold value, the pixel G (i, j) and the pixel G (i, j + 1) are not pixels of the same object. Then, the process from step S225 to step S228 is skipped, and the process proceeds to step S156 in FIG.

さらに、ステップS222において、Obj(i,j+1)=0でないと判定された場合、画素G(i,j+1)は、すでにオブジェクトに分類されているので、ステップS223の処理乃至ステップS228の処理はスキップされて、処理は図16のステップS156に進む。   Furthermore, if it is determined in step S222 that Obj (i, j + 1) = 0 is not satisfied, the pixel G (i, j + 1) has already been classified as an object, so the processing from step S223 to step S228 is skipped. Then, the process proceeds to step S156 in FIG.

なお、ステップS201の処理、ステップS208の処理、ステップS215の処理、またはステップS222の処理において、画素G(i,j)に隣接する画素が、オブジェクトを検出する対象となる領域の画素ではない場合には、画素G(i,j)に隣接する画素のオブジェクト番号は、0ではないと判定される。   Note that, in the process of step S201, the process of step S208, the process of step S215, or the process of step S222, the pixel adjacent to the pixel G (i, j) is not a pixel in a region that is a target for detecting an object. , It is determined that the object number of the pixel adjacent to the pixel G (i, j) is not zero.

このようにして、検出部251は、変数保持部252が保持している変数i、変数jにより特定される画素G(i,j)の画素値と、画素G(i,j)に隣接する画素の画素値との差分を計算する。そして、検出部251は、計算された差分の絶対値が、予め定められた閾値よりも小さい場合、画素G(i,j)と隣接する画素は、画素G(i,j)と同じオブジェクトに分類されるとして、その画素のオブジェクト番号に、画素G(i,j)のオブジェクト番号Obj(i,j)と同じ番号を付す。   In this way, the detection unit 251 is adjacent to the pixel G (i, j) and the pixel value of the pixel G (i, j) specified by the variable i and variable j held by the variable holding unit 252. The difference between the pixel value and the pixel value is calculated. Then, when the absolute value of the calculated difference is smaller than a predetermined threshold, the detection unit 251 determines that the pixel adjacent to the pixel G (i, j) is the same object as the pixel G (i, j). As the classification, the same number as the object number Obj (i, j) of the pixel G (i, j) is given to the object number of the pixel.

このように、所定の画素の画素値と、その画素に隣接する画素の画素値との差分を計算し、その結果に基づいて、画素にオブジェクト番号を付すことによって、全体画像からオブジェクトを検出することができる。これにより、検出されたオブジェクトを含む領域をズーム領域の候補とすることができ、ユーザは、いちいちズーム領域を指定する必要がなくなるので、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。   In this way, an object is detected from the entire image by calculating the difference between the pixel value of a predetermined pixel and the pixel value of a pixel adjacent to that pixel, and assigning an object number to the pixel based on the result. be able to. As a result, the area including the detected object can be a candidate for the zoom area, and the user does not need to specify the zoom area one by one, so the details of the entire image can be observed with a simpler operation, You can enjoy viewing images.

ところで、スケーラブルテレビジョンシステム11(図1)においては、スケーラブルテレビジョンシステム11を構成する9台の表示装置21のそれぞれが、全体画像上の予め定められた領域(またはユーザにより定められた領域)から、肌色の領域を検出して、ズーム領域の候補となる領域を定めると説明したが、それぞれの表示装置21ごとに、肌色の領域を検出する対象となる領域を動的に決めるようにすることも可能である。   By the way, in the scalable television system 11 (FIG. 1), each of the nine display devices 21 constituting the scalable television system 11 has a predetermined area (or an area determined by the user) on the entire image. From the above description, it has been described that a skin color region is detected and a region that is a candidate for a zoom region is determined. However, for each display device 21, a region that is a target for detecting a skin color region is dynamically determined. It is also possible.

図4を参照して説明したように、互いに接続されている表示装置21は予め順序付けられており、それぞれの表示装置21(中央処理部93)は、自分自身の順番を示すID(自分自身を特定するID)を記憶している。そこで、表示装置21の順番に基づいて、肌色の領域を検出する対象となる領域を動的に決めることにより、それぞれの表示装置21が、それぞれ異なる領域から、肌色の領域を検出することができるようになる。   As described with reference to FIG. 4, the display devices 21 connected to each other are ordered in advance, and each display device 21 (the central processing unit 93) has an ID (self- ID to be specified) is stored. Therefore, by dynamically determining a region to be detected as a skin color region based on the order of the display devices 21, each display device 21 can detect a skin color region from a different region. It becomes like this.

例えば、表示装置21に供給された画像データに基づく画像(全体画像)が、図20Aに示す画像411であるとすると、複数の表示装置21は、画像411全体を肌色の領域を検出する対象として、画像411から、肌色の領域を検出する。   For example, if the image (entire image) based on the image data supplied to the display device 21 is the image 411 shown in FIG. 20A, the plurality of display devices 21 use the entire image 411 as a target for detecting a skin color region. From the image 411, a skin color region is detected.

そして、図20Bに示すように、画像411から肌色の領域421が検出され、ズーム領域の候補とされると、記憶しているIDにより示される順番が、1番目である表示装置21は、この領域421をズーム領域として、ズーム画像を表示する。   Then, as shown in FIG. 20B, when the skin color area 421 is detected from the image 411 and is selected as a zoom area candidate, the display device 21 in which the order indicated by the stored ID is first is A zoom image is displayed using the area 421 as a zoom area.

これに対して、記憶しているIDにより示される順番が、1番目ではない表示装置21(2番目以降の表示装置21)は、図20Cに示すように、画像411から領域421を除いた領域を、肌色の領域を検出する対象とし、再び肌色の領域を検出する。   On the other hand, the display device 21 in which the order indicated by the stored ID is not the first (second and subsequent display devices 21) is an area obtained by removing the area 421 from the image 411 as shown in FIG. 20C. Is a target for detecting a skin color area, and the skin color area is detected again.

その結果、図20Dに示すように、画像411から領域421を除いた領域から、肌色の領域422が検出され、ズーム領域の候補とされると、記憶しているIDにより示される順番が、2番目である表示装置21は、この領域422をズーム領域として、ズーム画像を表示する。   As a result, as shown in FIG. 20D, when the skin-colored area 422 is detected from the area obtained by excluding the area 421 from the image 411 and is determined as a zoom area candidate, the order indicated by the stored ID is 2 The second display device 21 displays a zoom image using the region 422 as a zoom region.

さらに、記憶しているIDにより示される順番が、1番目および2番目ではない表示装置21(3番目以降の表示装置21)は、図20Eに示すように、画像411から領域421および領域422を除いた領域を、肌色の領域を検出する対象とし、さらに肌色の領域を検出する。   Further, the display device 21 (the third and subsequent display devices 21) whose order indicated by the stored ID is not the first and second, as shown in FIG. 20E, displays the region 421 and the region 422 from the image 411. The excluded area is a target for detecting a skin color area, and a skin color area is further detected.

このように、表示装置21は、肌色の領域を検出する対象となる領域から、すでに肌色が検出され、ズーム領域の候補とされた領域が除かれた領域を、新たに肌色の領域を検出する対象となる領域として、自分自身の順番となるまで、肌色の領域を検出する処理を繰り返し行う。   As described above, the display device 21 newly detects a skin color region from a region in which the skin color has already been detected and the region that is a candidate for the zoom region has been removed from the region to be detected as the skin color region. The process of detecting the skin-colored area is repeated until the target area is in the order of itself.

次に、肌色の領域を検出する対象となる領域を動的に決める場合において、表示装置21が行う処理について説明する。スケーラブルテレビジョンシステム11を構成する表示装置21のうち、ズーム画像を表示する表示装置21は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置21は、図6のステップS32において、肌色の領域を検出する対象となる領域を動的に決めて、ズーム画像を表示する。   Next, a process performed by the display device 21 when dynamically determining a target area for detecting a skin color area will be described. Among the display devices 21 constituting the scalable television system 11, the display device 21 that displays a zoom image performs the zoom image display process described with reference to FIG. Then, in step S32 of FIG. 6, the display device 21 dynamically determines a target region for detecting a skin color region, and displays a zoom image.

以下、図21のフローチャートを参照して、肌色の領域を検出する対象となる領域を動的に決める場合に表示装置21が行う、図6のステップS32の処理に対応する自動ズーム処理について説明する。   Hereinafter, the automatic zoom process corresponding to the process of step S32 of FIG. 6 performed by the display device 21 when dynamically determining an area for detecting the skin color area will be described with reference to the flowchart of FIG. .

ステップS261において、中央処理部93は、記憶しているIDを参照して、自分自身の順番を定める。例えば、記憶しているIDにより示される順番が2番目である場合、中央処理部93は、自分自身の順番を2番とする。   In step S261, the central processing unit 93 determines its own order with reference to the stored ID. For example, when the order indicated by the stored ID is the second, the central processing unit 93 sets its own order to the second.

ステップS262において、画像処理部95は、中央処理部93の制御の基に、肌色領域の検出処理を行う。なお、ステップS262における肌色領域の検出処理は、図9のフローチャートを参照して説明した肌色領域の検出処理と同様であるため、その説明は省略する。また、肌色領域の検出処理において、画像処理部95は、予め定められた領域、またはステップS264において設定された領域を、検出の対象となる領域として、肌色の領域を検出し、ズーム領域の候補となる領域を定める。   In step S <b> 262, the image processing unit 95 performs a skin color area detection process under the control of the central processing unit 93. The skin color area detection process in step S262 is the same as the skin color area detection process described with reference to the flowchart of FIG. Further, in the skin color area detection process, the image processing unit 95 detects a skin color area using the predetermined area or the area set in step S264 as a detection target area, and is a candidate for the zoom area. Define the area to be.

肌色の領域が検出されると、ステップS263において、中央処理部93は、自分の順番であるか否かを判定する。例えば、ステップS261において定めた順番が2番目である場合、全体画像から、肌色の領域を2回検出したとき(肌色領域の検出処理を2回行ったとき)、中央処理部93は、自分の順番であると判定する。   When the skin color region is detected, in step S263, the central processing unit 93 determines whether or not it is the turn of its own. For example, when the order determined in step S261 is second, when the skin color area is detected twice from the entire image (when the skin color area detection process is performed twice), the central processing unit 93 Judged to be in order.

ステップS263において、自分の順番でないと判定された場合、継続して肌色の領域を検出するので、ステップS264に進み、画像処理部95は、これまでズーム領域の候補とされた領域を除く領域を、肌色の領域の検出の対象となる領域として設定し、ステップS262に戻り、設定した領域から、肌色の領域を検出する。   If it is determined in step S263 that it is not the order of the player, the skin color area is continuously detected. Therefore, the process proceeds to step S264, and the image processing unit 95 determines areas other than the areas that have been candidates for the zoom area so far. The skin color area is set as a detection target area, and the process returns to step S262 to detect the skin color area from the set area.

例えば、図20Dに示すように、画像(全体画像)411から、肌色の領域421(ズーム領域の候補となる領域)および領域422(ズーム領域の候補となる領域)が検出され、ステップS263において、自分の順番ではないと判定された場合、ステップS264において、画像処理部95は、図20Eに示したように、画像411から、領域421および領域422が除かれた領域を、次の肌色の領域を検出する対象となる領域として設定する。   For example, as shown in FIG. 20D, a skin color region 421 (a region that is a candidate for a zoom region) and a region 422 (a region that is a candidate for a zoom region) are detected from an image (entire image) 411, and in step S263, If it is determined that the order is not the order, in step S264, the image processing unit 95 determines that the area obtained by removing the area 421 and the area 422 from the image 411 is the next skin color area, as illustrated in FIG. Is set as an area to be detected.

一方、ステップS263において、自分の順番であると判定された場合、ステップS265に進む。なお、ステップS265の処理およびステップS266の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。ステップS266において、画像(ズーム画像)が表示されると、処理は図6のステップS33に進む。   On the other hand, if it is determined in step S263 that it is the turn of the player, the process proceeds to step S265. Note that the processing in step S265 and the processing in step S266 are the same as the processing in step S65 and the processing in step S66 in FIG. If an image (zoom image) is displayed in step S266, the process proceeds to step S33 in FIG.

また、図7では、検出された肌色の領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにしたが、図21を参照して説明した自動ズーム処理においては、ステップS262において定められたズーム領域の候補となる領域、すなわち、検出された肌色の領域を含む領域がそのままズーム領域とされ、その領域が拡大されて表示される。なお、図7における場合と同様に、検出された肌色の領域を含む領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにすることも勿論可能である。   In FIG. 7, the detected skin color region is set as a candidate for the zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. However, the zoom region is described with reference to FIG. 21. In the automatic zoom process, a region that is a candidate for the zoom region determined in step S262, that is, a region including the detected skin color region is directly used as a zoom region, and the region is enlarged and displayed. As in the case of FIG. 7, it is possible to determine the zoom area by determining the area including the detected skin color area as a candidate for the zoom area and obtaining the center of gravity of the center coordinates and the average value of the zoom magnification. Is possible.

このようにして、表示装置21は、肌色の領域を検出する対象となる領域を動的に決めて、その領域から検出された肌色の領域を含む領域をズーム領域として、ズーム画像を表示する。   In this manner, the display device 21 dynamically determines a region to be detected as a skin color region, and displays a zoom image using a region including the skin color region detected from the region as a zoom region.

このように、それぞれの表示装置21ごとに、肌色の領域を検出する対象となる領域を動的に決めるようにすることで、互いに接続されている表示装置21ごとに、異なる領域から肌色の領域を検出することができ、その結果、表示装置21ごとに異なるズーム画像をより効果的に表示させることができる。したがって、ユーザは、複数の表示装置21のそれぞれに表示されたズーム画像から、自分が見たいズーム画像を選択的に視聴することができる。   In this way, for each display device 21, a region for detecting a skin color region is dynamically determined, so that a skin color region from a different region is displayed for each display device 21 connected to each other. As a result, it is possible to display different zoom images for each display device 21 more effectively. Therefore, the user can selectively view the zoom image he / she wants to see from the zoom images displayed on each of the plurality of display devices 21.

なお、ステップS262において、肌色の領域を検出することにより、ズーム領域を定めると説明したが、表示装置を、図12を参照して説明した構成とし、ステップS262において、図13を参照して説明したオブジェクト領域の検出処理を行うようにしてもよい。この場合、表示装置211ごとに、オブジェクトを検出する対象となる領域が動的に決められ、その領域から検出されたオブジェクトを含む領域がズーム領域とされて、ズーム画像が表示される。   Although it has been described that the zoom region is determined by detecting the skin color region in step S262, the display device is configured as described with reference to FIG. 12, and in step S262, the description is made with reference to FIG. The detected object area may be detected. In this case, for each display device 211, an area for detecting an object is dynamically determined, and an area including the object detected from the area is set as a zoom area, and a zoom image is displayed.

また、表示装置の機能の構成を、図4を参照して説明した機能、および図12を参照して説明した機能を有する構成とし、ステップS262において、肌色領域の検出処理(図9)と、オブジェクト領域の検出処理(図13)とを交互に行ったりするようにしてもよい。この場合、例えば、1回目にズーム領域を定める時には、ステップS262において、肌色領域の検出処理が行われ、次にズーム領域を定めるとき(2回目にステップS262の処理を行うとき)には、ステップS262において、オブジェクト領域の検出処理が行われる。   Further, the function configuration of the display device is configured to have the function described with reference to FIG. 4 and the function described with reference to FIG. 12, and in step S262, a skin color area detection process (FIG. 9); The object area detection process (FIG. 13) may be alternately performed. In this case, for example, when the zoom area is defined for the first time, a skin color area detection process is performed in step S262, and when the zoom area is determined next (when the process of step S262 is performed for the second time), the step is performed. In S262, an object area detection process is performed.

さらに、ステップS262において、肌色領域の検出処理を行うか、またはオブジェクト領域の検出処理を行うかをユーザが設定できるようにしたり、表示装置によって、肌色領域の検出処理を行うか、またはオブジェクト領域の検出処理を行うかが異なるようにしたりしてもよい。   Furthermore, in step S262, the user can set whether to perform the skin color area detection process or the object area detection process, or the display apparatus can perform the skin color area detection process or the object area detection process. The detection process may be performed differently.

さらに、また、表示装置の機能の構成を、図4を参照して説明した機能、および図12を参照して説明した機能を有する構成とし、スケーラブルテレビジョンシステムを構成する複数の表示装置のうち、肌色領域の検出処理(図9)を行ってズーム画像を表示する表示装置の数と、オブジェクト領域の検出処理(図13)を行ってズーム画像を表示する表示装置の数とを動的に変化させるようにしてもよい。   Furthermore, the configuration of the function of the display device is the configuration having the function described with reference to FIG. 4 and the function described with reference to FIG. 12, and among the plurality of display devices constituting the scalable television system. The number of display devices that display the zoom image by performing the skin color region detection process (FIG. 9) and the number of display devices that display the zoom image by performing the object region detection process (FIG. 13) are dynamically determined. It may be changed.

例えば、図22Aに示すように、全体画像461上において、肌色の領域が人471および人472の顔の部分だけである場合、2台の表示装置が、それぞれ人471および人472の顔の部分をズーム画像として表示させると、画像461上における肌色の領域は、全て拡大されて表示されることになる。   For example, as shown in FIG. 22A, when the skin color region is only the face portion of the person 471 and the person 472 on the entire image 461, the two display devices are the face parts of the person 471 and the person 472, respectively. Is displayed as a zoomed image, the skin color region on the image 461 is all enlarged and displayed.

これに対して、図22Bに示すように、全体画像481上において、肌色の領域が人491乃至人497の顔の部分である場合、人491乃至人497の顔の部分を、それぞれ1台の表示装置が表示するようにすると、肌色の領域を検出して表示する表示装置は、7台必要となる。   On the other hand, as shown in FIG. 22B, when the skin-colored area is the face portion of the person 491 to the person 497 on the entire image 481, the face part of the person 491 to the person 497 is respectively replaced by one unit. When the display device displays, seven display devices that detect and display the skin color area are required.

このように、全体画面上において、肌色の領域が大きい場合と、肌色の領域が小さい場合とでは、肌色の領域を表示するために必要となる表示装置の数は異なる。そこで、全体画面上における肌色の領域の面積によって、肌色の領域を検出して表示する表示装置の数と、オブジェクトを検出して表示する表示装置の数とを動的に変化させることによって、ズーム画像をより効果的に表示させることができる。   As described above, the number of display devices required to display the skin color region differs depending on whether the skin color region is large or the skin color region is small on the entire screen. Therefore, zooming is performed by dynamically changing the number of display devices that detect and display the skin color area and the number of display devices that detect and display the object according to the area of the skin color region on the entire screen. Images can be displayed more effectively.

例えば、図22Aに示したように、全体画像461上において、肌色の領域が人471および人472の顔の部分だけであり、全体画像461上における肌色の領域の面積が、所定の値よりも小さい場合には、肌色領域の検出処理を行う表示装置を4台、オブジェクト領域の検出処理を行う表示装置を4台とし、図22Bに示したように、全体画像481上において、肌色の領域が人491乃至人497の顔の部分であり、全体画像481上における肌色の領域の面積が、所定の値以上である場合には、肌色領域の検出処理を行う表示装置を7台、オブジェクト領域の検出処理を行う表示装置を1台とすることができる。   For example, as shown in FIG. 22A, the skin color area is only the face portion of the person 471 and the person 472 on the whole image 461, and the area of the skin color area on the whole image 461 is larger than a predetermined value. If it is small, there are four display devices that perform skin color region detection processing and four display devices that perform object region detection processing. As shown in FIG. 22B, the skin color region is displayed on the entire image 481. If the area of the skin color area on the entire image 481 is the face portion of the person 491 to 497 and is equal to or greater than a predetermined value, seven display devices that perform the skin color area detection process and the object area One display device that performs detection processing can be provided.

肌色の領域の面積によって、肌色領域の検出処理を行う表示装置の数と、オブジェクト領域の検出処理を行う表示装置の数とを動的に変化させる場合、表示装置は、例えば、図23に示すように構成される。   When the number of display devices that perform skin color region detection processing and the number of display devices that perform object region detection processing are dynamically changed depending on the area of the skin color region, the display device is, for example, illustrated in FIG. Configured as follows.

表示装置531は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部541を含むように構成される。なお、表示装置531の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。   The display device 531 is configured to include a control information communication unit 91, an input unit 92, a central processing unit 93, a signal acquisition unit 94, a display unit 96, an audio output unit 97, and an image processing unit 541. Note that the control information communication unit 91, the input unit 92, the central processing unit 93, the signal acquisition unit 94, the display unit 96, and the audio output unit 97 of the display device 531 correspond to the case in FIG. The description is omitted.

画像処理部541は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から、肌色の領域またはオブジェクトを検出して、検出された肌色の領域またはオブジェクトが含まれる領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部541は、領域決定部111、オブジェクト選択部241、パラメータ決定部112、およびズーム処理部113を含むように構成される。   Under the control of the central processing unit 93, the image processing unit 541 detects a skin color region or object from an image (overall image) based on the image data supplied from the signal acquisition unit 94, and detects the detected skin color. Image data for enlarging and displaying the region or the region including the object is generated and supplied to the display unit 96. The image processing unit 541 is configured to include an area determination unit 111, an object selection unit 241, a parameter determination unit 112, and a zoom processing unit 113.

なお、領域決定部111、パラメータ決定部112、およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。また、オブジェクト選択部241は、図12における場合と対応するため同一の符号を付してあり、その説明は省略する。   Note that the region determination unit 111, the parameter determination unit 112, and the zoom processing unit 113 are denoted by the same reference numerals in order to correspond to the case in FIG. Further, the object selection unit 241 is assigned the same reference numeral to correspond to the case in FIG. 12, and the description thereof is omitted.

図23に示す表示装置531では、信号取得部94により抽出された画像データは、領域決定部111、オブジェクト選択部241、およびズーム処理部113に供給される。また、パラメータ決定部112には、領域決定部111およびオブジェクト選択部241が接続されている。   In the display device 531 shown in FIG. 23, the image data extracted by the signal acquisition unit 94 is supplied to the region determination unit 111, the object selection unit 241, and the zoom processing unit 113. The parameter determination unit 112 is connected to the region determination unit 111 and the object selection unit 241.

ユーザがリモートコマンダを操作して、表示装置531に画像の表示を指示すると、表示装置531は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置531は、図6のステップS32において、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めて、ズーム画像を表示する。   When the user operates the remote commander to instruct the display device 531 to display an image, the display device 531 performs the zoom image display processing described with reference to FIG. In step S32 of FIG. 6, the display device 531 dynamically determines whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area, and displays the zoom image. .

以下、図24のフローチャートを参照して、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決める場合に表示装置531が行う、図6のステップS32の処理に対応する自動ズーム処理について説明する。   Hereinafter, referring to the flowchart of FIG. 24, the display device 531 performs when dynamically determining whether the region including the skin color region is the zoom region or the region including the object is the zoom region. The automatic zoom process corresponding to the process in step S32 will be described.

ステップS301において、肌色領域検出部121は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)上における、肌色の領域の面積を算出する。例えば、肌色領域検出部121は、図9のフローチャートを参照して説明したように、各画素の画素値を基に、上述した式(10)乃至式(14)を適宜用いて、HSV形式の色空間のHの値を求め、全体画像上の肌色の領域の面積を算出する。   In step S <b> 301, the skin color region detection unit 121 calculates the area of the skin color region on the image (entire image) based on the image data supplied from the signal acquisition unit 94 based on the control of the central processing unit 93. For example, as described with reference to the flowchart of FIG. 9, the skin color area detection unit 121 appropriately uses the above formulas (10) to (14) based on the pixel value of each pixel, in the HSV format. The value of H in the color space is obtained, and the area of the skin color area on the entire image is calculated.

ステップS302において、中央処理部93は、肌色領域検出部121が算出した全体画像上の肌色の領域の面積が、予め定められた所定の値以上であるか否かを判定する。   In step S302, the central processing unit 93 determines whether or not the area of the skin color area on the entire image calculated by the skin color area detection unit 121 is equal to or larger than a predetermined value.

ステップS302において、所定の値以上であると判定された場合、ステップS303に進み、中央処理部93は、互いに接続された、ズーム画像を表示する8台の表示装置531のうち、肌色の領域をズーム領域とする表示装置531を5台とし、オブジェクトを含む領域をズーム領域とする表示装置531を3台とする。   If it is determined in step S302 that the value is equal to or greater than the predetermined value, the process advances to step S303, and the central processing unit 93 selects a skin color region from among the eight display devices 531 that are connected to each other and display a zoom image. It is assumed that there are five display devices 531 serving as zoom areas and three display devices 531 including an object-containing area as zoom regions.

これに対して、ステップS302において、所定の値以上でないと判定された場合、ステップS304に進み、中央処理部93は、互いに接続された、ズーム画像を表示する8台の表示装置531のうち、肌色の領域をズーム領域とする表示装置531を3台とし、オブジェクトを含む領域をズーム領域とする表示装置531を5台とする。   On the other hand, if it is determined in step S302 that the value is not equal to or greater than the predetermined value, the process proceeds to step S304, and the central processing unit 93 includes, among the eight display devices 531 that display the zoom images connected to each other. Three display devices 531 having a skin color region as a zoom region and three display devices 531 having a region including an object as a zoom region are provided.

ステップS303またはステップS304において、肌色の領域をズーム領域とする表示装置531の台数と、オブジェクトを含む領域をズーム領域とする表示装置531の台数を定めると、ステップS305に進み、中央処理部93は、記憶しているIDを参照して、自分自身の順番を定める。   In step S303 or step S304, when the number of display devices 531 whose skin color area is a zoom area and the number of display devices 531 whose area includes an object are determined, the process proceeds to step S305, and the central processing unit 93 Referring to the stored ID, determine the order of itself.

表示装置21における場合と同様に、互いに接続されている表示装置531は、予め順序付けられており、それぞれの表示装置531(中央処理部93)は、自分自身の順番を示すIDを記憶している。例えば、記憶しているIDにより示される順番が2番目である場合、中央処理部93は、自分自身の順番を2番とする。   As in the case of the display device 21, the display devices 531 connected to each other are ordered in advance, and each display device 531 (the central processing unit 93) stores an ID indicating its own order. . For example, when the order indicated by the stored ID is the second, the central processing unit 93 sets its own order to the second.

ステップS306において、中央処理部93は、肌色の領域をズーム領域とするか否かを判定する。例えば、ズーム画像を表示する8台の表示装置531のそれぞれは、自分自身の順番が1番乃至8番のいずれかを示すIDを記憶している。そして、ステップS303において、肌色の領域をズーム領域とする表示装置531が5台とされ、オブジェクトを含む領域をズーム領域とする表示装置531が3台とされた場合、順番が1番乃至5番である表示装置531は、肌色の領域をズーム領域とすると判定し、順番が6番乃至8番である表示装置531は、肌色の領域をズーム領域としないと判定する。   In step S306, the central processing unit 93 determines whether or not the skin color region is set as the zoom region. For example, each of the eight display devices 531 that display a zoom image stores an ID that indicates one of the first to eighth orders. In step S303, when there are five display devices 531 having the skin-colored region as the zoom region and three display devices 531 having the zoom region as the region including the object, the order is Nos. 1 to 5. The display device 531 determines that the skin color region is the zoom region, and the display device 531 whose order is Nos. 6 to 8 determines that the skin color region is not the zoom region.

また、ステップS304において、肌色の領域をズーム領域とする表示装置531が3台とされ、オブジェクトを含む領域をズーム領域とする表示装置531が5台とされた場合、順番が1番乃至3番である表示装置531は、肌色の領域をズーム領域とすると判定し、順番が4番乃至8番である表示装置531は、肌色の領域をズーム領域としないと判定する。   Further, in step S304, if there are three display devices 531 having the skin-colored region as the zoom region and five display devices 531 having the region including the object as the zoom region, the order is Nos. 1 to 3. The display device 531 determines that the skin color region is the zoom region, and the display device 531 whose order is Nos. 4 to 8 determines that the skin color region is not the zoom region.

ステップS306において、肌色の領域をズーム領域とすると判定された場合、中央処理部93は、画像処理部541に、肌色領域の検出処理の実行を指示して、処理はステップS307に進む。   If it is determined in step S306 that the skin color area is the zoom area, the central processing unit 93 instructs the image processing unit 541 to execute the skin color area detection process, and the process proceeds to step S307.

ステップS307において、画像処理部541(領域決定部111およびパラメータ決定部112)は、肌色領域の検出処理を行い、ステップS309に進む。なお、肌色領域の検出処理は、図9のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。   In step S307, the image processing unit 541 (the region determining unit 111 and the parameter determining unit 112) performs a skin color region detection process, and the process proceeds to step S309. The skin color area detection process is the same as the process described with reference to the flowchart of FIG.

一方、ステップS306において、肌色の領域をズーム領域としないと判定された場合、オブジェクトを含む領域をズーム領域とするので、中央処理部93は、画像処理部541に、オブジェクト領域の検出処理の実行を指示して、処理はステップS308に進む。   On the other hand, if it is determined in step S306 that the skin color area is not the zoom area, the area including the object is the zoom area, and the central processing unit 93 causes the image processing unit 541 to execute the object area detection process. The process proceeds to step S308.

ステップS308において、画像処理部541(オブジェクト選択部241およびパラメータ決定部112)は、オブジェクト領域の検出処理を行い、ステップS309に進む。なお、オブジェクト領域の検出処理は、図13のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。   In step S308, the image processing unit 541 (the object selection unit 241 and the parameter determination unit 112) performs an object area detection process, and the process proceeds to step S309. The object area detection process is the same as the process described with reference to the flowchart of FIG.

ステップS307において、肌色領域の検出処理が行われるか、またはステップS308において、オブジェクト領域の検出処理が行われると、処理はステップS309に進む。なお、ステップS309の処理およびステップS310の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。ステップS310において、画像(ズーム画像)が表示されると、処理は図6のステップS33に進む。   If the skin color area detection process is performed in step S307 or the object area detection process is performed in step S308, the process proceeds to step S309. Note that the processing in step S309 and the processing in step S310 are the same as the processing in step S65 and the processing in step S66 in FIG. When an image (zoom image) is displayed in step S310, the process proceeds to step S33 in FIG.

また、図7では、検出された肌色の領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにしたが、図24を参照して説明した自動ズーム処理においては、ステップS307またはステップS308において定められたズーム領域の候補となる領域がそのままズーム領域とされ、その領域が拡大されて表示される。なお、図7における場合と同様に、検出された肌色の領域を含む領域、またはオブジェクトを含む領域をズーム領域の候補とし、中心座標の重心およびズーム倍率の平均値を求めて、ズーム領域を定めるようにすることも勿論可能である。   In FIG. 7, the detected skin color region is used as a candidate for the zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. However, the zoom region is described with reference to FIG. 24. In the automatic zoom process, a region that is a candidate for the zoom region determined in step S307 or step S308 is directly used as a zoom region, and the region is enlarged and displayed. As in the case of FIG. 7, a region including a detected skin color region or a region including an object is set as a candidate for a zoom region, and the center of gravity of the center coordinates and the average value of the zoom magnification are obtained to determine the zoom region. Of course, it is also possible to do so.

このようにして、表示装置531は、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めて、ズーム画像を表示する。   In this way, the display device 531 dynamically determines whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area, and displays the zoom image.

このように、それぞれの表示装置531ごとに、肌色の領域を含む領域をズーム領域とするか、またはオブジェクトを含む領域をズーム領域とするかを動的に決めるようにすることで、互いに接続されている表示装置531のうち、肌色の領域をズーム領域としてズーム画像を表示させるのに必要な表示装置531の台数を動的に決めることができ、ズーム画像をより効果的に表示させることができる。   As described above, each display device 531 is connected to each other by dynamically determining whether the area including the skin color area is set as the zoom area or the area including the object is set as the zoom area. Among the display devices 531, the number of display devices 531 necessary for displaying a zoom image using the skin-colored region as a zoom region can be determined dynamically, and the zoom image can be displayed more effectively. .

なお、肌色の領域の面積が、予め定められた値以上であるか否かの判定を基に、肌色の領域をズーム領域とする表示装置531の台数を定めると説明したが、肌色の領域の面積に応じて、肌色の領域をズーム領域とする表示装置531の台数が、1台乃至7台まで連続的に変化するようにしてもよい。   Although it has been described that the number of display devices 531 having the skin color region as a zoom region is determined based on the determination whether the area of the skin color region is equal to or greater than a predetermined value, Depending on the area, the number of display devices 531 having a skin-colored region as a zoom region may be continuously changed from 1 to 7 units.

ところで、本出願人が行ったアンケートでは、全体画像上において、拡大して表示させたい領域として、小さいオブジェクトの他に、目立つ領域(例えば、目立つオブジェクトを含む領域)と回答した人が多かったという結果が得られている。   By the way, in a questionnaire conducted by the present applicant, there were many people who responded as a conspicuous region (for example, a region including a conspicuous object) as a region to be enlarged and displayed on the entire image. The result is obtained.

ここで、全体画像上における目立つ領域とは、その領域の色、明るさ、鮮やかさ、その領域におけるエッジの量などが、全体画像上における他の領域と比較して顕著に異なる領域、すなわち全体画像上において、他の領域には少ない所定の特徴が集中して存在する領域ということができる。   Here, the conspicuous area on the entire image is an area in which the color, brightness, vividness of the area, the amount of edges in the area, etc. are significantly different from other areas on the entire image, that is, the entire area. On the image, it can be said that other predetermined areas are concentrated and exist in other areas.

そこで、全体画像から、他の領域と色、明るさ、鮮やかさ、その領域におけるエッジの量などが大きく異なる領域を検出することができれば、全体画像上において目立つ領域をズーム画像として拡大して表示することができる。   Therefore, if it is possible to detect a region that differs greatly from other regions in color, brightness, vividness, and the amount of edges in that region, the conspicuous region on the entire image is enlarged and displayed as a zoom image. can do.

例えば、図25Aに示すように、全体画像581の図中、中央に、黄色の星の図形591が写っており(表示されており)、全体画像581の星の図形591以外の領域が白であるとする。このとき、星の図形591の色(黄色)と、他の領域の色(白)とは異なる色であるので、星の図形591(の領域)は、全体画像581の他の領域と比較して、特徴のある領域ということができる。つまり、星の図形591(の領域)は、目立つ領域であるということができる。   For example, as shown in FIG. 25A, a yellow star graphic 591 is shown (displayed) in the center of the overall image 581, and the area other than the star graphic 591 in the overall image 581 is white. Suppose there is. At this time, since the color of the star figure 591 (yellow) is different from the color of the other area (white), the star figure 591 (the area) is compared with other areas of the entire image 581. In other words, it can be called a characteristic region. That is, it can be said that the star figure 591 (region) is a conspicuous region.

全体画像581から星の図形591の領域を検出するために、例えば、図25Bに示すように、全体画像581の図中、中央の領域601と、全体画像581から領域601が除かれた領域とを比較する。領域601には、星の図形591の一部分が含まれており、また、全体画像581から領域601が除かれた領域にも、星の図形591の一部分が含まれているので、この場合には、領域601と、全体画像581から領域601が除かれた領域とから黄色い領域およびエッジが検出され、領域601は、全体画像581において特徴のある領域とはならない。   In order to detect the area of the star graphic 591 from the entire image 581, for example, as shown in FIG. 25B, a central area 601 in the figure of the entire image 581, and an area obtained by removing the area 601 from the entire image 581 Compare The region 601 includes a part of the star graphic 591, and the region obtained by removing the region 601 from the entire image 581 includes a part of the star graphic 591. The yellow region and the edge are detected from the region 601 and the region obtained by removing the region 601 from the entire image 581, and the region 601 does not become a characteristic region in the entire image 581.

また、図25Cに示すように、全体画像581の図中、左上の領域602と、全体画像581から領域602が除かれた領域とを比較する場合を考える。領域602には、星の図形591の一部分が含まれており、また、全体画像581から領域602が除かれた領域にも、星の図形591の一部分が含まれている。したがって、この場合も図25Bの場合と同様に、領域602と、全体画像581から領域602が除かれた領域とから黄色い領域およびエッジが検出され、領域602は、全体画像581において特徴のある領域とはならない。   Further, as shown in FIG. 25C, a case is considered in which the upper left region 602 in the entire image 581 is compared with the region obtained by removing the region 602 from the entire image 581. The region 602 includes a part of the star graphic 591, and the region obtained by removing the region 602 from the entire image 581 includes a part of the star graphic 591. Accordingly, in this case as well, as in the case of FIG. 25B, yellow areas and edges are detected from the area 602 and the area obtained by removing the area 602 from the entire image 581, and the area 602 is a characteristic area in the entire image 581. It will not be.

これに対して、図25Dに示すように、全体画像581の図中、中央の領域603と、全体画像581から領域603が除かれた領域とを比較する場合を考える。領域603には、星の図形591が含まれており、全体画像581から領域603が除かれた領域には、星の図形591が含まれていない。したがって、領域603からは、黄色い領域およびエッジが検出されるが、全体画像581から領域603が除かれた領域からは、黄色い領域およびエッジは検出されないので、領域603は、全体画像581において特徴のある領域とすることができる。   On the other hand, as shown in FIG. 25D, consider a case where a central area 603 in the figure of the entire image 581 is compared with an area obtained by removing the area 603 from the entire image 581. The region 603 includes a star graphic 591, and the region obtained by removing the region 603 from the entire image 581 does not include the star graphic 591. Accordingly, a yellow region and an edge are detected from the region 603, but a yellow region and an edge are not detected from the region obtained by removing the region 603 from the entire image 581, so that the region 603 is a feature of the entire image 581. It can be a certain area.

このように、全体画像上の一部の領域と、その領域を除く、全体画像上の領域とを比較することによって、全体画像上において目立つ領域(特徴のある領域)を検出し、ズーム画像として表示することができる。   In this way, a conspicuous area (characteristic area) on the entire image is detected by comparing a part of the area on the entire image with an area on the entire image excluding the area. Can be displayed.

全体画像上において目立つ領域を検出し、ズーム画像として表示する場合、スケーラブルテレビジョンシステムを構成する表示装置は、例えば、図26に示すように構成される。   When detecting a conspicuous region on the entire image and displaying it as a zoom image, the display device constituting the scalable television system is configured as shown in FIG. 26, for example.

表示装置631は、制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、音声出力部97、および画像処理部641を含むように構成される。なお、表示装置631の制御情報通信部91、入力部92、中央処理部93、信号取得部94、表示部96、および音声出力部97のそれぞれは、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。   The display device 631 is configured to include a control information communication unit 91, an input unit 92, a central processing unit 93, a signal acquisition unit 94, a display unit 96, an audio output unit 97, and an image processing unit 641. Note that each of the control information communication unit 91, the input unit 92, the central processing unit 93, the signal acquisition unit 94, the display unit 96, and the audio output unit 97 of the display device 631 corresponds to the case in FIG. The description is omitted.

画像処理部641は、中央処理部93の制御の基に、信号取得部94から供給された画像データに基づく画像(全体画像)から目立つ領域を抽出して、その領域が含まれる領域を拡大して表示させるための画像データを生成し、表示部96に供給する。画像処理部641は、抽出部651、パラメータ決定部112、およびズーム処理部113を含むように構成される。なお、パラメータ決定部112およびズーム処理部113は、図4における場合と対応するため同一の符号を付してあり、その説明は省略する。   The image processing unit 641 extracts a conspicuous region from an image (overall image) based on the image data supplied from the signal acquisition unit 94 under the control of the central processing unit 93, and enlarges the region including the region. The image data to be displayed is generated and supplied to the display unit 96. The image processing unit 641 is configured to include an extraction unit 651, a parameter determination unit 112, and a zoom processing unit 113. It should be noted that the parameter determination unit 112 and the zoom processing unit 113 are assigned the same reference numerals in order to correspond to the case in FIG.

抽出部651は、信号取得部94から供給された画像データに基づく画像(全体画像)から目立つ領域を抽出する。抽出部651は、抽出した目立つ領域を示す情報をパラメータ決定部112に供給する。抽出部651は、生成部661、算出部662、および比較部663を含むように構成され、生成部661、算出部662、および比較部663は、互いにデータを授受することが可能とされている。   The extraction unit 651 extracts a conspicuous region from an image (entire image) based on the image data supplied from the signal acquisition unit 94. The extraction unit 651 supplies information indicating the extracted conspicuous area to the parameter determination unit 112. The extraction unit 651 includes a generation unit 661, a calculation unit 662, and a comparison unit 663, and the generation unit 661, the calculation unit 662, and the comparison unit 663 can exchange data with each other. .

抽出部651の生成部661は、信号取得部94から供給された画像データを基に、全体画像の一部の領域の画像(以下、部分画像とも称する)の画像データを生成する。   The generation unit 661 of the extraction unit 651 generates image data of an image of a partial region of the entire image (hereinafter also referred to as a partial image) based on the image data supplied from the signal acquisition unit 94.

抽出部651の算出部662は、信号取得部94から供給された画像データを基に、全体画像から部分画像が除かれた領域の画像(以下、比較画像とも称する)の特徴を示す特徴量を算出する。また、抽出部651の算出部662は、生成部661が生成した画像データを基に、部分画像の特徴を示す特徴量を算出する。   Based on the image data supplied from the signal acquisition unit 94, the calculation unit 662 of the extraction unit 651 calculates a feature amount indicating the characteristics of an image of an area (hereinafter, also referred to as a comparative image) from which the partial image is removed from the entire image. calculate. Further, the calculation unit 662 of the extraction unit 651 calculates a feature amount indicating the feature of the partial image based on the image data generated by the generation unit 661.

ここで、特徴量とは、画像の色、明るさ、鮮やかさ、その画像におけるエッジを構成する画素の割合などの、その画像の特徴を示す値をいう。   Here, the feature amount refers to a value indicating the feature of the image, such as the color, brightness, and vividness of the image, and the ratio of pixels constituting the edge in the image.

抽出部651の比較部663は、算出部662により算出された特徴量を基に、部分画像と比較画像とを比較して、全体画像から目立つ領域(特徴のある領域)を検出する。   The comparison unit 663 of the extraction unit 651 compares the partial image and the comparison image based on the feature amount calculated by the calculation unit 662, and detects a conspicuous region (a region having a feature) from the entire image.

ユーザがリモートコマンダを操作して、表示装置631に画像の表示を指示すると、表示装置631は、図6を参照して説明したズーム画像の表示処理を行う。そして、表示装置631は、ステップS32の処理に対応する自動ズーム処理(図7)を行い、図7のステップS61の処理において、目立つ領域をズーム領域の候補となる領域として選択する。以下、図27のフローチャートを参照して、目立つ領域の検出処理について説明する。   When the user operates the remote commander to instruct the display device 631 to display an image, the display device 631 performs the zoom image display processing described with reference to FIG. Then, the display device 631 performs an automatic zoom process (FIG. 7) corresponding to the process of step S32, and selects a conspicuous area as a candidate for a zoom area in the process of step S61 of FIG. Hereinafter, with reference to the flowchart of FIG.

ステップS341において、生成部661は、信号取得部94から供給された画像データを基に、部分画像の画像データを生成する。ここで、部分画像とされる領域は、表示装置631ごとに予め定められているようにしてもよく、ユーザが、表示装置631ごとに設定することができるようにしてもよい。   In step S341, the generation unit 661 generates image data of the partial image based on the image data supplied from the signal acquisition unit 94. Here, the area to be a partial image may be predetermined for each display device 631 or may be set by the user for each display device 631.

例えば、図28に示すように、全体画像701上の予め定められた領域702−1乃至領域702−8のそれぞれが部分画像とされる。スケーラブルテレビジョンシステムを構成する8台の表示装置631が、領域702−1乃至領域702−8のうちの、それぞれ異なる領域を部分画像としてもよく、また、1台の表示装置631が、領域702−1乃至領域702−8のそれぞれを部分画像として、領域702−1乃至領域702−8のそれぞれから目立つ領域を検出するようにしてもよい。   For example, as shown in FIG. 28, each of predetermined regions 702-1 to 702-8 on the entire image 701 is a partial image. The eight display devices 631 constituting the scalable television system may use different regions among the regions 702-1 to 702-8 as partial images, and one display device 631 may include the region 702. -1 to 702-8 may be partial images, and a conspicuous region may be detected from each of the regions 702-1 to 702-8.

生成部661が部分画像の画像データを生成すると、ステップ342において、算出部662は、信号取得部94から供給された画像データ、および生成部661が生成した画像データを基に、部分画像および比較画像の各画素の特徴を示す値を算出する。   When the generation unit 661 generates image data of the partial image, in step 342, the calculation unit 662 calculates the partial image and the comparison based on the image data supplied from the signal acquisition unit 94 and the image data generated by the generation unit 661. A value indicating the feature of each pixel of the image is calculated.

ここで、各画素の特徴を示す値は、例えば、各画素の色味(色相)を示すHSV形式の色空間のHの値、各画素の鮮やかさ(彩度)を示すHSV形式の色空間のS(Saturation value)の値、各画素の明るさ(明度)を示すHSV形式の色空間のV(Value)の値、各画素の画素値と、その画素に隣接する画素の画素値との差分などとすることができる。   Here, the values indicating the characteristics of each pixel are, for example, the H value of the HSV format color space indicating the color (hue) of each pixel, and the HSV format color space indicating the vividness (saturation) of each pixel. S (Saturation value) value, V (Value) value of color space in HSV format indicating the brightness (brightness) of each pixel, the pixel value of each pixel, and the pixel value of the pixel adjacent to that pixel It can be a difference.

例えば、図28に示した領域702−1が部分画像とされ、各画素の特徴を示す値として、Hの値が算出される場合、算出部662は、領域702−1の各画素の画素値を基に、上述した式(10)乃至式(14)(図9のフローチャート参照)を適宜用いて、各画素のHの値を算出する。さらに、算出部662は、領域702−2乃至領域702−8からなる領域の画像を比較画像として、比較画像の各画素の画素値を基に、上述した式(10)乃至式(14)を適宜用いて、各画素のHの値を算出する。   For example, when the region 702-1 illustrated in FIG. 28 is a partial image, and the value of H is calculated as a value indicating the feature of each pixel, the calculation unit 662 displays the pixel value of each pixel in the region 702-1. Based on the above, the value of H of each pixel is calculated using the above-described equations (10) to (14) (see the flowchart of FIG. 9) as appropriate. Further, the calculation unit 662 uses the image of the region composed of the regions 702-2 to 702-8 as a comparison image, and based on the pixel value of each pixel of the comparison image, the above equations (10) to (14) are obtained. The value of H for each pixel is calculated as appropriate.

また、例えば、各画素の特徴を示す値として、画素の画素値と、その画素に隣接する画素の画素値との差分が算出される場合、算出部662は、部分画像の各画素の画素値を基に各画素の輝度値を算出し、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分を算出し、これを各画素の特徴を示す値とする。同様に、算出部662は、比較画像の各画素の画素値を基に各画素の輝度値を算出し、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分を算出して、各画素の特徴を示す値とする。   For example, when the difference between the pixel value of a pixel and the pixel value of a pixel adjacent to the pixel is calculated as a value indicating the feature of each pixel, the calculation unit 662 displays the pixel value of each pixel of the partial image. Is used to calculate the luminance value of each pixel, and the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to the pixel is calculated, and this is used as a value indicating the characteristic of each pixel. Similarly, the calculation unit 662 calculates the luminance value of each pixel based on the pixel value of each pixel of the comparison image, and calculates the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to that pixel. A value indicating the feature of each pixel is calculated.

さらに、算出部662が、所定の画素の輝度値と、その画素に隣接する4つの画素の輝度値のそれぞれとの差分の平均値を算出し、算出された平均値をその画素の特徴を示す値としてもよい。   Further, the calculation unit 662 calculates the average value of the difference between the luminance value of the predetermined pixel and the luminance values of the four pixels adjacent to the pixel, and the calculated average value indicates the feature of the pixel. It may be a value.

各画素の特徴を示す値が算出されると、ステップS343において、算出部662は、各画素の特徴を示す値に基づいて、部分画像の特徴を示す特徴量、および比較画像の特徴を示す特徴量を算出する。   When the value indicating the feature of each pixel is calculated, in step S343, the calculation unit 662 based on the value indicating the feature of each pixel, the feature amount indicating the feature of the partial image and the feature indicating the feature of the comparison image. Calculate the amount.

例えば、各画素の特徴を示す値として、Hの値が算出された場合、算出部662は、部分画像の各画素のHの値を基に、図29に示すヒストグラムを生成する。図29において、横方向はHの値を示しており、縦方向は、部分画像の画素のうち、Hの値が所定の範囲内である画素の数を示している。   For example, when the value of H is calculated as a value indicating the feature of each pixel, the calculation unit 662 generates the histogram shown in FIG. 29 based on the value of H of each pixel of the partial image. In FIG. 29, the horizontal direction indicates the value of H, and the vertical direction indicates the number of pixels in the partial image whose H value is within a predetermined range.

例えば、部分画像の画素のうち、Hの値が0以上30未満である画素は1400個であり、Hの値が30以上60未満である画素は500個であり、Hの値が60以上90未満である画素は600個であり、Hの値が90以上120未満である画素は500個である。   For example, among the pixels of the partial image, there are 1400 pixels having an H value of 0 or more and less than 30, 500 pixels having an H value of 30 or more and less than 60, and an H value of 60 or more and 90 The number of pixels that are less than 600 is 600, and the number of pixels whose H value is 90 or more and less than 120 is 500.

また、部分画像の画素のうち、Hの値が120以上150未満である画素は600個であり、Hの値が150以上180未満である画素は700個であり、Hの値が180以上210未満である画素は800個であり、Hの値が210以上240未満である画素は700個である。さらに、Hの値が240以上270未満である画素は600個であり、Hの値が270以上300未満である画素は500個であり、Hの値が300以上330未満である画素は600個であり、Hの値が330以上360未満である画素は800個である。   Further, among the pixels of the partial image, there are 600 pixels having an H value of 120 or more and less than 150, 700 pixels having an H value of 150 or more and less than 180, and an H value of 180 or more and 210. The number of pixels that are less than 800 is 800, and the number of pixels whose H value is 210 or more and less than 240 is 700. Furthermore, 600 pixels have an H value of 240 or more and less than 270, 500 pixels have an H value of 270 or more and less than 300, and 600 pixels have an H value of 300 or more and less than 330. And the number of pixels having an H value of 330 or more and less than 360 is 800.

図29の例では、Hの値が0以上30未満である画素が、他の範囲の画素(例えば、Hの値が30以上60未満である画素)と比べて多いことが分かる。算出部662は、各Hの値の範囲のうち、画素の数が一番多いHの値の範囲を選択し、そのHの値の範囲の画素の数に基づいて、部分画像の特徴量を算出する。   In the example of FIG. 29, it can be seen that the number of pixels having an H value of 0 or more and less than 30 is larger than the pixels in other ranges (for example, pixels having an H value of 30 or more and less than 60). The calculation unit 662 selects the H value range having the largest number of pixels from each H value range, and calculates the feature amount of the partial image based on the number of pixels in the H value range. calculate.

図29の例においては、各Hの値の範囲のうち、Hの値が0以上30未満である画素の数が一番多いので、算出部662は、Hの値が0以上30未満である画素の数に基づいて、部分画像の特徴量を算出する。例えば、算出部662は、Hの値が0以上30未満である画素の数を、部分画像の画素の数で割り算した値を特徴量として算出する。この場合、部分画像の特徴量は、部分画像の画素数に対する、Hの値が0以上30未満である画素数の割合を示している。   In the example of FIG. 29, since the number of pixels having an H value of 0 or more and less than 30 is the largest in the range of each H value, the calculation unit 662 has an H value of 0 or more and less than 30. A feature amount of the partial image is calculated based on the number of pixels. For example, the calculation unit 662 calculates, as a feature amount, a value obtained by dividing the number of pixels having an H value of 0 or more and less than 30 by the number of pixels of the partial image. In this case, the feature amount of the partial image indicates a ratio of the number of pixels in which the value of H is 0 or more and less than 30 to the number of pixels of the partial image.

部分画像における場合と同様に、算出部662は、比較画像の各画素のHの値を基に、図29に示したヒストグラムと同様のヒストグラムを生成する。そして、算出部662は、各Hの値の範囲のうち、部分画像のヒストグラムにおいて、画素の数が一番多いHの値の範囲を選択し、選択したHの値の範囲の画素の数(比較画像における画素の数)に基づいて、比較画像の特徴量を算出する。   As in the case of the partial image, the calculation unit 662 generates a histogram similar to the histogram shown in FIG. 29 based on the H value of each pixel of the comparison image. Then, the calculation unit 662 selects the H value range having the largest number of pixels in the histogram of the partial image from among the H value ranges, and the number of pixels in the selected H value range ( The feature amount of the comparison image is calculated based on the number of pixels in the comparison image.

図29の例においては、部分画像の画素の各Hの値の範囲のうち、Hの値が0以上30未満である画素の数が一番多いので、算出部662は、比較画像の画素のうちの、Hの値が0以上30未満である画素の数に基づいて、比較画像の特徴量を算出する。例えば、算出部662は、比較画像の画素のうちの、Hの値が0以上30未満である画素の数を、比較画像の画素の数で割り算した値を特徴量として算出する。   In the example of FIG. 29, since the number of pixels having the H value of 0 or more and less than 30 is the largest in the range of H values of the pixels of the partial image, the calculation unit 662 displays the pixel values of the comparison image. The feature amount of the comparative image is calculated based on the number of pixels in which the value of H is 0 or more and less than 30. For example, the calculation unit 662 calculates, as a feature amount, a value obtained by dividing the number of pixels having a H value of 0 or more and less than 30 among the pixels of the comparison image by the number of pixels of the comparison image.

なお、各画素のHの値を基にヒストグラムを生成して、各Hの値の範囲のうち、画素の数が一番多いHの値の範囲を選択し、そのHの値の範囲の画素の数に基づいて、部分画像の特徴量を算出すると説明したが、各画素のHの値を基に、各Hの値の画素の数を示す分布図を生成して部分画像の特徴量を算出するようにしてもよい。   A histogram is generated based on the H value of each pixel, and the H value range having the largest number of pixels is selected from the respective H value ranges, and pixels in the H value range are selected. It has been described that the feature amount of the partial image is calculated based on the number of pixels. However, based on the H value of each pixel, a distribution diagram indicating the number of pixels having each H value is generated to calculate the feature amount of the partial image. You may make it calculate.

この場合、例えば、画素数の一番多いHの値を中心とする所定のHの値の範囲を定める。そして、その定められたHの値の範囲の画素の数を、部分画像の画素の数で割り算した値が、特徴量として算出される。さらに、部分画像における場合と同様に、比較画像についても、各Hの値の画素の数を示す分布図が生成されて、比較画像の画素のうち、部分画像の特徴量の算出時に定められたHの値の範囲の画素の数を、比較画像の画素の数で割り算した値が、特徴量として算出される。   In this case, for example, a predetermined H value range centering on the H value having the largest number of pixels is determined. Then, a value obtained by dividing the number of pixels in the determined H value range by the number of pixels of the partial image is calculated as a feature amount. Further, as in the case of the partial image, for the comparative image, a distribution diagram indicating the number of pixels having each H value is generated and is determined when calculating the feature amount of the partial image among the pixels of the comparative image. A value obtained by dividing the number of pixels in the H value range by the number of pixels in the comparison image is calculated as the feature amount.

また、各画素の特徴を示す値として、各画素のSの値、またはVの値が算出された場合においても、各画素の特徴を示す値として、各画素のHの値が算出された場合と同様に、ヒストグラムを生成し、各Sの値(またはVの値)の範囲のうち、画素の数が一番多いSの値(またはVの値)の範囲を選択して、部分画像および比較画像の特徴量を算出することができる。   In addition, even when the S value or V value of each pixel is calculated as a value indicating the feature of each pixel, the H value of each pixel is calculated as a value indicating the feature of each pixel. In the same manner as above, a histogram is generated, and a range of S values (or V values) having the largest number of pixels is selected from a range of each S value (or V value), and a partial image and The feature amount of the comparative image can be calculated.

さらに、例えば、各画素の特徴を示す値として、各画素の輝度値と、その画素に隣接する1つの画素の輝度値との差分が算出された場合、算出部662は、部分画像の画素のうち、各画素の画素値の差分の絶対値が、予め定められた閾値以上である画素の数を、部分画像の画素の数で割り算した値を、部分画像の特徴量として算出する。この場合、部分画像の特徴量は、部分画像の画素の数に対する、エッジを構成する画素の数(エッジの部分の画素の数)の割合を示している。   Further, for example, when the difference between the luminance value of each pixel and the luminance value of one pixel adjacent to the pixel is calculated as a value indicating the characteristic of each pixel, the calculation unit 662 displays the pixel value of the partial image. Among them, a value obtained by dividing the number of pixels in which the absolute value of the difference between the pixel values of each pixel is equal to or greater than a predetermined threshold by the number of pixels of the partial image is calculated as a feature amount of the partial image. In this case, the feature amount of the partial image indicates the ratio of the number of pixels constituting the edge (the number of pixels in the edge portion) to the number of pixels in the partial image.

同様に、算出部662は、比較画像の画素のうち、各画素の画素値の差分の絶対値が、予め定められた閾値(部分画像における場合と同じ値の閾値)以上である画素の数を、比較画像の画素の数で割り算した値を、比較画像の特徴量として算出する。   Similarly, the calculation unit 662 calculates the number of pixels in the comparison image where the absolute value of the difference between the pixel values of each pixel is equal to or greater than a predetermined threshold (the same threshold as in the partial image). Then, a value divided by the number of pixels of the comparison image is calculated as a feature amount of the comparison image.

このように、算出部662は、部分画像(または比較画像)の画素のうち、所定の条件を満たす画素の数に基づいて、部分画像(または比較画像)の特徴量を算出する。   Thus, the calculation unit 662 calculates the feature amount of the partial image (or comparison image) based on the number of pixels that satisfy the predetermined condition among the pixels of the partial image (or comparison image).

図27のフローチャートの説明に戻り、部分画像および比較画像の特徴量が算出されると、ステップS344において、比較部663は、算出された部分画像および比較画像の特徴量に基づいて、部分画像と比較画像とを比較する。   Returning to the description of the flowchart of FIG. 27, when the feature amounts of the partial image and the comparison image are calculated, in step S344, the comparison unit 663 calculates the partial image and the comparison image based on the calculated feature amounts of the partial image and the comparison image. Compare with the comparison image.

例えば、比較部663は、部分画像の特徴量と、比較画像の特徴量との差を求めて(部分画像の特徴量から、比較画像の特徴量を減算して)、求められた差が、予め定められた値以上であるとき、部分画像に特徴のある領域(目立つ領域)が含まれているとする。   For example, the comparison unit 663 obtains the difference between the feature amount of the partial image and the feature amount of the comparison image (subtracts the feature amount of the comparison image from the feature amount of the partial image), and the obtained difference is When the value is equal to or greater than a predetermined value, it is assumed that the partial image includes a characteristic region (a conspicuous region).

なお、部分画像に目立つ領域が含まれていないとされた場合には、例えば、部分画像および比較画像の特徴量を他の方法で求めて(他の特徴を示す特徴量を求めて)、再び部分画像と比較画像とを比較するようにしてもよく、全体領域のうち、部分画像とされた領域とは異なる領域を新たな部分画像として、新たな部分画像と比較画像とを比較するようにしてもよい。   If it is determined that the partial image does not include a conspicuous area, for example, the feature amounts of the partial image and the comparison image are obtained by another method (feature amounts indicating other features) and again. The partial image and the comparative image may be compared, and the new partial image and the comparative image are compared with each other as a new partial image in the entire region that is different from the partial image. May be.

ステップS345において、抽出部651は、部分画像のうち、所定の条件を満たす画素を含む領域を目立つ領域として、部分画像から目立つ領域を抽出する。抽出部651は、抽出した目立つ領域を示す情報を生成してパラメータ決定部112に供給する。   In step S345, the extraction unit 651 extracts a conspicuous region from the partial image by using, as a conspicuous region, a region including pixels that satisfy a predetermined condition in the partial image. The extraction unit 651 generates information indicating the extracted conspicuous region and supplies the information to the parameter determination unit 112.

例えば、図29を参照して説明したように、Hの値が0以上30未満である画素の数を基に、部分画像の特徴量が算出された場合、抽出部651は、Hの値が0以上30未満である画素を、所定の条件を満たす画素とし、Hの値が0以上30未満である画素を含む領域を目立つ領域として、部分画像から抽出する。   For example, as described with reference to FIG. 29, when the feature amount of the partial image is calculated based on the number of pixels whose H value is 0 or more and less than 30, the extraction unit 651 determines that the value of H is Pixels that are 0 or more and less than 30 are extracted from the partial image, with pixels satisfying a predetermined condition, and regions including pixels with H values of 0 or more and less than 30 being conspicuous.

また、例えば、抽出部651は、部分画像のうち、所定の条件を満たす画素が連続する領域を目立つ領域として、部分画像から目立つ領域を抽出するようにしてもよい。このように所定の条件を満たす画素が連続する領域を目立つ領域とすると、部分画像からは、複数の目立つ領域が検出される場合がある。このような場合、抽出部651は、目立つ領域の面積が小さい順に、所定の数の目立つ領域を選択して抽出したり、目立つ領域の位置が全体画像の中心に近い順に、所定の数の目立つ領域を選択して抽出したりする。   Further, for example, the extraction unit 651 may extract a conspicuous region from the partial image, with a region in which pixels satisfying a predetermined condition are contiguous as a conspicuous region. As described above, when a region where pixels satisfying a predetermined condition are continuous is a conspicuous region, a plurality of conspicuous regions may be detected from the partial image. In such a case, the extraction unit 651 selects and extracts a predetermined number of conspicuous regions in ascending order of the area of the conspicuous region, or a predetermined number of conspicuous in the order that the position of the conspicuous region is closer to the center of the entire image. Select and extract areas.

さらに、抽出部651が、複数の目立つ領域の中から、所定の色の領域(目立つ領域)を選択するようにしてもよい。この場合には、例えば、複数の目立つ領域の中から肌色の領域を選択することによって、人の画像をズーム画像として表示させることができる。   Further, the extraction unit 651 may select a predetermined color region (a conspicuous region) from a plurality of conspicuous regions. In this case, for example, a human image can be displayed as a zoom image by selecting a skin color region from a plurality of conspicuous regions.

部分画像から目立つ領域が抽出されると、ステップS346において、パラメータ決定部112は、抽出部651から供給された、抽出された目立つ領域を示す情報を基に、その情報により示される目立つ領域を含む領域をズーム領域の候補となる領域とし、その領域の中心座標を算出する。   When the conspicuous region is extracted from the partial image, in step S346, the parameter determination unit 112 includes the conspicuous region indicated by the information based on the information indicating the extracted conspicuous region supplied from the extraction unit 651. The area is a candidate for the zoom area, and the center coordinates of the area are calculated.

例えば、パラメータ決定部112は、目立つ領域を構成する、所定の条件を満たす画素のXY空間上における重心の座標を、中心座標として算出する。また、例えば、ズーム画像として表示する目立つ領域として、複数の目立つ領域が抽出された場合、パラメータ決定部112は、複数の目立つ領域を含む領域を、ズーム領域の候補となる領域として、その領域のXY空間上における中心の座標を中心座標として算出する。   For example, the parameter determination unit 112 calculates the coordinates of the center of gravity in the XY space of the pixels satisfying a predetermined condition that form a conspicuous region as the center coordinates. Further, for example, when a plurality of conspicuous regions are extracted as conspicuous regions to be displayed as a zoom image, the parameter determination unit 112 sets a region including a plurality of conspicuous regions as a candidate for a zoom region, and The center coordinate in the XY space is calculated as the center coordinate.

ステップS347において、パラメータ決定部112は、ズーム領域の候補となる領域のズーム倍率を算出し、処理は図7のステップS62に進む。例えば、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム倍率Ziを算出する。   In step S347, the parameter determination unit 112 calculates the zoom magnification of the region that is a candidate for the zoom region, and the process proceeds to step S62 in FIG. For example, the parameter determination unit 112 calculates the zoom magnification Zi by calculating Equation (17) described above.

このようにして、画像処理部641は、全体画像から目立つ領域を抽出(検出)し、抽出された目立つ領域を含む領域をズーム領域の候補とする。これにより、表示部96には、抽出された目立つ領域が拡大された画像が、ズーム画像として表示される。   In this manner, the image processing unit 641 extracts (detects) a conspicuous region from the entire image, and sets a region including the extracted conspicuous region as a candidate for a zoom region. As a result, an image in which the extracted conspicuous area is enlarged is displayed on the display unit 96 as a zoom image.

例えば、図30Aに示すように、全体画像731の図中、左上に赤色の太陽741が写っており(表示されており)、全体画像731における赤い領域が、太陽741の領域だけであるとする。図30Bに示すように、表示装置631が、全体画像731(図30A)のうち、太陽741が含まれる領域751を部分画像とし、領域751(部分画像751)の画素の数に対する、赤い画素の数の割合を示す特徴量を算出して、目立つ領域を検出すると、比較画像(全体画像731から領域751が除かれた領域)には赤い領域はないので、太陽741が目立つ領域として検出される。   For example, as shown in FIG. 30A, the red sun 741 is shown (displayed) in the upper left in the entire image 731, and the red area in the entire image 731 is only the area of the sun 741. . As shown in FIG. 30B, the display device 631 sets a region 751 including the sun 741 in the entire image 731 (FIG. 30A) as a partial image, and the number of red pixels relative to the number of pixels in the region 751 (partial image 751). When the feature amount indicating the ratio of the number is calculated and a conspicuous region is detected, since there is no red region in the comparison image (the region obtained by removing the region 751 from the entire image 731), the sun 741 is detected as a conspicuous region. .

そして、表示装置631は、部分画像751から、太陽741が含まれる領域752を抽出して、領域752をズーム領域の候補とし、図30Cに示すように、太陽741が含まれるズーム画像761を表示する。   Then, the display device 631 extracts a region 752 including the sun 741 from the partial image 751, sets the region 752 as a candidate for the zoom region, and displays a zoom image 761 including the sun 741 as illustrated in FIG. 30C. To do.

また、図31Aに示すように、部分画像801に、太陽802、人の顔803、人の胴体804、および飛行物体805が写っており(表示されており)、表示装置631が目立つ領域を検出した結果、目立つ領域として、太陽802を含む領域806、人の顔803を含む領域807、人の胴体804を含む領域808、および飛行物体805を含む領域809が検出されたとする。   In addition, as shown in FIG. 31A, the partial image 801 includes the sun 802, the human face 803, the human torso 804, and the flying object 805 (displayed), and an area in which the display device 631 is conspicuous is detected. As a result, it is assumed that a region 806 including the sun 802, a region 807 including a human face 803, a region 808 including a human torso 804, and a region 809 including a flying object 805 are detected as prominent regions.

このように、部分画像801から、複数の目立つ領域が検出された場合、上述したように、表示装置631は、全ての目立つ領域が含まれる領域を、ズーム領域の候補となる領域としたり、複数の目立つ領域のうち、1つの目立つ領域が含まれる領域を、ズーム領域の候補となる領域としたりすることができる。   As described above, when a plurality of conspicuous regions are detected from the partial image 801, the display device 631 sets a region including all the conspicuous regions as a candidate for a zoom region, Among the conspicuous regions, a region including one conspicuous region can be set as a candidate region for the zoom region.

例えば、部分画像801から、目立つ領域として検出された領域806乃至領域809が含まれる領域をズーム領域の候補となる領域とすると、表示装置631は、図31Bに示すように、目立つ領域として検出された領域に含まれる、太陽802、人の顔803、人の胴体804、および飛行物体805が含まれるズーム画像811を表示する。   For example, if a region including regions 806 to 809 detected as conspicuous regions from the partial image 801 is a region as a candidate for a zoom region, the display device 631 is detected as a conspicuous region as illustrated in FIG. 31B. The zoom image 811 including the sun 802, the human face 803, the human torso 804, and the flying object 805 included in the region is displayed.

また、例えば、図31Aに示した、目立つ領域として検出された領域806乃至領域809のうち、領域809が含まれる領域をズーム領域の候補となる領域とすると、表示装置631は、図31Cに示すように、目立つ領域として検出された領域809に含まれる、飛行物体805が含まれるズーム画像812を表示する。   Further, for example, if the region including the region 809 among the regions 806 to 809 detected as the conspicuous regions illustrated in FIG. 31A is a region that is a candidate for the zoom region, the display device 631 is illustrated in FIG. 31C. As described above, the zoom image 812 including the flying object 805 included in the region 809 detected as the conspicuous region is displayed.

以上のように、表示装置631(画像処理部641)は、部分画像と比較画像とを比較して、全体画像から目立つ領域を抽出し、抽出された目立つ領域を含む領域をズーム領域の候補とするので、全体画像上における目立つ領域を、拡大してより見やすく表示することができる。これにより、ユーザはいちいちズーム領域を指定する必要がなくなり、より簡単な操作で、全体画像の細部まで観察して、画像の視聴を楽しむことができる。   As described above, the display device 631 (the image processing unit 641) compares the partial image and the comparative image, extracts a conspicuous region from the entire image, and selects the region including the extracted conspicuous region as a candidate for a zoom region. Therefore, a conspicuous area on the entire image can be enlarged and displayed more easily. This eliminates the need for the user to designate the zoom area one by one, and allows the user to view the details of the entire image and enjoy viewing the image with a simpler operation.

また、ユーザは、目立つ領域が拡大されて表示されるので、全体画像上において、ユーザが気になる領域(目立つ領域)を凝視する必要がなくなり、全体画像の視聴時におけるユーザのストレスも軽減される。   In addition, since the user sees the conspicuous area in an enlarged manner, the user does not need to stare at the area of interest (the conspicuous area) on the entire image, and the user's stress when viewing the entire image is reduced. The

以上においては、スケーラブルテレビジョンシステムを構成する表示装置が、ズーム領域を定めてズーム画像を表示すると説明したが、ユーザがズーム領域を指定して、表示装置にズーム画像を表示させることも可能である。   In the above description, it has been described that the display device configuring the scalable television system defines the zoom region and displays the zoom image. However, the user can specify the zoom region and display the zoom image on the display device. is there.

ズーム領域は、例えば、ユーザがリモートコマンダを操作して、表示部96にズーム領域を示す枠などを表示させ、その枠の大きさを変化させたり、その位置を移動させたりすることにより定めることができる。また、ユーザにより指定されたズーム領域に基づいて、ズーム画像を表示させ、ユーザが実際に表示されたズーム画像を見ながら、ズーム領域の位置や大きさを調整できるようにしてもよい。   The zoom area is determined by, for example, the user operating the remote commander to display a frame indicating the zoom area on the display unit 96 and changing the size of the frame or moving the position thereof. Can do. Further, a zoom image may be displayed based on a zoom area designated by the user, and the user may be able to adjust the position and size of the zoom area while viewing the zoom image actually displayed.

ユーザがズーム領域を指定してズーム画像を表示させる場合、スケーラブルテレビジョンシステム11を構成する表示装置21(図4)は、図6を参照して説明したズーム画像の表示処理を行う。ユーザによりズーム領域が指定されると、表示装置21は、ステップS32において、指定された領域をズーム領域としてズーム画像を表示する。   When the user designates a zoom area to display a zoom image, the display device 21 (FIG. 4) constituting the scalable television system 11 performs the zoom image display process described with reference to FIG. When the zoom area is designated by the user, the display device 21 displays a zoom image using the designated area as the zoom area in step S32.

以下、図32のフローチャートを参照して、ユーザによりズーム領域が指定される場合における自動ズーム処理について説明する。   Hereinafter, with reference to the flowchart of FIG. 32, the automatic zoom process when the zoom area is designated by the user will be described.

ステップS381において、中央処理部93(図4)は、ズーム領域を定める。例えば、ユーザがリモートコマンダを操作してズーム領域を指定すると、リモートコマンダからはユーザの操作に応じた赤外線信号が送信される。受信部73(図3)は、リモートコマンダから送信されてきた赤外線信号を受信(受光)して光電変換し、コマンド信号を制御情報通信部91を介して中央処理部93に供給する。   In step S381, the central processing unit 93 (FIG. 4) determines a zoom area. For example, when the user operates the remote commander to specify the zoom area, an infrared signal corresponding to the user operation is transmitted from the remote commander. The receiving unit 73 (FIG. 3) receives (receives) an infrared signal transmitted from the remote commander, performs photoelectric conversion, and supplies a command signal to the central processing unit 93 via the control information communication unit 91.

中央処理部93は、制御情報通信部91から供給されたコマンド信号に基づいて、ユーザにより指定された領域をズーム領域として定める。中央処理部93は、ズーム領域を示す情報を生成し、画像処理部95に供給する。   The central processing unit 93 determines an area designated by the user as a zoom area based on the command signal supplied from the control information communication unit 91. The central processing unit 93 generates information indicating the zoom area and supplies the information to the image processing unit 95.

ステップS382において、パラメータ決定部112は、中央処理部93の制御の基に、中央処理部93から供給されたズーム領域を示す情報により示されるズーム領域の中心座標を算出する。   In step S <b> 382, the parameter determination unit 112 calculates the center coordinates of the zoom region indicated by the information indicating the zoom region supplied from the central processing unit 93 based on the control of the central processing unit 93.

ステップS383において、パラメータ決定部112は、上述した式(17)を計算することによって、ズーム領域のズーム倍率Ziを算出する。この場合、式(17)において、Xidは、XY空間上におけるズーム領域のX方向の長さ(画素数)とされる。   In step S383, the parameter determination unit 112 calculates the zoom magnification Zi of the zoom region by calculating the above-described equation (17). In this case, in Expression (17), Xid is the length (number of pixels) in the X direction of the zoom area in the XY space.

ズーム領域のズーム倍率が算出されると、その後、ステップS384の処理およびステップS385の処理が行われて、処理は図6のステップS33に進むが、ステップS384の処理およびステップS385の処理は、図7のステップS65の処理およびステップS66の処理と同様であるので、その説明は省略する。   When the zoom magnification of the zoom area is calculated, the process of step S384 and the process of step S385 are performed thereafter, and the process proceeds to step S33 of FIG. 6, but the process of step S384 and the process of step S385 are illustrated in FIG. 7 is the same as the process in step S65 and the process in step S66, and the description thereof is omitted.

なお、ユーザによりズーム領域が指定されると、その後、ユーザにより新たにズーム領域が指定されるまでは、ユーザにより指定された領域を継続してズーム領域とする。この場合には、ズーム領域の中心座標およびズーム倍率は変化しないので、図6のステップS33からステップS32に戻ったとき、図32のステップS381の処理乃至ステップS383の処理は省略される。   When the zoom area is designated by the user, the area designated by the user is continuously used as the zoom area until a new zoom area is designated by the user. In this case, since the center coordinates and zoom magnification of the zoom area do not change, when returning from step S33 in FIG. 6 to step S32, the processing from step S381 to step S383 in FIG. 32 is omitted.

このようにして、表示装置21は、ユーザにより指定されたズーム領域の画像を拡大してズーム画像を表示する。   In this way, the display device 21 enlarges the image in the zoom area designated by the user and displays the zoom image.

以上のように、本発明においては、全体画像から肌色の領域を検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。   As described above, in the present invention, the skin color region is detected from the entire image, and the zoom image is displayed based on the detection result. Therefore, the user can perform more effectively with a simpler operation. An image can be displayed.

また、本発明においては、全体画像からオブジェクトを検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。   In the present invention, since an object is detected from the entire image and a zoom image is displayed based on the detection result, the user can display the image more effectively with a simpler operation. Can do.

さらに、本発明においては、全体画像から目立つ領域を検出し、その検出結果に基づいて、ズーム画像を表示するようにしたので、ユーザは、より簡単な操作で、より効果的に画像を表示させることができる。   Furthermore, in the present invention, a conspicuous region is detected from the entire image, and the zoom image is displayed based on the detection result, so that the user can display the image more effectively with a simpler operation. be able to.

なお、上述したスケーラブルテレビジョンシステムにおいては、それぞれの表示装置が、ズーム領域を定めてズーム画像を表示する処理を独立して行うと説明したが、各表示装置が互いに通信を行って、ズーム領域を定めるようにしてもよい。そのような場合、表示装置は、互いに通信を行って、表示装置ごとに、肌色の領域を検出してズーム画像を表示するか、オブジェクトを検出してズーム画像を表示するか、または目立つ領域を検出してズーム画像を表示するかなどを定める。   In the scalable television system described above, it has been described that each display device independently performs a process of determining a zoom region and displaying a zoom image, but each display device communicates with each other to perform a zoom region. May be determined. In such a case, the display devices communicate with each other, and for each display device, detect a skin color region and display a zoom image, detect an object and display a zoom image, or display a conspicuous region. Whether to detect and display a zoom image is determined.

また、以上においては、スケーラブルテレビジョンシステムが9台の表示装置により構成される例について説明したが、表示装置の台数は9台に限られるものではなく、例えば、4台、16台などであってもよい。   In the above description, an example in which a scalable television system is configured by nine display devices has been described. However, the number of display devices is not limited to nine, for example, four or sixteen. May be.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図33は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ901の構成の例を示すブロック図である。CPU(Central Processing Unit)911は、ROM(Read Only Memory)912、または記録部918に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)913には、CPU911が実行するプログラムやデータなどが適宜記憶される。これらのCPU911、ROM912、およびRAM913は、バス914により相互に接続されている。   FIG. 33 is a block diagram showing an example of the configuration of a personal computer 901 that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 911 executes various processes according to a program recorded in a ROM (Read Only Memory) 912 or a recording unit 918. A RAM (Random Access Memory) 913 appropriately stores programs executed by the CPU 911 and data. The CPU 911, the ROM 912, and the RAM 913 are connected to each other by a bus 914.

CPU911にはまた、バス914を介して入出力インターフェース915が接続されている。入出力インターフェース915には、キーボード、マウス、マイクロホンなどよりなる入力部916、ディスプレイ、スピーカなどよりなる出力部917が接続されている。CPU911は、入力部916から入力される指令に対応して各種の処理を実行する。そして、CPU911は、処理の結果を出力部917に出力する。   An input / output interface 915 is also connected to the CPU 911 via a bus 914. The input / output interface 915 is connected to an input unit 916 including a keyboard, a mouse, and a microphone, and an output unit 917 including a display and a speaker. The CPU 911 executes various processes in response to commands input from the input unit 916. Then, the CPU 911 outputs the processing result to the output unit 917.

入出力インターフェース915に接続されている記録部918は、例えばハードディスクからなり、CPU911が実行するプログラムや各種のデータを記録する。通信部919は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 918 connected to the input / output interface 915 includes, for example, a hard disk, and records programs executed by the CPU 911 and various data. The communication unit 919 communicates with an external device via a network such as the Internet or a local area network.

また、通信部919を介してプログラムを取得し、記録部918に記録してもよい。   Further, a program may be acquired via the communication unit 919 and recorded in the recording unit 918.

入出力インターフェース915に接続されているドライブ920は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア931が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部918に転送され、記録される。   The drive 920 connected to the input / output interface 915 drives a removable medium 931 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to the recording unit 918 and recorded as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図33に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア931、または、プログラムが一時的もしくは永続的に格納されるROM912や、記録部918を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部919を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 33, a program recording medium that stores a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disk), or removable media 931 which is a package medium made of semiconductor memory, or ROM 912 in which a program is temporarily or permanently stored, The recording unit 918 is configured by a hard disk or the like. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 919 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用したスケーラブルテレビジョンシステムの外観の構成例を示す図である。It is a figure which shows the structural example of the external appearance of the scalable television system to which this invention is applied. 表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus. スケーラブルテレビジョンシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of a scalable television system. 表示装置の機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the function of a display apparatus. 全体画像の表示処理を説明するフローチャートである。It is a flowchart explaining the display process of a whole image. ズーム画像の表示処理を説明するフローチャートである。It is a flowchart explaining the display process of a zoom image. 自動ズーム処理を説明するフローチャートである。It is a flowchart explaining an automatic zoom process. ズーム領域を説明するための図である。It is a figure for demonstrating a zoom area | region. 肌色領域の検出処理を説明するフローチャートである。It is a flowchart explaining the detection process of a skin color area | region. R、G、Bの各値を基に算出されたHの値の一例を示す図である。It is a figure which shows an example of the value of H calculated based on each value of R, G, and B. 肌色の領域を説明するための図である。It is a figure for demonstrating the area | region of a skin color. 表示装置の他の機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the other function of a display apparatus. オブジェクト領域の検出処理を説明するフローチャートである。It is a flowchart explaining the detection process of an object area | region. ズーム画像として表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed as a zoom image. ズーム画像として表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed as a zoom image. オブジェクト検出処理を説明するフローチャートである。It is a flowchart explaining an object detection process. オブジェクトを検出する対象となる領域を説明する図である。It is a figure explaining the area | region used as the object which detects an object. 差分演算処理を説明するフローチャートである。It is a flowchart explaining a difference calculation process. 差分演算処理を説明するフローチャートである。It is a flowchart explaining a difference calculation process. 肌色の領域を検出する対象となる領域を説明する図である。It is a figure explaining the area | region used as the object which detects the area | region of a skin color. 自動ズーム処理を説明するフローチャートである。It is a flowchart explaining an automatic zoom process. 全体画像の一例を示す図である。It is a figure which shows an example of a whole image. 表示装置の他の機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the other function of a display apparatus. 自動ズーム処理を説明するフローチャートである。It is a flowchart explaining an automatic zoom process. 目立つ領域の検出を説明するための図である。It is a figure for demonstrating the detection of a conspicuous area | region. 表示装置の他の機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the other function of a display apparatus. 目立つ領域の検出処理を説明するフローチャートである。It is a flowchart explaining the detection process of a conspicuous area | region. 部分画像を説明するための図である。It is a figure for demonstrating a partial image. 部分画像の各画素の特徴を示すヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram which shows the characteristic of each pixel of a partial image. ズーム画像として表示される目立つ領域の一例を示す図である。It is a figure which shows an example of the conspicuous area | region displayed as a zoom image. ズーム画像として表示される目立つ領域の一例を示す図である。It is a figure which shows an example of the conspicuous area | region displayed as a zoom image. 自動ズーム処理を説明するフローチャートである。It is a flowchart explaining an automatic zoom process. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

11 スケーラブルテレビジョンシステム, 21−1乃至21−9,21 表示装置, 93 中央処理部, 95 画像処理部, 96 表示部, 111 領域決定部, 112 パラメータ決定部, 113 ズーム処理部, 121 肌色領域検出部, 122 パラメータ保持部, 211 表示装置, 231 画像処理部, 241 オブジェクト選択部, 251 検出部, 252 変数保持部, 531 表示装置, 541 画像処理部, 631 表示装置, 641 画像処理部, 651 抽出部, 661 生成部, 662 算出部, 663 比較部, 901 パーソナルコンピュータ, 911 CPU, 912 ROM, 913 RAM, 918 記録部, 931 リムーバブルメディア   DESCRIPTION OF SYMBOLS 11 Scalable television system, 21-1 thru | or 21-9, 21 Display apparatus, 93 Central processing part, 95 Image processing part, 96 Display part, 111 Area | region determination part, 112 Parameter determination part, 113 Zoom processing part, 121 Skin color area | region Detection unit, 122 parameter holding unit, 211 display device, 231 image processing unit, 241 object selection unit, 251 detection unit, 252 variable holding unit, 531 display device, 541 image processing unit, 631 display device, 641 image processing unit, 651 Extraction unit, 661 generation unit, 662 calculation unit, 663 comparison unit, 901 personal computer, 911 CPU, 912 ROM, 913 RAM, 918 recording unit, 931 removable media

Claims (10)

第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出手段と、
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較手段と、
前記比較手段による比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出手段と、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御手段と
を備える画像処理装置。
A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Calculation for calculating a feature amount indicating the feature of the second region based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image Means,
Comparing means for comparing the feature quantity of the first area and the feature quantity of the second area by obtaining a difference between the feature quantity of the first area and the feature quantity of the second area. When,
Result of comparison by the comparing means, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the condition Extraction means for extracting, from the first region, a region including pixels that satisfy the condition as a feature region having the feature;
An image processing apparatus comprising: display control means for controlling display of a second image in which the extracted feature region is enlarged.
前記表示制御手段は、前記第1の画像および前記第2の画像が同時に表示されるように、前記第2の画像の表示を制御する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display control unit controls display of the second image so that the first image and the second image are displayed simultaneously.
前記算出手段は、前記第1の領域または前記第2の領域の色相を示す特徴量を算出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating a hue of the first region or the second region.
前記算出手段は、前記第1の領域または前記第2の領域の明度を示す特徴量を算出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating brightness of the first region or the second region.
前記算出手段は、前記第1の領域または前記第2の領域の彩度を示す特徴量を算出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the calculation unit calculates a feature amount indicating a saturation of the first region or the second region.
前記算出手段は、前記第1の領域または前記第2の領域におけるエッジを構成する画素の割合を示す特徴量を算出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the calculating unit calculates a feature amount indicating a ratio of pixels constituting an edge in the first region or the second region.
前記抽出手段は、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出し、検出された領域のうち、最も面積が大きい領域を前記特徴領域として抽出する
請求項1に記載の画像処理装置。
The extraction means detects a region in which pixels satisfying the condition continue in the first region, and extracts a region having the largest area among the detected regions as the feature region. Image processing apparatus.
前記抽出手段は、前記第1の領域上において、前記条件を満たす画素が連続する領域を検出し、検出された領域のうち、前記第1の画像の中心から最も近い領域を前記特徴領域として抽出する
請求項1に記載の画像処理装置。
The extraction unit detects a region in which pixels satisfying the condition are continuous on the first region, and extracts a region closest to the center of the first image among the detected regions as the feature region. The image processing apparatus according to claim 1.
第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出し、
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較し、
その比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出し、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する
ステップを含む画像処理方法。
A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image, the feature amount indicating the feature of the second region is calculated,
The feature amount of the first region is compared with the feature amount of the second region by obtaining a difference between the feature amount of the first region and the feature amount of the second region,
Result of the comparison, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the pixel satisfying Is extracted from the first region as a feature region having the feature,
An image processing method including a step of controlling display of a second image in which the extracted feature region is enlarged.
第1の画像上の第1の領域の画素のうち、画素値に基づく所定の条件を満たす画素の数を基に、前記第1の領域の所定の特徴を示す特徴量を算出し、前記第1の画像から前記第1の領域を除いて得られる第2の領域画素のうち、前記条件を満たす画素の数を基に、前記第2の領域の前記特徴を示す特徴量を算出する算出ステップと、
前記第1の領域の特徴量と、前記第2の領域の特徴量との差を求めることにより、前記第1の領域の特徴量と、前記第2の領域の特徴量とを比較する比較ステップと、
前記比較ステップにおける比較の結果、前記第1の領域の特徴量と、前記第2の領域の特徴量との差が所定の閾値以上である場合、前記第1の領域の画素のうち、前記条件を満たす画素が含まれる領域を、前記特徴を有する特徴領域として、前記第1の領域から抽出する抽出ステップと、
抽出された前記特徴領域が拡大された第2の画像の表示を制御する表示制御ステップと
をコンピュータに実行させるプログラム。
A feature amount indicating a predetermined feature of the first region is calculated based on the number of pixels satisfying a predetermined condition based on a pixel value among the pixels of the first region on the first image, and the first Calculation for calculating a feature amount indicating the feature of the second region based on the number of pixels satisfying the condition among the pixels of the second region obtained by removing the first region from one image Steps,
A comparison step of comparing the feature amount of the first region with the feature amount of the second region by obtaining a difference between the feature amount of the first region and the feature amount of the second region. When,
Result of comparison in the comparison step, the feature amount of the first region, when the difference between the feature quantity of the second region is greater than a predetermined threshold value, among pixels of the first area, the condition An extraction step of extracting, from the first region, a region including pixels that satisfy the condition as a feature region having the feature;
And a display control step for controlling display of the second image in which the extracted feature region is enlarged.
JP2005262489A 2005-09-09 2005-09-09 Image processing apparatus and method, and program Expired - Fee Related JP4752409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005262489A JP4752409B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005262489A JP4752409B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2007074674A JP2007074674A (en) 2007-03-22
JP4752409B2 true JP4752409B2 (en) 2011-08-17

Family

ID=37935683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005262489A Expired - Fee Related JP4752409B2 (en) 2005-09-09 2005-09-09 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4752409B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101686099B1 (en) * 2010-07-09 2016-12-13 엘지디스플레이 주식회사 Driving circuit for image display device and method for driving the same
WO2013186979A1 (en) * 2012-06-11 2013-12-19 ソニー株式会社 Information processing device, information processing system, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622192A (en) * 1992-06-30 1994-01-28 Toshiba Corp Camera remote controller
JP4153108B2 (en) * 1998-10-29 2008-09-17 富士フイルム株式会社 Image processing method, image processing apparatus, and recording medium
JP3482923B2 (en) * 1999-10-28 2004-01-06 セイコーエプソン株式会社 Automatic composition determination device
JP3979144B2 (en) * 2002-03-27 2007-09-19 ソニー株式会社 Multi-display device, image display device and method, and computer program
JP4058293B2 (en) * 2002-04-26 2008-03-05 アジア航測株式会社 Generation method of high-precision city model using laser scanner data and aerial photograph image, generation system of high-precision city model, and program for generation of high-precision city model
JP4098021B2 (en) * 2002-07-30 2008-06-11 富士フイルム株式会社 Scene identification method, apparatus, and program
JP2004135184A (en) * 2002-10-11 2004-04-30 Fuji Photo Film Co Ltd Digital camera
JP4052128B2 (en) * 2003-01-23 2008-02-27 セイコーエプソン株式会社 Image trimming apparatus, image trimming method, and program
JP2004288082A (en) * 2003-03-25 2004-10-14 Fuji Photo Film Co Ltd Portrait creation method, portrait creation device, as well as program
JP4706197B2 (en) * 2003-07-15 2011-06-22 オムロン株式会社 Object determining apparatus and imaging apparatus
JP4746295B2 (en) * 2003-08-25 2011-08-10 富士フイルム株式会社 Digital camera and photographing method

Also Published As

Publication number Publication date
JP2007074674A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US10127889B2 (en) Display system for enhancing visibility and methods thereof
JP6065913B2 (en) Information processing apparatus, information processing method, and program
US20170162171A1 (en) Display apparatus and control method thereof
US20160080645A1 (en) Image pickup apparatus, information processing apparatus, display apparatus, information processing system, image data sending method, image displaying method, and computer program
KR101411962B1 (en) Motion adaptive ambient lighting
JP2008269396A (en) Image processor, image processing method, and program
KR102662951B1 (en) Signal processing device and image display apparatus including the same
JP4752410B2 (en) Image processing apparatus and method, and program
KR20200087979A (en) Video wall
KR20180051202A (en) Display apparatus and control method thereof
JP4752409B2 (en) Image processing apparatus and method, and program
KR20200114898A (en) Image display apparatus
US10182184B2 (en) Image processing apparatus and image processing method
JP2009100186A (en) Image quality adjusting device, imaging quality adjustment method, and program
JP4752408B2 (en) Image processing apparatus and method, and program
KR20150078229A (en) Display apparatus and channel map manage method thereof
US20140176799A1 (en) Content processing apparatus, content processing method, and storage medium
CN107430841B (en) Information processing apparatus, information processing method, program, and image display system
KR102604170B1 (en) Electronic apparatus and the control method thereof
JP4839782B2 (en) Output control system and method, output control apparatus and method, and program
JP2006352511A (en) Display device
WO2016157920A1 (en) Information processing device, information processing method, and program
US10157589B2 (en) Display apparatus and method of controlling the same
CN115803772A (en) System and method for detecting and displaying whiteboard text and/or active speakers
KR102615070B1 (en) Display apparatus and method of controlling thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees