JP2009065291A - Attention part generation display system, attention part generator, and attention part generation method - Google Patents

Attention part generation display system, attention part generator, and attention part generation method Download PDF

Info

Publication number
JP2009065291A
JP2009065291A JP2007229470A JP2007229470A JP2009065291A JP 2009065291 A JP2009065291 A JP 2009065291A JP 2007229470 A JP2007229470 A JP 2007229470A JP 2007229470 A JP2007229470 A JP 2007229470A JP 2009065291 A JP2009065291 A JP 2009065291A
Authority
JP
Japan
Prior art keywords
attention
display
image
image data
attention part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007229470A
Other languages
Japanese (ja)
Other versions
JP5018354B2 (en
Inventor
Taro Fujikawa
太郎 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007229470A priority Critical patent/JP5018354B2/en
Publication of JP2009065291A publication Critical patent/JP2009065291A/en
Application granted granted Critical
Publication of JP5018354B2 publication Critical patent/JP5018354B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new display form with a simple method. <P>SOLUTION: In an attention part generation display system 1, a digital camera 2 sets a pixel corresponding to a focus FP1 of the image data PD 1 at an attention point AP1 as an attention part, calculates coordinates (Xa, Ya) of the attention point AP1, and records the coordinates (Xa, Ya) of the attention point AP1 in an Exif file 200. A television receiver 3 receives the Exif file 200 from the digital camera 2 and displays a display method using the coordinates (Xa, Ya) at the attention point AP1 to a display 7, so that the digital camera 2 can set an arbitrary pixel of the image data PD1 at the attention part and perform image display by a prescribed display method which uses the attention part for the television receiver 3. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、注目部生成表示システム、注目部生成装置及び注目部生成方法に関し、例えばデジタルカメラにより撮像した画像をテレビジョン受像機のディスプレイに表示する場合に適用して好適なものである。   The present invention relates to a target part generation display system, a target part generation device, and a target part generation method, and is suitable for application to, for example, displaying an image captured by a digital camera on a display of a television receiver.

近年、デジタルカメラ、パーソナルコンピュータ及びテレビジョン受像機等のデジタル機器の普及により、例えばデジタルカメラにより撮像した画像をパーソナルコンピュータやテレビジョン受像機等のディスプレイに表示する方法が多様化している。   In recent years, with the spread of digital devices such as digital cameras, personal computers, and television receivers, for example, methods for displaying images captured by a digital camera on a display such as a personal computer or a television receiver have become diversified.

画像の表示方法のなかには、例えばスライドショー表示がある。この場合、表示装置としては、スライドショー表示を行うに際し、複数の画像を一定時間毎にディスプレイへ順に表示するようになされている。   Among image display methods, for example, there is a slide show display. In this case, when performing a slide show display, the display device displays a plurality of images in order on the display at regular time intervals.

このようなスライドショー表示を行う表示装置においては、画像を全体表示する、回転して表示する、或いはモノクロ表示するなど画像全体に対して所定の処理を行って表示するものがある。   Some display devices that perform such a slide show display display the entire image by performing predetermined processing such as displaying the entire image, rotating the image, or displaying the image in monochrome.

また表示装置のなかには、画像データに含まれる輝度の特徴から人物の目と口を検出し、それらの組み合わせによって顔の領域を検出するものがある。このような表示装置は、検出した結果得られた顔の領域が含まれる画像をディスプレイに大きく表示するため、画像全体から顔の領域を含む狭い画像までを時間的に変化させるズーム表示を行ったり、当該顔の領域を移動させながら表示するパンニング表示を行うものがある(例えば、特許文献1参照)。
特開2006-277038公報
Some display devices detect a person's eyes and mouth from luminance characteristics included in image data, and detect a face area by combining them. Such a display device displays a large image on the display including the face area obtained as a result of detection, and therefore performs zoom display that changes temporally from the entire image to a narrow image including the face area. Some panning displays are performed while moving the face area (see, for example, Patent Document 1).
JP 2006-277038

ところで上述した表示装置においては、デジタルカメラにより人物を含まない画像が撮像された場合、その画像をディスプレイに表示する際、当該画像から人物の顔の領域を検出することができないため、ズーム表示又はパンニング表示を行うことができないという問題があった。   By the way, in the above-described display device, when an image that does not include a person is captured by a digital camera, when the image is displayed on the display, the region of the person's face cannot be detected from the image, zoom display or There was a problem that panning display could not be performed.

また上述した表示装置においては、デジタルカメラにより撮像された画像に人物が撮像されている場合であっても、背景や建物等の任意の領域に対して自在にズーム表示又はパンニング表示を行うことができないという問題があった。 In the above-described display device, even when a person is captured in an image captured by a digital camera, zoom display or panning display can be freely performed on an arbitrary region such as a background or a building. There was a problem that I could not.

本発明は以上の点を考慮してなされたもので、簡易な方法により新しい表示形態を提供し得る注目部生成表示システム、注目部生成装置及び注目部生成方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose a target part generation display system, a target part generation device, and a target part generation method capable of providing a new display form by a simple method.

かかる課題を解決するため本発明の注目部生成表示システムは、注目部生成装置と表示装置とからなる注目部生成表示システムにおいて、注目部生成装置は、画像データの任意の箇所を注目部として設定する注目部設定手段と、注目部設定手段により設定した注目部の座標を算出する注目部算出手段と、表示装置に対して注目部を利用した画像表示を行うため、画像データを含む画像ファイルの画像情報記憶領域に、注目部の座標を記録する注目部記録手段と、画像ファイルを表示装置に提供する提供手段とを設け、表示装置は、注目部生成装置から画像ファイルを受け取る受取手段と、受取手段により受け取った画像ファイルから画像データ及び注目部の座標を読み込む読込手段と、読込手段により読み込んだ注目部を利用した所定の表示手法により画像表示を実行する表示制御手段とを設けるようにした。   In order to solve such a problem, the attention part generating and displaying system of the present invention is an attention part generating and displaying system including an attention part generating device and a display device. The attention part setting means, the attention part calculation means for calculating the coordinates of the attention part set by the attention part setting means, and the image display using the attention part on the display device. The image information storage area is provided with an attention part recording means for recording the coordinates of the attention part, and a providing means for providing the image file to the display device, and the display device receives the image file from the attention part generation device, Reading means for reading the image data and the coordinates of the attention part from the image file received by the receiving means, and a predetermined display using the attention part read by the reading means And to provide a display control means for executing a display image by law.

これにより、注目部生成装置によって画像データの任意の箇所を注目部として設定し、画像データ及び注目部の座標が記録された画像ファイルを表示装置へ提供することができるので、表示装置にとっては注目部を利用した所定の表示手法による画像表示を行うことができる。   Accordingly, any part of the image data can be set as the attention part by the attention part generating device, and an image file in which the image data and the coordinates of the attention part are recorded can be provided to the display device. The image can be displayed by a predetermined display method using the unit.

また本発明の注目部生成装置及び注目部生成方法は、画像データの任意の箇所を注目部として設定し、注目部設定手段により設定した注目部の座標を算出し、表示装置に対して注目部を利用した画像表示を行うため、画像データを含む画像ファイルの画像情報記憶領域に、注目部の座標を記録し、画像ファイルを表示装置に提供するようにした。   Further, the attention portion generating apparatus and the attention portion generating method of the present invention set an arbitrary portion of the image data as the attention portion, calculate the coordinates of the attention portion set by the attention portion setting means, and In order to display an image using the image, the coordinates of the target portion are recorded in the image information storage area of the image file including the image data, and the image file is provided to the display device.

これにより、注目部生成装置によって画像データの任意の箇所を注目部として設定し、画像データ及び注目部の座標が記録された画像ファイルを表示装置へ提供することができるので、表示装置にとっては注目部を利用した所定の表示手法による画像表示を行うことができる。   Accordingly, any part of the image data can be set as the attention part by the attention part generating device, and an image file in which the image data and the coordinates of the attention part are recorded can be provided to the display device. The image can be displayed by a predetermined display method using the unit.

本発明によれば、注目部生成装置によって画像データの任意の箇所を注目部として設定し、画像データ及び注目部の座標が記録された画像ファイルを表示装置へ提供することができるので、表示装置にとっては注目部を利用した所定の表示手法による画像表示を行うことができ、かくして簡易な方法により新しい表示形態を提供し得る注目部生成表示システム、注目部生成装置及び注目部生成方法を実現できる。   According to the present invention, an arbitrary portion of image data can be set as a target portion by the target portion generation device, and an image file in which the image data and the coordinates of the target portion are recorded can be provided to the display device. Can display an image by a predetermined display method using the attention area, and thus can realize an attention area generation display system, an attention area generation device, and an attention area generation method that can provide a new display form by a simple method. .

以下に、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)注目部生成表示システムの全体構成
図1において、1は全体として本発明における注目部生成表示システムを示し、デジタルカメラ2及びテレビジョン受像機3により構成されており、デジタルカメラ2とテレビジョン受像機3とがケーブル10を介して電気的に接続されている。
(1) Overall configuration of attention part generating / displaying system In FIG. 1, reference numeral 1 denotes an attention part generating / displaying system according to the present invention as a whole, which is composed of a digital camera 2 and a television receiver 3. The John receiver 3 is electrically connected via a cable 10.

デジタルカメラ2は、上面2Aにシャッタボタン4と、正面2Bにレンズ5とが設けられており、当該シャッタボタン4がユーザにより押下操作されると、当該レンズ5を介して撮像した画像を、背面に設けられたLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)等でなるディスプレイ(図示せず)に表示するようになされている。   The digital camera 2 is provided with a shutter button 4 on the upper surface 2A and a lens 5 on the front surface 2B. When the shutter button 4 is pressed by the user, an image captured through the lens 5 is displayed on the rear surface. Are displayed on a display (not shown) made of LCD (Liquid Crystal Display) or organic EL (Electroluminescence).

またデジタルカメラ2は、右側面2Cにメモリカード挿入口6が設けられており、撮像した画像をディスプレイに表示すると共に、当該メモリカード挿入口6を介して挿入されたメモリカードに、当該画像に対応する画像データを書き込むようになされている。   Further, the digital camera 2 is provided with a memory card insertion slot 6 on the right side surface 2C, displays a captured image on a display, and displays the image on a memory card inserted through the memory card insertion slot 6. Corresponding image data is written.

さらにデジタルカメラ2は、右側面2Cに外部接続インタフェース(図示せず)が設けられており、当該外部接続インタフェースと物理的に接続されたケーブル10を介してテレビジョン受像機3と電気的に接続されるようになされている。   Further, the digital camera 2 is provided with an external connection interface (not shown) on the right side surface 2C, and is electrically connected to the television receiver 3 via the cable 10 physically connected to the external connection interface. It is made to be done.

そしてデジタルカメラ2は、メモリカードに書き込んだ画像データをケーブル10を介してテレビジョン受像機3へ供給し得るようになされている。   The digital camera 2 can supply the image data written in the memory card to the television receiver 3 via the cable 10.

一方、テレビジョン受像機3は、正面3BにLCD又は有機EL等でなるディスプレイ7と音声を出力するスピーカ8とが設けられ、また右側面3Cにメモリカード挿入口9が設けられている。   On the other hand, the television receiver 3 is provided with a display 7 made of LCD or organic EL and a speaker 8 for outputting sound on the front surface 3B, and with a memory card insertion slot 9 on the right side surface 3C.

テレビジョン受像機3は、アンテナ(図示せず)により受信したテレビジョン放送信号に対して所定の信号処理を施した後、その映像をディスプレイ7に表示すると共に、その音声をスピーカ8から出力するようになされている。   The television receiver 3 performs predetermined signal processing on a television broadcast signal received by an antenna (not shown), and then displays the video on the display 7 and outputs the sound from the speaker 8. It is made like that.

またテレビジョン受像機3は、背面3Dに外部接続インタフェース(図示せず)が設けられており、当該外部接続インタフェースと物理的に接続されたケーブル10を介して、デジタルカメラ2と電気的に接続するようになされている。   Further, the television receiver 3 is provided with an external connection interface (not shown) on the back surface 3D, and is electrically connected to the digital camera 2 via the cable 10 physically connected to the external connection interface. It is made to do.

これによりテレビジョン受像機3は、ケーブル10を介してデジタルカメラ2から供給される画像データに応じた画像をディスプレイ7に表示し得るようになされている。   Accordingly, the television receiver 3 can display an image corresponding to the image data supplied from the digital camera 2 via the cable 10 on the display 7.

またテレビジョン受像機3は、メモリカード挿入口9を介して挿入されたメモリカードに画像データが記録されていた場合、当該メモリカードから画像データを読み込み、当該画像データに応じた画像をディスプレイ7に表示し得るようになされている。   When the image data is recorded on the memory card inserted through the memory card insertion slot 9, the television receiver 3 reads the image data from the memory card and displays an image corresponding to the image data on the display 7. It has been made to be able to display.

(2)デジタルカメラ及びテレビジョン受像機の回路構成
(2−1)デジタルカメラの回路構成
図2に示すようにデジタルカメラ2は、CPU(Central Processing Unit)21がROM(Read Only Memory)22にあらかじめ記憶されている基本プログラム及び各種アプリケーションプログラムをバス20を介してRAM23上に読み出す。そしてデジタルカメラ2のCPU21は、RAM23上で展開した基本プログラム及び各種アプリケーションプログラムに従って全体を統括制御することにより、通常の撮像処理や、後述する注目部生成処理等を実現するようになされている。
(2) Circuit Configuration of Digital Camera and Television Receiver (2-1) Circuit Configuration of Digital Camera As shown in FIG. 2, the digital camera 2 has a CPU (Central Processing Unit) 21 in a ROM (Read Only Memory) 22. The basic program and various application programs stored in advance are read onto the RAM 23 via the bus 20. The CPU 21 of the digital camera 2 realizes normal imaging processing, attention portion generation processing, which will be described later, and the like by performing overall control according to the basic program and various application programs developed on the RAM 23.

デジタルカメラ2のCPU21は、操作部24のシャッタボタン4(図1)が押下操作されたことを認識すると、絞り(図示せず)を調節することにより、被写体から発せられる光をレンズ5を介して撮像素子25に結像させる。CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等でなる撮像素子25は、被写体から発せられる光をレンズ5を介して結像した後に光電変換し、当該光電変換したことにより得られた画像信号を画像処理部26へ送出する。   When the CPU 21 of the digital camera 2 recognizes that the shutter button 4 (FIG. 1) of the operation unit 24 has been pressed, the CPU 21 adjusts the aperture (not shown) so that light emitted from the subject is transmitted through the lens 5. To form an image on the image sensor 25. An image sensor 25 made up of a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like forms an image of light emitted from a subject via the lens 5 and then photoelectrically converts the light. The image signal obtained by the above is sent to the image processing unit 26.

このときデジタルカメラ2のCPU21は、画像処理部26に対して、撮像素子25から供給された画像信号をA/D(Analog / Digital)変換させ、その結果得られた画像データをRAM23に書き込む。   At this time, the CPU 21 of the digital camera 2 causes the image processing unit 26 to A / D (Analog / Digital) convert the image signal supplied from the image sensor 25 and write the image data obtained as a result to the RAM 23.

そして、デジタルカメラ2のCPU21は、RAM23に書き込んだ画像データに対応する画像をディスプレイ27に表示すると共に、当該画像データと、その画像データの画像情報とが記録されたExif(Exchangeable Image File Format)ファイルを生成し、メモリカード装着部28を介して装着されたメモリカードに対し、当該Exifファイルを書き込むようになされている。   Then, the CPU 21 of the digital camera 2 displays an image corresponding to the image data written in the RAM 23 on the display 27, and at the same time, Exif (Exchangeable Image File Format) in which the image data and image information of the image data are recorded. A file is generated, and the Exif file is written to the memory card mounted via the memory card mounting unit 28.

このようにしてデジタルカメラ2のCPU21は、操作部24のシャッタボタン4が押下操作されると、被写体から発せられる光を、レンズ5を介して撮像素子25及び画像処理部26により画像データに変換させ、その画像データをRAM23に書き込む。そしてデジタルカメラ2のCPU21は、RAM23に書き込んだ画像データに応じた画像をディスプレイ27に表示すると共に、当該画像データが含まれたExifファイルを生成し、当該Exifファイルをメモリカードに書き込むようになされている。   In this way, when the shutter button 4 of the operation unit 24 is pressed, the CPU 21 of the digital camera 2 converts light emitted from the subject into image data by the image sensor 25 and the image processing unit 26 via the lens 5. The image data is written into the RAM 23. The CPU 21 of the digital camera 2 displays an image corresponding to the image data written in the RAM 23 on the display 27, generates an Exif file including the image data, and writes the Exif file to the memory card. ing.

またデジタルカメラ2のCPU21は、外部接続インタフェース29及びケーブル10を介してテレビジョン受像機3と電気的に接続されている場合、メモリカードに書き込まれたExifファイルを、メモリカード装着部28、外部接続インタフェース29及びケーブル10を介してテレビジョン受像機3へ送出し得るようになされている。   When the CPU 21 of the digital camera 2 is electrically connected to the television receiver 3 via the external connection interface 29 and the cable 10, the Exif file written in the memory card is transferred to the memory card mounting unit 28, the external It can be sent to the television receiver 3 via the connection interface 29 and the cable 10.

ところでデジタルカメラ2のCPU21は、被写体から発せられる光を、レンズ5を介して撮像素子25及び画像処理部26により画像データに変換させ、その画像データに対応する画像をディスプレイ27に対して表示し得るようになされている。   By the way, the CPU 21 of the digital camera 2 converts light emitted from the subject into image data by the image sensor 25 and the image processing unit 26 via the lens 5, and displays an image corresponding to the image data on the display 27. Has been made to get.

そしてデジタルカメラ2のCPU21は、ディスプレイ27に対して画像を表示している場合、操作部24のシャッタボタン4が押下操作されたことを認識すると、上述したように、そのとき被写体から発せられる光をレンズ5を介して撮像素子25及び画像処理部26により画像データに変換させ、その画像データに対応する画像をディスプレイ27に表示すると共に、当該画像データが含まれるExifファイルを生成してメモリカード装着部28に装着されたメモリカードに書き込むようになされている。   When the CPU 21 of the digital camera 2 displays an image on the display 27 and recognizes that the shutter button 4 of the operation unit 24 has been pressed, the light emitted from the subject at that time as described above. Is converted into image data by the image pickup device 25 and the image processing unit 26 via the lens 5, and an image corresponding to the image data is displayed on the display 27, and an Exif file including the image data is generated to generate a memory card. Writing is performed on a memory card attached to the attachment unit 28.

ここでExifファイルについて説明する。図3に示すように、Exifファイル100は、TIFF Rev.6.0 RGB Full Color Imagesに準拠して記載されている。このExifファイル100には、TIFF Header101、0th IFD(Image File Directory)102、Value of 0th IFD103、1st IFDサムネイル104、Value of 1st IFD105、サムネイルデータ106及びイメージデータ107が記載されている。   Here, the Exif file will be described. As shown in FIG. 3, the Exif file 100 is described in conformity with TIFF Rev. 6.0 RGB Full Color Images. In this Exif file 100, a TIFF header 101, a 0th IFD (Image File Directory) 102, a Value of 0th IFD 103, a 1st IFD thumbnail 104, a Value of 1st IFD 105, thumbnail data 106, and image data 107 are described.

TIFF Header101には、TIFF規格に定義された8byteの情報が記載されている。   The TIFF Header 101 describes 8 bytes of information defined in the TIFF standard.

0th IFD102は、イメージデータ107に格納された画像データに対する画素数、撮像日時、デジタルカメラ2の機種名、Exif固有の情報及びGPS情報等の画像情報の記載位置等が記載されている。Value of 0th IFD103には、イメージデータ107に格納された画像データに対する画素数、撮像日時、デジタルカメラ2の機種名等の画像情報の値が、0th IFD102の示す記載位置に記載されている。   The 0th IFD 102 describes the number of pixels for the image data stored in the image data 107, the shooting date and time, the model name of the digital camera 2, the information specific to Exif, the position where image information such as GPS information is written, and the like. In the Value of 0th IFD 103, the value of image information such as the number of pixels, the shooting date and time, the model name of the digital camera 2 with respect to the image data stored in the image data 107 is described at a description position indicated by the 0th IFD 102.

1st IFDサムネイル104は、サムネイルデータ106に格納されたサムネイル画像データに対する画素数等のサムネイル画像情報の記載位置等が記載されている。Value of 1st IFD105には、サムネイルデータ106に格納されたサムネイル画像データに対する画素数等のサムネイル画像情報の値が、1st IFDサムネイル104の示す記載位置に記載されている。   The 1st IFD thumbnail 104 describes a description position of thumbnail image information such as the number of pixels with respect to the thumbnail image data stored in the thumbnail data 106. In the Value of 1st IFD 105, the value of thumbnail image information such as the number of pixels for the thumbnail image data stored in the thumbnail data 106 is described at a description position indicated by the 1st IFD thumbnail 104.

(2−2)テレビジョン受像機の回路構成
図4に示すように、テレビジョン受像機3は、CPU31がROM32にあらかじめ記憶されている基本プログラム及び各種アプリケーションプログラムをバス30を介してRAM33上に読み出す。そしてテレビジョン受像機3のCPU31は、RAM33上で展開した基本プログラム及び各種アプリケーションプログラムに従って全体を統括制御することにより、通常のテレビジョン表示処理や、後述する注目部利用表示処理等を実現するようになされている。
(2-2) Circuit Configuration of Television Receiver As shown in FIG. 4, in the television receiver 3, the CPU 31 stores basic programs and various application programs stored in the ROM 32 in advance on the RAM 33 via the bus 30. read out. Then, the CPU 31 of the television receiver 3 performs overall control in accordance with the basic program and various application programs developed on the RAM 33, thereby realizing normal television display processing, attention part use display processing described later, and the like. Has been made.

テレビジョン受像機3のCPU31は、ユーザ操作に応じてリモートコントローラ34からチャンネル選択のためのチャンネル選択信号が送信されると、そのチャンネル選択信号を受光部35を介して受信する。   When a channel selection signal for channel selection is transmitted from the remote controller 34 in response to a user operation, the CPU 31 of the television receiver 3 receives the channel selection signal via the light receiving unit 35.

そしてテレビジョン受像機3のCPU31は、受光部35を介してリモートコントローラ34から受信したチャンネル選択信号をチューナ37に対して送出する。チューナ37は、放送局から放送されるテレビジョン放送信号をアンテナ36を介して受信すると、チャンネル選択信号に応じたチャンネルのテレビジョン放送信号を復調し、その結果得られた映像信号及び音声信号をデコーダ38へ送出する。   Then, the CPU 31 of the television receiver 3 sends the channel selection signal received from the remote controller 34 via the light receiving unit 35 to the tuner 37. When the tuner 37 receives the television broadcast signal broadcast from the broadcast station via the antenna 36, the tuner 37 demodulates the television broadcast signal of the channel corresponding to the channel selection signal, and the resulting video signal and audio signal are demodulated. The data is sent to the decoder 38.

デコーダ38は、チューナ37から供給された映像信号を復号し、その結果得られた映像データを映像処理部39へ送出する。映像処理部39は、デコーダ38から供給された映像データに対応する映像を生成し、その生成した映像をディスプレイ7に表示する。   The decoder 38 decodes the video signal supplied from the tuner 37, and sends the resulting video data to the video processing unit 39. The video processing unit 39 generates a video corresponding to the video data supplied from the decoder 38 and displays the generated video on the display 7.

またデコーダ38は、チューナ37から供給された音声信号を復号し、その結果得られた音声データを音声処理部40へ送出する。音声処理部40は、デコーダ38から供給された音声データに対応する音声を生成し、その生成した音声をスピーカ8を介して出力する。   The decoder 38 decodes the audio signal supplied from the tuner 37 and sends out the audio data obtained as a result to the audio processing unit 40. The audio processing unit 40 generates audio corresponding to the audio data supplied from the decoder 38 and outputs the generated audio via the speaker 8.

このようにしてテレビジョン受像機3は、ユーザ操作に応じてリモートコントローラ34から送信されたチャンネル選択信号を受光部35を介して受信すると、アンテナ36を介して受信したテレビジョン放送信号のうち、そのチャンネル選択信号に対応したチャンネルのテレビジョン放送信号をチューナ37により復調して映像信号及び音声信号を得る。   In this way, when the television receiver 3 receives the channel selection signal transmitted from the remote controller 34 according to the user operation via the light receiving unit 35, among the television broadcast signals received via the antenna 36, A television broadcast signal of a channel corresponding to the channel selection signal is demodulated by the tuner 37 to obtain a video signal and an audio signal.

そして、テレビジョン受像機3は、チューナ37により得られた映像信号及び音声信号をデコーダ38により復号して映像データ及び音声データを得、映像処理部39により当該映像データに対応する映像をディスプレイ7に表示すると共に、音声処理部40により当該音声データに対応する音声をスピーカ8を介して出力するようになされている。   The television receiver 3 decodes the video signal and audio signal obtained by the tuner 37 by the decoder 38 to obtain video data and audio data, and the video processor 39 displays the video corresponding to the video data on the display 7. In addition, the audio processing unit 40 outputs audio corresponding to the audio data via the speaker 8.

ところでテレビジョン受像機3のCPU31は、メモリカード装着部41に対して装着されたメモリカードに記録されているExifファイルをRAM33上に読み出すと、そのExifファイルに含まれる画像データを映像処理部39へ送出する。映像処理部39は、RAM33から供給された画像データに対応する画像を生成し、その生成した画像をディスプレイ7に表示するようになされている。   By the way, when the CPU 31 of the television receiver 3 reads the Exif file recorded on the memory card attached to the memory card attachment unit 41 onto the RAM 33, the image data included in the Exif file is read out by the video processing unit 39. To send. The video processing unit 39 generates an image corresponding to the image data supplied from the RAM 33, and displays the generated image on the display 7.

さらにテレビジョン受像機3のCPU31は、外部接続インタフェース42及びケーブル10を介してデジタルカメラ2と電気的に接続されている場合、当該デジタルカメラ2から供給されるExifファイルをRAM33上に記憶し、そのExifファイルに含まれる画像データを映像処理部39へ送出する。映像処理部39は、RAM33から供給された画像データに対応する画像を生成し、その生成した画像をディスプレイ7に表示するようになされている。   Further, when the CPU 31 of the television receiver 3 is electrically connected to the digital camera 2 via the external connection interface 42 and the cable 10, the Exif file supplied from the digital camera 2 is stored on the RAM 33. The image data included in the Exif file is sent to the video processing unit 39. The video processing unit 39 generates an image corresponding to the image data supplied from the RAM 33, and displays the generated image on the display 7.

(3)注目部生成処理
次に注目部生成表示システム1のデジタルカメラ2における注目部生成処理について、フォーカス箇所に対応した画素を注目点として生成するフォーカス注目点生成処理と、画像データに対する任意の領域を注目領域として追加する任意注目領域生成処理とに分けて説明する。
(3) Attention Part Generation Processing Next, with regard to attention part generation processing in the digital camera 2 of the attention part generation display system 1, focus attention point generation processing for generating a pixel corresponding to a focus location as an attention point, and arbitrary image data processing The description will be divided into arbitrary attention area generation processing for adding an area as an attention area.

(3−1)フォーカス注目点生成処理
図5(A)に示すように、デジタルカメラ2のCPU21は、被写体OB1をデジタルカメラ2のディスプレイ27の中央に表示するようユーザによりデジタルカメラ2が視点移動されると、例えば当該被写体OB1が画枠の中央に配置された状態の撮像画面PW1をディスプレイ27に表示する。
(3-1) Focus attention point generation processing As shown in FIG. 5A, the CPU 21 of the digital camera 2 moves the viewpoint of the digital camera 2 by the user so that the subject OB1 is displayed at the center of the display 27 of the digital camera 2. Then, for example, the imaging screen PW1 in a state where the subject OB1 is arranged at the center of the image frame is displayed on the display 27.

そしてデジタルカメラ2のCPU21は、撮像画面PW1の中心に被写体OB1の中心が存在している状態において、操作部24のフォーカスボタン(図示せず)がユーザにより押下操作されたことを認識すると、当該被写体OB1の中心にフォーカスFP1を合わせるようになされている。   When the CPU 21 of the digital camera 2 recognizes that the focus button (not shown) of the operation unit 24 has been pressed by the user in the state where the center of the subject OB1 exists at the center of the imaging screen PW1, The focus FP1 is adjusted to the center of the subject OB1.

その後、図5(B)に示すように、デジタルカメラ2のCPU21は、フォーカスFP1を被写体OB1に合わせたまま、当該被写体OB1及び被写体OB2を撮像するため、当該デジタルカメラ2が視点移動されると、被写体OB1及び被写体OB2の両方が画枠の中に配置された状態の撮像画面PW2をディスプレイ27に表示する。   After that, as shown in FIG. 5B, the CPU 21 of the digital camera 2 takes an image of the subject OB1 and the subject OB2 while keeping the focus FP1 on the subject OB1, and therefore when the viewpoint of the digital camera 2 is moved. The imaging screen PW2 in a state where both the subject OB1 and the subject OB2 are arranged in the image frame is displayed on the display 27.

このように、デジタルカメラ2のCPU21は、撮像画面PW1及び撮像画面PW2にフォーカスFP1を重ねて表示するようにしたことにより、ユーザに対してフォーカスFP1の存在及びその位置を目視確認させることができる。   As described above, the CPU 21 of the digital camera 2 displays the focus FP1 so as to overlap the imaging screen PW1 and the imaging screen PW2, thereby allowing the user to visually confirm the presence and position of the focus FP1. .

その後、デジタルカメラ2のCPU21は、撮像画面PW2をディスプレイ27に表示した状態で、操作部24のシャッタボタン4が押下操作されたことを認識すると、撮像画面PW2に表示されている画像を撮像し、その画像に対応する画像データをRAM23に書き込むようになされている。   Thereafter, when the CPU 21 of the digital camera 2 recognizes that the shutter button 4 of the operation unit 24 has been pressed in a state where the imaging screen PW2 is displayed on the display 27, the CPU 21 captures an image displayed on the imaging screen PW2. The image data corresponding to the image is written in the RAM 23.

このとき、デジタルカメラ2のCPU21は、図5(C)に示すように、フォーカスFP1に対応した画素を注目点AP1として設定し、RAM23に書き込んだ画像データに対応する画像に対して注目点AP1が重ねられた画像表示画面IWを生成し、それをディスプレイ27に表示することにより、ユーザに対して注目点AP1を目視確認させ得るようになされている。   At this time, as shown in FIG. 5C, the CPU 21 of the digital camera 2 sets the pixel corresponding to the focus FP1 as the attention point AP1, and the attention point AP1 for the image corresponding to the image data written in the RAM 23. Is generated and displayed on the display 27 so that the user can visually confirm the point of interest AP1.

またデジタルカメラ2のCPU21は、RAM23に書き込んだ画像データのフォーカスFP1に対応する画素(すなわち、注目点AP1)の座標を算出するようになされている。   The CPU 21 of the digital camera 2 calculates the coordinates of the pixel (that is, the attention point AP1) corresponding to the focus FP1 of the image data written in the RAM 23.

具体的にいうと、デジタルカメラ2のCPU21は、撮像画面PW1(図5(A))において、被写体OB1の中心にフォーカスFP1を合わせると同時に、例えばフーリエ変換を利用して撮像画面PW1に表示した画像に対応する画像データから例えば被写体OB1の輪郭を抽出し、その抽出したフォーカス輪郭情報をRAM23に書き込む。   Specifically, the CPU 21 of the digital camera 2 displays the image on the image pickup screen PW1 using, for example, Fourier transform, at the same time as adjusting the focus FP1 to the center of the subject OB1 on the image pickup screen PW1 (FIG. 5A). For example, the contour of the subject OB 1 is extracted from the image data corresponding to the image, and the extracted focus contour information is written in the RAM 23.

そしてデジタルカメラ2のCPU21は、操作部24のシャッタボタン4が押下操作されたことを認識すると、撮像画面PW2(図5(B))に表示された画像を撮像すると同時に、その画像に対応する画像データに対してもフーリエ変換を利用して被写体OB1の輪郭を抽出し、その抽出した撮像画像輪郭情報とRAM23に書き込んだフォーカス輪郭情報とをパターンマッチングすることにより、被写体OB1の移動距離を算出するようになされている。   When the CPU 21 of the digital camera 2 recognizes that the shutter button 4 of the operation unit 24 has been pressed, the CPU 21 captures an image displayed on the imaging screen PW2 (FIG. 5B) and simultaneously handles the image. The contour of the subject OB1 is also extracted from the image data using Fourier transform, and the movement distance of the subject OB1 is calculated by pattern matching the extracted captured image contour information and the focus contour information written in the RAM 23. It is made to do.

実際上、図6に示すように、デジタルカメラ2のCPU21は、撮像画面PW2(図5(B))に表示された画像に対応する画像データPD1の左上の頂点を(0、0)とし、右方向にX軸、下方向にY軸が伸びる座標軸により注目点AP1の座標を表し、パターンマッチングにより得られた移動距離を用いて注目点AP1の座標(Xa、Ya)を得る。   Actually, as shown in FIG. 6, the CPU 21 of the digital camera 2 sets the upper left vertex of the image data PD1 corresponding to the image displayed on the imaging screen PW2 (FIG. 5B) to (0, 0), The coordinate of the attention point AP1 is represented by a coordinate axis in which the X axis extends in the right direction and the Y axis extends in the downward direction, and the coordinates (Xa, Ya) of the attention point AP1 are obtained using the movement distance obtained by pattern matching.

そして、図3との対応部分に同一符号を付した図7に示すように、デジタルカメラ2のCPU21は、メモリカード装着部28に装着されたメモリカードに対して画像データPD1を書き込む際、RAM23に書き込まれた画像データPD1と、その画像データPD1の画像情報とが記録されたExifファイル200を生成し、そのExifファイル200をメモリカードに書き込むようになされている。   7, when the CPU 21 of the digital camera 2 writes the image data PD1 to the memory card attached to the memory card attachment unit 28, as shown in FIG. The Exif file 200 in which the image data PD1 written in the image data and the image information of the image data PD1 are recorded is generated, and the Exif file 200 is written in the memory card.

デジタルカメラ2のCPU21は、Exifファイル200を生成する際、Value of 0th IFD103におけるMakerNote111の非公開領域121に注目点AP1の座標(Xa、Ya)を書き込むようになされている。   When generating the Exif file 200, the CPU 21 of the digital camera 2 writes the coordinates (Xa, Ya) of the point of interest AP1 in the private area 121 of the MakerNote 111 in the Value of 0th IFD 103.

(3−2)任意注目領域生成処理
一方、図8(A)に示すように、デジタルカメラ2のCPU21は、被写体PS1が表示された撮像画面PWBをディスプレイ27に表示中、操作部24のフォーカスボタンがユーザにより押下操作されたことを認識すると、撮像画面PWBの中心にフォーカスFP2を合わせるようになされている。
(3-2) Arbitrary Attention Area Generation Processing On the other hand, as shown in FIG. 8A, the CPU 21 of the digital camera 2 focuses the operation unit 24 while the imaging screen PWB on which the subject PS1 is displayed is displayed on the display 27. When it is recognized that the button has been pressed by the user, the focus FP2 is adjusted to the center of the imaging screen PWB.

デジタルカメラ2のCPU21は、フォーカスFP2を撮像画面PWBの中心に合わせた状態において、操作部24のシャッタボタン4が押下操作されたことを認識すると、撮像画面PWBに表示している画像を撮像し、その画像に対応する画像データをRAM23に書き込んだ後、図8(B)に示すように、フォーカスFP2に対応する画素でなる注目点AP2の座標(Xb、Yb)を算出する。   When the CPU 21 of the digital camera 2 recognizes that the shutter button 4 of the operation unit 24 has been pressed in a state where the focus FP2 is set to the center of the imaging screen PWB, the CPU 21 captures an image displayed on the imaging screen PWB. After writing the image data corresponding to the image into the RAM 23, as shown in FIG. 8B, the coordinates (Xb, Yb) of the attention point AP2 made up of pixels corresponding to the focus FP2 are calculated.

デジタルカメラ2のCPU21は、RAM23に書き込んだ画像データに対応する画像に注目点AP2が重ねられた画像表示画面IWBを生成し、それをディスプレイ27に表示するようになされている。   The CPU 21 of the digital camera 2 generates an image display screen IWB in which the point of interest AP2 is superimposed on an image corresponding to the image data written in the RAM 23, and displays it on the display 27.

図7との対応部分に同一符号を付した図9に示すように、デジタルカメラ2のCPU21は、撮像画面PWBに表示された画像に対応する画像データPD2と、その画像データPD2の画像情報が記録されたExifファイル300を生成し、当該Exifファイル300をメモリカードに書き込む。   As shown in FIG. 9 in which parts corresponding to those in FIG. 7 are assigned the same reference numerals, the CPU 21 of the digital camera 2 stores image data PD2 corresponding to the image displayed on the imaging screen PWB and image information of the image data PD2. The recorded Exif file 300 is generated, and the Exif file 300 is written to the memory card.

デジタルカメラ2のCPU21は、Exifファイル300を生成する際、Value of 0th IFD103におけるMakerNote111の非公開領域121に注目点AP2の座標(Xb、Yb)を書き込むようになされている。   When generating the Exif file 300, the CPU 21 of the digital camera 2 writes the coordinates (Xb, Yb) of the point of interest AP2 in the private area 121 of the MakerNote 111 in the Value of 0th IFD 103.

図8(C)に示すように、デジタルカメラ2のCPU21は、操作部24における、注目領域を追加するための注目領域追加ボタン(図示せず)が押下操作されると、メモリカードに書き込まれたExifファイル300から画像データPD2をRAM23に読み出し、当該画像データPD2に応じた画像に対して、画面内を自由に移動可能なカーソルCSが重ねられた注目領域追加画面AWBを生成し、それをディスプレイ27に表示するようになされている。   As shown in FIG. 8C, the CPU 21 of the digital camera 2 is written in the memory card when a region of interest addition button (not shown) for adding a region of interest on the operation unit 24 is pressed. The image data PD2 is read from the Exif file 300 to the RAM 23, and an attention area addition screen AWB in which a cursor CS that can be freely moved in the screen is superimposed on the image corresponding to the image data PD2 is generated. The information is displayed on the display 27.

デジタルカメラ2のCPU21は、操作部24を介したユーザ操作により、カーソルCSにより被写体PS1が選択されると、その選択した領域に含まれる複数の画素を注目領域ATとして設定し、当該注目領域ATの座標(Xc〜Xd、Yc〜Yd)を算出する。   When the subject PS1 is selected by the cursor CS by a user operation via the operation unit 24, the CPU 21 of the digital camera 2 sets a plurality of pixels included in the selected area as the attention area AT, and the attention area AT Coordinates (Xc to Xd, Yc to Yd) are calculated.

このときデジタルカメラ2のCPU21は、図10に示すように、Exifファイル310におけるMakerNote111の非公開領域121に、注目点AP2の座標(Xb、Yb)に加えて、注目領域ATの座標(Xc〜Xd、Yc〜Yd)を書き込むようになされている。   At this time, as shown in FIG. 10, the CPU 21 of the digital camera 2 adds the coordinates of the attention area AT (Xc˜Y) to the secret area 121 of the MakerNote 111 in the Exif file 310 in addition to the coordinates (Xb, Yb) of the attention point AP2. Xd, Yc to Yd) are written.

すなわちデジタルカメラ2のCPU21は、Exifファイル300(図9)に注目領域ATの座標(Xc〜Xd、Yc〜Yd)を追加し、それにより得られたExifファイル310をRAM23に書き込むようになされている。   That is, the CPU 21 of the digital camera 2 adds the coordinates (Xc to Xd, Yc to Yd) of the attention area AT to the Exif file 300 (FIG. 9), and writes the Exif file 310 obtained thereby to the RAM 23. Yes.

(4)注目部生成処理手順
次に、上述したフォーカス注目点生成処理及び任意注目領域生成処理の流れについて注目部生成処理手順として、まとめて説明する。
(4) Attention Part Generation Process Procedure Next, the focus attention point generation process and the arbitrary attention area generation process described above will be collectively described as an attention part generation process procedure.

図11に示すように、デジタルカメラ2のCPU21は、ルーチンRT1の開始ステップから入って次のステップSP1へ移り、撮像画面PW1(図5(A))又は撮像画面PWB(図8(A))をディスプレイ27に表示している状態において、操作部24のフォーカスボタンが押下操作されたか否かを判断し、否定結果が得られると、ステップSP3へ移る。   As shown in FIG. 11, the CPU 21 of the digital camera 2 enters from the start step of the routine RT1 and proceeds to the next step SP1, and the imaging screen PW1 (FIG. 5A) or the imaging screen PWB (FIG. 8A). Is displayed on the display 27, it is determined whether or not the focus button of the operation unit 24 has been pressed. If a negative result is obtained, the process proceeds to step SP3.

これに対してステップSP1において肯定結果が得られると、このことは操作部24のフォーカスボタンが押下操作されたことを表しており、このときデジタルカメラ2のCPU21は、次のステップSP2へ移る。   On the other hand, if a positive result is obtained in step SP1, this indicates that the focus button of the operation unit 24 has been pressed, and the CPU 21 of the digital camera 2 moves to the next step SP2.

ステップSP2においてデジタルカメラ2のCPU21は、撮像画面PW1又は撮像画面PWBの中心にフォーカスFP1又はフォーカスFP2を合わせて次のステップSP3へ移る。   In step SP2, the CPU 21 of the digital camera 2 adjusts the focus FP1 or the focus FP2 to the center of the imaging screen PW1 or the imaging screen PWB, and proceeds to the next step SP3.

ステップSP3においてデジタルカメラ2のCPU21は、操作部24のシャッタボタン4が押下操作されたか否かを判断し、否定結果が得られると、操作部24のシャッタボタン4が押下操作されるまで待ち受けるのに対し、肯定結果が得られると、次のステップSP4へ移る。   In step SP3, the CPU 21 of the digital camera 2 determines whether or not the shutter button 4 of the operation unit 24 has been pressed. If a negative result is obtained, the CPU 21 waits until the shutter button 4 of the operation unit 24 is pressed. On the other hand, if a positive result is obtained, the process proceeds to the next step SP4.

ステップSP4においてデジタルカメラ2のCPU21は、レンズ5を介して被写体を撮像する。すなわち、デジタルカメラ2のCPU21は、被写体から発せられた光をレンズ5を介して撮像素子25及び画像処理部26により画像データPD1又は画像データPD2に変換させ、その画像データPD1又は画像データPD2をRAM23に書き込み、次のステップSP5へ移る。   In step SP <b> 4, the CPU 21 of the digital camera 2 images the subject via the lens 5. That is, the CPU 21 of the digital camera 2 converts the light emitted from the subject into the image data PD1 or the image data PD2 through the lens 5 by the image sensor 25 and the image processing unit 26, and the image data PD1 or the image data PD2 is converted. The data is written in the RAM 23, and the process proceeds to the next step SP5.

ステップSP5においてデジタルカメラ2のCPU21は、画像データPD1のフォーカスFP1又は画像データPD2のフォーカスFP2に対応する画素を注目点AP1又は注目点AP2として設定し、フーリエ変換を利用したパターンマッチングにより当該注目点AP1の座標(Xa、Ya)又は注目点AP2の座標(Xb、Yb)を算出し、次のステップSP6へ移る。   In step SP5, the CPU 21 of the digital camera 2 sets a pixel corresponding to the focus FP1 of the image data PD1 or the focus FP2 of the image data PD2 as the attention point AP1 or the attention point AP2, and the attention point by pattern matching using Fourier transform. The coordinates (Xa, Ya) of AP1 or the coordinates (Xb, Yb) of the target point AP2 are calculated, and the process proceeds to the next step SP6.

因みにステップSP5においてデジタルカメラ2のCPU21は、ステップSP1においてフォーカスを合わせていない場合、撮像した画像データの中心の画素を注目点として設定するようになされている。   Incidentally, in step SP5, the CPU 21 of the digital camera 2 sets the center pixel of the captured image data as a point of interest when focus is not achieved in step SP1.

ステップSP6においてデジタルカメラ2のCPU21は、RAM23に書き込んだ画像データPD1が記録されたExifファイル200又は画像データPD2が記録されたExifファイル300を生成する。その際、デジタルカメラ2のCPU21は、Exifファイル200又はExifファイル300においてMakerNote111の非公開領域121に注目点AP1の座標(Xa、Ya)又は注目点AP2の座標(Xb、Yb)を記録し、次のステップSP7へ移る。   In step SP6, the CPU 21 of the digital camera 2 generates an Exif file 200 in which the image data PD1 written in the RAM 23 is recorded or an Exif file 300 in which the image data PD2 is recorded. At that time, the CPU 21 of the digital camera 2 records the coordinates (Xa, Ya) of the attention point AP1 or the coordinates (Xb, Yb) of the attention point AP2 in the private area 121 of the MakerNote 111 in the Exif file 200 or the Exif file 300. The process proceeds to next step SP7.

ステップSP7においてデジタルカメラ2のCPU21は、操作部24の注目領域追加ボタンが押下操作されたか否かを判断し、否定結果が得られると、ステップSP11へ移って処理を終了する。   In step SP7, the CPU 21 of the digital camera 2 determines whether or not the attention area addition button of the operation unit 24 has been pressed. If a negative result is obtained, the process proceeds to step SP11 and the process is terminated.

これに対してステップSP7において肯定結果が得られると、このことは、操作部24を介して、注目領域追加ボタンが押下操作されたことを表しており、このときデジタルカメラ2のCPU21は、次のステップSP8へ移る。   On the other hand, if a positive result is obtained in step SP7, this indicates that the attention area addition button has been pressed via the operation unit 24. At this time, the CPU 21 of the digital camera 2 performs the following operation. The process proceeds to step SP8.

ステップSP8においてデジタルカメラ2のCPU21は、メモリカードに書き込まれたExifファイル300(図9)から画像データPD2をRAM23に読み出し、当該画像データPD2に対応する画像に、画面内を自由に移動可能なカーソルCSが重ねられた注目領域追加画面AWB(図8(C))を生成し、それをディスプレイ27に表示し、次のステップSP9へ移る。   In step SP8, the CPU 21 of the digital camera 2 reads the image data PD2 from the Exif file 300 (FIG. 9) written in the memory card into the RAM 23, and can freely move within the screen to an image corresponding to the image data PD2. The attention area addition screen AWB (FIG. 8C) on which the cursor CS is superimposed is generated, displayed on the display 27, and the process proceeds to the next step SP9.

ステップSP9においてデジタルカメラ2のCPU21は、操作部24を介したユーザ操作により、カーソルCSが被写体PS1を選択すると、その選択された領域に含まれる複数の画素を注目領域ATとして設定し、当該注目領域ATの座標(Xc〜Xd、Yc〜Yd)を算出し、次のステップSP10へ移る。   In step SP9, when the cursor CS selects the subject PS1 by the user operation via the operation unit 24, the CPU 21 of the digital camera 2 sets a plurality of pixels included in the selected area as the attention area AT, and performs the attention. The coordinates (Xc to Xd, Yc to Yd) of the area AT are calculated, and the process proceeds to the next step SP10.

ステップSP10においてデジタルカメラ2のCPU21は、算出することにより得られた注目領域ATの座標(Xc〜Xd、Yc〜Yd)を、Exifファイル310(図10)におけるMakerNote111の非公開領域121に書き込み、次のステップSP11へ移って処理を終了する。   In step SP10, the CPU 21 of the digital camera 2 writes the coordinates (Xc to Xd, Yc to Yd) of the attention area AT obtained by the calculation in the secret area 121 of the MakerNote 111 in the Exif file 310 (FIG. 10). The process proceeds to the next step SP11 to end the process.

(5)注目部利用表示手法
次に、デジタルカメラ2により生成した注目点及び注目領域を利用した画像表示を行う手法としてのテレビジョン受像機3における注目部利用表示手法について、ズーム表示手法、マスク表示手法及び移動表示手法に分けて説明する。
(5) Attention Part Utilization Display Method Next, the attention part utilization display method in the television receiver 3 as a method for performing image display using the attention point and the attention area generated by the digital camera 2 will be described. The display method and the moving display method will be described separately.

(5−1)ズーム表示手法
テレビジョン受像機3のCPU31は、デジタルカメラ2から外部接続インタフェース42及びケーブル10を介して例えばExifファイル200が供給されたり、メモリカードを介してのオフライン通信により、Exifファイル200が供給されると、そのExifファイル200をRAM33に書き込むようになされている。
(5-1) Zoom Display Method The CPU 31 of the television receiver 3 receives, for example, the Exif file 200 from the digital camera 2 via the external connection interface 42 and the cable 10, or by offline communication via a memory card. When the Exif file 200 is supplied, the Exif file 200 is written into the RAM 33.

テレビジョン受像機3のCPU31は、ユーザ操作によりリモートコントローラ34からズーム表示を行うためのズーム表示信号を受信すると、RAM33に書き込んだExifファイル200から画像データPD1と、注目点AP1の座標(Xa、Ya)とを読み出し、当該画像データPD1と当該注目点AP1の座標(Xa、Ya)とを映像処理部39へ送出する。   When the CPU 31 of the television receiver 3 receives a zoom display signal for performing zoom display from the remote controller 34 by a user operation, the image data PD1 from the Exif file 200 written in the RAM 33 and the coordinates (Xa, Ya) is read out, and the image data PD1 and the coordinates (Xa, Ya) of the target point AP1 are sent to the video processing unit 39.

図12(A)に示すように、テレビジョン受像機3のCPU31は、映像処理部39を介して画像データPD1に応じた画像に対して、注目点AP1が重ねられた画像表示画面ZW1を生成し、それをディスプレイ7に表示する。   As shown in FIG. 12A, the CPU 31 of the television receiver 3 generates an image display screen ZW1 in which the point of interest AP1 is superimposed on an image corresponding to the image data PD1 via the video processing unit 39. It is displayed on the display 7.

その後、テレビジョン受像機3のCPU31は、図12(B)及び(C)に示すように、映像処理部39を介して画像表示画面ZW1からズーム表示画面ZW2、そしてズーム表示画面ZW3へと時間の経過とともにズーム表示を行うことにより、注目点AP1を中心とした画像部分がディスプレイ7に拡大表示し得るようになされている。   Thereafter, as shown in FIGS. 12B and 12C, the CPU 31 of the television receiver 3 performs time from the image display screen ZW1 to the zoom display screen ZW2 and then to the zoom display screen ZW3 via the video processing unit 39. By performing zoom display as time elapses, an image portion centered on the point of interest AP1 can be enlarged and displayed on the display 7.

このようにテレビジョン受像機3のCPU31は、リモートコントローラ34からズーム表示信号を受信すると、画像データPD1に対応する画像全体をディスプレイ7に表示し、時間の経過とともに注目点AP1を中心とした画像部分を拡大して表示するように映像処理部39を介してズーム表示制御することにより、ユーザに対して、画像全体を見せた上で注目点AP1を中心とした画像部分を大きく見せることができる。   As described above, when receiving the zoom display signal from the remote controller 34, the CPU 31 of the television receiver 3 displays the entire image corresponding to the image data PD1 on the display 7, and an image centered on the point of interest AP1 as time passes. By performing zoom display control via the video processing unit 39 so that the portion is enlarged and displayed, the entire image can be shown to the user and the image portion centered on the point of interest AP1 can be shown larger. .

(5−2)マスク表示手法
テレビジョン受像機3のCPU31は、デジタルカメラ2から外部接続インタフェース42及びケーブル10を介して例えばExifファイル200が供給されたり、メモリカードを介してのオフライン通信により、Exifファイル200が供給されると、そのExifファイル200をRAM33に書き込むようになされている。
(5-2) Mask Display Method The CPU 31 of the television receiver 3 receives, for example, the Exif file 200 from the digital camera 2 via the external connection interface 42 and the cable 10, or by offline communication via a memory card. When the Exif file 200 is supplied, the Exif file 200 is written into the RAM 33.

テレビジョン受像機3のCPU31は、リモートコントローラ34を介したユーザ操作により、マスク表示を行うためのマスク表示信号を受信すると、RAM33に書き込んだExifファイル200から画像データPD1と、注目点AP1の座標(Xa、Ya)とを読み出し、当該画像データPD1と当該注目点AP1の座標(Xa、Ya)とを映像処理部39へ送出する。   When the CPU 31 of the television receiver 3 receives a mask display signal for performing mask display by a user operation via the remote controller 34, the image data PD1 and the coordinates of the attention point AP1 from the Exif file 200 written in the RAM 33 are received. (Xa, Ya) is read, and the image data PD1 and the coordinates (Xa, Ya) of the target point AP1 are sent to the video processing unit 39.

図13(A)に示すように、テレビジョン受像機3のCPU31は、当該映像処理部39を介して画像データPD1に応じた画像に対して、注目点AP1が重ねられた画像表示画面MW1を生成し、それをディスプレイ7に表示させる。   As shown in FIG. 13A, the CPU 31 of the television receiver 3 displays an image display screen MW1 on which an attention point AP1 is superimposed on an image corresponding to the image data PD1 via the video processing unit 39. It is generated and displayed on the display 7.

その後、テレビジョン受像機3のCPU31は、図13(B)及び(C)に示すように、画像表示画面MW1からマスク表示画面MW2、そしてマスク表示画面MW3へと時間の経過とともに、注目点AP1を中心とした画像部分だけを残すように、それ以外の黒部分領域(以下、これをマスク領域MAと呼ぶ。)を徐々に大きくしながら表示制御するようになされている。   Thereafter, as shown in FIGS. 13B and 13C, the CPU 31 of the television receiver 3 moves the attention point AP1 over time from the image display screen MW1 to the mask display screen MW2 and then to the mask display screen MW3. The display control is performed while gradually increasing the other black portion area (hereinafter referred to as the mask area MA) so that only the image portion centering on the image is left.

これによりテレビジョン受像機3のCPU31は、リモートコントローラ34からマスク表示信号を受信すると、画像データPD1に対応する画像全体をディスプレイ7に表示させ、時間の経過とともに、注目点AP1を中心とした画像部分以外が徐々にマスク領域MAに隠蔽されるよう映像処理部39を介してマスク表示制御することにより、注目点AP1を中心とした画像部分だけを浮き立たせた状態で最終的に表示させるので、ユーザに対して、最初に画像全体を見せてから、徐々に注目点AP1を中心とした画像部分だけを際立たせて注目させることができる。   As a result, when the CPU 31 of the television receiver 3 receives the mask display signal from the remote controller 34, the CPU 31 displays the entire image corresponding to the image data PD1 on the display 7, and an image centered on the attention point AP1 as time passes. By controlling the mask display through the video processing unit 39 so that the portions other than the portion are gradually hidden in the mask area MA, only the image portion centered on the attention point AP1 is finally displayed in a floating state. After the user first shows the entire image, the user can gradually focus on the image portion centered on the attention point AP1.

(5−3)移動表示手法
テレビジョン受像機3のCPU31は、デジタルカメラ2から外部接続インタフェース42及びケーブル10を介して例えばExifファイル200が供給されたり、メモリカードを介してのオフライン通信により、Exifファイル200が供給されると、そのExifファイル200をRAM33に書き込むようになされている。
(5-3) Moving Display Method The CPU 31 of the television receiver 3 receives, for example, the Exif file 200 from the digital camera 2 via the external connection interface 42 and the cable 10, or by offline communication via a memory card. When the Exif file 200 is supplied, the Exif file 200 is written into the RAM 33.

テレビジョン受像機3のCPU31は、ユーザ操作によりリモートコントローラ34から移動表示するための移動表示信号を受信すると、RAM33に書き込んだExifファイル200から画像データPD1と、注目点AP1の座標(Xa、Ya)とを読み出し、当該画像データPD1と当該注目点AP1の座標(Xa、Ya)とを映像処理部39へ送出する。   When the CPU 31 of the television receiver 3 receives a movement display signal for movement display from the remote controller 34 by a user operation, the image data PD1 and the coordinates (Xa, Ya) of the image data PD1 from the Exif file 200 written in the RAM 33 are displayed. ) And the image data PD1 and the coordinates (Xa, Ya) of the target point AP1 are sent to the video processing unit 39.

図14(A)に示すように、テレビジョン受像機3のCPU31は、映像処理部39へ画像データPD1及び注目点AP1の座標(Xa、Ya)を送出すると、当該映像処理部39を介して、当該画像データPD1の例えば左上一部の画面部分WA1に対応する移動表示画面TW1(図14(D))を生成し、それをディスプレイ7に表示させる。   As shown in FIG. 14A, when the CPU 31 of the television receiver 3 sends the image data PD1 and the coordinates (Xa, Ya) of the point of interest AP1 to the video processing unit 39, the video processing unit 39 passes through the video processing unit 39. The moving display screen TW1 (FIG. 14D) corresponding to, for example, the upper left part screen portion WA1 of the image data PD1 is generated and displayed on the display 7.

図14(B)及び(C)に示すように、テレビジョン受像機3のCPU31は、画面部分WA1から、画面部分WA2、そして画面部分WA3へと画像データPD1の左上部分から注目点AP1を中心とした画像部分まで時間の経過とともに、画面部分WA1、画面部分WA2及び画面部分WA3にそれぞれ対応する移動表示画面TW1(図14(D))、移動表示画面TW2(図14(E))、移動表示画面TW3(図14(F))をディスプレイ7に表示させ、画像データPD1の左上部分から画像データPD1の右下部分の注目点AP1へ近づくように映像処理部39を介して移動表示制御するようになされている。   As shown in FIGS. 14B and 14C, the CPU 31 of the television receiver 3 centers the attention point AP1 from the upper left portion of the image data PD1 from the screen portion WA1 to the screen portion WA2 and then to the screen portion WA3. As time passes, the moving display screen TW1 (FIG. 14 (D)), the moving display screen TW2 (FIG. 14 (E)), and the movement corresponding to the screen portion WA1, the screen portion WA2, and the screen portion WA3, respectively. The display screen TW3 (FIG. 14F) is displayed on the display 7, and moving display control is performed via the video processing unit 39 so as to approach the attention point AP1 in the lower right portion of the image data PD1 from the upper left portion of the image data PD1. It is made like that.

これによりテレビジョン受像機3のCPU31は、リモートコントローラ34から移動表示信号を受信すると、画像データPD1の一部の画面部分に対応する画像を時間の経過とともに移動させながら、ディスプレイ7へ表示させるように映像処理部39を介して表示制御するようになされているため、ユーザに対して注目点以外の画像も紹介しながら、注目点AP1付近を最終的に見せることができる。   Thus, when the CPU 31 of the television receiver 3 receives the movement display signal from the remote controller 34, the CPU 31 displays the image corresponding to a part of the screen portion of the image data PD1 on the display 7 while moving with the passage of time. Since the display control is performed via the video processing unit 39, the vicinity of the attention point AP1 can be finally shown while introducing images other than the attention point to the user.

なおテレビジョン受像機3のCPU31は、デジタルカメラ2からExifファイル310が供給され、リモートコントローラ34からズーム表示信号、マスク表示信号又は移動表示信号を受信すると、上述したExifファイル200の注目点AP1を利用したズーム表示手法、マスク表示手法又は移動表示手法による画像表示と同様に、注目点AP2を利用したズーム表示手法、マスク表示手法又は移動表示手法により画像表示を行うようになされている。   When the CPU 31 of the television receiver 3 is supplied with the Exif file 310 from the digital camera 2 and receives a zoom display signal, a mask display signal, or a movement display signal from the remote controller 34, the CPU 31 displays the attention point AP1 of the Exif file 200 described above. Similar to the image display using the zoom display method, the mask display method, or the moving display method, the image display is performed using the zoom display method, the mask display method, or the movement display method using the attention point AP2.

またテレビジョン受像機3のCPU31は、例えばリモートコントローラ34のユーザ操作により、注目領域ATを利用した表示手法が選択されると、注目領域ATを利用したズーム表示手法、マスク表示手法又は移動表示手法により画像表示を行うようになされている。   When the display method using the attention area AT is selected by the user operation of the remote controller 34, for example, the CPU 31 of the television receiver 3 performs a zoom display technique, a mask display technique, or a moving display technique using the attention area AT. Thus, the image is displayed.

(6)注目部利用表示処理手順
次に、上述したズーム表示手法、マスク表示手法及び移動表示手法に対する処理の流れを注目部利用表示処理手順として説明する。
(6) Attention Part Utilization Display Processing Procedure Next, the processing flow for the above-described zoom display method, mask display method, and moving display method will be described as an attention part utilization display processing procedure.

図15に示すように、テレビジョン受像機3のCPU31は、ルーチンRT2の開始ステップから入って次のステップSP21へ移り、デジタルカメラ2から例えばExifファイル200が供給されたか否かを判断し、否定結果が得られると、このことはデジタルカメラ2からExifファイル200が供給されていないことを表しており、Exifファイルが供給されるまで待ち受ける。   As shown in FIG. 15, the CPU 31 of the television receiver 3 enters from the start step of the routine RT2, moves to the next step SP21, determines whether, for example, the Exif file 200 is supplied from the digital camera 2, and denies it. When the result is obtained, this indicates that the Exif file 200 is not supplied from the digital camera 2, and the computer waits until the Exif file is supplied.

これに対してステップSP21において肯定結果が得られると、このことはデジタルカメラ2から外部接続インタフェース42及びケーブル10を介してExifファイル200が供給された、又はメモリカード装着部41に装着されたメモリカードを介してオフライン通信によりExifファイル200が供給されたことを表しており、このときテレビジョン受像機3のCPU31は、次のステップSP22へ移る。   On the other hand, if a positive result is obtained in step SP21, this indicates that the Exif file 200 is supplied from the digital camera 2 via the external connection interface 42 and the cable 10, or the memory mounted in the memory card mounting unit 41. This indicates that the Exif file 200 has been supplied by offline communication via the card. At this time, the CPU 31 of the television receiver 3 proceeds to the next step SP22.

ステップSP22においてテレビジョン受像機3のCPU31は、デジタルカメラ2から供給されたExifファイル200を読み出してRAM33に書き込み、次のステップSP23へ移る。   In step SP22, the CPU 31 of the television receiver 3 reads the Exif file 200 supplied from the digital camera 2, writes it in the RAM 33, and proceeds to the next step SP23.

ステップSP23においてテレビジョン受像機3のCPU31は、リモートコントローラ34から受光部35を介してズーム表示信号を受信したか否かを判断し、否定結果が得られると、このことはズーム表示信号を受信していないことを表しており、ステップSP25へ移る。   In step SP23, the CPU 31 of the television receiver 3 determines whether or not a zoom display signal has been received from the remote controller 34 via the light receiving unit 35. If a negative result is obtained, this indicates that the zoom display signal has been received. This means that it has not been performed, and the process proceeds to step SP25.

これに対してステップSP23において肯定結果が得られると、このことはズーム表示信号を受信したことを表しており、このときテレビジョン受像機3のCPU31は、次のステップSP24へ移る。   On the other hand, if a positive result is obtained in step SP23, this indicates that a zoom display signal has been received. At this time, the CPU 31 of the television receiver 3 proceeds to the next step SP24.

ステップSP24においてテレビジョン受像機3のCPU31は、RAM33からExifファイル200の画像データPD1及び注目点AP1の座標(Xa、Ya)を読み出し、当該画像データPD1及び注目点AP1の座標(Xa、Ya)を映像処理部39へ送出する。   In step SP24, the CPU 31 of the television receiver 3 reads the image data PD1 and the coordinates (Xa, Ya) of the attention point AP1 of the Exif file 200 from the RAM 33, and the coordinates (Xa, Ya) of the image data PD1 and the attention point AP1. Is sent to the video processing unit 39.

その後、テレビジョン受像機3のCPU31は、画像表示画面ZW1からズーム表示画面ZW2、そしてズーム表示画面ZW3へと時間の経過とともにズーム表示を行い、注目点AP1を中心とした画像部分がディスプレイ7に拡大表示されるように映像処理部39を介してズーム表示制御し、次のステップSP30へ移って処理を終了する。   Thereafter, the CPU 31 of the television receiver 3 performs zoom display over time from the image display screen ZW1 to the zoom display screen ZW2 and then to the zoom display screen ZW3, and an image portion centered on the attention point AP1 is displayed on the display 7. Zoom display control is performed via the video processing unit 39 so that the display is enlarged, and the process proceeds to the next step SP30 to end the process.

ステップSP25においてテレビジョン受像機3のCPU31は、リモートコントローラ34から受光部35を介してマスク表示信号を受信したか否かを判断し、否定結果が得られると、このことはマスク表示信号を受信していないことを表しており、ステップSP27へ移る。   In step SP25, the CPU 31 of the television receiver 3 determines whether or not a mask display signal has been received from the remote controller 34 via the light receiving unit 35. If a negative result is obtained, this indicates that the mask display signal has been received. This means that the process has not been performed, and the process proceeds to step SP27.

これに対してステップSP25において肯定結果が得られると、このことはマスク表示信号を受信したことを表しており、このときテレビジョン受像機3のCPU31は、次のステップSP26へ移る。   On the other hand, if a positive result is obtained in step SP25, this indicates that a mask display signal has been received. At this time, the CPU 31 of the television receiver 3 proceeds to the next step SP26.

ステップSP26においてテレビジョン受像機3のCPU31は、RAM33からExifファイル200の画像データPD1及び注目点AP1の座標(Xa、Ya)を読み出し、当該画像データPD1及び注目点AP1の座標(Xa、Ya)を映像処理部39へ送出する。   In step SP26, the CPU 31 of the television receiver 3 reads the image data PD1 and the coordinates (Xa, Ya) of the attention point AP1 of the Exif file 200 from the RAM 33, and the coordinates (Xa, Ya) of the image data PD1 and the attention point AP1. Is sent to the video processing unit 39.

その後、テレビジョン受像機3のCPU31は、画像表示画面MW1からマスク表示画面MW2、そしてマスク表示画面MW3へと時間的の経過とともに注目点を中心とした画像部分以外が徐々にマスク領域MAに隠蔽されるよう映像処理部39を介してマスク表示制御し、次のステップSP30へ移って処理を終了する。   Thereafter, the CPU 31 of the television receiver 3 gradually conceals other than the image portion centered on the attention point from the image display screen MW1 to the mask display screen MW2 and then to the mask display screen MW3 over time. Thus, mask display control is performed via the video processing unit 39, and the process proceeds to the next step SP30 to end the process.

ステップSP27においてテレビジョン受像機3のCPU31は、リモートコントローラ34から受光部35を介して移動表示信号を受信したか否かを判断し、肯定結果が得られると、このことは移動表示信号を受信したことを表しており、次のステップSP28へ移る。   In step SP27, the CPU 31 of the television receiver 3 determines whether or not a movement display signal is received from the remote controller 34 via the light receiving unit 35. If a positive result is obtained, this indicates that the movement display signal is received. It moves to the next step SP28.

ステップSP28においてテレビジョン受像機3のCPU31は、RAM33からExifファイル200の画像データPD1及び注目点AP1の座標(Xa、Ya)を読み出し、当該画像データPD1及び注目点AP1の座標(Xa、Ya)を映像処理部39へ送出する。   In step SP28, the CPU 31 of the television receiver 3 reads the image data PD1 and the coordinates (Xa, Ya) of the attention point AP1 of the Exif file 200 from the RAM 33, and the coordinates (Xa, Ya) of the image data PD1 and the attention point AP1. Is sent to the video processing unit 39.

その後、テレビジョン受像機3のCPU31は、画像データPD1の左上画像部分から注目点AP1を中心した画像部分へ近づくように時間の経過とともに移動させながら、画像部分WA1、画像部分WA2及び画像部分WA3にそれぞれ対応する移動表示画像TW1、移動表示画像TW2及び移動表示画像TW3をディスプレイ7に映像処理部39を介して表示させるよう移動表示制御し、次のステップSP30へ移って処理を終了する。   Thereafter, the CPU 31 of the television receiver 3 moves the image portion WA1, the image portion WA2, and the image portion WA3 while moving the image portion PD1 with the passage of time so as to approach the image portion centered on the attention point AP1 from the upper left image portion of the image data PD1. The moving display image TW1, the moving display image TW2, and the moving display image TW3 respectively corresponding to are controlled to be displayed on the display 7 via the video processing unit 39, and the process proceeds to the next step SP30 to end the process.

これに対してステップSP27において否定結果が得られると、このことはズーム表示信号、マスク表示信号及び移動表示信号のいずれも受信していないことを表しており、このときテレビジョン受像機3のCPU31は、Exifファイル200の画像データPD1を読み出して映像処理部39へ供給し、当該画像データPD1に対応する画像を映像処理部39を介してディスプレイ7に表示させ、次のステップSP30へ移って処理を終了する。   On the other hand, if a negative result is obtained in step SP27, this indicates that none of the zoom display signal, the mask display signal, and the movement display signal has been received. At this time, the CPU 31 of the television receiver 3 has received. Reads out the image data PD1 of the Exif file 200, supplies it to the video processing unit 39, displays an image corresponding to the image data PD1 on the display 7 via the video processing unit 39, and moves to the next step SP30 for processing. Exit.

(7)動作及び効果
以上の構成において、注目部生成表示システム1におけるデジタルカメラ2のCPU21は、被写体を撮像することにより得られた画像データPD1のフォーカスFP1又は画像データPD2のフォーカスFP2を注目部としての注目点AP1又は注目点AP2として設定し、その注目点AP1の座標(Xa、Ya)又は注目点AP2の座標(Xb、Yb)をExifファイル200又はExifファイル300におけるMakerNote111の非公開領域121に書き込むようにした。
(7) Operation and Effect In the above configuration, the CPU 21 of the digital camera 2 in the attention portion generation display system 1 uses the focus FP1 of the image data PD1 or the focus FP2 of the image data PD2 obtained by imaging the subject as the attention portion. As the attention point AP1 or the attention point AP2, the coordinates (Xa, Ya) of the attention point AP1 or the coordinates (Xb, Yb) of the attention point AP2 are set as the private area 121 of the MakerNote 111 in the Exif file 200 or the Exif file 300. To write to.

これによりデジタルカメラ2のCPU21は、ユーザに対して何ら煩雑な操作を一切行わせることなく、フォーカスFP1に対応する画素を注目点AP1の座標(Xa、Ya)又はフォーカスFP2に対応する画素を注目点AP2の座標(Xb、Yb)としてExifファイル200又はExifファイル300に書き込むことができる。   Thereby, the CPU 21 of the digital camera 2 pays attention to the pixel corresponding to the focus FP1 with respect to the coordinates (Xa, Ya) of the attention point AP1 or the pixel corresponding to the focus FP2, without causing the user to perform any complicated operation. The coordinates (Xb, Yb) of the point AP2 can be written in the Exif file 200 or the Exif file 300.

またデジタルカメラ2のCPU21は、操作部24の注目領域選択ボタンが押下操作されると、注目領域追加画面AWBをディスプレイ27に表示し、画像データPD2に対応する画像の一部がカーソルCSにより選択されると、その選択した領域に含まれる複数の画素を注目部としての注目領域ATとして設定し、その注目領域ATの座標(Xc〜Xd、Yc〜Yd)をExifファイル310におけるMakerNote111の非公開領域121に書き込むようにした。   In addition, when the attention area selection button of the operation unit 24 is pressed, the CPU 21 of the digital camera 2 displays the attention area addition screen AWB on the display 27, and a part of the image corresponding to the image data PD2 is selected by the cursor CS. Then, a plurality of pixels included in the selected area are set as the attention area AT as the attention area, and the coordinates (Xc to Xd, Yc to Yd) of the attention area AT are not disclosed in the MakerNote 111 in the Exif file 310. The area 121 is written.

これによりデジタルカメラ2のCPU21は、ユーザが所望する任意の領域を当該ユーザに指定させるという簡易な操作を行わせるだけで、画像データPD2の任意の領域を注目領域ATとしてExifファイル310に書き込むことができる。   As a result, the CPU 21 of the digital camera 2 writes the arbitrary area of the image data PD2 as the attention area AT in the Exif file 310 only by causing the user to specify an arbitrary area desired by the user. Can do.

また注目部生成表示システム1におけるテレビジョン受像機3のCPU31は、デジタルカメラ2からExifファイル200又はExifファイル310が供給され、リモートコントローラ34から受光部35を介してズーム表示信号、マスク表示信号又は移動表示信号を受信すると、ズーム表示信号、マスク表示信号又は移動表示信号に従って、注目点AP1、注目点AP2又は注目領域ATを利用した表示制御を行うようにした。   Further, the CPU 31 of the television receiver 3 in the attention generating / displaying system 1 is supplied with the Exif file 200 or the Exif file 310 from the digital camera 2, and receives a zoom display signal, a mask display signal, or the like from the remote controller 34 via the light receiving unit 35. When the movement display signal is received, display control using the attention point AP1, the attention point AP2, or the attention area AT is performed in accordance with the zoom display signal, the mask display signal, or the movement display signal.

これによりテレビジョン受像機3のCPU31は、リモートコントローラ34からズーム表示信号を受信すると、例えば画像データPD1に対応する画像全体をディスプレイ7に表示させ、時間の経過とともにズーム表示を行わせ、ディスプレイ7に注目点AP1を中心とした画像部分が拡大表示されるように映像処理部39を介してズーム表示制御することにより、ユーザに対して、画像全体を見せた上で注目点AP1を中心とした画像部分を大きく見せることができる。   Thus, when the CPU 31 of the television receiver 3 receives the zoom display signal from the remote controller 34, for example, the entire image corresponding to the image data PD1 is displayed on the display 7, and the zoom display is performed as time passes. The zoom display control is performed via the video processing unit 39 so that the image portion centered on the attention point AP1 is displayed in an enlarged manner, so that the user can see the entire image and the centering on the attention point AP1. The image part can be shown larger.

またテレビジョン受像機3のCPU31は、リモートコントローラ34からマスク表示信号を受信すると、例えば画像データPD1に対応する画像全体をディスプレイ7に表示させ、時間の経過とともにマスク表示を行わせ、注目点AP1を中心とした画像付近以外が徐々にマスク領域MAに隠蔽されるよう映像処理部39を介してマスク表示制御することにより、注目点AP1付近の画像だけを最終的に表示させるので、ユーザに対して、画像全体を見せた上で注目点AP1を中心とした画像部分だけを際立たせて注目させることができる。   Further, when the CPU 31 of the television receiver 3 receives the mask display signal from the remote controller 34, for example, the entire image corresponding to the image data PD1 is displayed on the display 7, and the mask display is performed with the passage of time. By controlling the mask display through the video processing unit 39 so that other than the vicinity of the image centered on the screen is gradually hidden in the mask area MA, only the image near the point of interest AP1 is finally displayed. Thus, after showing the entire image, only the image portion centered on the attention point AP1 can be made to stand out and attract attention.

さらにテレビジョン受像機3のCPU31は、リモートコントローラ34から移動表示信号を受信すると、例えば画像データPD1の一部の画面部分を時間の経過とともに移動させながらディスプレイ7へ表示させるように映像処理部39を介して移動表示制御するようになされているため、ユーザに対して注目点以外の画像を紹介しながら、注目点AP1付近の画像部分を最終的に見せることができる。   Further, when the CPU 31 of the television receiver 3 receives the movement display signal from the remote controller 34, for example, a video processing unit 39 is displayed so that a part of the screen portion of the image data PD1 is displayed on the display 7 while moving over time. Since the movement display control is performed via the image, it is possible to finally show the image portion near the point of interest AP1 while introducing the image other than the point of interest to the user.

以上の構成によれば、注目部生成表示システム1は、デジタルカメラ2が撮像することにより得られた画像データPD1のフォーカスFP1に対応する画素を注目点AP1に設定し、その注目点AP1の座標(Xa、Ya)を算出してExifファイル200に書き込み、テレビジョン受像機3が画像データPD1に対応する画像をディスプレイ7に表示する際、その注目点AP1を利用した表示制御を行うようにしたことにより、新しい表示形態をユーザに対して提供することができる。   According to the above configuration, the attention part generating and displaying system 1 sets the pixel corresponding to the focus FP1 of the image data PD1 obtained by imaging by the digital camera 2 as the attention point AP1, and the coordinates of the attention point AP1. (Xa, Ya) is calculated and written to the Exif file 200, and when the television receiver 3 displays an image corresponding to the image data PD1 on the display 7, display control using the attention point AP1 is performed. Thus, a new display form can be provided to the user.

また注目部生成表示システム1は、デジタルカメラ2が撮像することにより得られた画像データPD2のフォーカスFP2に対応する画素を注目点AP2に設定し、その注目点AP2の座標(Xa、Ya)を算出してExifファイル300に書き込み、任意に選択された領域に含まれる複数の画素を注目領域ATに設定し、その注目領域ATの座標(Xc〜Xd、Yc〜Yd)を算出してExifファイル310に書き込む。そして注目部生成表示システム1は、テレビジョン受像機3が画像データPD2に対応する画像をディスプレイ7に表示する際、その注目点AP2及び注目領域ATを利用した表示制御を行うようにしたことにより、新しい表示形態をユーザに対して提供することができる。   In addition, the attention portion generation display system 1 sets a pixel corresponding to the focus FP2 of the image data PD2 obtained by imaging by the digital camera 2 as the attention point AP2, and sets the coordinates (Xa, Ya) of the attention point AP2. Calculate and write to the Exif file 300, set a plurality of pixels included in the arbitrarily selected area as the attention area AT, calculate the coordinates (Xc to Xd, Yc to Yd) of the attention area AT, and the Exif file Write to 310. The attention portion generation display system 1 performs display control using the attention point AP2 and the attention area AT when the television receiver 3 displays an image corresponding to the image data PD2 on the display 7. A new display form can be provided to the user.

(8)他の実施の形態
なお上述した実施の形態においては、テレビジョン受像機3がExifファイル200の画像データPD1をディスプレイ7に表示する際、CPU31が注目点AP1を利用した表示制御を行うようにした場合について述べたが、本発明はこれに限らず、デジタルカメラ2のCPU21がExifファイル200の画像データPD1をディスプレイ27に表示する際、注目点AP1を利用した表示制御を行うようにしても良い。
(8) Other Embodiments In the above-described embodiments, when the television receiver 3 displays the image data PD1 of the Exif file 200 on the display 7, the CPU 31 performs display control using the attention point AP1. However, the present invention is not limited to this. When the CPU 21 of the digital camera 2 displays the image data PD1 of the Exif file 200 on the display 27, display control using the attention point AP1 is performed. May be.

この場合デジタルカメラ2のCPU21は、上述したズーム表示、マスク表示及び移動表示等の表示手法を行うことができる。   In this case, the CPU 21 of the digital camera 2 can perform display methods such as the above-described zoom display, mask display, and movement display.

また上述した実施の形態においては、デジタルカメラ2からテレビジョン受像機3へExifファイル200を供給する場合、ケーブル10を介しての有線通信、又はメモリカードを介してオフライン通信により、Exifファイル200を供給するようにした場合について述べたが、Bluetooth(登録商標)、IrDA(Infrared Data Association)、又はIEEE(Institute of Electrical and Electronics Engineers)802.11系の無線LAN(Local Area Network)等のその他種々の無線通信方法によってデジタルカメラ2からテレビジョン受像機3へ無線通信するようにしても良い。   In the above-described embodiment, when the Exif file 200 is supplied from the digital camera 2 to the television receiver 3, the Exif file 200 is transmitted by wired communication through the cable 10 or offline communication through the memory card. Although the case where it was made to supply was described, various other wireless such as Bluetooth (Registered Trademark), IrDA (Infrared Data Association), or IEEE (Institute of Electrical and Electronics Engineers) 802.11 wireless LAN (Local Area Network) Wireless communication from the digital camera 2 to the television receiver 3 may be performed by a communication method.

さらに上述した実施の形態においては、操作部24の注目領域選択ボタンが押下操作され、注目領域追加画面AWBをディスプレイ27に表示し、被写体PS1がカーソルCSにより選択されると、Exifファイル310におけるMakerNote111の非公開領域121に、注目点AP2の座標(Xb、Yb)に追加して注目領域ATの座標(Xc〜Xd、Yc〜Yd)を書き込むようにした場合について述べたが、本発明はこれに限らず、Exifファイル310におけるMakerNote111の非公開領域121に、注目点AP2の座標(Xb、Yb)を削除し、注目領域ATの座標(Xc〜Xd、Yc〜Yd)だけを書き込むようにしても良い。   Further, in the above-described embodiment, when the attention area selection button of the operation unit 24 is pressed, the attention area addition screen AWB is displayed on the display 27, and the subject PS1 is selected by the cursor CS, the MakerNote 111 in the Exif file 310 is displayed. The case where the coordinates (Xc to Xd, Yc to Yd) of the attention area AT are written in the secret area 121 in addition to the coordinates (Xb, Yb) of the attention point AP2 has been described. In addition, the coordinates (Xb, Yb) of the attention point AP2 are deleted and only the coordinates (Xc to Xd, Yc to Yd) of the attention area AT are written in the private area 121 of the MakerNote 111 in the Exif file 310. Also good.

さらに上述した実施の形態においては、デジタルカメラ2のCPU21が画像データPD1に対応する画像をディスプレイ27に表示する際、当該画像データPD1に対応する画像と注目点AP1とを表示する場合について述べたが、本発明はこれに限らず、当該画像データPD1に対応する画像だけを表示するようにしても良い。   Further, in the above-described embodiment, when the CPU 21 of the digital camera 2 displays the image corresponding to the image data PD1 on the display 27, the case where the image corresponding to the image data PD1 and the attention point AP1 are displayed has been described. However, the present invention is not limited to this, and only the image corresponding to the image data PD1 may be displayed.

さらに上述した実施の形態においては、デジタルカメラ3のCPU31が画像データPD1に対応する画像をディスプレイ7に表示する際、当該画像データPD1に対応する画像と注目点AP1とを表示する場合について述べたが、本発明はこれに限らず、当該画像データPD1に対応する画像だけを表示するようにしても良い。   Further, in the above-described embodiment, when the CPU 31 of the digital camera 3 displays an image corresponding to the image data PD1 on the display 7, the case where the image corresponding to the image data PD1 and the attention point AP1 are displayed has been described. However, the present invention is not limited to this, and only the image corresponding to the image data PD1 may be displayed.

さらに上述した実施の形態においては、操作部24の注目領域選択ボタンが押下操作されると、デジタルカメラ2が注目領域追加画面AWBをディスプレイ27に表示し、被写体PS1がカーソルCSにより選択されることにより、注目領域ATを設定するようにした場合について述べたが、本発明はこれに限らず、デジタルカメラ2のディスプレイ27の表面にタッチパネルを設け、タッチパネルを介して注目領域追加画面AWBの任意の領域を選択させることにより、注目領域ATを設定するようにしても良い。   Further, in the above-described embodiment, when the attention area selection button of the operation unit 24 is pressed, the digital camera 2 displays the attention area addition screen AWB on the display 27, and the subject PS1 is selected by the cursor CS. However, the present invention is not limited to this, and a touch panel is provided on the surface of the display 27 of the digital camera 2, and an arbitrary area of the attention area addition screen AWB can be set via the touch panel. The attention area AT may be set by selecting an area.

さらに上述した実施の形態においては、デジタルカメラ2が注目領域追加画面AWBをディスプレイ27に表示し、被写体PS1がカーソルCSにより選択されたことにより、注目領域ATを設定するようにした場合について述べたが、本発明はこれに限らず、テレビジョン受像機3が注目領域追加画面AWBをディスプレイ7に表示し、被写体PS1の一部がカーソルCSにより選択されたとき、注目領域ATを設定するようにしても良い。   Further, in the above-described embodiment, the case where the digital camera 2 displays the attention area addition screen AWB on the display 27 and the attention area AT is set by selecting the subject PS1 with the cursor CS has been described. However, the present invention is not limited to this, and when the television receiver 3 displays the attention area addition screen AWB on the display 7 and a part of the subject PS1 is selected by the cursor CS, the attention area AT is set. May be.

さらに上述した実施の形態においては、テレビジョン受像機3が画像データPD1に対応する画像をディスプレイ7に表示する手法として、注目点AP1を利用してズーム表示、マスク表示、及び移動表示する制御を行うようにした場合について述べたが、本発明はこれに限らず、テレビジョン受像機3が画像データPD1に対応する画像をディスプレイ7に表示する手法として、注目点AP1を利用したパンニング表示、又は注目点AP1を中心とした画像部分だけのスライド表示等の種々の表示手法を制御するようにしても良い。   Further, in the above-described embodiment, as a method for the television receiver 3 to display an image corresponding to the image data PD1 on the display 7, control for zoom display, mask display, and moving display using the attention point AP1 is performed. As described above, the present invention is not limited to this, and as a method for the television receiver 3 to display an image corresponding to the image data PD1 on the display 7, panning display using the attention point AP1 or Various display methods such as slide display of only the image portion centered on the point of interest AP1 may be controlled.

さらに上述した実施の形態においては、デジタルカメラ2により撮像した画像に対応する画像データPD1に注目点AP1を設定し、テレビジョン受像機3が当該注目点AP1を利用した表示制御を行う場合について述べたが、本発明はこれに限らず、例えばデジタルビデオカメラにより撮像した動画像やビデオテープレコーダにより録画した動画像に注目部を設定するようにしても良い。この場合、動画像の1フレーム又は1フィールド毎にカーソル等で選択させることにより、その選択された部分を注目部として設定するようにすれば良い。   Furthermore, in the above-described embodiment, a case where the attention point AP1 is set in the image data PD1 corresponding to the image captured by the digital camera 2 and the television receiver 3 performs display control using the attention point AP1 will be described. However, the present invention is not limited to this. For example, the attention portion may be set in a moving image captured by a digital video camera or a moving image recorded by a video tape recorder. In this case, the selected portion may be set as the target portion by selecting with a cursor or the like for each frame or one field of the moving image.

さらに上述した実施の形態においては、TIFF REV.6.0 RGB Full Color Imagesに準拠して記載されExifファイル200(図7)として画像データPD1及び注目点AP1の座標(Xa、Ya)を記録する場合について述べたが、本発明はこれに限らず、図7との対応部分に同一符号を付した図16に示すように、デジタルカメラ2により撮像した画像データPD1を例えばJPEG圧縮データとして記録する際、当該JPEG圧縮データ及び注目点AP1の座標(Xa、Ya)をJPEG Baseline ADCTに準拠したExifファイル400に記録するようにしても良い。   Further, in the above-described embodiment, a case where the image data PD1 and the coordinates (Xa, Ya) of the attention point AP1 are recorded as the Exif file 200 (FIG. 7) described in conformity with TIFF REV.6.0 RGB Full Color Images. As described above, the present invention is not limited to this, and as shown in FIG. 16 in which the same reference numerals are assigned to corresponding parts to FIG. 7, when recording image data PD1 captured by the digital camera 2 as JPEG compressed data, for example, The JPEG compressed data and the coordinates (Xa, Ya) of the target point AP1 may be recorded in an Exif file 400 conforming to JPEG Baseline ADCT.

この場合、デジタルカメラ2のCPU21は、Exifファイル400におけるAPP1のExif IFD内に設けられたMakerNote111の非公開領域121に注目点AP1の座標(Xa、Ya)を記録するようになされている。   In this case, the CPU 21 of the digital camera 2 records the coordinates (Xa, Ya) of the point of interest AP1 in the private area 121 of the MakerNote 111 provided in the Exif IFD of the APP1 in the Exif file 400.

さらに上述した実施の形態においては、注目点AP1の座標(Xa、Ya)をExifファイル200におけるMakerNote111の非公開領域121に記録する場合について述べたが、本発明はこれに限らず、注目点AP1の座標(Xa、Ya)をExifファイル200におけるMakerNote111の公開領域に記録するようにしても良い。   Further, in the above-described embodiment, the case where the coordinates (Xa, Ya) of the attention point AP1 are recorded in the private area 121 of the MakerNote 111 in the Exif file 200 has been described. However, the present invention is not limited to this, and the attention point AP1 The coordinates (Xa, Ya) may be recorded in the public area of the MakerNote 111 in the Exif file 200.

さらに上述した実施の形態においては、デジタルカメラ2のCPU21が、予めROM22に格納されているアプリケーションプログラムに従い、上述したルーチンRT1の注目部生成処理手順を実行するようにした場合について述べたが、本発明はこれに限らず、記憶媒体からインストールしたアプリケーションプログラムや、インターネットからダウンロードしたアプリケーションプログラム、その他種々のルートによってインストールしたアプリケーションプログラムに従って上述した注目部生成処理手順を実行するようにしても良い。   Further, in the above-described embodiment, the case where the CPU 21 of the digital camera 2 executes the attention part generation processing procedure of the routine RT1 described above according to the application program stored in the ROM 22 in advance has been described. The invention is not limited to this, and the above-described attention portion generation processing procedure may be executed according to an application program installed from a storage medium, an application program downloaded from the Internet, or another application program installed through various routes.

さらに上述した実施の形態においては、テレビジョン受像機3のCPU31が、予めROM32に格納されているアプリケーションプログラムに従い、上述したルーチンRT2の注目部利用表示処理手順を実行するようにした場合について述べたが、本発明はこれに限らず、記憶媒体からインストールしたアプリケーションプログラムや、インターネットからダウンロードしたアプリケーションプログラム、その他種々のルートによってインストールしたアプリケーションプログラムに従って上述した注目部利用表示処理手順を実行するようにしても良い。   Further, in the above-described embodiment, the case has been described in which the CPU 31 of the television receiver 3 executes the attention part use display processing procedure of the above-described routine RT2 in accordance with the application program stored in the ROM 32 in advance. However, the present invention is not limited to this, and the attention part use display processing procedure described above is executed in accordance with an application program installed from a storage medium, an application program downloaded from the Internet, and other application programs installed by various routes. Also good.

さらに上述した実施の形態においては、注目部設定手段としてCPU21、注目部算出手段としてCPU21、注目部記録手段としてCPU21、提供手段としてメモリカード装着部28及び外部接続インタフェース29、受取手段としてメモリカード装着部41及び外部接続インタフェース42、読込手段としてCPU31、表示制御手段としてCPU31によって本発明の注目部生成表示システムとしてのデジタルカメラ2及びテレビジョン受像機3を構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成でなる注目部設定手段、注目部算出手段、注目部記録手段、提供手段、受取手段、読込手段、表示制御手段によって注目部生成表示システムを構成するようにしても良い。   Further, in the above-described embodiment, the CPU 21 as the attention part setting means, the CPU 21 as the attention part calculation means, the CPU 21 as the attention part recording means, the memory card attachment unit 28 and the external connection interface 29 as the providing means, and the memory card attachment as the reception means The case where the digital camera 2 and the television receiver 3 as the attention part generating display system of the present invention are configured by the unit 41 and the external connection interface 42, the CPU 31 as the reading means, and the CPU 31 as the display control means has been described. The present invention is not limited to this, and an attention part generation display system is configured by attention part setting means, attention part calculation means, attention part recording means, providing means, receiving means, reading means, and display control means having various other configurations. You may make it do.

本発明の注目部生成表示システム、注目部生成装置及び注目部生成方法は、例えばデジタルカメラ及びテレビジョン受像機以外にも、デジタルビデオカメラ、プロジェクタ撮像器等に適用することができる。   The attention part generation display system, attention part generation device, and attention part generation method of the present invention can be applied to, for example, a digital video camera, a projector imager, and the like in addition to a digital camera and a television receiver.

注目部生成表示システムの構成を示す略線図である。It is a basic diagram which shows the structure of an attention part production | generation display system. デジタルカメラの回路構成を示す略線図である。It is a basic diagram which shows the circuit structure of a digital camera. Exifファイルの構成(1)を示す略線図である。It is a basic diagram which shows the structure (1) of an Exif file. テレビジョン受像機の回路構成を示す略線図である。It is a basic diagram which shows the circuit structure of a television receiver. フォーカスを注目点として設定する様子を示す略線図である。It is a basic diagram which shows a mode that a focus is set as an attention point. 注目点の座標設定の様子を示す略線図である。It is a basic diagram which shows the mode of the coordinate setting of an attention point. Exifファイルの構成(2)を示す略線図である。It is a basic diagram which shows the structure (2) of an Exif file. 任意の注目領域の設定の様子を示す略線図である。It is a basic diagram which shows the mode of the setting of arbitrary attention areas. Exifファイルの構成(3)を示す略線図である。It is a basic diagram which shows the structure (3) of an Exif file. Exifファイルの構成(4)を示す略線図である。It is a basic diagram which shows the structure (4) of an Exif file. 注目部生成処理手順を示すフローチャートである。It is a flowchart which shows an attention part production | generation process procedure. ズーム表示の様子を示す略線図である。It is a basic diagram which shows the mode of a zoom display. マスク表示の様子を示す略線図である。It is a basic diagram which shows the mode of a mask display. 移動表示の様子を示す略線図である。It is a basic diagram which shows the mode of a movement display. 注目部利用表示制御処理手順を示すフローチャートである。It is a flowchart which shows an attention part utilization display control processing procedure. JPEG圧縮データのExifファイルの構成を示す略線図である。It is a basic diagram which shows the structure of the Exif file of JPEG compression data.

符号の説明Explanation of symbols

1……注目部生成表示システム、2……デジタルカメラ、3……テレビジョン受像機、4……シャッタボタン、5……レンズ、6……メモリカード挿入口、7……ディスプレイ、8……スピーカ、9……メモリカード挿入口、10……ケーブル10、20……バス、21……CPU、22……ROM、23……RAM、24……操作部、25…撮像素子、26……画像処理部、27……ディスプレイ、28……メモリカード装着部、29…外部接続インタフェース、30……バス、31……CPU、32……ROM、33……RAM、34……リモートコントローラ、35…受光部、36……アンテナ、37……チューナ、38……デコーダ、39…映像処理部、40……音声処理部、41……メモリカード装着部、42……外部接続インタフェース。   DESCRIPTION OF SYMBOLS 1 ... Interesting part production | generation display system, 2 ... Digital camera, 3 ... Television receiver, 4 ... Shutter button, 5 ... Lens, 6 ... Memory card insertion slot, 7 ... Display, 8 ... Speaker, 9 ... Memory card insertion slot, 10 ... Cable 10, 20 ... Bus, 21 ... CPU, 22 ... ROM, 23 ... RAM, 24 ... Operation section, 25 ... Image sensor, 26 ... Image processing unit, 27... Display, 28... Memory card mounting unit, 29 .. external connection interface, 30... Bus, 31... CPU, 32. ... Light receiving unit 36 .. Antenna 37. Tuner 38. Decoder 39 39 Video processing unit 40. Audio processing unit 41. Memory card mounting unit 42. Esu.

Claims (7)

注目部生成装置と表示装置とからなる注目部生成表示システムにおいて、
上記注目部生成装置は、
画像データの任意の箇所を注目部として設定する注目部設定手段と、
上記注目部設定手段により設定した上記注目部の座標を算出する注目部算出手段と、
上記表示装置に対して上記注目部を利用した画像表示を行うため、上記画像データを含む画像ファイルの画像情報記憶領域に、上記注目部の座標を記録する注目部記録手段と、
上記画像ファイルを上記表示装置に提供する提供手段と
を具え、
上記表示装置は、
上記注目部生成装置から上記画像ファイルを受け取る受取手段と、
上記受取手段により受け取った上記画像ファイルから上記画像データ及び上記注目部の座標を読み込む読込手段と、
上記読込手段により読み込んだ上記注目部を利用した所定の表示手法により上記画像表示を実行する表示制御手段と
を具えることを特徴とする注目部生成表示システム。
In the attention part generating and displaying system comprising the attention part generating device and the display device,
The attention part generating device is
Attention part setting means for setting an arbitrary part of the image data as the attention part;
Attention portion calculating means for calculating coordinates of the attention portion set by the attention portion setting means;
In order to perform image display using the attention part on the display device, attention part recording means for recording the coordinates of the attention part in an image information storage area of an image file including the image data;
Providing means for providing the image file to the display device;
The display device
Receiving means for receiving the image file from the attention area generating device;
Reading means for reading the image data and the coordinates of the target portion from the image file received by the receiving means;
And a display control means for executing the image display by a predetermined display method using the attention portion read by the reading means.
上記注目部生成装置は、
被写体を撮像する撮像手段と、
上記撮像手段により撮像した画像から上記画像データを生成する画像データ生成手段と
を具え、
上記注目部設定手段は、
上記画像データ生成手段により生成した上記画像データのフォーカスに対応する画素を上記注目部としての注目点に設定する
ことを特徴とする請求項1に記載の注目部生成表示システム。
The attention part generating device is
Imaging means for imaging a subject;
Image data generating means for generating the image data from an image captured by the imaging means,
The attention part setting means includes:
The attention part generation display system according to claim 1, wherein a pixel corresponding to the focus of the image data generated by the image data generation unit is set as an attention point as the attention part.
上記注目部設定手段は、
上記画像データ生成手段により生成した上記画像データの上記フォーカスに対応する上記画素を上記注目部としての上記注目点に設定し、所定の操作手段により上記画像データの任意に選択された箇所を上記注目部としての注目領域に設定する
ことを特徴とする請求項2に記載の注目部生成表示システム。
The attention part setting means includes:
The pixel corresponding to the focus of the image data generated by the image data generation means is set as the attention point as the attention portion, and an arbitrarily selected portion of the image data is selected as the attention point by a predetermined operation means. It sets to the attention area as a part. The attention part production | generation display system of Claim 2 characterized by the above-mentioned.
上記注目部設定手段は、
所定の操作手段により上記画像データの任意に選択された箇所を上記注目部としての注目領域に設定する
ことを特徴とする請求項1に記載の注目部生成表示システム。
The attention part setting means includes:
2. The attention part generating and displaying system according to claim 1, wherein a part selected arbitrarily by the predetermined operation means is set as an attention area as the attention part.
上記注目部登録手段は、
Exifファイルに上記注目部の座標を登録する
ことを特徴とする請求項1に記載の注目部生成表示システム。
The attention part registration means is:
The attention part generation display system according to claim 1, wherein the coordinates of the attention part are registered in an Exif file.
画像データの任意の箇所を注目部として設定する注目部設定手段と、
上記注目部設定手段により設定した上記注目部の座標を算出する注目部算出手段と、
所定の表示装置に対して上記注目部を利用した画像表示を行うため、上記画像データを含む画像ファイルの画像情報記憶領域に、上記注目部の座標を記録する注目部記録手段と、
上記画像ファイルを上記表示装置に提供する提供手段と
を具えることを特徴とする注目部生成装置。
Attention part setting means for setting an arbitrary part of the image data as the attention part;
Attention portion calculating means for calculating coordinates of the attention portion set by the attention portion setting means;
Attention portion recording means for recording the coordinates of the attention portion in an image information storage area of an image file including the image data in order to perform image display using the attention portion on a predetermined display device;
And a providing unit that provides the display device with the image file.
画像データの任意の画素を注目部として設定する注目部設定ステップと、
上記注目部設定ステップにより設定した上記注目部の座標を算出する注目部座標算出ステップと、
所定の表示装置に対して上記注目部を利用した画像表示を行うため、上記画像データを含む画像ファイルの画像情報記憶領域に、上記注目部の座標を記録する注目部記録ステップと、
上記画像ファイルを表示装置に提供する提供ステップと
を具えることを特徴とする注目部生成方法。
An attention part setting step for setting an arbitrary pixel of image data as an attention part;
An attention part coordinate calculation step for calculating coordinates of the attention part set in the attention part setting step;
An attention part recording step for recording the coordinates of the attention part in an image information storage area of an image file including the image data in order to perform image display using the attention part on a predetermined display device;
And a providing step of providing the image file to a display device.
JP2007229470A 2007-09-04 2007-09-04 Attention part generation display system Expired - Fee Related JP5018354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007229470A JP5018354B2 (en) 2007-09-04 2007-09-04 Attention part generation display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007229470A JP5018354B2 (en) 2007-09-04 2007-09-04 Attention part generation display system

Publications (2)

Publication Number Publication Date
JP2009065291A true JP2009065291A (en) 2009-03-26
JP5018354B2 JP5018354B2 (en) 2012-09-05

Family

ID=40559503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007229470A Expired - Fee Related JP5018354B2 (en) 2007-09-04 2007-09-04 Attention part generation display system

Country Status (1)

Country Link
JP (1) JP5018354B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114104980A (en) * 2021-10-15 2022-03-01 福建电子口岸股份有限公司 Shore bridge safe operation control method and system based on AI and vision combination
WO2022158106A1 (en) * 2021-01-22 2022-07-28 キヤノン株式会社 Image processing device, image processing method, and imaging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125251A (en) * 2001-10-16 2003-04-25 Minolta Co Ltd Digital camera and reproduction program
JP2004172879A (en) * 2002-11-19 2004-06-17 Canon Inc Moving image recording/reproducing device
JP2005012674A (en) * 2003-06-20 2005-01-13 Canon Inc Image display method, program of executing it, and image display apparatus
JP2006054523A (en) * 2004-08-10 2006-02-23 Casio Comput Co Ltd Slide show display method, image display apparatus, imaging apparatus, image reproducing apparatus, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125251A (en) * 2001-10-16 2003-04-25 Minolta Co Ltd Digital camera and reproduction program
JP2004172879A (en) * 2002-11-19 2004-06-17 Canon Inc Moving image recording/reproducing device
JP2005012674A (en) * 2003-06-20 2005-01-13 Canon Inc Image display method, program of executing it, and image display apparatus
JP2006054523A (en) * 2004-08-10 2006-02-23 Casio Comput Co Ltd Slide show display method, image display apparatus, imaging apparatus, image reproducing apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158106A1 (en) * 2021-01-22 2022-07-28 キヤノン株式会社 Image processing device, image processing method, and imaging device
CN114104980A (en) * 2021-10-15 2022-03-01 福建电子口岸股份有限公司 Shore bridge safe operation control method and system based on AI and vision combination
CN114104980B (en) * 2021-10-15 2023-06-02 福建电子口岸股份有限公司 Safe operation control method and system for quay crane based on combination of AI and vision

Also Published As

Publication number Publication date
JP5018354B2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
US10721116B2 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
US10764513B2 (en) Communication terminal, image data communication system, and communication method
US10893216B2 (en) Electronic apparatus and method for controlling same
US10944619B2 (en) Communication terminal, image communication system, and display control method
JP6907861B2 (en) Communication terminals, image communication systems, display methods, and programs
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
JP2018129716A (en) Image processing device, image processing system, image processing metho, and program
US20190306458A1 (en) Communication management system, communication system, and communication method
JP2018110375A (en) Display device, program, and display method
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN110881097B (en) Display control apparatus, control method, and computer-readable medium
JP2007288354A (en) Camera device, image processing apparatus, and image processing method
WO2020059327A1 (en) Information processing device, information processing method, and program
JP5018354B2 (en) Attention part generation display system
JP2012124620A (en) Data presentation device
JP2015126389A (en) Image pickup device and control method of the same
JP7017045B2 (en) Communication terminal, display method, and program
JP6711118B2 (en) Image management system, program and information terminal
WO2021014716A1 (en) Image processing device, image processing method, and program
JP7006356B2 (en) Communication terminals, communication systems, communication methods, and programs
CN110881102B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
WO2022201784A1 (en) Image processing device, and image processing method
US11049220B2 (en) Display control apparatus, display control method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees