JP2009284332A - Camera and image display system - Google Patents

Camera and image display system Download PDF

Info

Publication number
JP2009284332A
JP2009284332A JP2008135696A JP2008135696A JP2009284332A JP 2009284332 A JP2009284332 A JP 2009284332A JP 2008135696 A JP2008135696 A JP 2008135696A JP 2008135696 A JP2008135696 A JP 2008135696A JP 2009284332 A JP2009284332 A JP 2009284332A
Authority
JP
Japan
Prior art keywords
image
subject
images
display system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008135696A
Other languages
Japanese (ja)
Inventor
Takako Hanai
孝子 花井
Yukie Hashimoto
幸恵 橋本
Kazuji Fujitani
和司 藤谷
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008135696A priority Critical patent/JP2009284332A/en
Publication of JP2009284332A publication Critical patent/JP2009284332A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera and an image display system for automatically changing priority of displaying images in accordance with reaction of a viewer. <P>SOLUTION: In the camera 10 which stores photographic images and displays an image included in a group of the stored images on a touch panel and display part 16, a user selects a desired kind of subject such as a person, scenery or the like from among subjects included in the displayed image by touching the touch panel and display part 16. Herein, a viewer reaction determination section 18 extracts from the group of images an image including the selected kind of subject. Then, a priority changing section 19 preferentially displays the extracted image on the touch panel and display part 16 while giving priority over images other than the selected type of subject. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影した画像の中から、ユーザが見たい画像を推測して表示し、順次、これらを切り替えて表示する表示部、またはそれを有するカメラ及びカメラシステムに関するものである。   The present invention relates to a display unit that guesses and displays an image that a user wants to see from captured images, and sequentially switches and displays the image, or a camera and camera system having the display unit.

近年、カメラの記憶容量が大きくなる傾向から、写真撮影の枚数が増加している。そして、ユーザにとっては、そこから良い写真のみを鑑賞したいという要望が増加している。   In recent years, the number of photographs taken has increased due to the tendency for the storage capacity of cameras to increase. There is an increasing demand for users to view only good photos.

例えば、下記特許文献1には、スライドショーやアルバムの切り替えを容易に行う画像再生装置が開示されている。
特開2006−173985号公報
For example, Patent Document 1 below discloses an image playback device that easily switches between a slide show and an album.
JP 2006-173985 A

しかしながら、上述した特許文献1に記載の装置では、観賞者は、スライドショーで興味のない画像まで見せられてしまう。そのため、観賞者にとって興味のある画像と興味のない画像とを切り替えて表示する必要があり、操作が面倒なものであった。したがって、スライドショーのように全ての画像を見せるのではなく、鑑賞者が興味のある画像だけを表示する装置が望まれていた。   However, in the apparatus described in Patent Document 1 described above, the viewer is shown even an uninteresting image in the slide show. For this reason, it is necessary to switch between an image that is of interest to the viewer and an image that is not of interest, and the operation is troublesome. Therefore, there has been a demand for an apparatus that displays only the images that the viewer is interested in rather than showing all the images as in a slide show.

したがって本発明の目的は、観賞者の反応に応じて表示する画像の優先度を自動的に切り替えて表示することができるカメラ及び画像表示システムを提供することである。   Accordingly, an object of the present invention is to provide a camera and an image display system that can automatically switch and display the priority of images to be displayed according to the reaction of the viewer.

すなわち請求項1に記載の発明は、撮影した画像を記憶して、該記憶された画像群に含まれる画像を表示手段に表示するカメラに於いて、表示される画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替えて上記表示手段に表示する切り替え手段と、を具備することを特徴とする。   That is, according to the first aspect of the present invention, in a camera that stores captured images and displays the images included in the stored image group on a display unit, the subject included in the displayed image is displayed. And a subject selection unit that selects a desired type of subject from the image group, and an image that includes the type of subject selected by the subject selection unit is extracted from the image group and is converted into an image other than the selected type of subject. Switching means for preferentially switching and displaying on the display means.

請求項2に記載の発明は、請求項1に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the desired type of subject selected by the subject selecting means is a person.

請求項3に記載の発明は、請求項1に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする。   According to a third aspect of the invention, in the first aspect of the invention, the desired type of subject selected by the subject selecting means is a landscape.

請求項4に記載の発明は、記憶された画像群に含まれる画像を表示する画像表示システムであって、表示される画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替える切り替え手段と、上記切り替え手段で切り替えられた画像を表示する表示手段と、を具備することを特徴とする。   According to a fourth aspect of the present invention, there is provided an image display system for displaying an image included in a stored image group, and a subject selection for selecting a desired type of subject from among subjects included in the displayed image. And a switching means for extracting an image of the type of subject selected by the subject selection means from the image group and switching the image with priority over images other than the selected type of subject, and the switching means. Display means for displaying the image switched in step (1).

請求項5に記載の発明は、請求項4に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする。   According to a fifth aspect of the invention, in the fourth aspect of the invention, the desired type of subject selected by the subject selecting means is a person.

請求項6に記載の発明は、請求項4に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする。   According to a sixth aspect of the invention, in the fourth aspect of the invention, the desired type of subject selected by the subject selecting means is a landscape.

請求項7に記載の発明は、請求項4に記載の発明に於いて、上記被写体選択手段は、仮想空間のアバターへのコマンドに基づいて上記所望の種類の被写体を選択することを特徴とする。   The invention according to claim 7 is the invention according to claim 4, wherein the subject selecting means selects the desired type of subject based on a command to the avatar in the virtual space. .

請求項8に記載の発明は、記憶された画像群に含まれる画像を表示する画像表示システムであって、複数の画像を記憶して通信機能を有する外部機器と、該外部機器より取得した画像を表示する画像表示装置と、を具備し、上記画像表示装置は、上記外部機器と通信機能により接続して該外部機器より上記複数の画像を取得する取得手段と、上記取得手段で取得された複数の画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替える切り替え手段と、上記切り替え手段で切り替えられた画像を表示する表示手段と、を有することを特徴とする。   The invention according to claim 8 is an image display system for displaying an image included in a stored image group, and stores an external device having a communication function by storing a plurality of images, and an image acquired from the external device. An image display device for displaying the image, wherein the image display device is connected to the external device by a communication function and acquires the plurality of images from the external device, and is acquired by the acquisition unit. A subject selection unit that selects a desired type of subject from subjects included in a plurality of images, and an image that includes the type of subject selected by the subject selection unit is extracted from the image group, and It has switching means for switching preferentially to images other than the selected type of subject, and display means for displaying the images switched by the switching means.

請求項9に記載の発明は、請求項8に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする。   The invention according to claim 9 is the invention according to claim 8, wherein the desired type of subject selected by the subject selecting means is a person.

請求項10に記載の発明は、請求項8に記載の発明に於いて、上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする。   According to a tenth aspect of the present invention, in the eighth aspect of the invention, the desired type of subject selected by the subject selecting means is a landscape.

請求項11に記載の発明は、請求項8に記載の発明に於いて、上記表示手段は仮想空間を表示可能であり、上記被写体選択手段は、上記表示手段に表示された仮想空間のアバターへのコマンドに基づいて上記所望の種類の被写体を選択することを特徴とする。   According to an eleventh aspect of the present invention, in the invention according to the eighth aspect, the display means can display a virtual space, and the subject selection means can display the virtual space avatar displayed on the display means. The desired type of subject is selected based on the command.

請求項12に記載の発明は、請求項8に記載の発明に於いて、上記外部機器はカメラであることを特徴とする。   The invention described in claim 12 is the invention described in claim 8, characterized in that the external device is a camera.

本発明によれば、観賞者の反応に応じて表示する画像の優先度を自動的に切り替えて表示することができるカメラ及び画像表示システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the camera and image display system which can switch and display the priority of the image displayed according to a viewer's reaction automatically can be provided.

以下、図面を参照して本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係るカメラ10の基本的な構成を示したブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a basic configuration of a camera 10 according to the first embodiment of the present invention.

図1に於いて、本実施形態に於けるカメラ10は、制御部11と、撮影部12と、画像記録部13と、顔検出部14と、人物範囲検出部15と、タッチパネル及び(&)表示部16と、鑑賞者反応判定部18及び優先度切替部19とから構成される。   In FIG. 1, a camera 10 according to the present embodiment includes a control unit 11, a photographing unit 12, an image recording unit 13, a face detection unit 14, a person range detection unit 15, a touch panel, and (&). The display unit 16 includes a viewer response determination unit 18 and a priority switching unit 19.

制御部11は、ユーザの操作に従った制御を行うもので、本カメラ10の全体の制御や判定を行うものである。撮影部12は、ユーザの操作によって図示されない被写体に対応した画像を撮影するものである。画像記録部13は、この撮影部12で撮影された画像の保存(記録)を行うものである。   The control unit 11 performs control according to a user operation, and performs overall control and determination of the camera 10. The imaging unit 12 captures an image corresponding to a subject (not shown) by a user operation. The image recording unit 13 stores (records) an image photographed by the photographing unit 12.

顔検出部14は、撮影した画像に人物が含まれているか否かを判定するためのものである。人物範囲検出部15は、顔検出部14によって人物の顔が検出された後に、人物の体や手足を含んだ範囲を検出するための検出手段である。   The face detection unit 14 is for determining whether or not a person is included in the photographed image. The person range detection unit 15 is detection means for detecting a range including a human body and limbs after the face detection unit 14 detects a person's face.

タッチパネル及び表示部16は、画像記録部13に記録された画像をその画面に表示する表示手段であると共に、画面下に複数のタッチスイッチから構成されるタッチパネルを備えて、該タッチパネルをユーザが触れることによって選択された部位のスイッチを操作するための被写体選択手段である。鑑賞者反応判定部18は、タッチパネル及び表示部16のスイッチ操作に応じて、或いは、図示されないがカメラに内蔵のマイクを通して音声から、鑑賞者が何に反応しているかを判定するものである。優先度切替部19は、上述した鑑賞者の反応によって、タッチパネル及び表示部16に表示する画像の優先度を切り替えるものである。   The touch panel and display unit 16 is a display unit that displays an image recorded in the image recording unit 13 on a screen thereof, and includes a touch panel including a plurality of touch switches below the screen, and the user touches the touch panel. It is a subject selection means for operating the switch of the part selected by this. The viewer response determination unit 18 determines what the viewer is responding to in response to a switch operation of the touch panel and the display unit 16 or from sound through a microphone built in the camera (not shown). The priority switching unit 19 switches the priority of the images displayed on the touch panel and the display unit 16 in accordance with the viewer's reaction described above.

上記鑑賞者反応判定部18、優先度切替部19及び制御部11が、切り替え手段を構成している。これら切り替え手段を構成する鑑賞者反応判定部18、優先度切替部19及び制御部11によって、タッチパネル及び表示部16によって選択された種類の被写体が写っている画像を、後述するように複数の画像から抽出し、上記選択された種類の被写体以外の画像に優先して切り替えて、タッチパネル及び表示部16に表示するようになっている。   The viewer response determination unit 18, the priority switching unit 19, and the control unit 11 constitute a switching unit. An image showing a subject of the type selected by the touch panel and the display unit 16 by the viewer response determination unit 18, the priority switching unit 19 and the control unit 11 constituting the switching means is a plurality of images as will be described later. And preferentially switch to images other than the selected type of subject and display them on the touch panel and display unit 16.

図2は、鑑賞者の興味をタッチパネル及び表示部16で判定する方法について説明するための図である。   FIG. 2 is a diagram for explaining a method for determining the interest of the viewer using the touch panel and the display unit 16.

図2(a)は、鑑賞者であるユーザの手(以下、単にユーザと記す)22がカメラ10のタッチパネル及び表示部16の画面21を操作する例を示したものである。図2(a)に於いて、ユーザ22は、表示手段としてのタッチパネル及び表示部16の画面21のタッチパネルから、被写体選択手段としてのタッチパネル及び表示部16で表示される画像の興味がある部分に触れる。このタッチパネルに触れることによってタッチパネルのスイッチが操作され、被写体が選択されることになる。すると、ユーザ22がタッチパネルに触れたことにより、カメラ10内の人物範囲検出部15によって人物の範囲が検出され、当該画像のどの部分が人物であるかが判定される。   FIG. 2A shows an example in which a user's hand (hereinafter simply referred to as a user) 22 as a viewer operates the touch panel of the camera 10 and the screen 21 of the display unit 16. In FIG. 2A, the user 22 moves from the touch panel as the display unit and the touch panel of the screen 21 of the display unit 16 to a portion where the image displayed on the touch panel and the display unit 16 as the subject selection unit is interested. touch. By touching the touch panel, a switch on the touch panel is operated and a subject is selected. Then, when the user 22 touches the touch panel, the person range detection unit 15 in the camera 10 detects the person range and determines which part of the image is a person.

例えば、図2(a)に於いて、破線で囲まれた範囲23が人物範囲検出部15によって人物であると判定されるものとする。ここで、人物範囲検出部15にて人物であると判定された範囲23内のある部分にユーザが触れた(被写体が選択された)ならば、鑑賞者反応判定部18によってユーザは人物に反応したと判定される。すると、この反応を受けて、制御部11及び優先度切替部19により、図2(b)に示されるように、人物が写った画像21aが、所望の種類の被写体として画面21に順次表示される。   For example, in FIG. 2A, it is assumed that a range 23 surrounded by a broken line is determined to be a person by the person range detection unit 15. Here, if the user touches a certain part in the range 23 determined to be a person by the person range detection unit 15 (the subject is selected), the viewer reacts to the person by the viewer response determination unit 18. It is determined that Then, in response to this reaction, as shown in FIG. 2B, the control unit 11 and the priority switching unit 19 sequentially display an image 21a showing a person on the screen 21 as a desired type of subject. The

一方、人物範囲検出部15にて人物ではない、すなわち風景であると判定された部分(範囲23以外の部分)にユーザが触れたと鑑賞者反応判定部18によって判定されたとする。すると、制御部11及び優先度切替部19により、図2(c)に示されるように、風景が写った画像21bが、所望の種類の被写体として画面21に順次表示される。   On the other hand, it is assumed that the viewer response determination unit 18 determines that the user has touched a portion (portion other than the range 23) that is determined not to be a person by the person range detection unit 15, that is, a landscape. Then, as shown in FIG. 2C, the control unit 11 and the priority switching unit 19 sequentially display an image 21b showing a landscape on the screen 21 as a desired type of subject.

次に、図3及び図4のフローチャートを参照して、本実施形態に於けるカメラ制御動作について説明する。この制御動作は、主に制御部11によって行われる。   Next, the camera control operation in this embodiment will be described with reference to the flowcharts of FIGS. This control operation is mainly performed by the control unit 11.

図3は、第1の実施形態に於けるカメラの基本的な動作を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the basic operation of the camera according to the first embodiment.

ステップS1に於いて、先ず、このカメラ10が撮影モードであるか否かが判定される。ここで、撮影モードであると判定された場合はステップS2へ移行し、そうではない、すなわち再生モードであると判定された場合は後述するステップS7に移行する。   In step S1, it is first determined whether or not the camera 10 is in a shooting mode. If it is determined that the shooting mode is selected, the process proceeds to step S2, and if not, that is, if it is determined that the playback mode is selected, the process proceeds to step S7 described later.

ステップS2では、顔検出部14により顔検出が行われる。次いで、ステップS3に於いて、図示されないレリーズスイッチにより、撮影実行の指示を与えるためのレリーズ操作がなされたか否かが判定される。ここで、レリーズ操作がなされない場合は、上記ステップS1に戻る。一方、レリーズ操作される場合は、ステップS4に移行する。   In step S2, the face detection unit 14 performs face detection. Next, in step S3, it is determined whether or not a release operation for giving a shooting execution instruction has been performed by a release switch (not shown). If the release operation is not performed, the process returns to step S1. On the other hand, when the release operation is performed, the process proceeds to step S4.

このステップS4では、被写体の顔の位置にピントを合わせて露出の制御が行われる。次いで、ステップS5に移行して撮影が行われる。この撮影動作は周知のものであるので、ここでは説明は省略する。更に、ステップS6にて、撮影された画像及びその顔情報が、撮影時間と共に画像記録部13に記録される。その後、本シーケンスが終了する。   In step S4, exposure is controlled by focusing on the face position of the subject. Next, the process proceeds to step S5 and photographing is performed. Since this photographing operation is well known, the description thereof is omitted here. Further, in step S6, the photographed image and its face information are recorded in the image recording unit 13 together with the photographing time. Thereafter, this sequence ends.

一方、上記ステップS1にて再生モードであると判定された場合は、ステップS7に移行して、撮影された画像を再生するか否かが判定される。ここで、再生する場合はステップS8に移行し、再生しない場合はステップS18に移行する。   On the other hand, if it is determined in step S1 that the playback mode is set, the process proceeds to step S7 to determine whether or not to play back the captured image. Here, when reproducing | regenerating, it transfers to step S8, and when not reproducing | regenerating, it transfers to step S18.

ステップS18では、画像がグループ化されているか否か(未分類画像の有無)が判定される。画像がグループ化されていない(未分類画像が有る)場合はステップS19に移行し、グループ化されている(未分類画像が無い)場合は上記ステップS1に戻る。   In step S18, it is determined whether the images are grouped (whether there are unclassified images). If the images are not grouped (there are unclassified images), the process proceeds to step S19. If the images are grouped (there are no unclassified images), the process returns to step S1.

ステップS19では、前回の撮影と次の撮影との間が所定時間以上経過しているか否かが判定される。ここで、撮影されずに所定時間以上経過している場合は、ステップS20に移行して、前回の撮影と次の撮影で取得された画像は別のグループであると判定される。つまり、前回に撮影された画像を1つのグループ、次の撮影で撮影された画像は別のグループというように、グループ化されて整理される。その後、本シーケンスが終了する。   In step S19, it is determined whether or not a predetermined time has elapsed between the previous shooting and the next shooting. Here, when a predetermined time or more has passed without being shot, the process proceeds to step S20, and it is determined that the images acquired in the previous shooting and the next shooting are in different groups. In other words, the images taken last time are grouped and organized so that one image is taken in the previous image and another image is taken in the next shooting. Thereafter, this sequence ends.

上記ステップS7にて再生すると判定された場合は、ステップS8に移行して、タッチパネル及び表示部16による画像のサムネイル表示が行われる。そして、タッチパネル及び表示部16によってサムネイル表示された複数の撮影画像の中から、ユーザが興味のある画像を見つけたならば、タッチパネル及び表示部16が操作されて該当する画像が指定される。すると、続くステップS9にて、その指定された画像がタッチパネル及び表示部16の画面に拡大表示される。   If it is determined in step S7 that the image is to be reproduced, the process proceeds to step S8, where the thumbnail display of the image is performed on the touch panel and the display unit 16. If the user finds an image of interest from among a plurality of captured images displayed as thumbnails by the touch panel and display unit 16, the touch panel and display unit 16 is operated to specify the corresponding image. Then, in the subsequent step S9, the designated image is enlarged and displayed on the screen of the touch panel and the display unit 16.

次いで、ステップS10に於いて、ユーザの反応で画像の表示切り替えを行う対話表示モードが選択されたか否かが判定される。ここで、対話表示モードでない場合は本シーケンスが終了するが、対話表示モードの場合はステップS11に移行し、ユーザはタッチパネル及び表示部16で興味のある部分に触れることができる。尚、このタッチパネル判定の詳細な動作については後述する。   Next, in step S10, it is determined whether or not an interactive display mode for switching display of images has been selected in response to the user's reaction. Here, when not in the interactive display mode, this sequence ends. However, in the interactive display mode, the process proceeds to step S11, and the user can touch a portion of interest on the touch panel and the display unit 16. The detailed operation of the touch panel determination will be described later.

ステップS12では、上記ステップS11で触れられたユーザの興味のある部分が、人物の部分であるか否かが判定される。ここで、ユーザの興味のある部分が人物部の場合はステップS13に移行し、次に表示可能な人物画像があるか否かが判定される。その結果、次に表示する人物画像がある場合は、ステップS14に移行して、優先度切替部19によって次の人物画像に切り替えられて表示が行われる。一方、次に表示可能な人物画像がない場合は、ステップS17に移行して、ユーザにアラーム(図示せず)やタッチパネル及び表示部16への表示等により警告が与えられる。その後、本シーケンスが終了する。   In step S12, it is determined whether or not the portion of interest of the user touched in step S11 is a person portion. Here, if the part of interest to the user is a person part, the process proceeds to step S13, and it is determined whether there is a person image that can be displayed next. As a result, if there is a person image to be displayed next, the process proceeds to step S14, where the priority switching unit 19 switches to the next person image and displays it. On the other hand, if there is no person image that can be displayed next, the process proceeds to step S17, and a warning is given to the user by an alarm (not shown), a display on the touch panel and the display unit 16, or the like. Thereafter, this sequence ends.

また、上記ステップS12に於いて、ユーザの興味のある部分が人物部でない場合は、この画像は風景画像であると判定されたことになる。したがって、ステップS15に移行して、次に表示する風景画像があるか否かが判定される。その結果、次に表示する風景画像がある場合は、ステップS16に移行して、優先度切替部19により切り替えられて次の風景画像の表示が行われる。一方、次に表示する風景画像がない場合は、ステップS17に移行して、上述したようにしてユーザに警告が与えられる。   In step S12, if the part of interest to the user is not a person part, it is determined that the image is a landscape image. Therefore, the process proceeds to step S15, and it is determined whether there is a landscape image to be displayed next. As a result, when there is a landscape image to be displayed next, the process proceeds to step S16, where the priority switching unit 19 switches to display the next landscape image. On the other hand, if there is no landscape image to be displayed next, the process proceeds to step S17, and a warning is given to the user as described above.

図4は、図3のフローチャートのステップS11に於けるサブルーチン「タッチパネル判定」の詳細な動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining the detailed operation of the subroutine “touch panel determination” in step S11 of the flowchart of FIG.

本サブルーチンに入ると、先ず、ステップS31に於いて、ユーザがタッチパネル及び表示部16のタッチパネルで触れた部分が、顔検出部14で検出された顔範囲か否かが、鑑賞者反応判定部18で判定される。ここで、ユーザがタッチパネルで触れた部分が、顔検出部14で検出された顔範囲である場合は、ステップS35に移行して、人物であるとの判定処理が行われる。これは、例えば、図5に示されるような画像である。このように、人物が撮影画像の真ん中に立って写っているような分かりやすい画像の場合は、簡単に顔範囲を判定することができる。   When entering this subroutine, first, in step S31, it is determined whether or not the part touched by the touch panel of the touch panel and the display unit 16 is the face range detected by the face detection unit 14 or not. It is determined by. Here, when the part which the user touched with the touch panel is the face range detected by the face detection part 14, it transfers to step S35 and the determination process that it is a person is performed. This is, for example, an image as shown in FIG. Thus, in the case of an easy-to-understand image in which a person stands in the middle of the captured image, the face range can be easily determined.

上記ステップS31にて、ユーザがタッチパネルで触れた部分が、顔検出部14で検出された顔範囲でない場合は、例えば、図6(a)に示されるように、人物が人物範囲とは分かりにくい状態であると考えられる。そこで、ステップS32に於いて、図6(b)に示されるように、顔検出された顔範囲の下部で、顔の高さTの2倍である2Tの位置が左右に均一色であるか否かが判定される。   If the part touched by the touch panel at the step S31 is not the face range detected by the face detection unit 14, for example, as shown in FIG. It is considered to be a state. Therefore, in step S32, as shown in FIG. 6B, whether the position of 2T, which is twice the face height T, is a uniform color on the left and right in the lower part of the face range where the face is detected. It is determined whether or not.

ここで、均一色でない場合は、ステップS36に移行して、被写体と一緒に皿などが置かれたテーブルが写っていると判定処理される。その後、本サブルーチンを抜けて図3のフローチャートのステップS12に移行する。一方、上記ステップS32にて均一色であると判定された場合は、ステップS33に移行して、図7(a)に示されるように、顔検出された部分の下部の幅が、顔検出された顔の2倍以下であるか否かが判定される。   Here, if the color is not uniform, the process proceeds to step S36, and it is determined that a table on which a dish or the like is placed together with the subject is reflected. Thereafter, the present subroutine is exited and the process proceeds to step S12 in the flowchart of FIG. On the other hand, if it is determined in step S32 that the color is uniform, the process proceeds to step S33, and the width of the lower portion of the face detected portion is detected as shown in FIG. 7A. It is determined whether or not the face is twice or less.

その結果、顔検出された部分の下部の幅が、顔検出された顔の2倍以下である場合はステップS34に移行し、そうでない場合はステップS37に移行する。ステップS34では、図7(b)に示されるように、更に顔検出した部分の下部の高さが、顔の高さの5倍以下であるか否かが判定される。ここで、顔検出した部分の下部の高さが、顔の高さの5倍以下である場合は、ステップS35に移行して、上述したように人物であるとの判定処理が行われる。その後、本サブルーチンを抜けて図3のフローチャートのステップS12に移行する。   As a result, if the width of the lower part of the face detected portion is less than or equal to twice the face detected, the process proceeds to step S34, and if not, the process proceeds to step S37. In step S34, as shown in FIG. 7B, it is determined whether or not the height of the lower part of the face detected portion is not more than 5 times the height of the face. Here, when the height of the lower part of the face detected portion is not more than 5 times the height of the face, the process proceeds to step S35, and the determination process of being a person is performed as described above. Thereafter, the present subroutine is exited and the process proceeds to step S12 in the flowchart of FIG.

ステップS37では、顔の下部が顔の2倍以上の幅であるので、被写体は図8(a)に示されるような姿勢であることが考えられる。したがって、図8(b)に示されるように、顔検出された部分を中心にエッジが抽出されて強調される。この強調されたエッジから、続くステップS38にて、被写体の顔部や輪郭部が判定処理される。   In step S37, since the lower part of the face is twice as wide as the face, the subject may be in the posture shown in FIG. Therefore, as shown in FIG. 8B, an edge is extracted and emphasized around the face detected portion. In step S38, the face portion and contour portion of the subject are determined from the emphasized edge.

次いで、ステップS39に於いて、顔部と連続してエッジ強調されている部分があるか否かが判定される。ここで、顔部と連続してエッジ強調されている部分がある場合は、顔部と連続している部分は、被写体の胴体であるとみなされ、上述したステップS35に移行して人物の画像であるとの処理が行われる。一方、上記ステップS39にて、顔部と連続してエッジ強調されている部分がない場合は、ステップS40に移行して、風景の画像であると判定されてその旨の処理が行われる。その後、本サブルーチンを抜けて図3のフローチャートのステップS12に移行する。   Next, in step S39, it is determined whether or not there is a portion that is edge-enhanced continuously with the face portion. Here, if there is a part that is edge-enhanced continuously with the face part, the part that is continuous with the face part is regarded as the torso of the subject, and the process proceeds to the above-described step S35 and the person image is displayed. Processing is performed. On the other hand, in step S39, if there is no edge-enhanced portion that is continuous with the face portion, the process proceeds to step S40, where it is determined that the image is a landscape image, and processing to that effect is performed. Thereafter, the present subroutine is exited and the process proceeds to step S12 in the flowchart of FIG.

尚、上述した例では、人物の判定は、上述したステップS32〜S34にて顔検出部14で検出された顔範囲を基準にして説明したが、その判定値はこれに限られるものではない。   In the example described above, the determination of a person has been described based on the face range detected by the face detection unit 14 in steps S32 to S34 described above, but the determination value is not limited to this.

次に、本実施形態のカメラを使用して画像観賞をする例について説明する。   Next, an example of viewing an image using the camera of the present embodiment will be described.

一般的な画像観賞は、例えば、図9(a)に示されるように、最初に人物の画像25aを見ていて、次に人物を見たい場合は、図9(b)に示されるように、一度、画像のサムネイル表示を行う。そして、サムネイル画像の風景や人物が混ざっている複数の画像の中から、ユーザが自分で次の人物画像を探し出し、図9(c)に示されるように画像25bを表示しなければならない。これでは、ユーザが興味のある画像だけを観賞することは困難である。   In general image viewing, for example, as shown in FIG. 9 (a), when the user first looks at the person image 25a and then wants to see the person, as shown in FIG. 9 (b). Once, thumbnail display of the image is performed. Then, the user must search for the next person image from a plurality of images in which the scenery and people of the thumbnail image are mixed, and display the image 25b as shown in FIG. 9C. In this case, it is difficult to view only the image that the user is interested in.

これに対し、本実施形態によるカメラを使用する場合、ユーザがタッチパネルで図10(a)に示されるような画像25aの人物部分に触れると、鑑賞者反応判定部18によって、このユーザは人物に興味があることが分かる。すると、次に、図9(b)に示されるようなサムネイル画像ではなく、自動的に人物が写った図10(b)に示されるような画像25bを表示する。次に、図10(b)に示される画像25bで、ユーザが、また人物部分に触れると、今度は図10(c)に示されるような人物の画像25cを表示することができる。これにより、ユーザの興味がある画像のみを表示することができる。   On the other hand, when the camera according to the present embodiment is used, when the user touches the person portion of the image 25a as shown in FIG. 10A with the touch panel, the viewer response determination unit 18 makes the user a person. I understand that I am interested. Then, instead of the thumbnail image as shown in FIG. 9B, an image 25b as shown in FIG. 10B in which a person is automatically displayed is displayed. Next, in the image 25b shown in FIG. 10B, when the user touches the person part again, a person image 25c as shown in FIG. 10C can be displayed. Thereby, only the image which a user is interested can be displayed.

このように、莫大な数の画像の中からでも、興味のある画像を自動的に表示することができるので、画像を探す手間を省くことができる。   In this way, even from an enormous number of images, it is possible to automatically display an image of interest, so it is possible to save the trouble of searching for an image.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態はユーザが直接タッチパネルに触れて興味のある画像を鑑賞するようにしていたが、この第2の実施形態は仮想空間でユーザの分身となるような仮想のキャラクタであるアバター同士が会話をして画像を鑑賞するようにしたものである。   In the first embodiment described above, the user directly touches the touch panel to view an image of interest. However, the second embodiment is a virtual character that can be used as a user in a virtual space. Avatars can talk and appreciate images.

尚、以下に述べる第2の実施形態に於いて、カメラの基本的な構成及び動作は、図1乃至図10に示された第1の実施形態と同様であるので、異なる構成及び動作についてのみ説明し、その他の同一の部分には同一の参照番号を付して、その図示及び説明は省略する。   In the second embodiment described below, the basic configuration and operation of the camera are the same as those of the first embodiment shown in FIGS. 1 to 10, and therefore only the different configuration and operation are described. In the description, the same reference numerals are assigned to other identical parts, and illustration and explanation thereof are omitted.

図11は、本発明の第2の実施形態に係る画像表示システム全体の概略構成を示すブロック図、図12は本第2の実施形態に於ける画像表示システムを使用して仮想空間でアバター同士が会話(チャット)をし、画像観賞を楽しむ例を示した図である。   FIG. 11 is a block diagram showing a schematic configuration of the entire image display system according to the second embodiment of the present invention. FIG. 12 shows avatars in a virtual space using the image display system according to the second embodiment. It is the figure which showed the example which enjoys image viewing by having conversation (chat).

図11に於いて、この画像表示システムは、上述した構成のカメラ10と、該カメラ10と通信可能で、後述する仮想空間内での画像切り替えを行うための画像表示装置30とにより構成される。   In FIG. 11, the image display system includes a camera 10 having the above-described configuration and an image display device 30 that can communicate with the camera 10 and performs image switching in a virtual space to be described later. .

画像表示装置30は、通信及び制御部(通信&制御部)31と、画像記録部32と、操作判定部33と、チャット表示部34と、内容分析部35と、画像切替部36と、画像保存部37と、操作部38と、仮想空間データ部39と、仮想空間合成表示部40と、を有して構成される。   The image display device 30 includes a communication and control unit (communication & control unit) 31, an image recording unit 32, an operation determination unit 33, a chat display unit 34, a content analysis unit 35, an image switching unit 36, and an image. The storage unit 37, the operation unit 38, the virtual space data unit 39, and the virtual space composition display unit 40 are configured.

通信及び制御部31は、外部機器であるカメラ10から送信された複数の画像を取得するための取得手段であり、パーソナルコンピュータと接続して画像を受け取ることも可能である。また、通信及び制御部31は、画像表示装置30内の各種制御も司る。画像記録部32は、通信及び制御部31で受け取った画像を保存する。操作判定部33は、携帯電話機やインターネットに接続されたパーソナルコンピュータでの操作を判定したり、仮想空間内でのアバターの移動やチャットを判定する。   The communication and control unit 31 is an acquisition unit for acquiring a plurality of images transmitted from the camera 10 that is an external device, and can be connected to a personal computer to receive images. The communication and control unit 31 also controls various controls in the image display device 30. The image recording unit 32 stores the image received by the communication and control unit 31. The operation determination unit 33 determines an operation on a mobile phone or a personal computer connected to the Internet, or determines movement of an avatar or chat in a virtual space.

チャット表示部34は、図12(a)及び(b)に示されるように、会話(チャット)を表示するためのものであり、内容分析部35はそのチャットの内容分析を行って会話相手の興味を判定する。画像切替部36は、この際の相手の興味に応じて、次に表示する画像を選択して画像の表示を切り替える切り替え手段である。この画像切替部36は、後述する操作部38で選択された種類の被写体が写っている画像を上記画像記録部32から抽出して、上記選択された種類の被写体以外の画像に優先して切り替える。画像保存部37は、画像切替部36で切り替えられた画像について、仮想空間での表示場所や表示方法と関連付けて保存する。   As shown in FIGS. 12A and 12B, the chat display unit 34 is for displaying a conversation (chat), and the content analysis unit 35 analyzes the content of the chat and displays the conversation partner. Determine your interest. The image switching unit 36 is a switching unit that selects an image to be displayed next and switches display of the image in accordance with the other party's interest. The image switching unit 36 extracts from the image recording unit 32 an image showing the type of subject selected by the operation unit 38, which will be described later, and preferentially switches to an image other than the selected type of subject. . The image storage unit 37 stores the images switched by the image switching unit 36 in association with the display location and display method in the virtual space.

操作部38は、後述するアバターを操作して仮想空間内の画像中の中から所望の種類の被写体を選択するための被写体選択手段である。仮想空間データ部39は、アバターを含む仮想空間内の情報を保存することができる。仮想空間合成表示部40は、画像保存部37の画像と仮想空間データ部39のデータを合成して、合成写真を仮想空間内に表示させる表示手段である。   The operation unit 38 is a subject selection means for operating a later-described avatar to select a desired type of subject from images in the virtual space. The virtual space data unit 39 can store information in the virtual space including the avatar. The virtual space composite display unit 40 is a display unit that combines the image of the image storage unit 37 and the data of the virtual space data unit 39 to display a composite photograph in the virtual space.

カメラ10から送った画像を仮想空間に展示するサービスは既に周知である。インターネットを介してパーソナルコンピュータや携帯電話機から、仮想空間に対して簡単な操作をすることはできるが、操作には制約がある。画像の表示切り替えのような操作を、ユーザが自分で行うことは手間がかかる。したがって、複雑な操作ができない環境で、本実施形態は効果を発揮する。   A service for displaying an image sent from the camera 10 in a virtual space is already well known. Although simple operations can be performed on the virtual space from a personal computer or mobile phone via the Internet, there are restrictions on the operations. It takes time and effort for the user to perform operations such as image display switching. Therefore, the present embodiment is effective in an environment where complicated operations cannot be performed.

次に、図12を参照して、仮想空間でアバター同士が会話(チャット)をして、画像観賞を楽しむ例について説明する。   Next, an example in which avatars talk (chat) in a virtual space and enjoy image viewing will be described with reference to FIG.

図12(a)示される仮想空間45内では、ユーザ(右側のアバター(人)46)が仮想空間45で知り合った友達(左側のアバター(人)47)などと会話を楽しむことができる。例えば、ユーザ(アバター46)が友達(アバター47)に対して、ユーザ(アバター46)が仮想空間45内に展示した画像48aを見せる。   In the virtual space 45 shown in FIG. 12A, the user (the right avatar (person) 46) can enjoy a conversation with a friend (the left avatar (person) 47) whom the user has met in the virtual space 45. For example, the user (avatar 46) shows an image 48a displayed in the virtual space 45 to the friend (avatar 47) by the user (avatar 46).

ここで、友達(アバター47)が、ユーザ(アバター46)に対して、「この人、誰?」いう内容で尋ねる。すると、友達(アバター47)の会話に含まれる、「人」という単語がキーワードとなり、この「人」という単語に反応して、図12(b)に示されるように、次の人物画像48bが、所望の種類の被写体として表示される。そして、ユーザ(アバター46)は、友達(アバター47)と、切り替えられる画像を見ながら会話を楽しむことができる。   Here, the friend (avatar 47) asks the user (avatar 46) with the content “who is this person?”. Then, the word “person” included in the conversation of the friend (avatar 47) becomes a keyword, and in response to the word “person”, as shown in FIG. And displayed as a desired type of subject. And a user (avatar 46) can enjoy a conversation with a friend (avatar 47) while seeing the image to be switched.

この場合、仮想空間45内のアバターへのコマンドが「人」という単語であり、このコマンドに基づいて所望の種類の被写体が選択されることになる。勿論、図12には示されないが、会話の内容に応じて、所望の種類の被写体として風景の画像が表示されるようにしてもよい。   In this case, the command to the avatar in the virtual space 45 is the word “people”, and a desired type of subject is selected based on this command. Of course, although not shown in FIG. 12, a landscape image may be displayed as a desired type of subject according to the content of the conversation.

また、ここでは、会話を例として画像の切り替えを示したが、会話だけでなく、仮想空間内でアバターが指し示した画像領域からでも興味を判断して画像の切り替えを行うことができる。また、ここでは会話中の「人」を例として、キーワードにしているが、他にも人物に興味があるキーワードの例としては、「友達」、「仲間」、「家族」などが挙げられ、景色に興味があるキーワードの例としては、「空」、「海」、「山」などが挙げられる。これにより、ユーザが画像の切り替えの制御を行わなくても、会話相手の興味や反応に応じて、画像を切り替えることができる。   In addition, here, switching of images is shown by way of conversation, but it is possible to switch images by determining interest not only from conversation but also from the image area pointed to by the avatar in the virtual space. In addition, here, “people” in conversation are used as keywords, but other keywords that are of interest to people include “friends”, “friends”, “family”, etc. Examples of keywords that are interested in scenery include "sky", "sea", and "mountain". Thereby, even if a user does not control switching of an image, it can switch an image according to the conversation partner's interest and reaction.

次に、図13及び図14のフローチャートを参照して、本発明の第2の実施形態の画像表示システムの動作について説明する。   Next, the operation of the image display system according to the second embodiment of the present invention will be described with reference to the flowcharts of FIGS.

本シーケンスが開始されると、先ず、ステップS51に於いて、画像表示装置30の通信及び制御部31にて、外部機器であるカメラ10や図示されないパーソナルコンピュータから画像が取得されたか否かが判定される。ここで、画像が取得された場合はステップS52に移行し、取得されない場合はステップS56に移行する。   When this sequence is started, first, in step S51, it is determined whether or not an image is acquired from the camera 10 as an external device or a personal computer (not shown) by the communication and control unit 31 of the image display device 30. Is done. Here, when an image is acquired, it transfers to step S52, and when it is not acquired, it transfers to step S56.

ステップS52では、取得された画像に、当該画像を展示する場所に関する情報があるか否かが判定される。ここで、上記場所に関する情報がある場合は、ステップS54に移行して、仮想空間合成表示部40の指定された展示場所に画像が配置される。一方、場所に関する情報が無い場合は、ステップS53に移行して、仮想空間の空いている場所(アルバム等、表示できなくても良い)に配置される。   In step S52, it is determined whether or not the acquired image has information regarding a place where the image is displayed. Here, when there is information on the place, the process proceeds to step S54, and an image is arranged at the designated exhibition place of the virtual space composition display unit 40. On the other hand, if there is no information regarding the place, the process proceeds to step S53, where the information is arranged in a vacant place in the virtual space (album etc. may not be displayed).

次いで、ステップS55にて、仮想空間の画像配置場所と画像が対応付けられて、画像保存部37に保存される。その後、本シーケンスが終了する。   Next, in step S55, the image placement location in the virtual space is associated with the image and stored in the image storage unit 37. Thereafter, this sequence ends.

上記ステップS51で画像が取得されない場合は、ステップS56に移行して仮想空間を散策するか否かが判定される。ここで、仮想空間を散策する場合は、ステップS57に移行して、仮想空間合成表示部40の基準となる場所にアバターが表示される。そして、続くステップS58にて、アバターがユーザの指示で移動操作されたか否か操作判定部33でが判定される。   If no image is acquired in step S51, the process proceeds to step S56 to determine whether or not to take a stroll through the virtual space. Here, when strolling the virtual space, the process proceeds to step S57, and the avatar is displayed at a location serving as a reference of the virtual space composition display unit 40. In subsequent step S58, the operation determination unit 33 determines whether or not the avatar has been moved according to the user's instruction.

ここで、移動操作された場合は、ステップS59に移行し、ユーザの操作部38による操作に従って仮想空間内の風景の切り替えが行われた後、ステップS60に移行する。また、上記ステップS58にて、アバターがユーザの操作で移動されない場合は、ステップS59がスキップされて直接ステップS60に移行する。そして、ステップS60に於いて、仮想空間の散策を終了するか否かが判定される。その結果、まだ終了しない場合は、上記ステップS58に移行して、以降の処理動作が繰り返される。一方、散策を終了する場合は、本シーケンスが終了する。   Here, when the moving operation is performed, the process proceeds to step S59, and after the scenery in the virtual space is switched according to the operation by the user operation unit 38, the process proceeds to step S60. In step S58, if the avatar is not moved by the user's operation, step S59 is skipped and the process proceeds directly to step S60. In step S60, it is determined whether or not to end the walk in the virtual space. As a result, if not finished yet, the process proceeds to step S58, and the subsequent processing operations are repeated. On the other hand, when ending the walk, this sequence ends.

上記ステップS56にて、仮想空間の散策が行われない場合は、ステップS61に移行して、チャットが行われるか否かが判定される。ここで、チャットが行われない場合は上記ステップS1に移行する。一方、チャットが行われる場合は、ステップS62に移行してチャットの入力内容が表示され、更にステップS63にて会話の内容等のコミュニケーションで画像の切り替えが行われる。その後、上記ステップS1に移行する。   If the virtual space is not walked in step S56, the process proceeds to step S61 to determine whether or not chat is performed. If no chat is performed, the process proceeds to step S1. On the other hand, when the chat is performed, the process proceeds to step S62, where the input content of the chat is displayed, and further, the image is switched by communication such as the content of the conversation in step S63. Thereafter, the process proceeds to step S1.

図14は、図13のフローチャートのステップS63に於けるサブルーチン「コミュニケーションで画像切り替え」の詳細な動作を説明するためのフローチャートである。   FIG. 14 is a flowchart for explaining the detailed operation of the subroutine “image switching by communication” in step S63 of the flowchart of FIG.

本サブルーチンに入ると、先ず、ステップS71に於いて、操作部38の操作によりアバターが画像に近付くか否かが判定される。ここで、アバターが画像に近付く場合はステップS73に移行し、そうでない場合はステップS72に移行する。ステップS72では、アバターが画像を指差しているか否かが判定される。ここで、指差ししている場合はステップS73に移行し、そうでない場合は本サブルーチンを抜けて図13のフローチャートのステップS1に移行する。   When this subroutine is entered, first in step S71, it is determined whether or not the avatar approaches the image by the operation of the operation unit 38. Here, when an avatar approaches an image, it transfers to step S73, and when that is not right, it transfers to step S72. In step S72, it is determined whether or not the avatar is pointing at the image. If the finger is pointing, the process proceeds to step S73. If not, the present subroutine is exited and the process proceeds to step S1 in the flowchart of FIG.

ステップS73では、アバター同士のチャットのキーワードが判定処理される。すなわち、ステップS74に於いて、キーワードが人に関係しているか否かが判定される。ここで、キーワードが人に関係している場合は、ステップS75に移行して、同じ人物の画像が表示される。また、キーワードが人に関係していない場合は、次にステップS76にて、キーワードが場所に関係しているか否かが判定される。その結果、キーワードが場所に関係している場合は、ステップS77に移行して、同じイベントの風景写真が表示される。同じイベントとは、上述した図3のフローチャートのステップS20でカメラ内で既にグループ分けされて送信されている画像のグループである。   In step S73, a chat keyword between avatars is determined. That is, in step S74, it is determined whether or not the keyword is related to a person. Here, if the keyword relates to a person, the process proceeds to step S75, and an image of the same person is displayed. If the keyword is not related to a person, it is next determined in step S76 whether the keyword is related to a place. As a result, when the keyword is related to the place, the process proceeds to step S77, and the landscape photograph of the same event is displayed. The same event is a group of images that have already been grouped and transmitted in the camera in step S20 of the flowchart of FIG. 3 described above.

上記ステップS74及びS76に於いて、キーワードが人にも場所にも関係していないと判定された場合は、ステップS78に移行し、時系列に画像が表示される。   If it is determined in steps S74 and S76 that the keyword is not related to a person or a place, the process proceeds to step S78, and images are displayed in time series.

そして、上記ステップS75、S77、S78の表示が行われた後は、本サブルーチンを抜けて図13のフローチャートのステップS1に移行する。   Then, after the above steps S75, S77, and S78 are displayed, the process exits from this subroutine and proceeds to step S1 in the flowchart of FIG.

人に関係するキーワードの例としては「友達」、「仲間」、「家族」等が挙げられ、風景に関係するキーワードの例としては「空」、「海」、「山」等が挙げられる。これにより、仮想空間に於いても、アバターの興味で画像の切り替えを簡単に行うことができる。   Examples of keywords related to people include “friends”, “friends”, “family” and the like, and examples of keywords related to scenery include “sky”, “sea”, “mountain”, and the like. As a result, even in the virtual space, it is possible to easily switch images due to the interest of the avatar.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形実施が可能であるのは勿論である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

更に、前述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の第1の実施形態に係るカメラ10の基本的な構成を示したブロック図である。1 is a block diagram showing a basic configuration of a camera 10 according to a first embodiment of the present invention. 鑑賞者の興味をタッチパネル及び表示部16で判定する方法について説明するための図である。It is a figure for demonstrating the method to determine an observer's interest with a touchscreen and the display part. 本発明の第1の実施形態に於けるカメラの基本的な動作を説明するためのフローチャートである。4 is a flowchart for explaining basic operations of the camera according to the first embodiment of the present invention. 図3のフローチャートのステップS11に於けるサブルーチン「タッチパネル判定」の詳細な動作を説明するためのフローチャートである。4 is a flowchart for explaining detailed operations of a subroutine “touch panel determination” in step S11 of the flowchart of FIG. 3. タッチパネル判定を説明するための画像の例を示した図である。It is the figure which showed the example of the image for demonstrating touchscreen determination. 人物が人物範囲とは分かりにくい状態である画像の例を示した図である。It is the figure which showed the example of the image in which a person is in a state in which it is hard to understand the person range. 図4のフローチャートのステップS32及びS33にて顔検出から人物であると判定するための説明図である。It is explanatory drawing for determining with the step S32 and S33 of the flowchart of FIG. 4 that it is a person from face detection. 図4のフローチャートのステップS37のエッジ強調により人物であると判定するための説明図である。It is explanatory drawing for determining with the edge emphasis of step S37 of the flowchart of FIG. 4 that it is a person. 一般的なカメラの画像鑑賞の例を示した図である。It is the figure which showed the example of the image appreciation of a general camera. 本発明の第1の実施形態のカメラを使用して画像観賞をする例について説明するための図である。It is a figure for demonstrating the example which image-views using the camera of the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像表示システム全体の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the whole image display system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に於ける画像表示システムを使用して仮想空間でアバター同士が会話(チャット)をし、画像観賞を楽しむ例を示した図である。It is the figure which showed the example which avatars talk (chat) in virtual space using the image display system in the 2nd Embodiment of this invention, and enjoy image viewing. 本発明の第2の実施形態の画像表示システムの動作について説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image display system of the 2nd Embodiment of this invention. 図13のフローチャートのステップS63に於けるサブルーチン「コミュニケーションで画像切り替え」の詳細な動作を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed operation | movement of the subroutine "image switching by communication" in step S63 of the flowchart of FIG.

符号の説明Explanation of symbols

10…カメラ、11…制御部、12…撮影部、13、32…画像記録部、14…顔検出部、15…人物範囲検出部、16…タッチパネル及び(&)表示部、18…鑑賞者反応判定部、19…優先度切替部、21…画面、21a、21b、25a、25b、25c…画像、22…ユーザ(ユーザの手)、23…範囲、30…画像表示装置、31…通信及び制御部(通信&制御部)、33…操作判定部、34…チャット表示部、35…内容分析部、36…画像切替部、37…画像保存部、39…仮想空間データ部、40…仮想空間合成表示部。   DESCRIPTION OF SYMBOLS 10 ... Camera, 11 ... Control part, 12 ... Shooting part, 13, 32 ... Image recording part, 14 ... Face detection part, 15 ... Person range detection part, 16 ... Touch panel and (&) display part, 18 ... Viewer response Determination unit, 19 ... priority switching unit, 21 ... screen, 21a, 21b, 25a, 25b, 25c ... image, 22 ... user (user's hand), 23 ... range, 30 ... image display device, 31 ... communication and control Part (communication & control part), 33 ... operation determination part, 34 ... chat display part, 35 ... content analysis part, 36 ... image switching part, 37 ... image storage part, 39 ... virtual space data part, 40 ... virtual space composition Display section.

Claims (12)

撮影した画像を記憶して、該記憶された画像群に含まれる画像を表示手段に表示するカメラに於いて、
表示される画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、
上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替えて上記表示手段に表示する切り替え手段と、
を具備することを特徴とするカメラ。
In a camera for storing captured images and displaying images included in the stored image group on a display means,
Subject selection means for selecting a desired type of subject from subjects included in the displayed image;
Switching means for extracting an image showing a subject of the type selected by the subject selection means from the image group and switching the image to display on the display means in preference to an image other than the selected type of subject. ,
A camera comprising:
上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする請求項1に記載のカメラ。   2. The camera according to claim 1, wherein the desired type of subject selected by the subject selecting means is a person. 上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする請求項1に記載のカメラ。   2. The camera according to claim 1, wherein the desired type of subject selected by the subject selecting means is a landscape. 記憶された画像群に含まれる画像を表示する画像表示システムであって、
表示される画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、
上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替える切り替え手段と、
上記切り替え手段で切り替えられた画像を表示する表示手段と、
を具備することを特徴とする画像表示システム。
An image display system for displaying an image included in a stored image group,
Subject selection means for selecting a desired type of subject from subjects included in the displayed image;
Switching means for extracting an image showing the type of subject selected by the subject selection means from the image group and switching the image with priority over images other than the selected type of subject;
Display means for displaying the images switched by the switching means;
An image display system comprising:
上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする請求項4に記載の画像表示システム。   5. The image display system according to claim 4, wherein the desired type of subject selected by the subject selecting means is a person. 上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする請求項4に記載の画像表示システム。   5. The image display system according to claim 4, wherein the desired type of subject selected by the subject selecting means is a landscape. 上記被写体選択手段は、仮想空間のアバターへのコマンドに基づいて上記所望の種類の被写体を選択することを特徴とする請求項4に記載の画像表示システム。   The image display system according to claim 4, wherein the subject selection unit selects the desired type of subject based on a command to the avatar in the virtual space. 記憶された画像群に含まれる画像を表示する画像表示システムであって、
複数の画像を記憶して通信機能を有する外部機器と、該外部機器より取得した画像を表示する画像表示装置と、を具備し、
上記画像表示装置は、
上記外部機器と通信機能により接続して該外部機器より上記複数の画像を取得する取得手段と、
上記取得手段で取得された複数の画像中に含まれる被写体の中から所望の種類の被写体を選択する被写体選択手段と、
上記被写体選択手段で選択された種類の被写体が写っている画像を上記画像群から抽出して、上記選択された種類の被写体以外の画像に優先して切り替える切り替え手段と、
上記切り替え手段で切り替えられた画像を表示する表示手段と、
を有する
ことを特徴とする画像表示システム。
An image display system for displaying an image included in a stored image group,
An external device that stores a plurality of images and has a communication function, and an image display device that displays an image acquired from the external device,
The image display device
Obtaining means for obtaining the plurality of images from the external device by connecting to the external device by a communication function;
Subject selection means for selecting a desired type of subject from subjects included in the plurality of images acquired by the acquisition means;
Switching means for extracting an image showing the type of subject selected by the subject selection means from the image group and switching the image with priority over images other than the selected type of subject;
Display means for displaying the images switched by the switching means;
An image display system comprising:
上記被写体選択手段で選択される上記所望の種類の被写体は人物であることを特徴とする請求項8に記載の画像表示システム。   9. The image display system according to claim 8, wherein the desired type of subject selected by the subject selecting means is a person. 上記被写体選択手段で選択される上記所望の種類の被写体は風景であることを特徴とする請求項8に記載の画像表示システム。   9. The image display system according to claim 8, wherein the desired type of subject selected by the subject selecting means is a landscape. 上記表示手段は仮想空間を表示可能であり、
上記被写体選択手段は、上記表示手段に表示された仮想空間のアバターへのコマンドに基づいて上記所望の種類の被写体を選択することを特徴とする請求項8に記載の画像表示システム。
The display means can display a virtual space,
9. The image display system according to claim 8, wherein the subject selection unit selects the desired type of subject based on a command to an avatar in the virtual space displayed on the display unit.
上記外部機器はカメラであることを特徴とする請求項8に記載の画像表示システム。   The image display system according to claim 8, wherein the external device is a camera.
JP2008135696A 2008-05-23 2008-05-23 Camera and image display system Withdrawn JP2009284332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008135696A JP2009284332A (en) 2008-05-23 2008-05-23 Camera and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008135696A JP2009284332A (en) 2008-05-23 2008-05-23 Camera and image display system

Publications (1)

Publication Number Publication Date
JP2009284332A true JP2009284332A (en) 2009-12-03

Family

ID=41454290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008135696A Withdrawn JP2009284332A (en) 2008-05-23 2008-05-23 Camera and image display system

Country Status (1)

Country Link
JP (1) JP2009284332A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097754A (en) * 2011-11-07 2013-05-20 Canon Marketing Japan Inc Information processor, website system, control method, website system providing method and program thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097754A (en) * 2011-11-07 2013-05-20 Canon Marketing Japan Inc Information processor, website system, control method, website system providing method and program thereof

Similar Documents

Publication Publication Date Title
US11258946B2 (en) Display control apparatus, display control method, and program
US8346014B2 (en) Image processing apparatus and method and program
EP3226537A1 (en) Mobile terminal and method for controlling the same
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP6723512B2 (en) Image processing apparatus, image processing method and program
CN111626807A (en) Commodity object information processing method and device and electronic equipment
US20060050166A1 (en) Digital still camera
JP2010086194A (en) Share image browsing method and device
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
JP2006268395A (en) Information processor, information processing method and program
JP2013171599A (en) Display control device and display control method
JP6529108B2 (en) Image processing apparatus, image processing method and image processing program
JP5870944B2 (en) Information processing apparatus and information processing method
JP5519751B2 (en) Image viewing system, image viewing method, image viewing server, and terminal device
JP2009230635A (en) Image data generating device, image data generating method and image data generating program
CN112422812A (en) Image processing method, mobile terminal and storage medium
JP2009284332A (en) Camera and image display system
JP2000209541A (en) Moving picture reproducing device and storage medium storing moving picture reproduction program
US20190074035A1 (en) Interface device for data edit, capture device, image processing device, data editing method and recording medium recording data editing program
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP5064302B2 (en) Image display device
WO2023021759A1 (en) Information processing device and information processing method
JP2010074437A (en) Method, device and program for adding annotation, and computer readable recording medium
CN116828294A (en) Scenic spot shooting route determining method and device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20091218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091218

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110802