WO2010001778A1 - 撮像装置、画像表示装置および電子カメラ - Google Patents

撮像装置、画像表示装置および電子カメラ Download PDF

Info

Publication number
WO2010001778A1
WO2010001778A1 PCT/JP2009/061490 JP2009061490W WO2010001778A1 WO 2010001778 A1 WO2010001778 A1 WO 2010001778A1 JP 2009061490 W JP2009061490 W JP 2009061490W WO 2010001778 A1 WO2010001778 A1 WO 2010001778A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
accuracy
positioning
image file
unit
Prior art date
Application number
PCT/JP2009/061490
Other languages
English (en)
French (fr)
Inventor
功 高橋
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2008172343A priority Critical patent/JP5109836B2/ja
Priority claimed from JP2008182672A external-priority patent/JP5115375B2/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN200980125950.4A priority patent/CN102084648B/zh
Priority to US12/999,766 priority patent/US20110085057A1/en
Priority to KR1020107028267A priority patent/KR101600115B1/ko
Priority to EP09773356A priority patent/EP2299701A4/en
Publication of WO2010001778A1 publication Critical patent/WO2010001778A1/ja
Priority to US14/816,734 priority patent/US20150341588A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Definitions

  • the present invention relates to an imaging device, an image display device, and an electronic camera including the image display device.
  • the mobile terminal sends accuracy limit data indicating a desired accuracy limit for the self-location data to the position processing system, the position processing system providing the position data of the mobile terminal limited to the desired accuracy.
  • a data providing method is known (for example, see Patent Document 1).
  • Patent Document 2 a camera that records positioning data and information on the accuracy of the positioning data together with the photographed image on a photographic film is known as a prior art (see, for example, Patent Document 2).
  • the camera described in Patent Document 2 can detect a location where the user has taken an image or the like later using the positioning data, but the location where the positioning data is low can be detected. May be mistakenly recognized.
  • the imaging device records the data of the photographing position together with the photographed image, the photographing unit that photographs the image, the positioning unit that measures the photographing position when the image is photographed by the photographing unit.
  • a control unit that determines whether or not, and a recording unit that records only the photographed image or the photographed image and the photographing position data according to the determination by the control unit.
  • the control unit determines whether to record the data of the photographing position together with the photographed image based on the photographing position.
  • the accuracy of setting whether or not to record the shooting position data with respect to a specific place having a predetermined area and the recording accuracy of the shooting position data when recording is possible.
  • a storage unit is provided, and the control unit collates the shooting position with a specific location in the accuracy storage unit, determines whether or not to record the shooting position data together with the shot image, and determines the recording accuracy of the shooting position data when recording. preferable.
  • a person storage unit storing features for a specific person, and a specific person is recognized from a photographed image with reference to the person storage unit
  • the control unit converts the recording accuracy of the shooting position data to a low accuracy when a specific person is recognized in the captured image by the person recognition unit.
  • the positioning unit outputs the positioning accuracy of the shooting position data, and the control unit is a recording accuracy whose positioning accuracy is determined by the control unit. If it is lower, it is preferable to repeat the positioning by the positioning unit until the positioning accuracy satisfies the recording accuracy.
  • the control unit determines whether or not to record the shooting position data together with the shot image based on the shot image.
  • a person storage unit storing features for a specific person and a person recognition for recognizing a specific person from a photographed image with reference to the person storage unit
  • the control unit determines the recording accuracy depending on whether or not a specific person is recognized in the captured image by the person recognition unit.
  • the imaging device includes an imaging unit that captures an image, a positioning unit that measures the imaging position when the imaging unit captures an image, and data of an imaging position measured by the positioning unit. And a recording unit for recording the captured image, the shooting position data, and the recording accuracy determined by the control unit.
  • the control unit determines the recording accuracy of the data at the photographing position based on the photographing position.
  • the control unit determines the recording accuracy of the data of the photographing position based on the photographed image.
  • the display mode of the captured image recorded in the recording unit is changed according to the recording accuracy recorded in the recording unit. It is preferable to further include a display control unit.
  • an image display device searches for an image file having a predetermined positioning accuracy or more from a plurality of image files having positioning data and positioning accuracy information in the positioning data.
  • a search unit; and an image file display control unit that displays an image of the image file searched by the image file search unit on a display.
  • the image file display control unit arranges and searches in order from an image file having a high positioning accuracy to an image file having a low positioning accuracy. It is preferable to display an image of the processed image file.
  • the image file display control unit makes the image of the image file with high positioning accuracy larger than the image of the image file with low positioning accuracy. Display is preferred.
  • the image display device includes a current position detection unit that detects a current position of the image display device, and the image file search unit includes a plurality of image file search units. Search the image file for positioning data that coincides with the current position detected by the current position detection unit, or having positioning data within a predetermined distance from the current position, and select a predetermined one from the searched image files. It is preferable to search for an image file having a positioning accuracy higher than that.
  • the image display device includes a current position detection unit that detects a current position of the image display device, and the image file display control unit determines the position of positioning data from the current position. It is preferable to display the images of the image file side by side according to the value obtained by multiplying the distance up to the value representing the positioning accuracy.
  • the image file search unit includes positioning data that matches the current position detected by the current position detection device from the plurality of image files.
  • the image file display control unit preferably displays the image of the image file together with a map around the position of the positioning data in the image file.
  • the image display device includes a map scale changing unit that changes a map scale, and the image file search unit has the map scale changed by the map scale changing unit.
  • the search is performed by changing the predetermined positioning accuracy based on the changed map scale, and the image file display control unit reduces the image of the image file searched by the image file search unit by the map scale change unit. Is preferably displayed together with the changed map.
  • the image file display control unit preferably displays the image of the image file together with the radar chart.
  • an image input unit for inputting an image selected from images displayed by the image file display control unit, and an input by the image input unit It is preferable that a map display control unit that displays a map around the position of the positioning data in the image file of the obtained image is provided.
  • the map display control unit determines the scale of the map to be displayed based on the positioning accuracy in the image file of the image input by the image input unit. It is preferable to do this.
  • the image display device includes a positioning accuracy input unit that inputs positioning accuracy, and the image file search unit is input by the measurement accuracy input unit. It is preferable to search using the determined positioning accuracy as a predetermined measurement accuracy.
  • an electronic camera includes the image display device according to any one of the twelfth to twenty-third aspects.
  • the present invention since whether or not to record the shooting position of the image and the recording accuracy of the shooting position are determined, it is possible to prevent a situation in which a shooting location that is not to be disclosed accidentally is disclosed together with the image. be able to. Also, only image files with a predetermined positioning accuracy or higher can be displayed.
  • photography position data of 1st Embodiment The flowchart which shows the required precision determination processing of the position data of 1st Embodiment It is a figure which shows person database A5, B5, C5. It is a figure which shows precision conversion database A8, B8, C3. It is a figure which shows request
  • FIG. It is a figure which shows precision conversion database A8, B8, C3 used in 2nd Embodiment. It is an external view of the electronic camera in the 3rd Embodiment of this invention.
  • FIG. 1 is a diagram showing the configuration of an embodiment of the invention.
  • the camera A and the camera B are in a “linked relationship” with each other, for example, with the same owner.
  • the cameras accuracy conversion database, required accuracy table, person database, etc.
  • Some photographers have a single-lens reflex camera and a compact camera, and use them depending on the subject and conditions. In such a case, for example, a single-lens reflex camera is set as camera A and a compact camera is set as camera B, and data regarding the same accuracy conversion is shared.
  • the center C includes a database that can be used by the authentication of the same ID by the camera A and the camera B having a “linked relationship” with each other.
  • the camera A and the camera B do not have to provide a database regarding the position data conversion.
  • the camera A and the camera B may be the same camera, or may be different types of cameras, such as a single-lens reflex camera and the other a compact camera.
  • the photographing processing units A1 and B1 include a photographing lens, an image sensor, an image processing device, and the like (not shown), photograph a subject image, and perform various processes.
  • the recording processing units A2 and B2 record the subject image captured by the imaging processing units A1 and B1 on a recording device such as a memory card. Although details will be described later, the position data of the shooting location is recorded together with the shot image.
  • the positioning processing units A3 and B3 measure the shooting location in synchronization with the shooting by the shooting processing units A1 and B1, and detect the latitude X and longitude Y of the shooting location.
  • the positioning method includes a well-known GPS positioning method, WiFi positioning method, base station positioning method using a mobile phone, and the like, and the shooting position is detected by at least one of these positioning methods.
  • the face detection (person recognition) processing units A4 and B4 determine whether or not a person registered in advance is included in the images photographed by the photographing processing units A1 and B1.
  • FIG. 4 shows feature quantity data relating to a specific person stored in the person databases A5, B5, and C5.
  • the owners of camera A and camera B use the face image of the person they want to recognize as a template image, store the feature data in the person databases A5, B5, and C5 in association with the person names, and register them in advance.
  • the face detection (person recognition) processing units A4 and B4 collate the feature amount data of the person registered in the person databases A5, B5, and C5 with the images photographed by the photographing processing units A1 and B1, It is determined whether or not a person registered in advance is included in the photographed image by the face recognition method.
  • the user authentication information sections A6 and B6 store ID information for authenticating whether or not the user is a contract user whose data has been registered in the database in advance when using various data stored in the center C. .
  • the user authentication processing unit C1 of the center C collates the ID information of the registered user registered in advance with the ID information of the user sent from the camera A or the camera B, and is stored in advance when the two match.
  • Various data of contracted users is provided to camera A or camera B.
  • the transmission / reception processing units A7, B7, and C2 perform transmission and reception of various data with the camera A, the camera B, and the center C.
  • the display processing units A10 and B10 read the image recorded on the recording device such as a memory card by the recording processing units A2 and B2, and perform display processing on the rear monitor (not shown) of the camera.
  • FIG. 5 is a diagram showing the accuracy conversion databases A8, B8, and C3.
  • the accuracy conversion databases A8, B8, and C3 are for converting the position data of the shooting location to the accuracy corresponding to the registered region when the shooting location detected by the positioning processing units A3 and B3 is in the pre-registered region. Database.
  • the area is an area designated in advance by a user with latitude X and longitude Y and radius R centered on the latitude and longitude.
  • the recording accuracy of the position information at the time of non-recognition of the person is the required accuracy of the position data recorded together with the captured image when a pre-registered person is not captured in the captured image.
  • the accuracy Low or the position data recording prohibition Off is set.
  • the recording accuracy of the position data at the time of person recognition is the case where the face detection (person recognition) processing units A4 and B4 recognize persons registered in the person databases A5, B5, and C5 (see FIG. 4) in the photographed images.
  • the required accuracy of the position data recorded together with the photographed image is set by the user as high accuracy high or low accuracy low, or position data recording prohibition Off.
  • the recording frequency of the position history is the recording frequency of the position data when the movement trajectory of the user holding the cameras A and B is detected and recorded in the log file. Depending on the user, the high frequency High or low frequency Low, or Off that is not recorded is set.
  • the user can use the map interface and other areas around his / her home, the company's area around the company, and the travel destination area.
  • the recording accuracy and the recording frequency of the position history can be registered in the accuracy conversion databases A8, B8, and C3.
  • the transmission / reception processing unit A7 is performed by registering or updating data regarding the area and accuracy in the accuracy conversion database A8 of one camera A.
  • the same data is automatically registered or updated in the accuracy conversion database B8 of the other camera B via B7.
  • the shooting location is not in the registration area of the accuracy conversion databases A8, B8, and C3, the recording accuracy of the position data when the person is not recognized, the recording accuracy of the position data when the person is recognized, and the recording frequency of the position history
  • the default values stored in advance in the cameras A and B are set.
  • FIG. 6 is a diagram showing the required accuracy tables A9, B9, and C4.
  • the required accuracy tables A9, B9, and C4 are tables in which position data recording accuracy High, Low, Off and position history recording frequencies High, Low, Off are set, and can be arbitrarily set by the user.
  • the recording accuracy of the position data for example, as shown in FIG. 6, in accordance with the accuracy degradation index DOP (Dilution ⁇ of Precision) provided together with the position data in GPS positioning, the position data having a DOP of 6 or less is set to high accuracy High.
  • Position data greater than 6 is defined as low accuracy Low.
  • the recording frequency of the position history for example, as shown in FIG. 6, a case where recording is performed every 10 seconds is set to high accuracy High, and a case where recording is performed every 60 seconds is set to low accuracy Low. If the position data and position history are not recorded, it is set to Off.
  • FIG. 2 and FIG. 3 are flowcharts showing a conversion process of position data accuracy according to an embodiment.
  • Camera A and camera B execute this processing every predetermined time (for example, 10 seconds) while the power is on.
  • the accuracy conversion process of the camera A will be described here, the same applies to the camera B.
  • step 1 of FIG. 2 the current position is measured by the positioning processing unit A3, and latitude, longitude, and DOP are detected as position data.
  • step 2 it is determined whether or not photographing by the photographing processing unit A1 has been performed. If photographing has not been performed, the processing ends. Note that shooting includes still image shooting, moving image shooting, and image shooting with sound.
  • step 3 determines the required accuracy of the position data recorded together with the photographed image with reference to the accuracy conversion database A8.
  • This required accuracy determination processing is performed by executing the subroutine of FIG.
  • a human face is detected from the captured image.
  • a known method may be used, but here it is sufficient that a human face can be recognized, and it is not necessary to determine which person the recognized face is.
  • step 12 it is determined whether or not one or more human faces have been detected. If no human face is shown in the photographed image, the process proceeds to step 13 to request recording accuracy of position data when the person is not recognized. To do. That is, referring to the accuracy conversion database A8, it is determined whether or not the positioning position (latitude, longitude) of the shooting location is in a pre-registered area, and the position at the time of non-recognition of the person according to the shooting position area The data recording accuracy is the required accuracy. If the shooting position is not within the registration area, a default value stored in advance in the camera A is set as the recording accuracy of the position data when the person is not recognized.
  • step 14 to perform person recognition processing. That is, referring to the person database A5, it is determined whether or not the face in the photographed image matches the template image of the person's face registered in advance. If the face in the photographed image does not match the face of the registered person, that is, if no registered person is recognized in the photographed image, the process proceeds to step 13 and the person is not recognized according to the area of the photographing position as described above. Require time recording accuracy of position data.
  • the process proceeds to step 16 and position data at the time of person recognition is detected.
  • the recording accuracy is required. That is, with reference to the accuracy conversion database A8, it is determined whether or not the positioning position (latitude, longitude) of the shooting location is within a pre-registered area, and the position data at the time of person recognition according to the shooting position area Is the required accuracy. If the shooting position is not within the registration area, a default value stored in advance in the camera is set as the recording accuracy of the position data at the time of person recognition.
  • step 4 it is determined whether or not the required accuracy is Off which does not record the position data. If the required accuracy is Off, the process ends. If the required accuracy is not Off, the process proceeds to Step 5. In step 5, it is determined whether or not the required recording accuracy of the position data in accordance with the area determination of the shooting position and the presence / absence of person recognition is high accuracy high. If high accuracy high is required, the process proceeds to step 6. .
  • step 6 it is determined whether or not the positioning accuracy of the current position (positioning accuracy in step 1) is lower than the required accuracy. If the positioning accuracy is lower than the required accuracy, the process proceeds to step 8, and the current position is repositioned by the positioning processing unit A3. For example, when the degradation accuracy DOP of the positioning accuracy is a low accuracy Low greater than 6, although the required accuracy according to the area determination of the shooting position and the presence / absence of person recognition is a high accuracy high, the current location Perform re-positioning. On the other hand, if the positioning accuracy of the current position is greater than the required accuracy, the process proceeds to step 7. For example, when the required accuracy is high accuracy high and the positioning accuracy degradation index DOP is 6 or less and high accuracy high, the process proceeds to step 7 and the positioning result position data is recorded as it is together with the captured image.
  • step 9 converts the position data of the positioning result to low-accuracy.
  • the latitude and longitude of the positioning result is “ddmm.mmmm, N / S (north latitude / south latitude), dddmm.mmmm, E / W (east longitude / west longitude)”
  • the decimal part is forced to 0.
  • the address is deleted from the section of “1-6-3 Nishioi, Shinagawa-ku, Tokyo” and is renamed “Shinagawa-ku, Tokyo”.
  • the station number and the telephone number are deleted from “+ 81-3-3773-1111” to be “+ 81-3”.
  • “140-8601” is set to “140”.
  • step 9 the conversion of the position data to low precision in step 9 is irrelevant whether the position data of the positioning result is high precision (DOP ⁇ 6) or low precision (DOP> 6).
  • DOP ⁇ 6 high precision
  • DOP> 6 low precision
  • the latitude and longitude include numerical values after the decimal point. In this case, the low-precision latitude and longitude are forced to zero after the decimal point. Convert to precision data.
  • the converted position data is recorded together with the photographed image in step 10, and the process is terminated.
  • information indicating recording accuracy is recorded together with the captured image and position data as one image file.
  • the recording accuracy for example, information obtained by encoding the aforementioned High, Low, and Off is recorded. In the case of High and Low, the DOP value may be recorded.
  • FIG. 7 is a diagram illustrating a flowchart of display processing executed by the display processing unit A10 in the camera A.
  • the CPU in camera A performs the processing of FIG. 7 by executing a predetermined program.
  • a predetermined program In the present embodiment, in the normal display mode, only images with high recording accuracy are selected from image files recorded on a recording device such as a memory card, and thumbnails are displayed on the rear monitor of camera A.
  • a code indicating one of recording accuracy High, Low, and Off is recorded in a predetermined area.
  • step S21 the designated image file is read from the memory card.
  • the latest image file is read.
  • step S22 it is determined whether the recording accuracy is high. If it is High, the process proceeds to Step S23. If it is not High (Low or Off), the process proceeds to Step S25.
  • step S23 thumbnail image data is read from the read image file and displayed on the rear monitor (not shown) of camera A.
  • step S24 it is determined whether or not a predetermined number of thumbnail images are displayed on the rear monitor. If the predetermined number has not been displayed yet, the process proceeds to step S25. If the predetermined number is displayed, the process is terminated. In step S25, the next image file is set, and the process returns to step S21 to repeat the process.
  • processing in FIG. 7 has been described as processing by the camera A, the processing is also performed by the camera B in the same manner. Further, the same processing may be performed by the display processing unit C6 of the center C. Furthermore, the processing of FIG. 7 may be executed on a personal computer or another image display device. When processing is performed by the center C or personal computer, the image file captured and recorded by the camera may be stored in a storage device (database) of the center C or personal computer via a memory card or communication.
  • database storage device
  • the display mode of the image can be changed according to the recording accuracy by displaying or not displaying the image or changing the size of the image.
  • the required recording accuracy of the position data may be determined according to the image shooting conditions. For example, when the shooting angle of view is wide, a wide range is shot, so the position data of the shooting location does not need to be highly accurate, and in that case, low accuracy is required. On the other hand, when shooting with telephoto, the shooting target is narrowed down, and the position data of the shooting location needs to be highly accurate. In that case, high accuracy is required.
  • the recording resolution of the photographed image may be changed according to the recording accuracy of the photographing position data. For example, when the recording accuracy of the shooting position data is high, the recording resolution of the shot image is increased.
  • the shooting position when the image is shot is measured, and it is determined whether to record the shooting position data together with the shot image based on the shooting position.
  • it includes a database that sets whether or not recording of shooting position data for a specific area of a predetermined area and the recording accuracy of shooting position data when recording is possible, and compares the shooting position with a specific area of the database, Whether to record the shooting position data together with the shot image and the recording accuracy of the shooting position data when recording are determined. Whether to record the shooting position of the image and whether to record the recording accuracy. Is automatically determined, and the operability is improved, and it is possible to prevent a situation where a shooting location that is not to be disclosed accidentally is disclosed together with the image.
  • a database storing features for a specific person is provided, and the specific person is recognized from the captured image with reference to the database, and the specific position is recognized in the captured image. Since the data recording accuracy is converted to a low accuracy, it is possible to prevent a situation in which an accurate address and work place of a person preset by the photographer are disclosed together with the photographed image.
  • the positioning accuracy is lower than the required accuracy, since the positioning means repeats the positioning until the positioning accuracy satisfies the required accuracy, it is possible to reliably record the shooting position data with the required accuracy.
  • FIG. 8 is a diagram showing the accuracy conversion databases A8, B8, and C3 used in the second embodiment.
  • the required recording accuracy is set to High when the person is not recognized, the required recording accuracy is Off (not recorded) for the person A and the required recording accuracy is Low for the people B and C at the time of person recognition.
  • an example of selecting High is shown.
  • the person A is the owner of the camera, and the persons B and C are family members and close friends. That is, it is set so that the recording of the position data itself is turned off when the camera owner is photographed, and the recording accuracy is converted to Low in an image where a family member or close friend is photographed.
  • the “other” person is a case where a person is shown in the image but a person who is not a related person is shown.
  • the recording accuracy is not changed by a combination of the recognition of the person and the place where the image was taken, but it is determined whether or not the position data is recorded only by the recognized person.
  • the accuracy can be changed. Thereby, when a specific person is photographed, the recording of the position data can be turned off or the recording accuracy can be lowered so that the location where the photograph was taken is not identified or is difficult to identify.
  • the recognition target may be another subject instead of a person.
  • the recognition target may be another subject instead of a person.
  • it may be a home building or a car owned by the user. That is, instead of the person databases A5, B5, and C5 in which feature amount data relating to a specific person is stored, a database in which feature amount data relating to other recognition targets is stored may be provided.
  • FIG. 9 is a diagram showing the electronic camera 1.
  • FIG. 9A is a diagram of the electronic camera 1 viewed from an oblique front
  • FIG. 9B is a diagram of the electronic camera 1 viewed from an oblique rear.
  • a lens 121a of a photographing optical system see FIG. 10, reference numeral 121
  • an illumination device 110 that illuminates the subject are provided on the front surface of the electronic camera 1.
  • the electronic camera 1 can be connected to a GPS (Global Positioning System) device 2 and can acquire positioning data and information related to the accuracy of the positioning data from the GPS device 2.
  • a release switch 103 a is provided on the upper surface of the electronic camera 1.
  • a liquid crystal monitor 104 and operation buttons 103b to 103g are provided on the back of the electronic camera 1.
  • FIG. 10 is a block diagram illustrating the configuration of the electronic camera 1.
  • an electronic camera 1 includes a control circuit 101, a memory 102, an operation unit 103, a display monitor 104, a speaker 105, an external interface (I / F) circuit 106, and a memory card interface (I / F). 107, a power source 108, a photometric device 109, an illumination device 110, a map data storage device 111, and a GPS interface (I / F) circuit 112.
  • the electronic camera 1 is connected to the GPS device 2 via the GPS interface circuit 112.
  • a memory card 150 is mounted on the memory card interface 107.
  • the control circuit 101 performs a predetermined calculation using signals output from each part in the electronic camera based on the control program.
  • the control circuit 101 controls the photographing operation of the electronic camera 1 by sending a control signal to each part in the electronic camera.
  • the control program is stored in a ROM (ROMRead Only Memory) (not shown) in the control circuit 101.
  • the control circuit 101 creates an image file from information on imaging conditions acquired from each part in the electronic camera, positioning data acquired from a GPS device and information on the accuracy of the positioning data, image data of a captured image, etc., and the memory 150 Remember me.
  • This image file is created in accordance with the Exif (Exchangeable image file format) image file specification.
  • the image file 3 is composed of main image data and a plurality of tags in which auxiliary information of the main image data is described.
  • a tag 31 that describes whether the positioning position is north latitude or south latitude
  • a tag 32 that describes the latitude of the positioning position, and whether the positioning position is east longitude or west longitude
  • a tag 34 that describes the longitude of the measured position
  • a tag 35 that describes the reliability of positioning, that is, the accuracy of positioning.
  • the accuracy of positioning is represented by a DOP (Dilution of Precision) value.
  • DOP Deution of Precision
  • the positioning data 31 to 34 are data on the current position of the user and the current position of the device used for shooting, usually when the user shots the image.
  • the DOP value is called an accuracy degradation coefficient and is an index indicating the degree of accuracy degradation due to the positioning satellite positioning.
  • An ideal satellite arrangement when performing positioning by positioning satellites is an arrangement in which the zenith satellite and three neighboring satellites dispersed by 120 ° form a regular triangular pyramid shape.
  • the DOP value of this arrangement is 1. Depending on how many times the precision is inferior to that, it is expressed as an index such as 2, 3, 4,. That is, the positioning accuracy decreases as the DOP value increases.
  • the DOP value is calculated according to how small the volume of the triangular pyramid formed by the four positioning satellites is compared to the case of the DOP value 1.
  • the operation unit 103 includes a release button 103a, operation buttons 103b to 103g, and the like, and sends an operation signal corresponding to the operated button to the control circuit 101.
  • the memory card interface 107 writes an image file to the memory card 150 or reads an image file from the memory card 150 according to an instruction from the control circuit 101.
  • the memory card 150 is an external recording medium that can be attached to and detached from the memory card interface 107.
  • the display monitor 104 displays information such as an image and text of an image file according to an instruction from the control circuit 101. On the display monitor 104, one image is displayed in a large size, or a plurality of reduced images (thumbnails) are displayed.
  • the speaker 105 outputs sound in response to an instruction from the control circuit 101.
  • the external interface circuit 106 transmits and receives commands and data to and from an external device (personal computer, printer, etc.) via a cable (not shown) according to an instruction from the control circuit 101.
  • the power supply 108 has a battery, a power supply circuit, and the like, and supplies power to each part of the electronic camera 1.
  • the photometric device 109 detects the luminance of the subject by the photometric sensor and sends the luminance information to the control circuit 101.
  • the control circuit 101 calculates exposure setting values such as a shutter speed and an aperture value based on the luminance information.
  • the illumination device 110 illuminates the subject with a predetermined amount of light, for example, flashing when a light emission instruction is issued from the control circuit 101 during photographing. The illumination light is emitted forward of the electronic camera.
  • the map data storage device 111 stores map data for displaying a map on the display monitor 104.
  • the GPS interface circuit 112 is an interface for connecting the electronic camera 1 to the GPS device 2.
  • the imaging unit 120 includes an imaging optical system 121, an imaging element 122, and an imaging control circuit 123, and performs imaging of a subject in accordance with an instruction from the control circuit 101.
  • the imaging optical system 121 forms a subject image on the imaging surface of the imaging element 122.
  • As the imaging device 122 a CCD (Charge Coupled Device) imaging device, a CMOS (Complementary Metal Oxide Semiconductor) imaging device, or the like is used.
  • the imaging control circuit 123 drives and controls the imaging element 122 according to an instruction from the control circuit 101 and performs predetermined signal processing on the image signal output from the imaging element 122.
  • the image data after the signal processing is recorded in the memory card 150 as the above-mentioned Exif image file stipulated image file.
  • the GPS device 2 measures the position of the GPS device 2 based on the propagation time of the radio wave transmitted from the positioning satellite and the position of the positioning satellite. Since the radio wave is transmitted from the positioning satellite in synchronization with the accurate clock, the GPS device 2 can calculate the propagation time from the radio wave reception time.
  • the radio wave transmitted from the positioning satellite includes orbit data of the positioning satellite, and the GPS device 2 can calculate the position of the positioning satellite from the orbit data. Further, the GPS device 2 calculates the above DOP value.
  • FIG. 12 is a diagram for explaining a display screen of the display monitor 104 that displays an image of an image file stored in the memory card 150.
  • images 41a to 41d of image files whose DOP values are equal to or less than a predetermined value are displayed side by side as reduced images. Therefore, the image of the image file whose DOP value is larger than the predetermined value is not displayed.
  • the positions of the positioning data of these images 41a to 41d are substantially the same positions as the positions where the GPS device 2 connected to the electronic camera 1 is positioning, that is, the current position of the electronic camera 1.
  • the images 41a to 41d are displayed from left to right and from the upper level to the lower level in the order from the smallest DOP value to the larger one, that is, from the highest positioning accuracy to the lowest. . Accordingly, the user can recognize that the positioning accuracy of the image 41a is the highest (the DOP value is the smallest), and the positioning accuracy deteriorates (the DOP value increases) as the images 41b, 41c, and 41d progress. .
  • DOP thumbnail display refers to displaying an image of an image file as a reduced image based on the DOP value of the image file.
  • step S501 the GPS device 2 measures the current position.
  • step S502 the DOP value when the current position is measured is acquired from the GPS device 2.
  • step S503 an image file in which the position of positioning data is the same as the current position is searched from image files stored in the memory card 150.
  • the same as the current position means that the current position and the position of the positioning data are the same within a predetermined allowable range.
  • step S504 an image file having a DOP value equal to or lower than the DOP value acquired from the GPS device 2 is searched from the image files searched in step S503.
  • step S505 a reduced image of the image file searched in step S504 is created.
  • step S506 the reduced images of the image file are displayed side by side from left to right and from the top to the bottom, in the order from the image of the image file with the small DOP value to the image of the image file with the large DOP value.
  • An image file having a predetermined positioning accuracy or higher is searched from a plurality of image files having positioning data 31 to 34 and positioning accuracy information 35 in the positioning data, and an image 41a of the searched image file is searched. -41d are displayed on the display monitor 104. Thereby, only an image file having a predetermined positioning accuracy or higher can be displayed.
  • a GPS device 2 for detecting the current position of the electronic camera 1 is provided, and an image file having positioning data substantially matching the current position detected by the GPS device 2 is searched from a plurality of image files.
  • Image files having a predetermined positioning accuracy or higher are searched from the searched image files, and the images 41a to 41d of the searched image files are displayed on the display monitor 104.
  • the above third embodiment can be modified as follows. (1) In the third embodiment described above, an image file having positioning data that substantially matches the current position of the electronic camera 1 is searched, and an image file having a predetermined positioning accuracy or higher is searched from the searched image files.
  • the images 41a to 41d of the searched image file are displayed on the display monitor 104.
  • an image file having positioning data within a predetermined distance from the current position of the electronic camera 1 is searched, an image file having a predetermined positioning accuracy or more is further searched from the searched image files, and the searched image file is searched.
  • the image of the file may be displayed on the display monitor 104. This is convenient when an image file with high positioning accuracy around the current position is required. For example, it is convenient when shooting around the current position at the same place as when shooting before, or when checking how much the current scenery has changed compared to the old scenery.
  • the images of the image file are displayed side by side in the order from the image of the image file with high positioning accuracy to the image of the image file with low positioning accuracy.
  • the order of arranging the images in the image file is determined according to the DOP value, that is, the value representing the positioning accuracy, multiplied by the distance from the current position to the position of the positioning data, and the images in the image file are displayed side by side. May be. Thereby, it is possible to determine the order in which the images are arranged by comprehensively determining the positioning accuracy and the distance from the current position.
  • the image of the image file to be displayed may be an image in which the position of the positioning data is substantially the same as the current position of the electronic camera 1 or an image in which the position of the positioning data is within a predetermined distance from the current position of the electronic camera 1. Good. In addition, only an image with a positioning accuracy higher than a predetermined positioning accuracy may be displayed.
  • FIG. 14 A modification of the image file image display method according to the third embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 14 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function.
  • step S601 the GPS device 2 measures the current position.
  • step S602 the DOP value when the current position is measured is acquired from the GPS device 2.
  • step S603 an image file in which the position of the positioning data is within a predetermined distance from the current position is searched from image files stored in the memory card 150.
  • step S604 an image file having a DOP value equal to or lower than the DOP value acquired from the GPS device 2 is searched from the image files searched in step S603.
  • step S605 for each image file searched in step S604, a value (U) obtained by multiplying the distance from the current position to the position of the positioning data by the DOP value is calculated.
  • step S606 a reduced image of the searched image file is created.
  • step S607 the reduced images of the image files are displayed side by side in the order from the image file with a small U value to the image file with a large U value.
  • the electronic camera 1 according to the fourth embodiment of the present invention displays an image on the display monitor 104 while changing the size of the image.
  • the order of image sizes is determined based on the DOP value of the image file.
  • the image is displayed together with a map around the position of the positioning data. Since the configuration of the electronic camera 1 according to the fourth embodiment is not different from the configuration of the electronic camera 1 according to the third embodiment, description of the configuration of the electronic camera 1 according to the fourth embodiment is omitted.
  • FIG. 15 is a diagram for explaining a display screen of the display monitor 104 displaying an image of the image file stored in the memory card 150.
  • images 42a to 42c of image files having a DOP value equal to or smaller than a predetermined value are displayed as reduced images together with a map 50A.
  • the map 50 ⁇ / b> A is a map around the current position 51 of the electronic camera 1.
  • the position of the positioning data in the image files of the images 42a to 42c is almost the same position as the current position 51 of the electronic camera 1. Accordingly, the map 50A is also a map around the position of the positioning data in the image files of the images 42a to 42c.
  • the sizes of the images 42a to 42c become smaller in the order from the smallest DOP value to the larger one, that is, in the order from the higher positioning accuracy to the lower one. Therefore, the positioning accuracy of the largest image 42a is the highest (the DOP value is the smallest), and the positioning accuracy of the smallest image 42c is the worst (the DOP value is large).
  • the image display processing of the image file in the fourth embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 16 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function.
  • the processes common to the processes in FIG. 13 are denoted by the same reference numerals, and differences from the fifth process will be mainly described.
  • step S504 the process proceeds to step S801.
  • step S801 the reduced image of the image file searched in step S504 is created by gradually reducing the size in the order from the smallest DOP value to the largest one.
  • step S802 a map around the current position is displayed on the display monitor 104 at a predetermined scale.
  • step S803 the reduced images are displayed away from the current position as the DOP value increases so that the images do not overlap.
  • the image 42a (42b) of the image file with high positioning accuracy is displayed larger than the image 42b (42c) of the image file with low positioning accuracy. Thereby, an image with high positioning accuracy can be preferentially selected.
  • an image of an image file having positioning data that substantially matches the current position of the electronic camera 1 is displayed on the map.
  • an image of an image file having positioning data within a predetermined distance from the current position of the electronic camera 1 may be displayed.
  • images 43a to 43c may be displayed as shown in FIG.
  • the position of the positioning data in the image 43a is denoted by reference numeral 44a
  • the position of the positioning data in the image 43b is denoted by reference numeral 44b
  • the position of the positioning data in the image 43c is denoted by reference numeral 44c.
  • the positions 44a to 44c of these positioning data are within a predetermined distance 52 from the current position 51 of the electronic camera 1.
  • FIG. 18 A modification of the image file image display process in the fourth embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 18 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function. Processes common to those in FIG. 14 are denoted by common reference numerals, and different portions from the processes in FIG. 14 will be mainly described.
  • step S1001 the reduced image of the image file searched in step S604 is created by gradually reducing the size in the order from the smallest DOP value to the largest one.
  • step S1002 a map around the current position is displayed on the display monitor 104 at a predetermined scale.
  • step S1003 a reduced image is displayed near the position of the positioning data.
  • the size of the plurality of images displayed on the display monitor 104 together with the map is not limited to the third embodiment. For example, you may make it make the magnitude
  • the electronic camera 1 according to the fifth embodiment of the present invention determines a DOP value serving as a reference for searching for an image file to be displayed on the display monitor 104 according to the scale of the map displayed on the display monitor 104. Since the configuration of the electronic camera 1 of the fifth embodiment is not different from the configuration of the electronic camera 1 of the third embodiment, description of the configuration of the electronic camera 1 of the fifth embodiment is omitted.
  • FIG. 19 is a diagram for explaining a display screen of the display monitor 104 that displays an image of an image file stored in the memory card 150.
  • FIG. 19A is a diagram for explaining a display screen in which an image is displayed on a map of a predetermined scale.
  • FIG. 19B shows a map scale as compared with the map of FIG. It is a figure for demonstrating the display screen which displayed the image on the map when it changes to the detail side.
  • images 43a to 43c of image files having a DOP value equal to or smaller than a predetermined value are displayed as reduced images together with the map 50A.
  • the sizes of the images 43a to 43c are gradually reduced in the order from the smallest DOP value to the largest one.
  • the DOP value that is a criterion for displaying the image of the image file is changed from a predetermined value to a smaller value.
  • the image 43a and the image 43b are displayed, and the image 43c with poor positioning accuracy is not displayed.
  • the closer the scale of the map displayed on the display monitor 104 is to the detailed side the smaller the DOP value that is a criterion for displaying the image of the image file, and the closer the scale of the map displayed on the display monitor 104 is to the wide area side, The DOP value that is a criterion for displaying the image of the image file is increased.
  • FIG. 20 An image file image display process according to the fifth embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 20 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function.
  • Processes common to those in FIG. 18 are denoted by common reference numerals, and different parts from the processes in FIG. 18 will be mainly described.
  • the user can set the scale of the map displayed on the display monitor 104 by operating the operation buttons 103b to 103g. Thereby, the user can change the scale of the map.
  • step S601 the process proceeds to step S1201.
  • step S1201 the scale of the map set in the electronic camera 1 is detected.
  • step S1202 a reference DOP value is determined from the scale of the map.
  • the reference DOP value becomes smaller as the scale of the map is closer to the detailed side, and the reference DOP value becomes larger as the scale of the map is larger.
  • step S603 the process proceeds to step S1203.
  • step S1203 an image file having a DOP value equal to or lower than the reference DOP value is searched. Then, the process proceeds to step S1001 and proceeds to step S1204. In step S1204, the map is displayed on the display monitor 104 at the set scale. Then, the process proceeds to step S1003, and the process proceeds to step S1205. In step S1205, it is determined whether or not the DOP thumbnail display is ended by the user's operation of the operation buttons 103b to 103g. When the DOP thumbnail display is ended, an affirmative determination is made in step S1205, and the image display process is ended. If the DOP thumbnail display has not ended, a negative determination is made in step S1205, and the process returns to step S501.
  • the following operational effects can be obtained in addition to the operational effects of the third embodiment.
  • the reference DOP value which is a criterion for determining whether images can be displayed
  • the DOP value of the image file is equal to or less than the changed reference DOP value.
  • the above fifth embodiment can be modified as follows.
  • the size of the plurality of images displayed together with the map is not limited to the fifth embodiment. For example, you may make it make the magnitude
  • an electronic camera according to a sixth embodiment of the present invention will be described with reference to the drawings.
  • the user can set a DOP value that is a reference for searching for an image file to be displayed. Since the configuration of the electronic camera 1 according to the sixth embodiment is not different from the configuration of the electronic camera 1 according to the third embodiment, description of the configuration of the electronic camera 1 according to the sixth embodiment is omitted.
  • FIG. 21 is a diagram for explaining a display screen of the display monitor 104 that displays an image of an image file stored in the memory card 150 on a predetermined map.
  • a reference DOP value display column 60 indicating a DOP value input by the user operating the operation buttons 103b to 103g is displayed together with the map 50B and the images 43a to 43c.
  • a scale of the DOP value and an inverted triangle mark 61 moving on the scale are displayed.
  • the mark 61 moves on the scale of the DOP value input by the user.
  • the sizes of the images 43a to 43c are gradually reduced in the order from the smallest DOP value to the largest one.
  • FIG. 21A is a display screen when the user inputs “3” as the DOP value. Images 43a and 43b whose DOP value of the image file is 3 or less are displayed on the display screen. FIG. 21B is a display screen when the user inputs “7” as the DOP value. In addition to the images 43a and 43b whose image file DOP value is 3 or less, an image 43c whose DOP value is greater than 3 and 7 or less is also displayed on the display screen.
  • the image display processing of the image file in the sixth embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 22 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function.
  • the processes common to those in FIG. 20 are denoted by the same reference numerals, and differences from the processes in FIG. 20 will be mainly described.
  • step S1401 the reference DOP value is set to 2. Then, the process proceeds to step S601 and step S603. After step S1003, the process proceeds to step S1402.
  • step S1402 the user operates the operation buttons 103b to 103g to input a DOP value, and determines whether or not the reference DOP value has been changed. If the reference DOP value has been changed, an affirmative determination is made in step S1402 and the process proceeds to step S1403. If the reference DOP value has not been changed, a negative determination is made in step S1402 and the process proceeds to step S1205. In step S1403, the reference DOP value is changed to the DOP value input by the user. Then, the process returns to step S601.
  • the sixth embodiment described above can be modified as follows.
  • the size of the plurality of reduced images displayed together with the map is not limited to the fifth embodiment.
  • a plurality of reduced images displayed together with the map may all have the same size.
  • the size of the image corresponding to the DOP value may be determined in advance, and the size of the image to be displayed may be changed according to the DOP value.
  • an electronic camera according to a seventh embodiment of the present invention will be described with reference to the drawings.
  • the electronic camera 1 according to the seventh embodiment of the present invention when one image is selected from a plurality of images displayed side by side on the display monitor 104, the position of the positioning data of the selected image is displayed. A surrounding map is displayed on the display monitor 104. In addition, the selected image is displayed on the map. Since the configuration of the electronic camera 1 of the seventh embodiment is not different from the configuration of the electronic camera 1 of the third embodiment, the description of the configuration of the electronic camera 1 of the seventh embodiment is omitted.
  • FIG. 23A and FIG. 24A are diagrams for explaining a display screen on which images 41a to 41d of an image file having a DOP value equal to or less than a predetermined value are displayed side by side as reduced images.
  • the image 45a is selected by the user among the plurality of images 45a to 45d
  • the image 45c is selected from the plurality of images 45a to 45d by the user.
  • the image can be selected by the user operating the operation buttons 103b to 103g.
  • FIG. 23 (b) is a diagram for explaining a display screen displayed after the image 45a is selected in FIG. 23 (a).
  • a map 50B around the positioning position 46a of the selected image 45a and the selected image 45a are displayed on the display screen.
  • the scale of the map 50B is determined based on the positioning accuracy of the positioning data of the image 45a. When the positioning accuracy is high, that is, when the DOP value is small, a detailed map is displayed, and when the positioning accuracy is poor, that is, when the DOP value is large, a wide area map is displayed.
  • FIG. 24 (b) is a diagram for explaining a display screen displayed after the image 45c is selected in FIG. 24 (a).
  • a map 50A around the positioning position 46c of the selected image 45c and the selected image 45c are displayed. Since the positioning accuracy of the image 45c is worse than that of the image 45a, the scale of the map 50A is on the wide area side compared to the map 50B. The size of the images 45a and 45c displayed on the maps 50A and 50B is the same.
  • the image display processing of the image file in the seventh embodiment of the present invention will be described with reference to the flowchart of FIG.
  • the processing in FIG. 25 is executed in the control circuit 101 by a program that starts when the user operates the operation buttons 103b to 103g to select the DOP thumbnail display function.
  • the user can select a desired image from images displayed side by side on the display monitor 104 by operating the operation buttons 103b to 103g.
  • step S1701 a reduced image is created from the image file stored in the memory card 150.
  • step S1702 the reduced images are displayed side by side on the display monitor 104.
  • step S1703 it is determined whether a reduced image has been selected. If a reduced image is selected, an affirmative determination is made in step S1703 and the process proceeds to step S1704. If a reduced image is not selected, step S1703 is repeated.
  • step S1704 the position and DOP value of the positioning data of the selected reduced image are detected.
  • step S1705 the scale of the map is determined based on the detected DOP value. As described above, when the DOP value is small, the map scale is set to the detailed side, and when the DOP value is large, the map scale is set to the wide area side.
  • step S1706 a map around the position of the positioning data is displayed at the determined scale.
  • step S1707 the reduced image selected in step S1703 is displayed on the map.
  • step S1708 it is determined whether or not an operation for returning to the previous screen has been performed by the user's operation of the operation buttons 103b to 103g. If an operation to return to the previous screen is performed, an affirmative determination is made in step S1708, and the process returns to step S1702. When the operation for returning to the previous screen is not performed, a negative determination is made in step S1708, and the process proceeds to step S1709.
  • step S1709 it is determined whether or not the DOP thumbnail display is finished by the user's operation of the operation buttons 103b to 103g. When the DOP thumbnail display is ended, an affirmative determination is made in step S1709, and the process ends. If the DOP thumbnail display has not ended, a negative determination is made in step S1709, and the process returns to step S1708.
  • the following operational effects can be obtained in addition to the operational effects of the third embodiment.
  • (1) When one image is selected from the images displayed side by side on the display monitor 104, a map around the position of the positioning data in the image file of the selected image is displayed. Thereby, the position where the image of the image file is taken can be confirmed on the map, which is convenient.
  • the scale of the map displayed when one image is selected from the images displayed side by side on the display monitor 104 is determined based on the positioning accuracy in the image file of the selected image. Thereby, although it is actually an image taken at a position outside the map display range, it can be prevented from being displayed as if it was taken within the map display range due to poor positioning accuracy. .
  • the seventh embodiment described above can be modified as follows. (1) When images are arranged and displayed on the display monitor 104 for selection by the user, an image of an image file having a predetermined positioning accuracy or higher may be displayed. This is because, when an image with extremely poor positioning accuracy is displayed together with a map, the scale of the map determined based on the positioning accuracy is likely to be on the wide area side, so the position of positioning data is not well understood from the map.
  • the size of the image corresponding to the DOP value may be determined in advance, and the size of the image displayed together with the map may be changed according to the DOP value. This is convenient because the positioning accuracy can be recognized just by looking at the size of the image. Alternatively, the order of arrangement based on the positioning accuracy of the image file may be determined and the images may be displayed side by side, and the size of the image displayed together with the map may be determined in that order.
  • an image is displayed on a map.
  • the images 47a to 47e may be displayed so as to overlap the radar chart 70 as shown in FIG.
  • an image closer to the center 71 of the radar chart 70 is an image having a smaller DOP value
  • an image farther from the center 71 is an image having a larger DOP value.
  • the positioning accuracy of the images 47a to 47e can be grasped visually, which is convenient.
  • the sizes of the images 47a to 47e may be changed according to the order of the DOP values or according to the DOP values.
  • the current position 81 of the electronic camera 1 is displayed as shown in FIG. It may be displayed so that the map is not displayed. Also in this case, it is possible to determine an image in which the position of the positioning data is close to or far from the current position 81 of the electronic camera 1.
  • the DOP value when the GPS device 2 measures the current position is the DOP value that serves as a reference when searching for an image file.
  • the DOP value used as a reference when searching for the image file is larger than the DOP value of the positioning accuracy that causes the point that is significantly distant from the point where the image was actually taken to be mistakenly recognized.
  • the present invention is not limited to the embodiment.
  • a numerical value for determining whether or not to display an image is not limited to a DOP value as long as the numerical value can represent positioning accuracy.
  • the GPS device 2 of the electronic camera 1 is attached.
  • the GPS device 2 may be built in the electronic camera 1.
  • the present invention is not limited to the electronic camera 1 provided with the display monitor 104 as long as it is an image display device.
  • a mobile phone having a GPS function may be used.
  • Processing such as image display in the above-described embodiment may be performed by a personal computer.
  • the processing program can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet.
  • the processing program is supplied as a computer-readable computer program product in various forms such as a recording medium and a data signal (carrier wave).
  • the display may be changed according to the positioning accuracy DOP value as in the third to seventh embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 撮像装置は、画像を撮影する撮影部と、撮影部により画像を撮影したときの撮影位置を測位する測位部と、撮影画像とともに撮影位置のデータを記録するか否か決定する制御部と、制御部による決定に応じて、撮影画像のみ、または撮影画像と撮影位置データを記録する記録部とを備える。

Description

撮像装置、画像表示装置および電子カメラ
 本発明は、撮像装置、画像表示装置およびその画像表示装置を備えた電子カメラに関する。
 移動端末が、自己位置データに関する所望の精度の限度を指示する精度限度データを位置処理システムへ送り、位置処理システムは、所望の精度に制限された移動端末の位置データを提供するようにした位置データの提供方法が知られている(例えば、特許文献1参照)。
 また、撮影した画像とともに、測位データとその測位データの精度に関する情報とを写真フィルムに記録するカメラが従来技術として知られている(たとえば、特許文献2参照)。
特開2001-320759号公報 特開平9-127594号公報
 ところで、撮影した画像に撮影場所の位置データを付加する場合に、撮影場所に応じて位置データの精度を変えたい場合がある。例えば、撮影場所が自宅周辺の場合には、プライバシー保護から撮影場所の位置データの精度に制限を加える必要があり、撮影場所が観光地の場合には、撮影場所を正確に知るために正確な位置データが望ましい。
 しかしながら、上述した従来の位置データの提供方法では、撮影の都度、位置データの精度限度を指示しなければならず、この指示操作を怠ると、自宅周辺の画像とともに、自宅周辺の正確な位置データが公開されることになる。
 また、特許文献2に記載されたカメラは、ユーザが画像の撮影を行った場所などを、測位データを使用して後から検出することができるが、測位データの信頼性が低いと撮影した場所を誤って認識させる場合がある。
 本発明の第1の態様によると、撮像装置は、画像を撮影する撮影部と、撮影部により画像を撮影したときの撮影位置を測位する測位部と、撮影画像とともに撮影位置のデータを記録するか否か決定する制御部と、制御部による決定に応じて、撮影画像のみ、または撮影画像と撮影位置データを記録する記録部とを備える。
 本発明の第2の態様によると、第1の態様の撮像装置において、制御部は、撮影位置に基づいて、撮影画像とともに撮影位置のデータを記録するか否かを決定するのが好ましい。
 本発明の第3の態様によると、第2の態様の撮像装置において、所定の広さの特定場所に対する撮影位置データの記録可否と記録可の場合の撮影位置データの記録精度とを設定した精度記憶部を備え、制御部は、撮影位置を精度記憶部の特定場所と照合し、撮影画像とともに撮影位置データを記録するか否かと、記録する場合の撮影位置データの記録精度を決定するのが好ましい。
 本発明の第4の態様によると、第2または第3の態様の撮像装置において、特定人物に対する特徴を記憶した人物記憶部と、人物記憶部を参照して撮影画像の中から特定人物を認識する人物認識部とを備え、制御部は、人物認識部により撮影画像の中に特定人物が認識された場合には、撮影位置データの記録精度を低精度に変換するのが好ましい。
 本発明の第5の態様によると、第3または第4の態様の撮像装置において、測位部は撮影位置データの測位精度を出力し、制御部は、測位精度が制御部により決定された記録精度より低い場合には、測位精度が記録精度を満たすまで測位部による測位をやり直すのが好ましい。
 本発明の第6の態様によると、第1の態様の撮像装置において、制御部は、撮影画像に基づいて、撮影画像とともに撮影位置のデータを記録するか否かを決定するのが好ましい。
 本発明の第7の態様によると、第6の態様の撮像装置において、特定人物に対する特徴を記憶した人物記憶部と、人物記憶部を参照して撮影画像の中から特定人物を認識する人物認識部とを備え、制御部は、人物認識部により撮影画像の中に特定人物が認識されたかどうかによって記録精度を決定するのが好ましい。
 本発明の第8の態様によると、撮像装置は、画像を撮影する撮影部と、撮影部により画像を撮影したときの撮影位置を測位する測位部と、測位部で測位された撮影位置のデータの記録精度を決定する制御部と、撮影画像と撮影位置データと制御部により決定された記録精度を記録する記録部とを備える。
 本発明の第9の態様によると、第8の態様の撮像装置において、制御部は、撮影位置に基づいて撮影位置のデータの記録精度を決定するのが好ましい。
 本発明の第10の態様によると、第8の態様の撮像装置において、制御部は、撮影画像に基づいて撮影位置のデータの記録精度を決定するのが好ましい。
 本発明の第11の態様によると、第3から10のいずれかの態様の撮像装置において、記録部に記録された記録精度に応じて記録部に記録された撮影画像の表示の態様を変更する表示制御部をさらに備えるのが好ましい。
 本発明の第12の態様によると、画像表示装置は、測位データとその測位データにおける測位精度の情報とを有する複数の画像ファイルの中から、所定の測位精度以上の画像ファイルを検索する画像ファイル検索部と、画像ファイル検索部によって検索された画像ファイルの画像を表示器に表示する画像ファイル表示制御部とを備える。
 本発明の第13の態様によると、第12の態様の画像表示装置において、画像ファイル表示制御部は、測位精度の高い画像ファイルの画像から測位精度の低い画像ファイルの画像へ至る順序で並べて検索された画像ファイルの画像を表示するのが好ましい。
 本発明の第14の態様によると、第12または13の態様の画像表示装置において、画像ファイル表示制御部は、測位精度の高い画像ファイルの画像を測位精度の低い画像ファイルの画像に比べて大きく表示するのが好ましい。
 本発明の第15の態様によると、第12~14のいずれか1の態様の画像表示装置において、画像表示装置の現在位置を検出する現在位置検出部を備え、画像ファイル検索部は、複数の画像ファイルの中から、現在位置検出部によって検出された現在位置と一致する測位データ、または現在位置から所定距離内の測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から所定の測位精度以上の画像ファイルを検索するがのが好ましい。
 本発明の第16の態様によると、第12の態様の画像表示装置において、画像表示装置の現在位置を検出する現在位置検出部を備え、画像ファイル表示制御部は、現在位置から測位データの位置までの距離を測位精度を表す値に乗算した値に応じて、画像ファイルの画像を並べて表示するのが好ましい。
 本発明の第17の態様によると、第16の態様の画像表示装置において、画像ファイル検索部は、複数の画像ファイルの中から、現在位置検出装置によって検出された現在位置と一致する測位データ、または現在位置から所定距離内の測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から所定の測位精度以上の画像ファイルを検索するがのが好ましい。
 本発明の第18の態様によると、
第12~176のいずれか1の態様の画像表示装置において、画像ファイル表示制御部は、画像ファイルの画像を、画像ファイルにおける測位データの位置周辺の地図とともに表示するのが好ましい。
 本発明の第19の態様によると、第18の態様の画像表示装置において、地図の縮尺を変更する地図縮尺変更部を備え、画像ファイル検索部は、地図縮尺変更部によって地図の縮尺が変更されると、変更された地図の縮尺に基づいて所定の測位精度を変更して検索し、画像ファイル表示制御部は、画像ファイル検索部によって検索された画像ファイルの画像を、地図縮尺変更部によって縮尺が変更された地図とともに表示するのが好ましい。
 本発明の第20の態様によると、第12~17のいずれか1の態様の画像表示装置において、画像ファイル表示制御部は、画像ファイルの画像を、レーダーチャートとともに表示するのが好ましい。
 本発明の第21の態様によると、第13の態様の画像表示装置において、画像ファイル表示制御部によって表示された画像の中から選択された画像を入力する画像入力部と、画像入力部によって入力された画像の画像ファイルにおける測位データの位置周辺の地図を表示する地図表示制御部とを備えるのが好ましい。
 本発明の第22の態様によると、第21の態様の画像表示装置において、地図表示制御部は、画像入力部によって入力された画像の画像ファイルにおける測位精度に基づいて表示する地図の縮尺を決定するのが好ましい。
 本発明の第23の態様によると、第12~22のいずれか1の態様の画像表示装置において、測位精度を入力する測位精度入力部を備え、画像ファイル検索部は、測定精度入力部によって入力された測位精度を所定の測定精度として検索を行うのが好ましい。
 本発明の第24の態様によると、電子カメラは、第12~23のいずれか1の態様の画像表示装置を備える。
 本発明によれば、画像の撮影位置を記録するか否かや撮影位置の記録精度を決定するようにしたので、誤って公開されたくない撮影場所が画像とともに公開されるような事態を防止することができる。また、所定の測位精度以上の画像ファイルのみを表示することができる。
第1の実施の形態の構成を示す図 第1の実施の形態の撮影位置データの変換処理を示すフローチャート 第1の実施の形態の位置データの要求精度決定処理を示すフローチャート 人物データベースA5、B5、C5を示す図である。 精度変換データベースA8、B8、C3を示す図である。 要求精度テーブルA9、B9、C4を示す図である。 カメラAにおいて、表示処理部A10が実行する表示処理のフローチャートを示す図である。 第2の実施の形態で使用する精度変換データベースA8、B8、C3を示す図である。 本発明の第3の実施の形態における電子カメラの外観図である。 本発明の第3の実施の形態における電子カメラの構成を説明するブロック図である。 画像ファイルの構造を説明するための図である。 本発明の第3の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第3の実施の形態における画像ファイルの画像表示処理を説明するためのフローチャートである。 本発明の第3の実施の形態における画像ファイルの画像表示方法の変形例を説明するためのフローチャートである。 本発明の第4の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第4の実施の形態における画像ファイルの画像表示処理を説明するためのフローチャートである。 本発明の第4の実施の形態における画像ファイルの画像表示方法の変形例を説明するための図である。 本発明の第4の実施の形態における画像ファイルの画像表示処理の変形例を説明するためのフローチャートである。 本発明の第5の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第5の実施の形態における画像ファイルの画像表示処理を説明するフローチャートである。 本発明の第6の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第6の実施の形態における画像ファイルの画像表示処理を説明するためのフローチャートである。 本発明の第7の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第7の実施の形態における画像ファイルの画像表示方法を説明するための図である。 本発明の第7の実施の形態における画像ファイルの画像表示処理を説明するためのフローチャートである。 本発明の実施の形態における画像ファイルの画像表示方法の変形例を説明するための図である。
-第1の実施の形態-
 図1は発明の一実施の形態の構成を示す図である。カメラAとカメラBは、例えば所有者が同一であるなど、互いに“紐付けられている関係”にある。つまり、撮影した画像に撮影場所の位置データを付加する場合に、位置データを変換するために参照するデータベース(精度変換データベース、要求精度テーブル、人物データベースなど)がまったく同一であるカメラどうしである。撮影者によっては一眼レフカメラとコンパクトカメラを所持し、撮影対象や撮影条件に応じてそれらを使い分けることがある。そのような場合に例えば一眼レフカメラをカメラAとし、コンパクトカメラをカメラBとして同一の精度変換に関するデータを共有する。
 また、センターCは、互いに“紐付けられている関係”のカメラAとカメラBが同一IDの認証により利用可能なデータベースを備えている。センターCのデータベースを利用して撮影場所の位置データの精度を変換する場合には、カメラAとカメラBに位置データ変換に関するデータベースを設けなくてもよい。なお、カメラAとカメラBは同一のカメラであってもよいし、一方が一眼レフカメラ、他方がコンパクトカメラなど、異なる種類のカメラであってもよい。
 以下では、カメラA、カメラBおよびセンターCがそれぞれ備えている同様な装置についてまとめて説明する。撮影処理部A1、B1は図示しない撮影レンズ、撮像素子、画像処理装置などを備え、被写体像を撮影して種々の処理を施す。記録処理部A2、B2は、撮影処理部A1、B1により撮像した被写体像をメモリカードなどの記録装置へ記録する。なお、詳細を後述するが、撮影した画像とともに撮影場所の位置データを記録する。測位処理部A3、B3は撮影処理部A1、B1による撮影に同期して撮影場所を測位し、撮影場所の緯度Xと経度Yを検出する。なお、測位方法には周知のGPS測位法、WiFi測位法、あるいは携帯電話機による基地局測位法などがあり、それらのうちの少なくとも1つの測位法により撮影位置を検出する。
 顔検出(人物認識)処理部A4、B4は、撮影処理部A1、B1により撮影された画像の中に、予め登録した人物が写っているか否かを判定する。
 図4は、人物データベースA5、B5、C5に格納されている特定の人物に関する特徴量のデータを示す。カメラAとカメラBの所有者は認識したい人物の顔画像をテンプレート画像とし、その特徴量データを人物名と対応付けて人物データベースA5、B5、C5に記憶し、予め登録する。顔検出(人物認識)処理部A4、B4は、人物データベースA5、B5、C5に登録されている人物の特徴量データと、撮影処理部A1、B1により撮影された画像とを照合し、周知の顔認識手法により撮影画像の中に予め登録した人物が写っているか否かを判別する。
 ユーザー認証情報部A6、B6は、センターCに格納されている各種データを利用する場合に、予めデータベースにデータを登録した契約ユーザーであるか否かを認証するためのID情報を記憶している。センターCのユーザー認証処理部C1は、予め登録されている契約ユーザーのID情報と、カメラAまたはカメラBから送られたユーザーのID情報とを照合し、両者が一致した場合に予め格納されている契約ユーザーの各種データをカメラAまたはカメラBへ提供する。送信/受信処理部A7、B7、C2は、カメラA、カメラBおよびセンターCとの間で各種データの送受信を行う。表示処理部A10、B10は、記録処理部A2、B2によりメモリカードなどの記録装置へ記録された画像を読み出してカメラの背面モニター(不図示)などに表示処理をする。
 図5は、精度変換データベースA8、B8、C3を示す図である。精度変換データベースA8、B8、C3は、測位処理部A3、B3により検出した撮影場所が予め登録されている領域内である場合に、撮影場所の位置データを登録領域に応じた精度に変換するためのデータベースである。
 図5において、領域は、使用者により緯度Xおよび経度Yとその緯度経度を中心とする半径Rで予め指定された領域である。人物非認識時の位置情報の記録精度は、撮影した画像の中に予め登録した人物が写っていない場合に撮影画像とともに記録される位置データの要求精度であり、使用者によって高精度Highまたは低精度Low、あるいは位置データの記録禁止Offが設定される。人物認識時の位置データの記録精度は、顔検出(人物認識)処理部A4、B4によって撮影画像の中に人物データベースA5、B5、C5(図4参照)に登録された人物が認識された場合の、撮影画像とともに記録される位置データの要求精度であり、使用者によって高精度Highまたは低精度Low、あるいは位置データの記録禁止Offが設定される。位置履歴の記録頻度は、カメラA、Bを所持する使用者の移動軌跡を検出してログファイルに記録する際の位置データの記録頻度であり、使用者によって高頻度Highまたは低頻度Low、あるいは記録しないOffが設定される。
 使用者は、地図インタフェースなどを利用して自宅周辺の領域、勤務先の会社周辺領域、旅行先の領域と、領域ごとの人物非認識時の位置データの記録精度、人物認識時の位置データの記録精度および位置履歴の記録頻度を精度変換データベースA8、B8、C3へ登録することができる。使用者が2台のカメラA、Bを所持している場合には、一方のカメラAの精度変換データベースA8に対して領域と精度に関するデータの登録または更新を行うと、送信/受信処理部A7、B7を介して自動的に他方のカメラBの精度変換データベースB8へ同一データの登録または更新が行われる。また、使用者が、センターCと撮影場所の位置データに関するサービス契約をしている場合には、カメラAまたはカメラBの精度変換データベースA8、B8に対して領域と精度に関するデータの登録または更新を行うと、送信/受信処理部A7、B7、C2を介して自動的にセンターCの精度変換データベースC3へ同一データの登録または更新が行われる。
 なお、撮影場所が精度変換データベースA8、B8、C3の登録領域内にない場合には、人物非認識時の位置データの記録精度、人物認識時の位置データの記録精度および位置履歴の記録頻度には、予めカメラA、Bに記憶されているデフォルト値が設定される。
 図6は要求精度テーブルA9、B9、C4を示す図である。要求精度テーブルA9、B9、C4は、位置データの記録精度High、Low、Offと、位置履歴の記録頻度High、Low、Offを設定したテーブルであり、使用者により任意に設定することができる。位置データの記録精度では、例えば図6に示すように、GPS測位において位置データとともに提供される精度の劣化指標DOP(Dilution of Precision)にしたがって、DOPが6以下の位置データを高精度Highとし、6より大きい位置データを低精度Lowとする。また、位置履歴の記録頻度では、例えば図6に示すように、10秒ごとに記録する場合を高精度Highとし、60秒ごとに記録する場合を低精度Lowとする。なお、位置データおよび位置履歴を記録しない場合には、Offとする。
 図2および図3は、一実施の形態の位置データ精度の変換処理を示すフローチャートである。カメラAおよびカメラBは、電源が投入されている間、所定時間(例えば10秒)ごとにこの処理を実行する。なお、ここではカメラAの精度変換処理を説明するが、カメラBについても同様である。図2のステップ1において、測位処理部A3により現在位置を測位し、位置データとして緯度、経度およびDOPを検出する。ステップ2で撮影処理部A1による撮影が行われたか否かを判別し、撮影が行われていない場合は処理を終了する。なお、撮影には静止画撮影、動画撮影あるいは音声付きの画像撮影が含まれる。
 撮影が行われた場合はステップ3へ進み、精度変換データベースA8を参照して撮影画像とともに記録される位置データの要求精度を決定する。この要求精度の決定処理は図3のサブルーチンを実行して行われる。図3のステップ11において、撮影した画像から人の顔を検出する。この顔検出処理については周知の方法を用いればよいが、ここでは人の顔を認識できればよく、認識した顔がどの人物の顔かまで判別する必要はない。
 ステップ12で人の顔が一つ以上検出されたか否かを判別し、撮影画像の中に人の顔が写っていない場合はステップ13へ進み、人物非認識時の位置データの記録精度を要求する。つまり、精度変換データベースA8を参照して撮影場所の測位位置(緯度、経度)が予め登録されている領域内にあるか否かを判別し、撮影位置の領域に応じた人物非認識時の位置データの記録精度を要求精度とする。なお、撮影位置が登録領域内にない場合には、人物非認識時の位置データの記録精度としてカメラAに予め記憶されているデフォルト値を設定する。
 一方、撮影画像の中に人の顔が一つ以上写っている場合はステップ14へ進み、人物認識処理を行う。すなわち、人物データベースA5を参照して撮影画像の中の顔が予め登録した人物の顔のテンプレート画像と一致するか否かを判別する。撮影画像の中の顔が登録人物の顔と一致しない場合、つまり撮影画像の中に登録人物が一人も認識されない場合はステップ13へ進み、上述したように撮影位置の領域に応じた人物非認識時の位置データの記録精度を要求する。
 撮影した画像の中に写っている顔が予め登録した人物の顔と一致した場合、つまり撮影画像の中に登録人物が一人以上認識された場合は、ステップ16へ進み、人物認識時の位置データの記録精度を要求する。つまり、精度変換データベースA8を参照して撮影場所の測位位置(緯度、経度)が予め登録されている領域内にあるか否かを判別し、撮影位置の領域に応じた人物認識時の位置データの記録精度を要求精度とする。なお、撮影位置が登録領域内にない場合には、人物認識時の位置データの記録精度として予めカメラに記憶されているデフォルト値を設定する。
 位置データの要求精度を決定したら図2のステップ4へ進み、要求精度が位置データを記録しないOffになっているか否かを判別する。要求精度がOffの場合は処理を終了し、要求精度がOffでない場合はステップ5へ進む。ステップ5では、撮影位置の領域判定と人物認識の有無に応じた位置データの要求記録精度が高精度Highであるか否かを判別し、高精度Highが要求されている場合はステップ6へ進む。
 ステップ6では現在位置の測位精度(ステップ1における測位精度)が要求精度より低いか否かを判別する。測位精度が要求精度より低い場合はステップ8へ進み、測位処理部A3により現在位置の再測位を行う。例えば、撮影位置の領域判定と人物認識の有無に応じた要求精度が高精度Highであるにも拘わらず、測位精度の劣化指標DOPが6よりも大きい低精度Lowである場合には、現在位置の再測位を行う。一方、現在位置の測位精度が要求精度以上の場合はステップ7へ進む。例えば、要求精度が高精度Highのときに、測位精度の劣化指標DOPが6以下で高精度Highの場合にはステップ7へ進み、測位結果の位置データをそのまま撮影画像とともに記録する。
 撮影位置の領域判定と人物認識の有無に応じた位置データの要求記録精度が高精度Highでない場合はステップ9へ進み、測位結果の位置データを低精度に変換する。例えば、測位結果の緯度および経度が「ddmm.mmmm、N/S(北緯/南緯)、dddmm.mmmm、E/W(東経/西経)」である場合に、小数点以下を強制的に0にして「ddmm.0000、N/S(北緯/南緯)、dddmm.0000、E/W(東経/西経)」に変換する。また、住所については、「東京都品川区西大井1-6-3」の区より細かい部分を削除して「東京都品川区」とする。電話番号については、「+81-3-3773-1111」から局番と電話番号を削除して「+81-3」とする。さらに、郵便番号については、「140-8601」を「140」とする。
 ここで、ステップ9における位置データの低精度への変換は、測位結果の位置データが高精度(DOP≦6)であるか、低精度(DOP>6)であるかには無関係である。例えば、測位により低精度の緯度および経度が検出された場合でも、緯度および経度は小数点以下の数値を含んでおり、この場合は低精度の緯度および経度の小数点以下を強制的に0にして低精度データへ変換する。
 位置データを低精度に変換した後、ステップ10で変換後の位置データを撮影画像とともに記録して処理を終了する。上述したステップ7およびステップ10では、撮影画像、位置データとともに記録精度を示す情報も一緒に1つの画像ファイルとして記録する。記録精度としては、例えば、前述のHigh、Low、Offを符号化した情報を記録する。High、Lowの場合は、DOP値を記録するようにしてもよい。
 図7は、カメラAにおいて、表示処理部A10が実行する表示処理のフローチャートを示す図である。具体的には、カメラA内のCPUが所定のプログラムを実行することにより図7の処理を行う。本実施の形態では、通常表示モードにおいて、メモリカードなどの記録装置へ記録された画像ファイルのうち記録精度がHighの画像のみを選択して、カメラAの背面モニターにサムネイル表示を行う。なお、各画像ファイルには、前述したように、所定の領域に記録精度High、Low、Offのいずれかを示す符号が記録されている。
 ステップS21では、メモリカードから指定の画像ファイルを読み出す。図7の処理の初期起動時には、最も最新の画像ファイルが読み出される。ステップS22では、記録精度がHighかどうかを判断する。Highの場合はステップS23に進み、Highでない場合(LowかOff)は、ステップS25に進む。
 ステップS23では、読み出した画像ファイルからサムネイル画像データを読み出し、カメラAの背面モニター(不図示)に表示する。ステップS24では、背面モニターに所定の数のサムネイル画像を表示したかどうかを判断する。まだ所定の数を表示していない場合は、ステップS25に進む。所定の数を表示した場合は、処理を終了する。ステップS25では、次の画像ファイルを設定しステップS21に戻り処理を繰り返す。
 図7の処理が終了後、例えば「次の画像」を指示する操作ボタンが操作されると、前回処理が終了した画像ファイルの次の画像ファイルが指定されて図7の処理が繰り返される。また、サムネイル画像が表示されている状態で、任意のサムネイル画像を指定すると、そのサムネイル画像に相当する画像が背面モニター全面に表示される。
 このようにして、本実施の形態では、記録精度がHighとして記録された画像のみをカメラの背面モニターに表示するようにした。これにより、カメラの背面モニターにおいて表示されたくない画像を表示しないようにすることができる。例えば、自宅周辺の位置であることが特定された画像、特定の人物が写っていることが特定された画像などは、記録精度がLowやOffとして記録され、カメラの背面モニターに表示されないようにすることができる。
 なお、図7の処理はカメラAでの処理として説明したが、カメラBでも同様に処理される。また、センターCの表示処理部C6で同様な処理を行ってもよい。さらには、図7の処理は、パーソナルコンピュータや他の画像表示装置上で実行するようにしてもよい。センターCやパーソナルコンピュータなどで処理する場合は、カメラで撮像し記録した画像ファイルを、メモリカードや通信を介してセンターCやパーソナルコンピュータの記憶装置(データベース)に格納するようにすればよい。
 また、図7の処理では、記録精度がHighとして記録された画像のみをカメラの背面モニターに表示するようにしたが、その基準を変更してもよい。記録精度がHighおよびLowに設定された画像をカメラの背面モニターに表示するようにし、Offのものは表示しないようにしてもよい。また、記録精度がHighのサムネイルを記録精度がLowのサムネイルより大きく表示するようにしてもよい。このように、画像を表示したり表示しなかったり、画像の大きさを変えることにより、記録精度に応じて画像の表示の態様を変更することができる。
 なお、上述した一実施の形態では、撮影画像の中に人の顔がある場合でも、その顔が予め登録した人物の顔でない場合には、人物非認識時の位置データ精度を要求する例を示したが、人物認識を行わず、人の顔が検出された場合は人物認識時の記録精度を要求し、人の顔が検出されない場合は人物非認識時の記録精度を要求するようにしてもよい。つまり、人の顔の検出結果のみに応じて要求記録精度を決定するようにしてもよい。
 また、画像の撮影条件に応じて位置データの要求記録精度を決定してもよい。例えば、撮影画角が広角の場合には、広い範囲を撮影するのであるから撮影場所の位置データは高精度である必要がなく、その場合は低精度を要求する。一方、望遠で撮影した場合には、撮影対象が絞り込まれており、撮影場所の位置データは高精度である必要が高く、その場合は高精度を要求する。
 さらに、上述した一実施の形態では撮像画像とともに撮影位置データを記録する例を示したが、位置データ以外の情報を合わせて記録してもよい。例えば、検出した人の顔の数や、センサーにより検出した撮影者の心拍数などを画像とともに記録してもよい。
 さらにまた、撮影位置データの記録精度に応じて撮影画像の記録解像度を変更してもよい。例えば、撮影位置データの記録精度が高い場合には、撮影画像の記録解像度を高くする。
 なお、上述した一実施の形態とその変形例において、一実施の形態と変形例とのあらゆる組み合わせが可能である。
 上述した実施の形態とその変形例によれば以下のような作用効果を奏することができる。まず、画像を撮影したときの撮影位置を測位し、撮影位置に基づいて撮影画像とともに撮影位置のデータを記録するか否かを決定する。具体的には、所定の広さの特定領域に対する撮影位置データの記録可否と記録可の場合の撮影位置データの記録精度とを設定したデータベースを備え、撮影位置をデータベースの特定領域と照合し、撮影画像とともに撮影位置データを記録するか否かと、記録する場合の撮影位置データの記録精度を決定するようにしたので、画像の撮影位置を記録するか否かと、記録する場合にはその記録精度が自動的に決定され、操作性が向上するとともに、誤って公開されたくない撮影場所が画像とともに公開されるような事態を防止することができる。
 次に、特定人物に対する特徴を記憶したデータベースを備え、このデータベースを参照して撮影画像の中から特定人物を認識するとともに、撮影画像の中に前記特定人物が認識された場合には、撮影位置データの記録精度を低精度に変換するようにしたので、撮影者が予め設定した人物の正確な住所や勤務先が撮影画像とともに公開されるような事態を防止することができる。
 また、測位精度が要求精度より低い場合には、測位精度が要求精度を満たすまで測位手段による測位をやり直すようにしたので、要求精度の撮影位置データを確実に記録できる。
-第2の実施の形態-
 第1の実施の形態では、図5に示すような精度変換データベースA8、B8、C3を使用する例を説明した。すなわち、画像における人物の認識と撮影場所がどの領域内かによるかの組み合わせによって、位置データを記録するか否かを判断したり、記録精度を変換する例を示した。第2の実施の形態では、画像データに基づいてのみ、位置データを記録するか否かを判断したり、記録精度を変換する例を説明する。
 カメラA、カメラB、センターCの関係やカメラ内の処理は、第1の実施の形態と同様であるのでその説明を省略する。異なるのは精度変換データベースA8、B8、C3のみであるので、以下ではその点に絞って説明をする。
 図8は、第2の実施の形態で使用する精度変換データベースA8、B8、C3を示す図である。図8の例では、人物非認識時において要求記録精度をすべてHighにし、人物認識時において人物Aの場合は要求記録精度をOff(記録しない)、人物B、Cの場合は要求記録精度をLow、その他の人物の場合はHighにする例が示されている。例えば、人物Aはカメラの所有者本人であり、人物B、Cは、家族や親しい友人である。すなわち、カメラの所有者本人が撮影されている場合は位置データの記録自体をオフにし、家族や親しい友人が撮影されている画像では記録精度をLowに変換するように設定されている。「その他」の人物は、画像に人物は写っているが、関係者ではない人物が写っている場合である。
 このような精度変換データベースA8、B8、C3を使用することにより、特定の人物を認識して、位置データを記録するか否かを判断したり、記録精度を変更することが可能となる。第1の実施の形態のように、人物の認識と撮影した場所との組み合わせで記録精度を変更するのではなく、認識した人物によってのみで位置データを記録するか否かを判断したり、記録精度を変更することができる。これにより、特定の人物が撮影されている場合に、どの場所で撮影されたかが特定されないように、あるいは特定されにくいように位置データの記録をオフにしたり、記録精度を下げることができる。
 なお、上記では、人物データベースA5、B5、C5を使用して人物の認識をする例を示したが、認識の対象を人物ではなくその他の被写体であってもよい。例えば、自宅の建物であったり、所有する自動車などであってもよい。すなわち、特定の人物に関する特徴量のデータが格納されている人物データベースA5、B5、C5の代わりに、他の認識対象に関する特徴量のデータが格納されたデータベースを備えるようにしてもよい。
 このようにすることにより、撮影した画像の中に人物のみならず特定の被写体が撮影されている場合にも、位置データの記録をオフにしたり、記録精度を変更したりすることができる。すなわち、撮影画像に基づいて、位置データの記録の可否を判断したり、記録精度を変更したりすることができる。
-第3の実施の形態-
 以下、図を参照して本発明の第3の実施の形態による電子カメラを説明する。
 図9は電子カメラ1を示す図である。図9(a)は、電子カメラ1を斜め前方から見た図であり、図9(b)は、電子カメラ1を斜め後方から見た図である。図9(a)に示すように、電子カメラ1の正面には、撮影光学系(図10、符号121参照)のレンズ121aと、被写体を照明する照明装置110とが設けられている。また、電子カメラ1は、GPS( Global Positioning System )機器2と接続し、GPS機器2から測位データやその測位データの精度に関する情報を取得することができる。電子カメラ1の上面には、レリーズスイッチ103aが設けられている。
 図9(b)に示すように、電子カメラ1の背面には、液晶モニタ104と、操作ボタン103b~103gとが設けられている。
 図10は、電子カメラ1の構成を説明するブロック図である。図10において電子カメラ1は、制御回路101と、メモリ102と、操作部103と、表示モニタ104と、スピーカ105と、外部インターフェイス(I/F)回路106と、メモリカードインターフェイス(I/F)107と、電源108と、測光装置109と、照明装置110と、地図データ記憶装置111と、GPSインターフェイス(I/F)回路112とを有している。電子カメラ1は、GPSインターフェイス回路112を介して、GPS機器2と接続している。また、メモリカードインターフェイス107にはメモリカード150が実装される。
 制御回路101は、制御プログラムに基づいて、電子カメラ内各部から出力される信号を用いて所定の演算を行う。制御回路101は、電子カメラ内各部に対して制御信号を送出することにより、電子カメラ1の撮影動作を制御する。なお、制御プログラムは制御回路101内の不図示のROM( Read Only Memory )に格納される。
 制御回路101は、電子カメラ内各部から取得した撮影条件の情報、GPS機器から取得した測位データおよびその測位データの精度に関する情報、撮影した画像の画像データなどから画像ファイルを作成し、メモリ150などに記憶させる。この画像ファイルはExif( Exchangeable image file format )画像ファイル規定にしたがって作成される。
  図11を参照して画像ファイルの構造を説明する。画像ファイル3は、主画像データと、主画像データの付属情報が記載された複数のタグとから構成される。この複数のタグの中には、測位した位置が北緯であるか南緯であるかを記載するタグ31、測位した位置の緯度を記載するタグ32、測位した位置が東経であるか西経であるかを記載するタグ33、測位した位置の経度を記載するタグ34および測位の信頼性、つまり測位の精度を記載したタグ35が含まれる。測位の精度は、DOP( Dilution of Precision )値で表す。以下、タグ31~34のデータを測位データと呼ぶ。測位データ31~34は、通常、ユーザがその画像の撮影を行ったときのユーザの現在位置や撮影に使用した機器の現在位置のデータである。
 DOP値は、精度の劣化係数と呼ばれ、測位衛星の幾何学的配置によって精度が劣化する程度を示す指数である。測位衛星によって測位を行うときの理想的な衛星配置は、天頂の衛星と120°ずつ分散している周辺の3つの衛星で正三角錐の形状をなしている配置である。この配置のDOP値を1とする。それと比べて何倍精度が劣るかによって、2、3、4、・・・と指数で表す。つまり、DOP値は大きくなるにしたがって、測位精度は低くなる。GPS機器2において、DOP値は4つの測位衛星で作られる三角錐の体積がDOP値1の場合に比べてどれだけ小さいかによって計算される。
 図10のメモリ102は、制御回路101の作業用メモリとして使用される。操作部103は、レリーズボタン103a、操作ボタン103b~103gなどを含み、操作されたボタンに対応する操作信号を制御回路101へ送出する。メモリカードインターフェイス107は、制御回路101の指示によりメモリカード150へ画像ファイルを書き込んだりメモリカード150から画像ファイルを読み出したりする。メモリカード150は、メモリカードインターフェイス107に着脱可能な外部記録媒体である。
 表示モニタ104は、制御回路101からの指示により画像ファイルの画像やテキストなどの情報を表示する。表示モニタ104には、1つの画像が大きく表示されたり、複数の縮小画像(サムネイル)が表示されたりする。スピーカ105は、制御回路101からの指示により音声を出力する。外部インターフェイス回路106は、制御回路101からの指示により不図示のケーブルを介して外部機器(パーソナルコンピュータ、プリンタなど)との間でコマンドおよびデータを送受信する。
 電源108は、バッテリ、電源回路などを有し、電子カメラ1の各部に電力を供給する。測光装置109は、測光センサによって被写体の輝度を検出し、輝度情報を制御回路101へ送出する。制御回路101は輝度情報に基づき、シャッター速度や絞り値等の露出設定値を算出する。照明装置110は、撮影時に制御回路101から発光指示された場合に所定光量で、たとえば閃光発光し、被写体を照明する。照明光は電子カメラ前方へ射出される。
 地図データ記憶装置111は、表示モニタ104に地図を表示するための地図データを記憶する。GPSインターフェイス回路112は、電子カメラ1をGPS機器2と接続するためのインターフェイスである。
 撮像部120は、撮影光学系121、撮像素子122および撮像制御回路123を有し、制御回路101からの指示に応じて被写体の撮像を行う。撮影光学系121は、撮像素子122の撮像面上に被写体像を結像させる。撮像素子122としては、CCD( Charge Coupled Device )撮像素子やCMOS( Complementary Metal Oxide Semiconductor )撮像素子などが用いられる。撮像制御回路123は、制御回路101からの指示により撮像素子122を駆動制御するとともに、撮像素子122から出力される画像信号に対して所定の信号処理を行う。信号処理後の画像のデータは、上述のExif画像ファイル規定の画像ファイルとしてメモリカード150に記録される。
 GPS機器2は、測位衛星から送信された電波の伝播時間および測位衛星の位置に基づいて、GPS機器2の位置を計測する。正確な時計に同期して測位衛星から電波が送信されるので、GPS機器2は、電波の受信時間から伝播時間を算出することができる。測位衛星から送信される電波には、測位衛星の軌道データが含まれており、GPS機器2は、その軌道データから測位衛星の位置を算出することができる。また、GPS機器2は上述のDOP値を算出する。
 図12を参照して、本発明の第3の実施の形態における画像ファイルの画像表示方法を説明する。図12はメモリカード150に記憶された画像ファイルの画像を表示した表示モニタ104の表示画面を説明するための図である。図12に示すように、表示モニタ104には、DOP値が所定値以下である画像ファイルの画像41a~41dが縮小画像として並べて表示される。したがって、DOP値が所定値より大きい画像ファイルの画像は表示されない。これらの画像41a~41dの測位データの位置は、電子カメラ1に接続しているGPS機器2が測位している位置、つまり、電子カメラ1の現在位置とほぼ同じ位置である。
 また、画像41a~41dは左から右へ、そして上の段から下の段へ、DOP値が小さいものから大きいものへ至る順序、つまり測位精度の高いものから低いものへ至る順序で表示される。これよりユーザは、画像41aの測位精度が最も高く(DOP値が最も小さく)、画像41b、画像41c、画像41dと進むにしたがって、測位精度は悪くなる(DOP値が大きくなる)ことを認識できる。
 図13のフローチャートを参照して、本発明の第3の実施の形態における画像ファイルの画像表示処理を説明する。図13の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。ここで、DOPサムネイル表示とは、画像ファイルのDOP値に基づいて画像ファイルの画像を縮小画像として表示することをいう。
 ステップS501では、GPS機器2によって、現在位置を測位する。ステップS502では、現在位置を測位したときのDOP値をGPS機器2から取得する。ステップS503では、メモリカード150に記憶されている画像ファイルの中から測位データの位置が現在位置と同じ画像ファイルを検索する。ここで、現在位置と同じとは、所定の許容範囲で現在位置と測位データの位置とが同じであることをいう。
 ステップS504では、ステップS503で検索した画像ファイルの中からGPS機器2から取得したDOP値以下のDOP値の画像ファイルを検索する。ステップS505では、ステップS504で検索した画像ファイルの縮小画像を作成する。ステップS506では、DOP値の小さい画像ファイルの画像からDOP値の大きい画像ファイルの画像へ至る順序で、画像ファイルの画像の縮小画像を左から右へ、上段から下段へ、並べて表示する。
 以上説明した第3の実施の形態によれば、次の作用効果が得られる。
(1)測位データ31~34とその測位データにおける測位精度の情報35とを有する、複数の画像ファイルの中から、所定の測位精度以上の画像ファイルを検索し、検索された画像ファイルの画像41a~41dを表示モニタ104に表示するようにした。これにより、所定の測位精度以上の画像ファイルのみを表示することができる。
(2)測位精度の高い画像ファイルの画像から測位精度の低い画像ファイルの画像へ至る順序で並べて検索された画像ファイルの画像を表示するようにした。これにより、測位精度の高い画像を優先的に選択することができる。
(3)電子カメラ1の現在位置を検出するGPS機器2を備え、複数の画像ファイルの中から、GPS機器2によって検出された現在位置とほぼ一致する測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から所定の測位精度以上の画像ファイルを検索して、検索された画像ファイルの画像41a~41dを表示モニタ104に表示するようにした。これにより、同じ場所に以前いたときに撮影した画像を参考にして、撮影を行ったり景色を眺めたりすることができる。また、表示された画像をきっかけとして同じ場所に以前いたときのことを思い出すことができる。
 以上の第3の実施の形態を次のように変形することができる。
(1)以上の第3の実施の形態では、電子カメラ1の現在位置とほぼ一致する測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から所定の測位精度以上の画像ファイルをさらに検索して、検索された画像ファイルの画像41a~41dを表示モニタ104に表示するようにした。しかし、電子カメラ1の現在位置から所定距離内の測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から所定の測位精度以上の画像ファイルをさらに検索して、検索された画像ファイルの画像を表示モニタ104に表示するようにしてもよい。これにより、現在位置周辺の測位精度の高い画像ファイルを必要とするとき便利である。たとえば、現在位置の周辺で、以前撮影したときと同じ場所で撮影を行いたい場合や、昔の景色と比べて今の景色がどの程度景色が変わったかを調べたい場合などに便利である。
(2)以上の第3の実施の形態では、測位精度の高い画像ファイルの画像から測位精度の低い画像ファイルの画像へ至る順序で画像ファイルの画像を並べて表示するようにした。しかし、現在位置から測位データの位置までの距離をDOP値、つまり測位精度表す値に乗算した値に応じて、画像ファイルの画像を並べる順序を決定し、画像ファイルの画像を並べて表示するようにしてもよい。これにより、測位精度と現在位置からの距離とを総合的に判断して画像を並べる順序を決定することができる。たとえば、いくら測位精度が高くても測位データが現在位置から離れている画像を選択したくないし、いくら測位データが現在位置に近くても測位精度が悪い画像を選択したくない場合などに便利である。なお、表示する画像ファイルの画像は、測位データの位置が電子カメラ1の現在位置とほぼ同じ位置の画像でもよいし、測位データの位置が電子カメラ1の現在位置から所定距離内である画像でもよい。また、所定の測位精度以上の測位精度の画像のみを表示するようにしてもよい。
 図14のフローチャートを参照して、本発明の第3の実施の形態における画像ファイルの画像表示方法の変形例を説明する。図14の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。
 ステップS601では、GPS機器2によって、現在位置を測位する。ステップS602では、現在位置を測位したときのDOP値をGPS機器2から取得する。ステップS603では、メモリカード150に記憶されている画像ファイルの中から測位データの位置が現在位置から所定距離内である画像ファイルを検索する。
 ステップS604では、ステップS603で検索した画像ファイルの中からGPS機器2から取得したDOP値以下のDOP値の画像ファイルを検索する。ステップS605では、ステップS604で検索したそれぞれの画像ファイルについて、現在位置から測位データの位置までの距離にDOP値を乗算した値(U)を算出する。ステップS606では、検索した画像ファイルの画像の縮小画像を作成する。ステップS607では、U値の小さい画像ファイルの画像からのU値の大きい画像ファイルの画像へ至る順序で、画像ファイルの縮小画像を並べて表示する。
-第4の実施の形態-
 以下、図を参照して本発明の第4の実施の形態による電子カメラを説明する。本発明の第4の実施の形態による電子カメラ1は、画像の大きさを変えて画像を表示モニタ104に表示する。画像の大きさの順位は画像ファイルのDOP値に基づいて決定される。また、画像は測位データの位置周辺の地図とともに表示される。第4の実施の形態の電子カメラ1の構成は、第3の実施の形態の電子カメラ1の構成と変わらないので、第4の実施の形態の電子カメラ1の構成の説明は省略する。
 図15を参照して、本発明の第4の実施の形態における画像ファイルの画像表示方法を説明する。図15はメモリカード150に記憶された画像ファイルの画像を表示した表示モニタ104の表示画面を説明するための図である。図15に示すように、表示モニタ104には、地図50AとともにDOP値が所定値以下である画像ファイルの画像42a~42cが縮小画像として表示される。地図50Aは、電子カメラ1の現在位置51の周辺地図である。
 画像42a~42cの画像ファイルにおける測位データの位置は、電子カメラ1の現在位置51とほぼ同じ位置である。したがって、地図50Aは、画像42a~42cの画像ファイルにおける測位データの位置周辺の地図でもある。また、画像42a~42cの大きさは、DOP値が小さいものから大きいものへ至る順序、つまり、測位精度の高いものから低いものへ至る順序で小さくなる。したがって、一番大きな画像42aの測位精度が最も高く(DOP値が最も小さく)、一番小さな画像42cの測位精度が一番悪い(DOP値が大きい)。
 図16のフローチャートを参照して、本発明の第4の実施の形態における画像ファイルの画像表示処理を説明する。図16の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。図13の処理と共通する処理には共通の符号を付し、第5の処理と異なる部分を主に説明する。
 ステップS504の次は、ステップS801へ進む。ステップS801では、ステップS504で検索した画像ファイルの縮小画像を、DOP値の小さいものから大きいものへ至る順序で大きさを徐々に小さくして作成する。ステップS802では、現在位置周辺の地図を所定の縮尺で表示モニタ104に表示する。ステップS803では、画像同士が重ならないようにして、DOP値が大きくなるにしたがって現在位置から離して縮小画像を表示する。
 以上説明した第4の実施の形態によれば、第3の実施の形態の作用効果の他に次の作用効果が得られる。
(1)測位精度の高い画像ファイルの画像42a(42b)を測位精度の低い画像ファイルの画像42b(42c)に比べて大きく表示するようにした。これにより、測位精度の高い画像を優先的に選択することができる。
(2)画像ファイルにおける測位データの位置周辺の地図とともに画像ファイルの画像を表示するようにした。これにより、画像ファイルの画像を撮影した位置などを地図上で確認することができ、便利である。
(3)所定の測位精度以上の画像ファイルを検索し、検索された画像ファイルの画像を表示モニタ104に表示するようにした。これにより、実際は地図の表示範囲から外れた位置で撮影された画像であるにもかかわらず、測位精度が悪いため地図の表示範囲内で撮影されたように表示されるのを防止することができる。
 以上の第4の実施の形態を次のように変形することができる。
(1)以上の第4の実施の形態では、電子カメラ1の現在位置とほぼ一致する測位データを有する画像ファイルの画像を地図上に表示した。しかし、電子カメラ1の現在位置から所定距離内の測位データを有する画像ファイルの画像を表示するようにしてもよい。たとえば、図17に示すように画像43a~43cを表示するようにしてもよい。ここで、画像43aの測位データの位置は符号44aであり、画像43bの測位データの位置は符号44bであり、画像43cの測位データの位置は符号44cである。これらの測位データの位置44a~44cは電子カメラ1の現在位置51から所定距離内52である。
 図18のフローチャートを参照して、本発明の第4の実施の形態における画像ファイルの画像表示処理の変形例を説明する。図18の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。図14の処理と共通する処理には共通の符号を付し、図14の処理と異なる部分を主に説明する。
 ステップS604の次は、ステップS1001へ進む。ステップS1001では、ステップS604で検索した画像ファイルの縮小画像をDOP値の小さいものから大きいものへ至る順序で大きさを徐々に小さくして作成する。ステップS1002では、現在位置周辺の地図を所定の縮尺で表示モニタ104に表示する。ステップS1003では、測位データの位置付近に縮小画像を表示する。
(2)地図とともに表示モニタ104に表示する複数の画像の大きさは第3の実施の形態に限定されない。たとえば、地図とともに表示する複数の画像の大きさを全て同じにするようにしてもよい。この場合も画像ファイルの画像を撮影した位置などを地図上で確認することができ、便利である。また、DOP値に対応する画像の大きさを予め決めておき、DOP値に応じて表示する画像の大きさを変えるようにしてもよい。画像の大きさを見ただけで測位精度を認識することができ、便利である。
-第5の実施の形態-
 以下、図を参照して本発明の第5の実施の形態による電子カメラを説明する。本発明の第5の実施の形態による電子カメラ1は、表示モニタ104に表示される地図の縮尺によって、表示モニタ104に表示する画像ファイルを検索する基準となるDOP値を決定する。第5の実施の形態の電子カメラ1の構成は、第3の実施の形態の電子カメラ1の構成と変わらないので、第5の実施の形態の電子カメラ1の構成の説明は省略する。
 図19を参照して、本発明の第5の実施の形態における画像ファイルの画像表示方法を説明する。図19はメモリカード150に記憶された画像ファイルの画像を表示した表示モニタ104の表示画面を説明するための図である。図19(a)は所定の縮尺の地図の上に画像を表示した表示画面を説明するための図であり、図19(b)は、図19(a)の地図に比べて地図の縮尺を詳細側に変更したときの地図の上に画像を表示した表示画面を説明するための図である。
 図19(a)に示すように、表示モニタ104には、地図50AとともにDOP値が所定値以下である画像ファイルの画像43a~43cが縮小画像として表示される。ここで、画像43a~43cの大きさは、DOP値が小さいものから大きいものへ至る順序で徐々に小さくなっている。
 図19(b)に示すように、地図の縮尺が詳細側に変更されると、画像ファイルの画像を表示するか否かの規準となるDOP値が、所定値から小さい値に変わる。その結果、画像43aおよび画像43bのみが表示され、測位精度の悪い画像43cは表示されなくなる。表示モニタ104に表示される地図の縮尺が詳細側にいく程、画像ファイルの画像を表示する規準となるDOP値は小さくなり、表示モニタ104に表示される地図の縮尺が広域側にいく程、画像ファイルの画像を表示する規準となるDOP値は大きくなる。
 図20のフローチャートを参照して、本発明の第5の実施の形態における画像ファイルの画像表示処理を説明する。図20の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。図18の処理と共通する処理には共通の符号を付し、図18の処理と異なる部分を主に説明する。ここで、ユーザは、操作ボタン103b~103gの操作によって表示モニタ104に表示される地図の縮尺を設定できるものとして説明する。これにより、ユーザは、地図の縮尺を変更することができる。
 ステップS601の次は、ステップS1201へ進む。ステップS1201では、電子カメラ1に設定された地図の縮尺を検出する。ステップS1202では、地図の縮尺より基準DOP値を決定する。ここで、地図の縮尺が詳細側である程、基準DOP値は小さくなり、地図の縮尺が広域側である程、基準DOP値は大きくなる。そして、ステップS603へ進み、ステップS1203へ進む。
 ステップS1203では、基準DOP値以下のDOP値の画像ファイルを検索する。そして、ステップS1001へ進み、ステップS1204へ進む。ステップS1204では、設定された縮尺で地図を表示モニタ104に表示する。そして、ステップS1003へ進み、ステップS1205へ進む。ステップS1205では、ユーザの操作ボタン103b~103gの操作によりDOPサムネイル表示を終了したか否かを判定する。DOPサムネイル表示を終了した場合はステップS1205が肯定判定され、画像表示処理を終了する。DOPサムネイル表示を終了していない場合はステップS1205が否定判定され、ステップS501に戻る。
 以上説明した第5の実施の形態によれば、第3の実施の形態の作用効果の他に次の作用効果が得られる。
 地図の縮尺が変更されると、変更された地図の縮尺に基づいて画像表示可否の判断基準となる基準DOP値を変更し、画像ファイルのDOP値が、変更された基準DOP値以下である画像を、縮尺が変更された地図とともに表示するようにした。これにより、地図の縮尺が詳細側に変更され、地図の表示範囲は狭くなったことが原因で、実際は地図の表示範囲から外れた位置で撮影された画像であるにもかかわらず、地図の表示範囲内で撮影されたように表示されるのを防止することができる。
 以上の第5の実施の形態を次のように変形することができる。
 地図とともに表示する複数の画像の大きさは第5の実施の形態に限定されない。たとえば、地図とともに表示する複数の画像の大きさを全て同じにするようにしてもよい。また、DOP値に対応する画像の大きさを予め決めておき、DOP値に応じて表示する画像の大きさを変えるようにしてもよい。
-第6の実施の形態-
 以下、図を参照して本発明の第6の実施の形態による電子カメラを説明する。本発明の第6の実施の形態による電子カメラ1は、表示する画像ファイルを検索する基準となるDOP値をユーザが設定できる。第6の実施の形態の電子カメラ1の構成は、第3の実施の形態の電子カメラ1の構成と変わらないので、第6の実施の形態の電子カメラ1の構成の説明は省略する。
 図21を参照して、本発明の第6の実施の形態における画像ファイルの画像表示方法を説明する。図21は、メモリカード150に記憶された画像ファイルの画像を所定の地図の上に表示した表示モニタ104の表示画面を説明するための図である。表示画面には、地図50Bと、画像43a~43cとともに、ユーザが操作ボタン103b~103gを操作して入力したDOP値を示す基準DOP値表示欄60が表示される。基準DOP値表示欄60には、DOP値の目盛と、目盛上を移動する逆三角形のマーク61とが表示される。ユーザが入力したDOP値の目盛上にマーク61が移動する。これにより、ユーザは、自分が入力したDOP値を確認することができる。画像43a~43cの大きさは、DOP値が小さいものから大きいものへ至る順序で徐々に小さくなっている。
 図21(a)は、ユーザがDOP値として「3」を入力したときの表示画面である。表示画面には、画像ファイルのDOP値が3以下である画像43a,43bが表示される。図21(b)は、ユーザがDOP値として「7」を入力したときの表示画面である。表示画面には、画像ファイルのDOP値が3以下である画像43a,43bのほかに、DOP値が3より大きく7以下の値である画像43cも表示される。
 図22のフローチャートを参照して、本発明の第6の実施の形態における画像ファイルの画像表示処理を説明する。図22の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。図20の処理と共通する処理には共通の符号を付し、図20の処理と異なる部分を主に説明する。
 ステップS1401では、基準DOP値を2とする。そして、ステップS601、ステップS603と進む。ステップS1003の次はステップS1402へ進む。ステップS1402では、ユーザが操作ボタン103b~103gを操作してDOP値を入力し、基準DOP値が変更されたか否かを判定する。基準DOP値が変更された場合はステップS1402が肯定判定され、ステップS1403へ進む。基準DOP値が変更されていない場合はステップS1402が否定判定され、ステップS1205へ進む。ステップS1403では、基準DOP値をユーザが入力したDOP値に変更する。そして、ステップS601に戻る。
 以上説明した第6の実施の形態によれば、第3の実施の形態の作用効果の他に次の作用効果が得られる。
 ユーザによって入力された測位精度以上の画像ファイルを検索し、検索された画像ファイルの画像を表示するようにした。これにより、ユーザが希望する測位精度の画像ファイルの画像を表示モニタ104に表示でき、便利である。
 以上の第6の実施の形態を次のように変形することができる。
 地図とともに表示する複数の縮小画像の大きさは第5の実施の形態に限定されない。たとえば、地図とともに表示する複数の縮小画像の大きさを全て同じにするようにしてもよい。また、DOP値に対応する画像の大きさを予め決めておき、DOP値に応じて表示する画像の大きさを変えるようにしてもよい。
-第7の実施の形態-
 以下、図を参照して本発明の第7の実施の形態による電子カメラを説明する。本発明の第7の実施の形態による電子カメラ1では、表示モニタ104に並べて表示されている複数の画像の中から1つの画像がユーザによって選択されると、選択された画像の測位データの位置周辺の地図が表示モニタ104に表示される。また、その地図の上に選択された画像が表示される。第7の実施の形態の電子カメラ1の構成は、第3の実施の形態の電子カメラ1の構成と変わらないので、第7の実施の形態の電子カメラ1の構成の説明は省略する。
 図23および図24を参照して、本発明の第7の実施の形態における画像ファイルの画像表示方法を説明する。図23(a)および図24(a)は、DOP値が所定値以下である画像ファイルの画像41a~41dが縮小画像として並べて表示されている表示画面を説明するための図である。図23(a)では、複数の画像45a~45dの中で画像45aがユーザによって選択され、図24(a)では、複数の画像45a~45dの中から画像45cがユーザによって選択されている。画像の選択は、ユーザが操作ボタン103b~103gを操作することによって行える。
 図23(b)は、図23(a)で画像45aが選択された後に表示される表示画面を説明するための図である。表示画面には、選択された画像45aの測位位置46a周辺の地図50Bと選択された画像45aとが表示される。地図50Bの縮尺は、画像45aの測位データの測位精度に基づいて決定される。測位精度が高いとき、つまりDOP値が小さいときは詳細地図が表示され、測位精度が悪いとき、つまりDOP値が大きいときは広域地図が表示される。
 図24(b)は、図24(a)で画像45cが選択された後に表示される表示画面を説明するための図である。表示画面には、選択された画像45cの測位位置46c周辺の地図50Aと選択された画像45cとが表示される。画像45cは、画像45aに比べて測位精度が悪いので、地図50Aの縮尺は、地図50Bに比べて広域側である。なお、地図50A,50Bともに表示される画像45a,45cの大きさは同じである。
 図25のフローチャートを参照して、本発明の第7の実施の形態における画像ファイルの画像表示処理を説明する。図25の処理は、ユーザが操作ボタン103b~103gを操作して、DOPサムネイル表示の機能を選択するとスタートするプログラムにより制御回路101において実行される。ここで、ユーザは、操作ボタン103b~103gの操作によって表示モニタ104に並べて表示されている画像の中から所望の画像を選択できるものとして説明する。
 ステップS1701では、メモリカード150に記憶されている画像ファイルから縮小画像を作成する。ステップS1702では、縮小画像を並べて表示モニタ104に表示する。ステップS1703では、縮小画像が選択されたか否かを判定する。縮小画像が選択された場合はステップS1703が肯定判定され、ステップS1704へ進む。縮小画像が選択されない場合はステップS1703を繰り返す。
 ステップS1704では、選択された縮小画像の測位データの位置およびDOP値を検出する。ステップS1705では、検出したDOP値に基づいて地図の縮尺を決定する。上述したようにDOP値が小さいときは地図の縮尺を詳細側にし、DOP値が大きいときは地図の縮尺を広域側にする。ステップS1706では、決定した縮尺で測位データの位置周辺の地図を表示する。ステップS1707では、ステップS1703で選択された縮小画像を地図上に表示する。
 ステップS1708では、ユーザの操作ボタン103b~103gの操作により前の画面に戻る操作が行われたか否かを判定する。前の画面に戻る操作が行われた場合はステップS1708が肯定判定され、ステップS1702に戻る。前の画面に戻る操作が行われない場合はステップS1708が否定判定され、ステップS1709へ進む。ステップS1709では、ユーザの操作ボタン103b~103gの操作によりDOPサムネイル表示を終了したか否かを判定する。DOPサムネイル表示を終了した場合はステップS1709が肯定判定され、処理を終了する。DOPサムネイル表示を終了していない場合はステップS1709が否定判定され、ステップS1708に戻る。
 以上説明した第7の実施の形態によれば、第3の実施の形態の作用効果の他に次の作用効果が得られる。
(1)表示モニタ104に並べて表示された画像の中から1つの画像が選択されると、選択された画像の画像ファイルにおける測位データの位置周辺の地図を表示するようにした。これにより、画像ファイルの画像を撮影した位置などを地図上で確認することができ、便利である。
(2)表示モニタ104に並べて表示された画像の中から1つの画像が選択されると表示される地図の縮尺を、選択された画像の画像ファイルにおける測位精度に基づいて決定するようにした。これにより、実際は地図の表示範囲から外れた位置で撮影された画像であるにもかかわらず、測位精度が悪いため地図の表示範囲内で撮影されたように表示されるのを防止することができる。
 以上の第7の実施の形態を次のように変形することができる。
(1)ユーザに選択させるために画像を並べて表示モニタ104に表示するとき、所定の測位精度以上の画像ファイルの画像を表示するようにしてもよい。測位精度が著しく悪い画像を地図とともに表示した場合、測位精度に基づいて決定される地図の縮尺は著しく広域側になると思われるので、測位データの位置が地図から見てよくわからないからである。
(2)並べて表示されている画像をユーザが選択すると、地図とともに選択された画像を表示するようにした。しかし、地図のみを表示するようにしてもよい。この場合も、画像ファイルの画像を撮影した位置などを地図上で確認することができる。
(3)DOP値に対応する画像の大きさを予め決めておき、地図とともに表示される画像の大きさをDOP値に応じて変えるようにしてもよい。画像の大きさを見ただけで測位精度を認識することができるので便利である。また、画像ファイルの測位精度に基づいて並べる順序を決定して画像を並べて表示し、その順序で、地図とともに表示する画像の大きさを決定するようにしてもよい。
-変形例-
(1)以上の第2~5の実施の形態では、地図の上に画像を表示した。しかし、図26(a)に示すようにレーダーチャート70に重ねて画像47a~47eを表示するようにしてもよい。ここで、レーダーチャート70の中心71に近い画像ほどDOP値が小さい画像であり、中心71から離れている画像ほどDOP値が大きい画像である。画像47a~47eの測位精度が視覚的に把握でき、便利である。なお、DOP値の順序に応じて、またはDOP値に応じて画像47a~47eの大きさを変えるようにしてもよい。
 また、測位データの位置が電子カメラ1の現在位置81から所定距離内である画像を、大きさを変えて表示するとき、図26(b)に示すように、電子カメラ1の現在位置81を表示して、地図を表示しないようにしてもよい。この場合も、測位データの位置が電子カメラ1の現在位置81に近い画像および遠い画像を判断することができる。
(2)以上の実施の形態では、GPS機器2が現在位置を測位したときのDOP値を、画像ファイルを検索するときの基準となるDOP値とした。しかし、画像ファイルを検索するときの基準となるDOP値は、実際に撮影した地点から著しく離れた地点を撮影した地点であると誤って認識させるような測位精度のDOP値より大きな値であれば、実施の形態に限定されない。
(3)測位精度を表すことができる数値であれば、画像表示の可否を決定するための数値はDOP値に限定されない。
(4)以上の実施の形態では、電子カメラ1のGPS機器2を取り付けたが、電子カメラ1にGPS機器2を内蔵するようにしてもよい。
(5)本発明は、画像表示装置であれば表示モニタ104を備えた電子カメラ1に限定されない。たとえば、GPS機能を備えた携帯電話でもよい。
 上述した実施の形態の画像表示などの処理はパーソナルコンピュータで行うようにしてもよい。そのような場合、その処理プログラムはCD-ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。すなわち、処理プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給される。
 以上の実施の形態と変形例の一つ、もしくは複数を組み合わせることも可能である。変形例同士をどのように組み合わせることも可能である。例えば、第1の実施の形態の画像の表示において、第3~第7の実施の形態のように、測位精度DOP値に応じて表示を変更するようにしてもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2008年第172343号(2008年7月1日出願)
 日本国特許出願2008年第182672号(2008年7月14日出願)

Claims (24)

  1.  画像を撮影する撮影部と、
     前記撮影部により画像を撮影したときの撮影位置を測位する測位部と、
     前記撮影画像とともに前記撮影位置のデータを記録するか否か決定する制御部と、
     前記制御部による決定に応じて、前記撮影画像のみ、または前記撮影画像と前記撮影位置データを記録する記録部とを備える撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記制御部は、前記撮影位置に基づいて、前記撮影画像とともに前記撮影位置のデータを記録するか否かを決定する撮像装置。
  3.  請求項2に記載の撮像装置において、
     所定の広さの特定場所に対する撮影位置データの記録可否と記録可の場合の撮影位置データの記録精度とを設定した精度記憶部を備え、
     前記制御部は、前記撮影位置を前記精度記憶部の前記特定場所と照合し、前記撮影画像とともに前記撮影位置データを記録するか否かと、記録する場合の前記撮影位置データの記録精度を決定する撮像装置。
  4.  請求項2または請求項3に記載の撮像装置において、
     特定人物に対する特徴を記憶した人物記憶部と、
     前記人物記憶部を参照して前記撮影画像の中から前記特定人物を認識する人物認識部とを備え、
     前記制御部は、前記人物認識部により前記撮影画像の中に前記特定人物が認識された場合には、前記撮影位置データの記録精度を低精度に変換する撮像装置。
  5.  請求項3または請求項4に記載の撮像装置において、
     前記測位部は前記撮影位置データの測位精度を出力し、
     前記制御部は、前記測位精度が前記制御部により決定された記録精度より低い場合には、前記測位精度が前記記録精度を満たすまで前記測位部による測位をやり直す撮像装置。
  6.  請求項1に記載の撮像装置において、
     前記制御部は、前記撮影画像に基づいて、前記撮影画像とともに前記撮影位置のデータを記録するか否かを決定する撮像装置。
  7.  請求項6に記載の撮像装置において、
     特定人物に対する特徴を記憶した人物記憶部と、
     前記人物記憶部を参照して前記撮影画像の中から前記特定人物を認識する人物認識部とを備え、
     前記制御部は、前記人物認識部により前記撮影画像の中に前記特定人物が認識されたかどうかによって前記記録精度を決定する撮像装置。
  8.  画像を撮影する撮影部と、
     前記撮影部により画像を撮影したときの撮影位置を測位する測位部と、
     前記測位部で測位された前記撮影位置のデータの記録精度を決定する制御部と、
     前記撮影画像と前記撮影位置データと前記制御部により決定された記録精度を記録する記録部とを備える撮像装置。
  9.  請求項8に記載の撮像装置において、
     前記制御部は、前記撮影位置に基づいて前記撮影位置のデータの記録精度を決定する撮像装置。
  10.  請求項8に記載の撮像装置において、
     前記制御部は、前記撮影画像に基づいて前記撮影位置のデータの記録精度を決定する撮像装置。
  11.  請求項3から10のいずれかに記載の撮像装置において、
     前記記録部に記録された前記記録精度に応じて前記記録部に記録された前記撮影画像の表示の態様を変更する表示制御部をさらに備える撮像装置。
  12.  測位データとその測位データにおける測位精度の情報とを有する複数の画像ファイルの中から、所定の測位精度以上の画像ファイルを検索する画像ファイル検索部と、
     前記画像ファイル検索部によって検索された画像ファイルの画像を表示器に表示する画像ファイル表示制御部とを備える画像表示装置。
  13.  請求項12に記載の画像表示装置において、
     前記画像ファイル表示制御部は、前記測位精度の高い画像ファイルの画像から前記測位精度の低い画像ファイルの画像へ至る順序で並べて前記検索された画像ファイルの画像を表示する画像表示装置。
  14. 請求項12または13に記載の画像表示装置において、
     前記画像ファイル表示制御部は、測位精度の高い画像ファイルの画像を測位精度の低い画像ファイルの画像に比べて大きく表示する画像表示装置。
  15.  請求項12~14のいずれか1項に記載の画像表示装置において、
     前記画像表示装置の現在位置を検出する現在位置検出部を備え、
     前記画像ファイル検索部は、前記複数の画像ファイルの中から、前記現在位置検出部によって検出された現在位置と一致する測位データ、または前記現在位置から所定距離内の測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から前記所定の測位精度以上の画像ファイルを検索するが画像表示装置。
  16.  請求項12に記載の画像表示装置において、
     前記画像表示装置の現在位置を検出する現在位置検出部を備え、
     前記画像ファイル表示制御部は、前記現在位置から測位データの位置までの距離を測位精度を表す値に乗算した値に応じて、前記画像ファイルの画像を並べて表示する画像表示装置。
  17.  請求項16に記載の画像表示装置において、
     前記画像ファイル検索部は、前記複数の画像ファイルの中から、前記現在位置検出装置によって検出された現在位置と一致する測位データ、または前記現在位置から所定距離内の測位データを有する画像ファイルを検索し、その検索された画像ファイルの中から前記所定の測位精度以上の画像ファイルを検索するが画像表示装置。
  18. 請求項12~176のいずれか1項に記載の画像表示装置において、
     前記画像ファイル表示制御部は、前記画像ファイルの画像を、前記画像ファイルにおける測位データの位置周辺の地図とともに表示する画像表示装置。
  19.  請求項18に記載の画像表示装置において、
     前記地図の縮尺を変更する地図縮尺変更部を備え、
     前記画像ファイル検索部は、前記地図縮尺変更部によって前記地図の縮尺が変更されると、変更された地図の縮尺に基づいて前記所定の測位精度を変更して検索し、
     前記画像ファイル表示制御部は、前記画像ファイル検索部によって検索された画像ファイルの画像を、前記地図縮尺変更部によって縮尺が変更された地図とともに表示する画像表示装置。
  20.  請求項12~17のいずれか1項に記載の画像表示装置において、
     前記画像ファイル表示制御部は、前記画像ファイルの画像を、レーダーチャートとともに表示する画像表示装置。
  21.  請求項13に記載の画像表示装置において、
     前記画像ファイル表示制御部によって表示された画像の中から選択された画像を入力する画像入力部と、
     前記画像入力部によって入力された画像の画像ファイルにおける測位データの位置周辺の地図を表示する地図表示制御部とを備える画像表示装置。
  22.  請求項21に記載の画像表示装置において、
     前記地図表示制御部は、前記画像入力部によって入力された画像の画像ファイルにおける測位精度に基づいて前記表示する地図の縮尺を決定する画像表示装置。
  23.  請求項12~22のいずれか1項に記載の画像表示装置において、
     前記測位精度を入力する測位精度入力部を備え、
     前記画像ファイル検索部は、前記測定精度入力部によって入力された測位精度を前記所定の測定精度として検索を行う画像表示装置。
  24.  請求項12~23のいずれか1項に記載の画像表示装置を備える電子カメラ。
PCT/JP2009/061490 2008-07-01 2009-06-24 撮像装置、画像表示装置および電子カメラ WO2010001778A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008172343A JP5109836B2 (ja) 2008-07-01 2008-07-01 撮像装置
CN200980125950.4A CN102084648B (zh) 2008-07-01 2009-06-24 成像装置、图像显示装置和电子照相机
US12/999,766 US20110085057A1 (en) 2008-07-01 2009-06-24 Imaging device, image display device, and electronic camera
KR1020107028267A KR101600115B1 (ko) 2008-07-01 2009-06-24 촬상 장치, 화상 표시 장치와 전자 카메라
EP09773356A EP2299701A4 (en) 2008-07-01 2009-06-24 IMAGING DEVICE, IMAGE DISPLAY DEVICE, AND ELECTRONIC CAMERA
US14/816,734 US20150341588A1 (en) 2008-07-01 2015-08-03 Imaging device, image display device, and electronic camera that determines whether to record the position at which an image is photographed and the accuracy of the photographic position to be recorded

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-172343 2008-07-01
JP2008172343A JP5109836B2 (ja) 2008-07-01 2008-07-01 撮像装置
JP2008182672A JP5115375B2 (ja) 2008-07-14 2008-07-14 画像表示装置および電子カメラ
JP2008-182672 2008-07-14

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/999,766 A-371-Of-International US20110085057A1 (en) 2008-07-01 2009-06-24 Imaging device, image display device, and electronic camera
US14/816,734 Continuation US20150341588A1 (en) 2008-07-01 2015-08-03 Imaging device, image display device, and electronic camera that determines whether to record the position at which an image is photographed and the accuracy of the photographic position to be recorded

Publications (1)

Publication Number Publication Date
WO2010001778A1 true WO2010001778A1 (ja) 2010-01-07

Family

ID=41465876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/061490 WO2010001778A1 (ja) 2008-07-01 2009-06-24 撮像装置、画像表示装置および電子カメラ

Country Status (6)

Country Link
US (2) US20110085057A1 (ja)
EP (1) EP2299701A4 (ja)
JP (1) JP5109836B2 (ja)
KR (1) KR101600115B1 (ja)
CN (2) CN102084648B (ja)
WO (1) WO2010001778A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098899B2 (en) * 2005-11-14 2012-01-17 Fujifilm Corporation Landmark search system for digital camera, map data, and method of sorting image data
JP4548529B2 (ja) * 2008-08-18 2010-09-22 ソニー株式会社 情報記録装置、撮像装置、情報記録方法およびプログラム
JP2010081427A (ja) * 2008-09-26 2010-04-08 Casio Computer Co Ltd 撮像装置、および、プログラム
JP2010081428A (ja) * 2008-09-26 2010-04-08 Casio Computer Co Ltd 撮像装置、および、プログラム
JP5310237B2 (ja) * 2009-05-01 2013-10-09 株式会社ニコン 撮像装置
US9135277B2 (en) 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
US9087059B2 (en) * 2009-08-07 2015-07-21 Google Inc. User interface for presenting search results for multiple regions of a visual query
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
KR20110040248A (ko) * 2009-10-13 2011-04-20 삼성전자주식회사 디지털 영상 처리기에서 소비 전력 저감 장치 및 방법
US20110128288A1 (en) * 2009-12-02 2011-06-02 David Petrou Region of Interest Selector for Visual Queries
US8977639B2 (en) * 2009-12-02 2015-03-10 Google Inc. Actionable search results for visual queries
US8811742B2 (en) 2009-12-02 2014-08-19 Google Inc. Identifying matching canonical documents consistent with visual query structural information
US9183224B2 (en) 2009-12-02 2015-11-10 Google Inc. Identifying matching canonical documents in response to a visual query
US9176986B2 (en) 2009-12-02 2015-11-03 Google Inc. Generating a combination of a visual query and matching canonical document
US8805079B2 (en) 2009-12-02 2014-08-12 Google Inc. Identifying matching canonical documents in response to a visual query and in accordance with geographic information
US9405772B2 (en) * 2009-12-02 2016-08-02 Google Inc. Actionable search results for street view visual queries
US9852156B2 (en) 2009-12-03 2017-12-26 Google Inc. Hybrid use of location sensor data and visual query to return local listings for visual query
US8477215B2 (en) * 2010-12-15 2013-07-02 Eka Technologies, Inc. Wireless data module for imaging systems
JP5677073B2 (ja) * 2010-12-15 2015-02-25 キヤノン株式会社 画像制御装置及び画像制御方法、情報処理装置及び情報処理方法、プログラム並びに記憶媒体
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
JP5698551B2 (ja) 2011-02-04 2015-04-08 キヤノン株式会社 情報処理装置、及びその制御方法
JP2012199756A (ja) * 2011-03-22 2012-10-18 Eastman Kodak Co 携帯機器
JP5723211B2 (ja) * 2011-05-11 2015-05-27 キヤノン株式会社 画像生成装置及びその制御方法、プログラム、及び記録媒体
US9424765B2 (en) * 2011-09-20 2016-08-23 Sony Corporation Image processing apparatus, image processing method, and program
CN103577789B (zh) * 2012-07-26 2018-02-13 中兴通讯股份有限公司 检测方法和装置
US8935246B2 (en) 2012-08-08 2015-01-13 Google Inc. Identifying textual terms in response to a visual query
KR102065408B1 (ko) 2013-08-16 2020-01-13 엘지전자 주식회사 이동 단말기
WO2016110967A1 (ja) * 2015-01-07 2016-07-14 日立マクセル株式会社 情報処理装置及び情報処理方法、及びそれに用いる処理プログラム
KR101658790B1 (ko) * 2015-07-21 2016-09-23 박상운 경작지 인증 단말기
EP3169069A1 (en) * 2015-11-10 2017-05-17 FEI Company Systems and methods for imaging device interfaces
JP6713153B1 (ja) * 2019-11-15 2020-06-24 株式会社Patic Trust 情報処理装置、情報処理方法、プログラム及びカメラシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09127594A (ja) 1995-10-27 1997-05-16 Konica Corp カメラ
JPH11295803A (ja) * 1998-04-15 1999-10-29 Canon Inc 画像記録装置及びカメラ
JP2001320759A (ja) 2000-03-25 2001-11-16 Hewlett Packard Co <Hp> 移動端末についての位置データを提供する方法
JP2006074475A (ja) * 2004-09-02 2006-03-16 Canon Inc 撮像装置
JP2008172343A (ja) 2007-01-09 2008-07-24 Funai Electric Co Ltd ホワイトバランス調整システム、ホワイトバランス調整方法およびpdp表示装置
JP2008182672A (ja) 2007-01-24 2008-08-07 Toshiba Corp ドキュメント処理装置を介して電子ドキュメントにアクセスするシステムおよび方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207556A (ja) * 2002-01-10 2003-07-25 Hitachi Ltd 端末位置情報システムにおける端末およびサーバ装置
US7146179B2 (en) * 2002-03-26 2006-12-05 Parulski Kenneth A Portable imaging device employing geographic information to facilitate image access and viewing
CN1719874A (zh) * 2004-07-07 2006-01-11 上海乐金广电电子有限公司 监视用相机的保密屏蔽设定方法
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
JP2007088754A (ja) * 2005-09-21 2007-04-05 Olympus Imaging Corp コンテンツデータ処理装置及びコンテンツデータ処理プログラム
JP2007266928A (ja) * 2006-03-28 2007-10-11 Casio Comput Co Ltd 携帯機器及びプログラム
US9020940B2 (en) * 2007-08-07 2015-04-28 Nokia Corporation Method and device for modifying meta data of media objects
JP4840403B2 (ja) * 2008-04-30 2011-12-21 ソニー株式会社 情報記録装置、撮像装置、情報記録方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09127594A (ja) 1995-10-27 1997-05-16 Konica Corp カメラ
JPH11295803A (ja) * 1998-04-15 1999-10-29 Canon Inc 画像記録装置及びカメラ
JP2001320759A (ja) 2000-03-25 2001-11-16 Hewlett Packard Co <Hp> 移動端末についての位置データを提供する方法
JP2006074475A (ja) * 2004-09-02 2006-03-16 Canon Inc 撮像装置
JP2008172343A (ja) 2007-01-09 2008-07-24 Funai Electric Co Ltd ホワイトバランス調整システム、ホワイトバランス調整方法およびpdp表示装置
JP2008182672A (ja) 2007-01-24 2008-08-07 Toshiba Corp ドキュメント処理装置を介して電子ドキュメントにアクセスするシステムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2299701A4

Also Published As

Publication number Publication date
JP5109836B2 (ja) 2012-12-26
US20150341588A1 (en) 2015-11-26
CN102084648B (zh) 2014-01-08
CN103067658A (zh) 2013-04-24
EP2299701A1 (en) 2011-03-23
US20110085057A1 (en) 2011-04-14
EP2299701A4 (en) 2012-02-08
KR101600115B1 (ko) 2016-03-04
CN102084648A (zh) 2011-06-01
KR20110046393A (ko) 2011-05-04
JP2010016462A (ja) 2010-01-21

Similar Documents

Publication Publication Date Title
WO2010001778A1 (ja) 撮像装置、画像表示装置および電子カメラ
JP5194650B2 (ja) 電子カメラ
JP4366601B2 (ja) タイムシフト画像配信システム、タイムシフト画像配信方法、タイムシフト画像要求装置および画像サーバ
JP5425341B2 (ja) 撮影装置及びプログラム
KR100897436B1 (ko) 지리정보 확인시스템의 제어방법 및 이동단말기
JP2006020166A (ja) 地図表示システム及びデジタルカメラ
KR20090019184A (ko) 전자지도에 포함된 이미지 파일을 이용한 이미지 재생장치, 이의 재생 방법 및 상기 방법을 실행하기 위한프로그램을 기록한 기록매체.
KR101998903B1 (ko) 서버, 클라이언트 단말, 시스템 및 프로그램
JP2001216309A (ja) 対象物特定装置及びカメラ
JP5186984B2 (ja) 電子カメラ
CN108492334A (zh) 一种基于定位定向数据实现商用相机照片地理标定的方法
JP5007631B2 (ja) 電子カメラ
JP2012019374A (ja) 電子アルバム作成サーバー、情報処理装置、電子アルバム作成システム、及び、電子アルバム作成サーバーの制御方法
JP5511001B2 (ja) 撮像装置及び撮影案内システム並びにプログラム
KR20090132485A (ko) 지리정보 확인시스템의 제어방법 및 이동단말기
KR100956114B1 (ko) 촬상장치를 이용한 지역 정보 제공 장치 및 방법
JP5115375B2 (ja) 画像表示装置および電子カメラ
JP2009111827A (ja) 撮影装置及び画像ファイル提供システム
JP2009116795A (ja) 情報検索装置、電子カメラ、情報検索方法
JP5034880B2 (ja) 電子カメラ、画像表示装置
JP2006350592A (ja) 音楽情報提供装置
JP2007020054A (ja) 画像管理方法及び装置
JP2006178804A (ja) 被写体オブジェクト情報提供方法および被写体オブジェクト情報提供サーバ
JP2006350879A (ja) 情報提供システム
JP5533201B2 (ja) 撮像画像表示装置、撮像画像表示システム、制御方法、撮像画像表示方法およびプログラム。

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980125950.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09773356

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20107028267

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 12999766

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2009773356

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009773356

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE