WO2012096106A1 - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
WO2012096106A1
WO2012096106A1 PCT/JP2011/079436 JP2011079436W WO2012096106A1 WO 2012096106 A1 WO2012096106 A1 WO 2012096106A1 JP 2011079436 W JP2011079436 W JP 2011079436W WO 2012096106 A1 WO2012096106 A1 WO 2012096106A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
attribute
processing
sample image
Prior art date
Application number
PCT/JP2011/079436
Other languages
English (en)
French (fr)
Inventor
▲高▼柳 渉
Original Assignee
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三洋電機株式会社 filed Critical 三洋電機株式会社
Publication of WO2012096106A1 publication Critical patent/WO2012096106A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor

Definitions

  • the present invention relates to an electronic camera, and more particularly to an electronic camera that repeatedly detects an attribute of a scene captured by an imaging surface.
  • Patent Document 1 An example of this type of camera is disclosed in Patent Document 1.
  • an image representing a subject captured by the photographing unit is displayed on the screen by the display unit.
  • the flash memory stores a map including the surroundings of the position of the apparatus main body, the name of the object existing on the map, and the map information including the height of the object.
  • the position and orientation of the apparatus main body are detected by the positioning unit and the orientation sensor, respectively.
  • the display control unit extracts the name and height of the subject from the map information based on the position and direction detected by the positioning unit and the direction sensor, and multiplex-displays the extracted name and height on the screen. This prevents a user from misidentifying a desired subject.
  • a main object of the present invention is to provide an electronic camera that can improve usability.
  • An electronic camera includes the following: an imaging unit that repeatedly outputs an electronic image representing a scene captured on the imaging plane; an electronic image output from the imaging unit is displayed in parallel with the processing of the imaging unit First display means; attribute detection means for detecting an attribute of the scene captured by the imaging surface in parallel with the processing of the imaging means; a sample image in which an object existing in the scene captured by the imaging surface appears is attributed by the attribute detection means Acquisition means for acquiring based on at least a part of the detected attribute; and second display means for displaying the sample image acquired by the acquisition means in parallel with the processing of the first display means.
  • a notification means for outputting a position where a scene corresponding to the sample image acquired by the acquisition means is captured in relation to the processing of the second display means is further provided.
  • the parameter that defines the quality of the sample image acquired by the acquisition unit is detected in association with the acquisition process of the acquisition unit, and the parameter detected by the detection unit is displayed by the second display unit Parameter setting means for setting in response to the first predetermined operation on the sample image is further provided.
  • the acquisition unit includes a transmission unit that transmits an image request including an attribute to an external device connected to the communication line, and a reception unit that receives a sample image returned from the external device for processing of the transmission unit. .
  • an extraction means for extracting an electronic image output from the imaging means at a specific timing prior to the processing of the transmission means is further provided, and the image request transmitted by the transmission means further includes the electronic image extracted by the extraction means.
  • first adjustment means for adjusting the zoom magnification in parallel with the processing of the first display means is further provided, and the attribute detection means uses the angle of view corresponding to the zoom magnification adjusted by the first adjustment means as one attribute.
  • First partial attribute detection means for detecting as a part is further provided.
  • a focus lens (14) provided in front of the imaging surface, and a second adjustment unit that continuously adjusts the distance between the focus lens and the imaging surface based on an electronic image output from the imaging unit are further provided.
  • the attribute detecting means includes second partial attribute detecting means for detecting a focusing distance corresponding to the interval adjusted by the second adjusting means as a part of the attribute.
  • the attribute detection means further includes third partial attribute detection means for detecting the position and / or orientation of the imaging surface as part of the attribute.
  • An imaging control program is an imaging control program recorded on a non-temporary recording medium to control an electronic camera, and repeatedly outputs an electronic image representing a scene captured on the imaging surface in the next step.
  • a processor of an electronic camera including an image pickup unit executes: a first display step of displaying an electronic image output from the image pickup unit in parallel with the process of the image pickup unit; an attribute of a scene captured by the image pickup plane is processed by the image pickup unit An attribute detection step for detecting in parallel with the image acquisition step; an acquisition step for acquiring a sample image in which an object present in the scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection step; A second display step for displaying the sample image acquired by the step in parallel with the processing of the first display step. Flop.
  • An imaging control method is an imaging control method executed by an electronic camera including an imaging unit that repeatedly outputs an electronic image representing a scene captured on an imaging plane, and includes the following: output from the imaging unit A first display step for displaying the processed electronic image in parallel with the processing of the imaging means; an attribute detection step for detecting the attribute of the scene captured by the imaging surface in parallel with the processing of the imaging means; captured by the imaging surface An acquisition step of acquiring a sample image in which an object present in the scene appears based on at least a part of the attribute detected by the attribute detection step; and the sample image acquired by the acquisition step in parallel with the processing of the first display step A second display step for displaying.
  • the sample image displayed together with the electronic image corresponds to an image in which an object present in the scene appears.
  • the photographer can determine the shooting position with reference to the two displayed images.
  • the usability of the camera is improved.
  • FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface.
  • FIG. 3 is an illustrative view showing one example of a configuration of a register applied to the embodiment in FIG. 2; (A) is an illustrative view showing a part of an image display operation, and (B) is an illustrative view showing another part of the image display operation.
  • FIG. 1 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2;
  • FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG.
  • FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2;
  • FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2;
  • the electronic camera of this embodiment is basically configured as follows.
  • the imaging unit 1 repeatedly outputs an electronic image representing a scene captured on the imaging surface.
  • the first display unit 2 displays the electronic image output from the imaging unit 1 in parallel with the processing of the imaging unit 1.
  • the attribute detection unit 3 detects the attribute of the scene captured by the imaging plane in parallel with the processing of the imaging unit 1.
  • the acquisition unit 4 acquires a sample image in which an object present in the scene captured by the imaging surface appears based on at least a part of the attribute detected by the attribute detection unit 3.
  • the second display unit 5 displays the sample image acquired by the acquisition unit 4 in parallel with the processing of the first display unit 2.
  • the sample image displayed together with the electronic image corresponds to an image in which an object existing in the scene appears.
  • the photographer can determine the shooting position with reference to the two displayed images. Thus, the usability of the camera is improved.
  • the digital camera 10 of this embodiment includes a zoom lens 12, a focus lens 14 and an aperture mechanism 16 driven by drivers 20a, 20b and 20c, respectively.
  • the optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imaging device 18 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.
  • the CPU 40 instructs the driver 20d to repeat the exposure operation and the charge readout operation in order to execute the moving image capturing process under the imaging task.
  • the driver 20d exposes the imaging surface in response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), and reads out the charges generated on the imaging surface in a raster scanning manner. From the imaging device 18, raw image data based on the read charges is periodically output.
  • the camera processing circuit 22 performs processing such as color separation, white balance adjustment, and YUV conversion on the raw image data output from the imaging device 18, and the YUV format image data generated thereby is stored in the SDRAM 26 through the memory control circuit 24.
  • the data is written in the YUV image area 26a (see FIG. 3).
  • the LCD driver 28 repeatedly reads out the image data stored in the YUV image area 26a through the memory control circuit 30, and drives the LCD monitor 32 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.
  • an evaluation area EVA is assigned to the center of the imaging surface.
  • the evaluation area EVA is divided into 16 parts in each of the horizontal direction and the vertical direction, and a total of 256 divided areas constitute the evaluation area EVA.
  • the AE / AF evaluation circuit 38 integrates Y data belonging to the evaluation area EVA among the Y data output from the camera processing circuit 22 for each divided area.
  • the integration process is executed every time the vertical synchronization signal Vsync is generated.
  • 256 integral values that is, 256 AE evaluation values
  • the AE / AF evaluation circuit 38 also integrates the high-frequency component of Y data belonging to the evaluation area EVA for each divided area. This integration process is also executed each time the vertical synchronization signal Vsync is generated.
  • 256 integral values, that is, 256 AF evaluation values are output from the AE / AF evaluation circuit 38 in response to the vertical synchronization signal Vsync.
  • the CPU 40 executes a simple AE process under the imaging task in order to calculate an appropriate EV value based on the 256 AE evaluation values output from the AE / AF evaluation circuit 38.
  • the aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 20c and 20d, respectively. As a result, the brightness of the through image output from the LCD monitor 32 is appropriately adjusted.
  • the CPU 40 gives a corresponding command to the driver 20a to execute zoom processing under the imaging task.
  • the zoom lens 12 is moved in the optical axis direction by the driver 20a, thereby changing the magnification of the through image.
  • the CPU 40 repeatedly fetches 256 AF evaluation values output from the AE / AF evaluation circuit 38 under such a continuous AF task in parallel with the imaging task, and determines whether or not the AF activation condition is satisfied. Is determined on the basis of the AF evaluation value taken in. When the AF activation condition is satisfied, the CPU 40 executes an AF process with reference to the same AF evaluation value.
  • the focus lens 14 is moved in the optical axis direction by the driver 20b in parallel with the capture of the AF evaluation value, and is disposed at a position where the AF evaluation value exceeds the reference. As a result, the sharpness of the through image is continuously improved.
  • the continuous AF task is stopped.
  • the CPU 40 executes a strict AE process under the imaging task in order to calculate the optimum EV value.
  • the optimum EV value is calculated based on the 256 AE evaluation values output from the AE / AF evaluation circuit 38, and the aperture amount and the exposure time that define the calculated optimum EV value are respectively given to the drivers 20c and 20d. Is set. The brightness of the through image is adjusted to an optimum value.
  • the CPU 40 executes a strict AF process.
  • the strict AF process is also executed with reference to the AF evaluation value taken in parallel with the movement process of the focus lens 14.
  • the focus lens 14 is disposed at a position where the AF evaluation value shows the maximum value, and thereby the sharpness of the through image is adjusted to the optimum value.
  • a still image capturing process and a recording process are executed.
  • the still image capturing process one frame of image data representing the scene when the shutter button 50s is fully pressed is saved in the still image area 26b (see FIG. 3) of the SDRAM 26.
  • a recording command is issued toward the memory I / F 34.
  • the memory I / F 34 reads one frame of image data saved in the still image area 26b through the memory control circuit 24, and records the read image data on the recording medium 36 in a file format.
  • the stopped continuous AF task is restarted after the recording process is completed.
  • the imaging support mode is selected by the mode switch 50m provided in the key input device 50, the imaging support task is activated, and the following support processing is executed by the CPU 40.
  • the current position is detected based on the output of the GPS device 42.
  • one or two or more shooting spots existing around the detected current position are extracted from the internal database 52 db provided in the flash memory 52.
  • the name and position of the extracted shooting spot are set in the register RGST shown in FIG. 5 as shooting spot information.
  • the imaging direction is repeatedly detected based on the outputs of the compass 44, the altimeter 46, and the level 48, and the imaging field angle is repeatedly detected based on the position of the zoom lens 12, that is, the zoom magnification.
  • a part of shooting spot information corresponding to the detected imaging direction and imaging angle of view that is, information of one or more shooting spots captured by the imaging device 18 is extracted from the register RGST.
  • the character generator 30 is given an instruction to output a tag corresponding to the extracted shooting spot information.
  • the character generator 30 creates character data representing a tag to be output, and gives the created character data to the LCD driver 28.
  • the LCD driver 28 drives the LCD monitor 32 based on the character data given from the character generator 30.
  • the tag describing the name of the shooting spot is displayed on the screen in correspondence with the shooting spot appearing in the through image.
  • the in-focus distance is calculated based on the position of the focus lens 14, and it is determined whether or not the object scene currently captured is a distant view. A determination is made based on the calculated focus distance. Further, whether or not connection to the Internet is possible is determined based on the output of the communication I / F 54. If the scene currently captured is not a distant view and can be connected to the Internet, a still image capturing process similar to that described above is executed. As a result, the latest one frame of image data is saved from the YUV image area 26a to the still image area 26b.
  • a sample image request is created in which the imaging position, imaging direction and focusing distance detected or calculated in the manner described above and the image data saved in the still image area 26b are embedded, and the created sample image request Is transmitted to the external server through the communication I / F 54.
  • the sample image request is transferred to an external server via the Internet.
  • the external server searches the external database for sample image data in which an object captured by the imaging device 18 appears based on the imaging position, imaging direction, focus distance, and image data included in the sample image request. When the desired sample image data is found, the external server returns the found sample image data to the digital camera 10 via the Internet.
  • the returned sample image data is received by the communication I / F 54 and written into the work area 26c (see FIG. 3) of the SDRAM 26 through the memory control circuit 24.
  • an instruction to display the sample image is given to the LCD monitor 32.
  • the LCD driver 28 selectively reads out the image data stored in the YUV image area 26a and the sample image data stored in the work area 26c through the memory control circuit 24, and the LCD monitor 32 based on the read image data. Drive. As a result, a composite image obtained by combining the sample image and the through image is displayed on the LCD monitor 32.
  • the sample image button 50p is operated while the object scene shown in FIG. 7A is captured, the sample image SPL is combined with the through image in the manner shown in FIG. 7B.
  • the sample image data returned from the external server is accompanied by the exposure setting, focus setting, and imaging position when the sample image is captured as sample image information.
  • the photographing position of the sample image is particularly defined as “sample position”.
  • the sample image information is detected after the display of the sample image is completed, and is set in the register RGST shown in FIG.
  • the sample image information set in the register RGST in the past is updated with new sample image information.
  • a command to output an arrow pointing to the sample position is given to the character generator 30.
  • the character generator 30 creates character data representing an arrow to be output, and provides the created character data to the LCD driver 28.
  • the LCD driver 28 drives the LCD monitor 32 based on the character data given from the character generator 30. As a result, an arrow pointing to the sample position appearing in the through image is displayed on the screen.
  • the touch operation on the sample image displayed on the LCD monitor 32 is detected by the touch sensor 56.
  • the touch operation is performed, the continuous AF task is stopped, and the exposure setting and the focus setting that define the sample image information registered in the register RGST are detected.
  • the aperture amount and the exposure time indicating the detected exposure setting are set in the drivers 20c and 20d, respectively, and the position according to the detected focus setting is set in the driver 20b.
  • the exposure setting and the focus setting when the sample image is taken are validated in the digital camera 10.
  • the shutter button 50s When the shutter button 50s is half-pressed, a command to hide the sample image is given to the LCD driver 28.
  • the LCD driver 28 fixes the reading destination of the image data in the YUV image area 26a, and as a result, the display of the sample image is ended.
  • the sample image information set in the register RGST is deleted after the sample image is not displayed.
  • the still image capturing process and the recording process are executed as described above.
  • one frame of image data representing the scene at the time when the shutter button 50s is fully pressed is recorded on the recording medium 36 in the file format.
  • the stopped continuous AF task is restarted after the recording process is completed.
  • the CPU 40 executes the imaging task shown in FIGS. 9 to 11, the continuous AF task shown in FIG. 12, and the imaging support task shown in FIGS. 13 to 15 in parallel under the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 52.
  • step S1 flag FLG is set to “0”.
  • the flag FLG is a flag for identifying whether or not sample image data has been acquired, and indicates that “0” has not yet been acquired, while “1” has already been acquired.
  • the moving image capturing process is started in step S3, and the continuous AF task is activated in step S5.
  • the continuous AF task is activated in step S5.
  • step S7 it is determined whether or not the flag FLG indicates “0”. If the determination result is YES, the process proceeds to step S9, whereas if the determination result is NO, the process proceeds to step S23.
  • step S9 it is determined whether or not the shutter button 50s is half-pressed. If the determination result is NO, a simple AE process is executed in step S11. As a result, the brightness of the through image is appropriately adjusted. In step S13, it is determined whether or not the zoom button 50z has been operated. If the determination result is NO, the process directly returns to step S7. If the determination result is YES, the zoom process is performed in step S15, and then the process proceeds to step S7. Return. As a result of the zoom process, the zoom lens 12 moves in the optical axis direction, and the magnification of the through image changes.
  • step S9 If the decision result in the step S9 is YES, the continuous AF task is stopped in a step S17, the strict AE process is executed in a step S19, and the strict AF process is executed in a step S21.
  • the strict AE process As a result of the strict AE process, the brightness of the through image is adjusted strictly. Further, as a result of the strict AF process executed in place of the continuous AF task, the sharpness of the through image is strictly adjusted.
  • step S21 the process proceeds to step S39 shown in FIG.
  • step S7 If the determination result in step S7 is NO, the sample image is displayed in multiple on the LCD monitor 32, and the sample image information is registered in the register RGST.
  • the determination result is updated from NO to YES, the continuous AF task is stopped in step S25.
  • step S27 the exposure setting and focus setting for forming the sample image information registered in the register RGST are detected.
  • step S29 the aperture amount and the exposure time indicating the detected exposure setting are set in the drivers 20c and 20d, respectively, and the position according to the detected focus setting is set in the driver 20b. As a result, the exposure setting and the focus setting when the sample image is taken are validated in the digital camera 10.
  • step S31 it is determined whether or not the shutter button 50s is half-pressed. If the determination result is updated from NO to YES, the process proceeds to step S33.
  • step S33 a corresponding command is given to the LCD driver 28 in order to hide the sample image.
  • the LCD driver 28 fixes the reading destination of the image data in the YUV image area 26a, and as a result, the display of the sample image is ended.
  • step S35 the sample image information set in the register RGST is deleted, and in step S37, the flag FLG is returned to "0". When the process of step S37 is completed, the process proceeds to step S39.
  • step S39 it is determined whether or not the shutter button 50s has been fully pressed.
  • step S41 it is determined whether or not the operation of the shutter button 50s has been released. If “YES” in the step S39, a still image capturing process is executed in a step S43, a recording process is executed in a step S45, and then the process proceeds to a step S47. If “YES” in the step S41, the process proceeds to a step S47 as it is.
  • step S47 the continuous AF task is restarted, and then the process returns to step S7.
  • step S51 the position of the focus lens 14 is initialized, and in step S53, it is determined whether or not the vertical synchronization signal Vsync has been generated.
  • step S53 it is determined whether or not the vertical synchronization signal Vsync has been generated.
  • step S55 256 AF evaluation values output from the AE / AF evaluation circuit 38 are fetched in step S55.
  • step S57 whether or not the AF activation condition is satisfied is determined based on the fetched AF evaluation value. If the determination result is NO, the process returns to step S53, whereas if the determination result is YES, the process proceeds to step S59. .
  • step S59 an AF process is executed based on the captured AF evaluation value in order to move the focus lens 12 in the direction in which the in-focus point exists. When the AF process is completed, the process returns to step S53.
  • step S61 it is determined whether or not the position detection cycle has arrived. If the determination result is NO, the process proceeds directly to step S67, whereas if the determination result is YES, the processes in steps S63 to S65 are performed. Then, the process proceeds to step S67. Note that the first determination result is always YES.
  • step S63 the current position is detected based on the output of the GPS device 42.
  • step S65 shooting spot information indicating shooting spots around the detected current position is extracted from the internal database 52db provided in the flash memory 52. The extracted shooting spot information is set in the register RGST.
  • step S67 the imaging direction is detected based on the outputs of the compass 44, altimeter 46, and level 48, and in step S69, the imaging field angle is detected based on the position of the zoom lens 12, that is, the zoom magnification.
  • step S71 partial shooting spot information corresponding to the detected imaging direction and imaging angle of view, that is, information on one or more shooting spots captured on the imaging surface is included in the shooting spot information registered in the register RGST.
  • the character generator 30 is instructed to output a tag corresponding to the extracted shooting spot information. As a result, the tag in which the name of the shooting spot is described is displayed on the LCD monitor 32 corresponding to the shooting spot appearing in the through image.
  • step S73 it is determined whether or not the sample image button 50p has been operated. If the determination result is NO, the process proceeds to step S97, and if the determination result is YES, the process proceeds to step S75.
  • step S75 the focus distance is calculated by referring to the position of the focus lens 14, and in step S77, it is determined based on the calculated focus distance whether or not the object scene currently captured is a distant view. . If the determination result is YES, the process proceeds to step S97, while if the determination result is NO, the process proceeds to step S79.
  • step S79 it is determined whether or not connection to the Internet is possible based on the output of the communication I / F 54. If the determination result is NO, the process proceeds to step S97. If the determination result is YES, the process proceeds to step S81. Execute still image capture processing. As a result of the processing in step S81, the latest one frame of image data is saved from the YUV image area 26a to the still image area 26b.
  • step S83 a sample image request is created in which the current position detected in step S63, the imaging direction detected in step S67, the in-focus distance calculated in step S75, and the image data captured in step S81 are embedded. Then, the created sample image request is transmitted to the external server through the communication I / F 54. The sample image request is transferred to an external server via the Internet.
  • step S85 it is determined whether the sample image data returned from the external server has been received by the communication I / F 54.
  • step S87 it is determined whether a timeout has occurred. If the predetermined time elapses without receiving the sample image data, it is regarded as time-out and the process proceeds from step S87 to step S97. If sample image data is received before the predetermined time elapses, the process proceeds from step S85 to step S89.
  • step S89 the sample image data received by the communication I / F 54 is written into the work area 26c of the SDRAM 26 through the memory control circuit 24.
  • step S91 a corresponding command is given to the LCD driver 28 in order to display the sample image on the LCD monitor 32.
  • the LCD driver 28 selectively reads out the image data stored in the YUV image area 26a and the sample image data stored in the work area 26c through the memory control circuit 24, and the LCD monitor 32 based on the read image data. Drive. As a result, a composite image obtained by combining the sample image and the through image is displayed on the LCD monitor 32.
  • the sample image data returned from the external server is accompanied by the exposure setting, focus setting, and sample position when the sample image is taken as sample image information.
  • this sample image information is detected, and the detected sample image information is set in the register RGST.
  • the sample image information set in the register RGST in the past is updated with new sample image information.
  • step S97 it is determined whether or not the sample image information is registered in the register RGST. If the determination result is NO, the process returns to step S61, while if the determination result is YES, the process proceeds to step S99.
  • step S99 the sample position registered in the register RGST is detected, and in step S101, whether or not the detected sample position is captured by the imaging device 18 is determined based on the imaging direction and imaging angle of view detected in steps S67 to S69. Determine based on.
  • step S103 the character generator 30 is commanded to output an arrow pointing to the sample position detected in step S99. As a result, an arrow pointing to the sample position is displayed on the LCD monitor 32.
  • the image sensor 18 has an imaging surface for capturing the object scene, and repeatedly outputs raw image data (18).
  • the CPU 40 also acquires a sample image in which an object existing in the scene captured by the imaging surface appears from an external server based on at least a part of the attributes of the scene (S83 to S89).
  • the image is displayed on the LCD monitor 32 in parallel with the through image (S91).
  • the sample image displayed together with the through image corresponds to an image in which an object existing in the scene appears.
  • the photographer can determine the shooting position with reference to the two displayed images. Thus, the usability of the camera is improved.
  • the operation of the sample image button 50p is invalidated.
  • the sample image data may be acquired in response to the operation of the sample image button 50p when the object scene is a distant view.
  • sample image data in which Kyoto Tower appears and sample image data in which Kyoto Station appears are acquired.
  • the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 52 in advance.
  • a part of the control program may be prepared in the flash memory 52 from the beginning as an internal control program, while another part of the control program may be acquired from another external server as an external control program.
  • the above-described operation is realized by cooperation of the internal control program and the external control program.
  • the processing executed by the CPU 40 is divided into a plurality of tasks as described above.
  • each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks.
  • all or part of the tasks may be acquired from an external server.

Abstract

 イメージセンサ18は、シーンを捉える撮像面を有し、生画像データを繰り返し出力する。CPU40は、イメージセンサ18から出力された生画像データに基づくスルー画像を撮像処理と並列してLCDモニタ32に表示し、撮像面によって捉えられたシーンの属性(=撮像位置,撮像方向,撮像画角,合焦距離)を撮像処理と並列して検出する。CPU40はまた、撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像をシーンの属性の少なくとも一部に基づいて外部サーバから取得し、取得されたサンプル画像をスルー画像と並列してLCDモニタ32に表示する。

Description

電子カメラ
 この発明は、電子カメラに関し、特に撮像面によって捉えられた被写界の属性を繰り返し検出する、電子カメラに関する。
 この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、撮影部によって捉えられた被写体を表す画像は、表示部によって画面に表示される。また、フラッシュメモリは、装置本体の位置周囲を含む地図,地図上に存在するオブジェクトの名称,およびオブジェクトの高さを含む地図情報を記憶する。さらに、装置本体の位置および方位は、測位部および方位センサによってそれぞれ検出される。表示制御部は、測位部および方位センサによって検出された位置および方位に基づいて被写体の名称と高さを地図情報から抽出し、抽出された名称と高さを画面に多重表示する。これによって、所望の被写体をユーザが誤認する事態が防止される。
特開2008-131217号公報
 しかし、背景技術では、撮影された被写体を表す画像を保存することを想定しておらず、画像の保存に関連する使い勝手に限界がある。
 それゆえに、この発明の主たる目的は、使い勝手を高めることができる、電子カメラを提供することである。
 この発明に従う電子カメラは、次のものを備える:撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段;撮像手段から出力された電子画像を撮像手段の処理と並列して表示する第1表示手段;撮像面によって捉えられたシーンの属性を撮像手段の処理と並列して検出する属性検出手段;撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を属性検出手段によって検出された属性の少なくとも一部に基づいて取得する取得手段;および取得手段によって取得されたサンプル画像を第1表示手段の処理と並列して表示する第2表示手段。
 好ましくは、取得手段によって取得されたサンプル画像に対応するシーンが捉えられる位置を第2表示手段の処理に関連して出力する報知手段がさらに備えられる。
 好ましくは、取得手段によって取得されたサンプル画像の品質を定義するパラメータを取得手段の取得処理に関連して検出するパラメータ検出手段、および検出手段によって検出されたパラメータを第2表示手段によって表示されたサンプル画像に対する第1既定操作に応答して設定するパラメータ設定手段がさらに備えられる。
 さらに好ましくは、第1既定操作の後の第2既定操作に応答して第2表示手段の処理を停止する停止手段、および撮像手段から出力された電子画像を第2既定操作の後の第3既定操作に応答して記録する記録手段がさらに備えられる。
 好ましくは、取得手段は、属性を含む画像要求を通信回線に接続された外部装置に送信する送信手段、および送信手段の処理に対して外部装置から返送されたサンプル画像を受信する受信手段を含む。
 さらに好ましくは、送信手段の処理に先立つ特定タイミングで撮像手段から出力された電子画像を抽出する抽出手段がさらに備えられ、送信手段によって送信される画像要求は抽出手段によって抽出された電子画像をさらに含む。
 好ましくは、第1表示手段の処理と並列してズーム倍率を調整する第1調整手段がさらに備えられ、属性検出手段は第1調整手段によって調整されたズーム倍率に対応する画角を属性の一部として検出する第1部分属性検出手段を含む。
 好ましくは、撮像面の前方に設けられたフォーカスレンズ(14)、およびフォーカスレンズと撮像面との間隔を撮像手段から出力された電子画像に基づいて継続的に調整する第2調整手段がさらに備えられ、属性検出手段は第2調整手段によって調整された間隔に対応する合焦距離を属性の一部として検出する第2部分属性検出手段を含む。
 好ましくは、属性検出手段は撮像面の位置および/または向きを属性の一部として検出する第3部分属性検出手段をさらに含む。
 この発明に従う撮像制御プログラムは、電子カメラを制御するべく非一時的な記録媒体に記録される撮像制御プログラムであって、次のステップを撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに実行させる:撮像手段から出力された電子画像を撮像手段の処理と並列して表示する第1表示ステップ;撮像面によって捉えられたシーンの属性を撮像手段の処理と並列して検出する属性検出ステップ;撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を属性検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ;および取得ステップによって取得されたサンプル画像を第1表示ステップの処理と並列して表示する第2表示ステップ。
 この発明に従う撮像制御方法は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、次のものを備える:撮像手段から出力された電子画像を撮像手段の処理と並列して表示する第1表示ステップ;撮像面によって捉えられたシーンの属性を撮像手段の処理と並列して検出する属性検出ステップ;撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を属性検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ;および取得ステップによって取得されたサンプル画像を第1表示ステップの処理と並列して表示する第2表示ステップ。
 この発明によれば、電子画像とともに表示されるサンプル画像は、シーンに存在する物体が現れた画像に相当する。撮影者は、表示された2つの画像を参照して撮影位置を決めることができる。こうして、カメラの使い勝手が向上する。
 この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。 撮像面における評価エリアの割り当て状態の一例を示す図解図である。 図2実施例に適用されるレジスタの構成の一例を示す図解図である。 (A)は画像表示動作の一部を示す図解図であり、(B)は画像表示動作の他の一部を示す図解図である。 (A)は画像表示動作のその他の一部を示す図解図であり、(B)は画像表示動作のさらにその他の一部を示す図解図である。 (A)は画像表示動作の他の一部を示す図解図であり、(B)は画像表示動作のその他の一部を示す図解図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。
 図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する。第1表示手段2は、撮像手段1から出力された電子画像を撮像手段1の処理と並列して表示する。属性検出手段3は、撮像面によって捉えられたシーンの属性を撮像手段1の処理と並列して検出する。取得手段4は、撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を属性検出手段3によって検出された属性の少なくとも一部に基づいて取得する。第2表示手段5は、取得手段4によって取得されたサンプル画像を第1表示手段2の処理と並列して表示する。
 電子画像とともに表示されるサンプル画像は、シーンに存在する物体が現れた画像に相当する。撮影者は、表示された2つの画像を参照して撮影位置を決めることができる。こうして、カメラの使い勝手が向上する。
 図2を参照して、この実施例のディジタルカメラ10は、ドライバ20a,20bおよび20cによってそれぞれ駆動されるズームレンズ12,フォーカスレンズ14および絞り機構16を含む。これらの部材を経た被写界の光学像は、撮像装置18の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
 電源が投入されると、CPU40は、撮像タスクの下で動画取り込み処理を実行するべく、ドライバ20dに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ20dは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。撮像装置18からは、読み出された電荷に基づく生画像データが周期的に出力される。
 カメラ処理回路22は、撮像装置18から出力された生画像データに色分離,白バランス調整,YUV変換などの処理を施し、これによって生成されたYUV形式の画像データをメモリ制御回路24を通してSDRAM26のYUV画像エリア26a(図3参照)に書き込む。LCDドライバ28は、YUV画像エリア26aに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。
 図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは、水平方向および垂直方向の各々において16分割され、合計256個の分割エリアが評価エリアEVAを構成する。
 AE/AF評価回路38は、カメラ処理回路22から出力されたYデータのうち評価エリアEVAに属するYデータを分割エリア毎に積分する。積分処理は、垂直同期信号Vsyncが発生する毎に実行される。この結果、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路38から出力される。AE/AF評価回路38はまた、評価エリアEVAに属するYデータの高周波成分を分割エリア毎に積分する。この積分処理も、垂直同期信号Vsyncが発生する毎に実行される。この結果、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路38から出力される。
 CPU40は、AE/AF評価回路38から出力された256個のAE評価値に基づいて適正EV値を算出するべく、撮像タスクの下で簡易AE処理を実行する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ20cおよび20dにそれぞれ設定される。この結果、LCDモニタ32から出力されるスルー画像の明るさが適度に調整される。
 キー入力装置50に設けられたズームボタン50zが操作されると、CPU40は、撮像タスクの下でズーム処理を実行するべく、対応する命令をドライバ20aに与える。ズームレンズ12はドライバ20aによって光軸方向に移動され、これによってスルー画像の倍率が変化する。
 CPU40は、このような撮像タスクと並列するコンティニュアスAFタスクの下で、AE/AF評価回路38から出力された256個のAF評価値を繰り返し取り込み、AF起動条件が満足されるか否かを取り込まれたAF評価値に基づいて判別する。AF起動条件が満足されると、CPU40は、同じAF評価値を参照したAF処理を実行する。フォーカスレンズ14は、AF評価値の取り込みと並列してドライバ20bによって光軸方向に移動され、AF評価値が基準を上回る位置に配置される。この結果、スルー画像の鮮鋭度が継続的に向上する。
 キー入力装置50に設けられたシャッタボタン50sが半押しされると、コンティニュアスAFタスクが停止される。CPU40は、最適EV値を算出するべく、撮像タスクの下で厳格AE処理を実行する。この結果、AE/AF評価回路38から出力された256個のAE評価値に基づいて最適EV値が算出され、算出された最適EV値を定義する絞り量および露光時間がドライバ20cおよび20dにそれぞれ設定される。スルー画像の明るさは、最適値に調整される。
 CPU40は続いて、厳格AF処理を実行する。厳格AF処理もまた、フォーカスレンズ14の移動処理と並列して取り込まれるAF評価値を参照して実行される。フォーカスレンズ14はAF評価値が最大値を示す位置に配置され、これによってスルー画像の鮮鋭度が最適値に調整される。
 シャッタボタン50sが全押しされると、静止画取り込み処理および記録処理が実行される。静止画取り込み処理の結果、シャッタボタン50sが全押しされた時点の被写界を表す1フレームの画像データがSDRAM26の静止画像エリア26b(図3参照)に退避される。また、記録処理の結果、記録命令がメモリI/F34に向けて発行される。メモリI/F34は、静止画像エリア26bに退避された1フレームの画像データをメモリ制御回路24を通して読み出し、読み出された画像データをファイル形式で記録媒体36に記録する。停止したコンティニュアスAFタスクは、記録処理が完了した後に再起動される。
 キー入力装置50に設けられたモードスイッチ50mによって撮像支援モードが選択されると、撮像支援タスクが起動され、以下の支援処理がCPU40によって実行される。
 まず、位置検出周期が到来する毎に、GPS装置42の出力に基づいて現在位置が検出される。また、検出された現在位置の周辺に存在する1または2以上の撮影スポットが、フラッシュメモリ52に設けられた内部データベース52dbから抽出される。抽出された撮影スポットの名称および位置は、撮影スポット情報として図5に示すレジスタRGSTに設定される。
 さらに、位置検出周期の到来に関係なく、撮像方向がコンパス44,高度計46および水準器48の出力に基づいて繰り返し検出され、撮像画角がズームレンズ12の位置つまりズーム倍率に基づいて繰り返し検出され、そして検出された撮像方向および撮像画角に対応する一部の撮影スポット情報つまり撮像装置18によって捉えられた1または2以上の撮影スポットの情報がレジスタRGSTから抽出される。キャラクタジェネレータ30には、抽出された撮影スポット情報に対応するタグを出力すべき旨の命令が与えられる。
 キャラクタジェネレータ30は、出力すべきタグを表すキャラクタデータを作成し、作成されたキャラクタデータをLCDドライバ28に与える。LCDドライバ28は、キャラクタジェネレータ30から与えられたキャラクタデータに基づいてLCDモニタ32を駆動する。この結果、撮影スポットの名称が記述されたタグが、スルー画像に現れた撮影スポットに対応して画面に表示される。
 図6(A)に示す被写界が捉えられたときは、“京都タワー”および“京都駅”の名称がそれぞれ記述された2つのタグが図6(B)に示す要領でスルー画像に多重される。また、図7(A)に示す被写界が捉えられたときは、“東寺”の名称が記述されたタグが図7(B)に示す要領でスルー画像に多重される。
 キー入力装置50に設けられたサンプル画像ボタン50pが操作されると、フォーカスレンズ14の位置に基づいて合焦距離が算出され、現時点で捉えられている被写界が遠景であるか否かが算出された合焦距離に基づいて判別される。さらに、インターネットへの接続が可能であるか否かが、通信I/F54の出力に基づいて判別される。現時点で捉えられている被写界が遠景ではなく、かつインターネットへの接続が可能であれば、上述と同様の静止画取り込み処理が実行される。この結果、最新1フレームの画像データがYUV画像エリア26aから静止画像エリア26bに退避される。
 続いて、上述の要領で検出ないし算出された撮像位置,撮像方向および合焦距離と静止画像エリア26bに退避された画像データとが埋め込まれたサンプル画像要求が作成され、作成されたサンプル画像要求が通信I/F54を通して外部サーバに送信される。サンプル画像要求は、インターネットを経由して外部サーバに転送される。
 外部サーバは、撮像装置18によって捉えられた物体が現れたサンプル画像データをサンプル画像要求に含まれた撮像位置,撮像方向,合焦距離および画像データに基づいて外部データベースから検索する。所望のサンプル画像データが発見されると、外部サーバは、発見されたサンプル画像データをインターネットを介してディジタルカメラ10に返送する。
 返送されたサンプル画像データは、通信I/F54によって受信され、メモリ制御回路24を通してSDRAM26のワークエリア26c(図3参照)に書き込まれる。書き込みが完了すると、サンプル画像を表示すべき旨の命令がLCDモニタ32に与えられる。
 LCDドライバ28は、YUV画像エリア26aに格納された画像データとワークエリア26cに格納されたサンプル画像データとをメモリ制御回路24を通して選択的に読み出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、サンプル画像とスルー画像とを合成した合成画像がLCDモニタ32に表示される。
 したがって、図7(A)に示す被写界が捉えられているときにサンプル画像ボタン50pが操作されると、サンプル画像SPLが図7(B)に示す要領でスルー画像に合成される。
 外部サーバから返送されたサンプル画像データには、サンプル画像を撮影したときの露光設定,フォーカス設定および撮像位置がサンプル画像情報として付随する。なお、説明の便宜上、サンプル画像の撮影位置を特に“サンプル位置”と定義する。サンプル画像情報はサンプル画像の表示が完了した後に検出され、図5に示すレジスタRGSTに設定される。過去にレジスタRGSTに設定されたサンプル画像情報は、新規のサンプル画像情報によって更新される。
 こうして設定されたサンプル画像情報がレジスタRGSTに存在し、かつサンプル位置が撮像装置18によって捉えられていれば、サンプル位置を指向する矢印を出力すべき旨の命令がキャラクタジェネレータ30に与えられる。キャラクタジェネレータ30は、出力すべき矢印を表すキャラクタデータを作成し、作成されたキャラクタデータをLCDドライバ28に与える。LCDドライバ28は、キャラクタジェネレータ30から与えられたキャラクタデータに基づいてLCDモニタ32を駆動する。この結果、スルー画像に現れたサンプル位置を指向する矢印が画面に表示される。
 したがって、図7(B)に示すサンプル画像に対応するサンプル位置が図7(A)に示す被写界の左下に相当する場合は、矢印ARWが図7(B)に示す要領でスルー画像に合成される。
 LCDモニタ32に表示されたサンプル画像に対するタッチ操作は、タッチセンサ56によって検知される。タッチ操作が行われると、コンティニュアスAFタスクが停止され、レジスタRGSTに登録されたサンプル画像情報を定義する露光設定およびフォーカス設定が検出される。検出された露光設定を示す絞り量および露光時間はドライバ20cおよび20dにそれぞれ設定され、検出されたフォーカス設定に従う位置はドライバ20bに設定される。この結果、サンプル画像を撮影したときの露光設定およびフォーカス設定がディジタルカメラ10において有効化される。
 シャッタボタン50sが半押しされると、サンプル画像を非表示とすべき旨の命令がLCDドライバ28に与えられる。LCDドライバ28は画像データの読み出し先をYUV画像エリア26aに固定し、この結果、サンプル画像の表示が終了される。レジスタRGSTに設定されたサンプル画像情報は、サンプル画像の非表示の後に削除される。
 したがって、撮影者が図7(B)の矢印ARWが指向する位置(=サンプル位置)に移動し、サンプル画像SPLを参考にして撮像方向および撮像画角を調整すると、LCDモニタ32の表示は図7(B)に示す状態から図8(A)に示す状態に遷移する。この状態でシャッタボタン50sが半押しされると、図8(B)に示すようにサンプル画像SPLがモニタ画面から消失する。
 続いてシャッタボタン50sが全押しされると、静止画取り込み処理および記録処理が上述の要領で実行される。この結果、シャッタボタン50sが全押しされた時点の被写界を表す1フレームの画像データがファイル形式で記録媒体36に記録される。停止したコンティニュアスAFタスクは、記録処理が完了した後に再起動される。
 CPU40は、図9~図11に示す撮像タスク,図12に示すコンティニュアスAFタスクおよび図13~図15に示す撮像支援タスクをマルチタスクOSの下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ52に記憶される。
 図9を参照して、ステップS1ではフラグFLGを“0”に設定する。フラグFLGはサンプル画像データが取得されたか否かを識別するためのフラグであり、“0”が未だ取得されていないことを示す一方、“1”が取得済みであることを示す。フラグFLGの設定が完了すると、ステップS3で動画取込み処理を開始し、ステップS5でコンティニュアスAFタスクを起動する。動画取り込み処理が開始された結果、被写界を表すスルー画像がLCDモニタ32に表示される。また、コンティニュアスAFタスクが起動された結果、スルー画像の鮮鋭度が継続的に向上する。ステップS7ではフラグFLGが“0”を示すか否かを判別し、判別結果がYESであればステップS9に進む一方、判別結果がNOであればステップS23に進む。
 ステップS9ではシャッタボタン50sが半押しされたか否かを判別し、判別結果がNOであればステップS11で簡易AE処理を実行する。この結果、スルー画像の明るさが適度に調整される。ステップS13ではズームボタン50zが操作されたか否かを判別し、判別結果がNOであればそのままステップS7に戻る一方、判別結果がYESであればステップS15でズーム処理を実行してからステップS7に戻る。ズーム処理の結果、ズームレンズ12が光軸方向に移動し、スルー画像の倍率が変化する。
 ステップS9の判別結果がYESであれば、ステップS17でコンティニュアスAFタスクを停止し、ステップS19で厳格AE処理を実行し、そしてステップS21で厳格AF処理を実行する。厳格AE処理の結果、スルー画像の明るさが厳格に調整される。また、コンティニュアスAFタスクに代替して実行される厳格AF処理の結果、スルー画像の鮮鋭度が厳格に調整される。ステップS21の処理が完了すると、図11に示すステップS39に進む。
 ステップS7の判別結果がNOである場合、LCDモニタ32にはサンプル画像が多重表示され、レジスタRGSTにはサンプル画像情報が登録される。図9に示すステップS23では、このサンプル画像に対するタッチ操作が行われたか否かを、タッチセンサ56の出力に基づいて繰り返し判別する。判別結果がNOからYESに更新されると、ステップS25でコンティニュアスAFタスクを停止する。
 ステップS27では、レジスタRGSTに登録されたサンプル画像情報を形成する露光設定およびフォーカス設定を検出する。ステップS29では、検出された露光設定を示す絞り量および露光時間をドライバ20cおよび20dにそれぞれ設定し、検出されたフォーカス設定に従う位置をドライバ20bに設定する。この結果、サンプル画像を撮影したときの露光設定およびフォーカス設定がディジタルカメラ10において有効化される。
 ステップS31ではシャッタボタン50sが半押しされたか否かを判別し、判別結果がNOからYESに更新されるとステップS33に進む。ステップS33では、サンプル画像を非表示とするべく、対応する命令をLCDドライバ28に与える。LCDドライバ28は画像データの読み出し先をYUV画像エリア26aに固定し、この結果、サンプル画像の表示が終了される。ステップS35ではレジスタRGSTに設定されたサンプル画像情報を削除し、ステップS37ではフラグFLGを“0”に戻す。ステップS37の処理が完了すると、ステップS39に進む。
 ステップS39ではシャッタボタン50sが全押しされたか否かを判別し、ステップS41ではシャッタボタン50sの操作が解除されたか否かを判別する。ステップS39でYESであれば、ステップS43で静止画取り込み処理を実行し、ステップS45で記録処理を実行し、その後にステップS47に進む。ステップS41でYESであれば、そのままステップS47に進む。
 静止画取り込み処理の結果、シャッタボタン50sが全押しされた時点の被写界を表す1フレームの画像データがYUV画像エリア26aから静止画像エリア26bに退避される。また、記録処理の結果、メモリI/F34が起動され、静止画像エリア26bに退避された画像データがファイル形式で記録媒体36に記録される。ステップS47ではコンティニュアスAFタスクを再起動し、その後にステップS7に戻る。
 図12を参照して、ステップS51ではフォーカスレンズ14の位置を初期化し、ステップS53では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、AE/AF評価回路38から出力された256個のAF評価値をステップS55で取り込む。ステップS57ではAF起動条件が満足されるか否かを取り込まれたAF評価値に基づいて判別し、判別結果がNOであればステップS53に戻る一方、判別結果がYESであればステップS59に進む。ステップS59では、フォーカスレンズ12を合焦点が存在する方向に移動させるべく、取り込まれたAF評価値に基づいてAF処理を実行する。AF処理が完了すると、ステップS53に戻る。
 図13を参照して、ステップS61では位置検出周期が到来したか否かを判別し、判別結果がNOであればそのままステップS67に進む一方、判別結果がYESであればステップS63~S65の処理を経てステップS67に進む。なお、1回目の判別結果は必ずYESとなる。
 ステップS63では、GPS装置42の出力に基づいて現在位置を検出する。ステップS65では、検出された現在位置の周辺の撮影スポットを示す撮影スポット情報をフラッシュメモリ52に設けられた内部データベース52dbから抽出する。抽出された撮影スポット情報は、レジスタRGSTに設定される。
 ステップS67ではコンパス44,高度計46および水準器48の出力に基づいて撮像方向を検出し、ステップS69ではズームレンズ12の位置つまりズーム倍率に基づいて撮像画角を検出する。ステップS71では、検出された撮像方向および撮像画角に対応する一部の撮影スポット情報つまり撮像面で捉えられた1または2以上の撮影スポットの情報をレジスタRGSTに登録された撮影スポット情報の中から抽出し、抽出された撮影スポット情報に対応するタグの出力をキャラクタジェネレータ30に命令する。この結果、撮影スポットの名称が記述されたタグが、スルー画像に現れた撮影スポットに対応してLCDモニタ32に表示される。
 ステップS73ではサンプル画像ボタン50pが操作されたか否かを判別し、判別結果がNOであればステップS97に進む一方、判別結果がYESであればステップS75に進む。ステップS75ではフォーカスレンズ14の位置を参照して合焦距離を算出し、ステップS77では現時点で捉えられている被写界が遠景であるか否かを算出された合焦距離に基づいて判別する。判別結果がYESであればステップS97に進む一方、判別結果がNOであればステップS79に進む。
 ステップS79ではインターネットへの接続が可能であるか否かを通信I/F54の出力に基づいて判別し、判別結果がNOであればステップS97に進む一方、判別結果がYESであればステップS81で静止画取り込み処理を実行する。ステップS81の処理の結果、最新1フレームの画像データがYUV画像エリア26aから静止画像エリア26bに退避される。
 ステップS83では、ステップS63で検出された現在位置,ステップS67で検出された撮像方向,ステップS75で算出された合焦距離,およびステップS81で取り込まれた画像データが埋め込まれたサンプル画像要求を作成し、作成されたサンプル画像要求を通信I/F54を通して外部サーバに送信する。サンプル画像要求は、インターネットを経由して外部サーバに転送される。
 ステップS85では外部サーバから返送されたサンプル画像データが通信I/F54によって受信されたか否かを判別し、ステップS87ではタイムアウトが発生したか否かを判別する。サンプル画像データを受信することなく既定時間が経過すると、タイムアウトとみなしてステップS87からステップS97に進む。既定時間が経過する前にサンプル画像データが受信されると、ステップS85からステップS89に進む。
 ステップS89では、通信I/F54によって受信されたサンプル画像データをメモリ制御回路24を通してSDRAM26のワークエリア26cに書き込む。ステップS91では、サンプル画像をLCDモニタ32に表示するべく、対応する命令をLCDドライバ28に与える。
 LCDドライバ28は、YUV画像エリア26aに格納された画像データとワークエリア26cに格納されたサンプル画像データとをメモリ制御回路24を通して選択的に読み出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、サンプル画像とスルー画像とを合成した合成画像がLCDモニタ32に表示される。
 外部サーバから返送されたサンプル画像データには、サンプル画像を撮影したときの露光設定,フォーカス設定およびサンプル位置がサンプル画像情報として付随する。ステップS93では、このサンプル画像情報を検出し、検出されたサンプル画像情報をレジスタRGSTに設定する。過去にレジスタRGSTに設定されたサンプル画像情報は、新規のサンプル画像情報によって更新される。ステップS93の処理が完了すると、ステップS95でフラグFLGを“1”に更新し、その後にステップS97に進む。
 ステップS97では、サンプル画像情報がレジスタRGSTに登録されているか否かを判別する。判別結果がNOであればステップS61に戻る一方、判別結果がYESであればステップS99に進む。ステップS99ではレジスタRGSTに登録されたサンプル位置を検出し、ステップS101では検出されたサンプル位置が撮像装置18によって捉えられているか否かをステップS67~S69で検出された撮像方向および撮像画角に基づいて判別する。
 判別結果がNOであればステップS61に戻る一方、判別結果がYESであればステップS103に進む。ステップS103では、ステップS99で検出されたサンプル位置を指向する矢印の出力をキャラクタジェネレータ30に命令する。この結果、サンプル位置を指向する矢印がLCDモニタ32に表示される。
 以上の説明から分かるように、イメージセンサ18は、被写界を捉える撮像面を有し、生画像データを繰り返し出力する(18)。CPU40は、イメージセンサ18から出力された生画像データに基づくスルー画像を撮像処理と並列してLCDモニタ32に表示し(S3)、撮像面によって捉えられた被写界の属性(=撮像位置,撮像方向,撮像画角,合焦距離)を撮像処理と並列して繰り返し検出する(S63, S67~S69, S75)。CPU40はまた、撮像面によって捉えられた被写界に存在する物体が現れたサンプル画像を被写界の属性の少なくとも一部に基づいて外部サーバから取得し(S83~S89)、取得されたサンプル画像をスルー画像と並列してLCDモニタ32に表示する(S91)。
 スルー画像とともに表示されるサンプル画像は、被写界に存在する物体が現れた画像に相当する。撮影者は、表示された2つの画像を参照して撮影位置を決めることができる。こうして、カメラの使い勝手が向上する。
 なお、この実施例では、撮像装置18によって捉えられている被写界が遠景であるときにはサンプル画像ボタン50pの操作を無効とするようにしている。しかし、被写界が遠景である状態でのサンプル画像ボタン50pの操作に応答してサンプル画像データを取得するようにしてもよい。この場合、図6(A)の例では京都タワーが現れたサンプル画像データと京都駅が現れたサンプル画像データとが取得される。
 また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ52に予め記憶される。しかし、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ52に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして別の外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
 さらに、この実施例では、CPU40によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
 この発明が詳細に説明され図示されたが、それは単なる図解および一例として用いたものであり、限定であると解されるべきではないことは明らかであり、この発明の精神および範囲は添付されたクレームの文言によってのみ限定される。
 10 …ディジタルカメラ
 12 …ズームレンズ
 14 …フォーカスレンズ
 18 …撮像装置
 38 …AE/AF評価回路
 40 …CPU
 42 …GPS装置
 44 …コンパス
 54 …通信I/F

Claims (11)

  1.  電子カメラであって、次のものを備える:
     撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段;
     前記撮像手段から出力された電子画像を前記撮像手段の処理と並列して表示する第1表示手段;
     前記撮像面によって捉えられたシーンの属性を前記撮像手段の処理と並列して検出する属性検出手段;
     前記撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を前記属性検出手段によって検出された属性の少なくとも一部に基づいて取得する取得手段;および
     前記取得手段によって取得されたサンプル画像を前記第1表示手段の処理と並列して表示する第2表示手段。
  2.  クレーム1に従属する電子カメラであって、前記取得手段によって取得されたサンプル画像に対応するシーンが捉えられる位置を前記第2表示手段の処理に関連して出力する報知手段をさらに備える。
  3.  クレーム1に従属する電子カメラであって、次のものをさらに備える:前記取得手段によって取得されたサンプル画像の品質を定義するパラメータを前記取得手段の取得処理に関連して検出するパラメータ検出手段;および
     前記検出手段によって検出されたパラメータを前記第2表示手段によって表示されたサンプル画像に対する第1既定操作に応答して設定するパラメータ設定手段。
  4.  クレーム3に従属する電子カメラであって、次のものをさらに備える:前記第1既定操作の後の第2既定操作に応答して前記第2表示手段の処理を停止する停止手段;および
     前記撮像手段から出力された電子画像を前記第2既定操作の後の第3既定操作に応答して記録する記録手段。
  5.  クレーム1に従属する電子カメラであって、前記取得手段は、前記属性を含む画像要求を通信回線に接続された外部装置に送信する送信手段、および前記送信手段の処理に対して前記外部装置から返送されたサンプル画像を受信する受信手段を含む。
  6.  クレーム5に従属する電子カメラであって、前記送信手段の処理に先立つ特定タイミングで前記撮像手段から出力された電子画像を抽出する抽出手段をさらに備え、
     前記送信手段によって送信される画像要求は前記抽出手段によって抽出された電子画像をさらに含む。
  7.  クレーム1に従属する電子カメラであって、前記第1表示手段の処理と並列してズーム倍率を調整する第1調整手段をさらに備え、
     前記属性検出手段は前記第1調整手段によって調整されたズーム倍率に対応する画角を前記属性の一部として検出する第1部分属性検出手段を含む。
  8.  クレーム1に従属する電子カメラであって、前記撮像面の前方に設けられたフォーカスレンズ;および
     前記フォーカスレンズと前記撮像面との間隔を前記撮像手段から出力された電子画像に基づいて継続的に調整する第2調整手段をさらに備え、
     前記属性検出手段は前記第2調整手段によって調整された間隔に対応する合焦距離を前記属性の一部として検出する第2部分属性検出手段を含む。
  9.  クレーム1に従属する電子カメラであって、前記属性検出手段は前記撮像面の位置および/または向きを前記属性の一部として検出する第3部分属性検出手段をさらに含む。
  10.  電子カメラを制御するべく非一時的な記録媒体に記録される撮像制御プログラムであって、次のステップを撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに実行させる:
     前記撮像手段から出力された電子画像を前記撮像手段の処理と並列して表示する第1表示ステップ;
     前記撮像面によって捉えられたシーンの属性を前記撮像手段の処理と並列して検出する属性検出ステップ;
     前記撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を前記属性検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ;および
     前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並列して表示する第2表示ステップ。
  11.  撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、次のものを備える:
     前記撮像手段から出力された電子画像を前記撮像手段の処理と並列して表示する第1表示ステップ;
     前記撮像面によって捉えられたシーンの属性を前記撮像手段の処理と並列して検出する属性検出ステップ;
     前記撮像面によって捉えられたシーンに存在する物体が現れたサンプル画像を前記属性検出ステップによって検出された属性の少なくとも一部に基づいて取得する取得ステップ;および
     前記取得ステップによって取得されたサンプル画像を前記第1表示ステップの処理と並列して表示する第2表示ステップ。
PCT/JP2011/079436 2011-01-14 2011-12-20 電子カメラ WO2012096106A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011006438A JP2012151527A (ja) 2011-01-14 2011-01-14 電子カメラ
JP2011-006438 2011-01-14

Publications (1)

Publication Number Publication Date
WO2012096106A1 true WO2012096106A1 (ja) 2012-07-19

Family

ID=46507018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/079436 WO2012096106A1 (ja) 2011-01-14 2011-12-20 電子カメラ

Country Status (2)

Country Link
JP (1) JP2012151527A (ja)
WO (1) WO2012096106A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769032B2 (ja) * 2013-07-29 2015-08-26 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP6943949B2 (ja) * 2016-08-19 2021-10-06 スノー コーポレーション コンピュータプログラム、動画処理方法及び記録媒体
KR102060136B1 (ko) * 2018-01-08 2019-12-27 주식회사 하이트론씨스템즈 영상 촬영 장비에서의 영상 처리 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176603A (ja) * 2000-12-06 2002-06-21 Nikon Corp 対比表示機能を有する光学機器
JP2006186695A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2008054031A (ja) * 2006-08-24 2008-03-06 Fujifilm Corp デジタルカメラ及び表示制御方法
JP2009181186A (ja) * 2008-01-29 2009-08-13 Mitsubishi Space Software Kk 情報提供サーバ、情報表示端末、情報提供システム、情報提供プログラム、情報表示プログラム、情報提供方法及び情報表示方法
JP2010063052A (ja) * 2008-09-08 2010-03-18 Sony Corp 撮影装置および方法、並びにプログラム
JP2010119069A (ja) * 2008-11-11 2010-05-27 Plaza Create Co Ltd デジタルカメラシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176603A (ja) * 2000-12-06 2002-06-21 Nikon Corp 対比表示機能を有する光学機器
JP2006186695A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2008054031A (ja) * 2006-08-24 2008-03-06 Fujifilm Corp デジタルカメラ及び表示制御方法
JP2009181186A (ja) * 2008-01-29 2009-08-13 Mitsubishi Space Software Kk 情報提供サーバ、情報表示端末、情報提供システム、情報提供プログラム、情報表示プログラム、情報提供方法及び情報表示方法
JP2010063052A (ja) * 2008-09-08 2010-03-18 Sony Corp 撮影装置および方法、並びにプログラム
JP2010119069A (ja) * 2008-11-11 2010-05-27 Plaza Create Co Ltd デジタルカメラシステム

Also Published As

Publication number Publication date
JP2012151527A (ja) 2012-08-09

Similar Documents

Publication Publication Date Title
JP5056061B2 (ja) 撮像装置
JP4288612B2 (ja) 画像処理装置および方法、並びにプログラム
RU2415513C1 (ru) Устройство записи изображения, способ записи изображения, устройство обработки изображения, способ обработки изображения и программа
JP4957943B2 (ja) 撮像装置及びそのプログラム
JP5661373B2 (ja) 撮影システム、撮像装置及びその制御方法
JP6071436B2 (ja) 撮像装置、撮像方法およびプログラム
KR20100066864A (ko) 카메라를 구비한 단말기 및 그 단말기에서 이미지 처리 방법
JPWO2017047012A1 (ja) 撮像装置および撮像装置とサーバとを含むシステム
JP4818999B2 (ja) 撮影装置および方法並びにプログラム
JP2011254487A (ja) 撮影装置および方法並びにプログラム
JP2011172094A (ja) 撮像装置
WO2012096106A1 (ja) 電子カメラ
JP2008288797A (ja) 撮像装置
JP2010287919A (ja) 撮像装置
JP5957948B2 (ja) 表示制御装置、表示制御方法および記録媒体
JP2014220715A (ja) 電子カメラ
JP5188633B2 (ja) 電子機器
JP2007267309A (ja) 電子カメラ
JP2013009204A (ja) 撮像装置、撮像方法およびプログラム
US20210120188A1 (en) Imaging apparatus, display control method, and program
JP2014220618A (ja) 画像処理装置
JP2013070121A (ja) システム、撮像装置、提供装置、制御方法、及びプログラム
JP2014164028A (ja) 撮像装置および撮影パラメータの切り替え方法ならびにプログラム
JP2009124601A (ja) 撮像装置およびその制御方法
US20130016242A1 (en) Electronic camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11855729

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11855729

Country of ref document: EP

Kind code of ref document: A1