WO2015045645A1 - 撮像装置、撮像方法及びプログラム - Google Patents

撮像装置、撮像方法及びプログラム Download PDF

Info

Publication number
WO2015045645A1
WO2015045645A1 PCT/JP2014/071019 JP2014071019W WO2015045645A1 WO 2015045645 A1 WO2015045645 A1 WO 2015045645A1 JP 2014071019 W JP2014071019 W JP 2014071019W WO 2015045645 A1 WO2015045645 A1 WO 2015045645A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging
unit
area
region
Prior art date
Application number
PCT/JP2014/071019
Other languages
English (en)
French (fr)
Inventor
雅行 鵜野
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP14847450.5A priority Critical patent/EP3051795A4/en
Priority to CN201480052259.9A priority patent/CN105765960B/zh
Priority to US15/023,457 priority patent/US9848160B2/en
Priority to JP2015539009A priority patent/JP6409777B2/ja
Publication of WO2015045645A1 publication Critical patent/WO2015045645A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/24Details of cameras or camera bodies; Accessories therefor with means for separately producing marks on the film, e.g. title, time of exposure

Definitions

  • the present invention relates to an imaging apparatus, an imaging method, and a program.
  • Patent Document 1 a technique of an electronic camera capable of adding map information to a captured image and storing it is disclosed.
  • an object of the present invention is to provide an imaging apparatus, an imaging method, and a program that can solve the above-described problems.
  • the present invention provides a display control unit for displaying a first region for displaying an image captured by the imaging unit and a second region for displaying map information on a display unit based on an operation for starting the imaging unit, Image recording for adding the position information of the pasting position in the map information to the image and recording the image based on the pasting operation to the map information of the image following the image capturing instruction operation for one area And an imaging device.
  • the present invention displays, on the display unit, a first region for displaying an image captured by the image capturing unit and a second region for displaying map information based on an operation for starting the image capturing unit. Based on the operation of pasting the image to the map information following the image capturing instruction operation, the position information of the pasting position in the map information is added to the image and the image is recorded. An imaging method is also provided.
  • a display unit displays a first area for displaying an image captured by the imaging unit and a second area for displaying map information based on an operation of starting the imaging unit of a computer of the imaging apparatus. Based on the operation for pasting the image to the map information following the image capturing instruction operation for the first area, the position information of the pasting position in the map information is added to the image and the image is recorded. Also provided is a program for functioning as a means for
  • FIG. 1st embodiment It is a figure which shows the minimum structure of the imaging device by 1st embodiment of this invention. It is a figure which shows the specific structure of the imaging device by said 1st embodiment. It is a figure which shows an example of the external appearance of the imaging device by 1st embodiment. Similarly, it is a figure which shows an example of the external appearance of the imaging device. It is a figure which shows an example of imaging operation by the 1st embodiment. Similarly, it is a figure which shows an example of the imaging operation. It is a figure which shows an example of the screen image in the imaging device by said 1st embodiment. It is a figure which shows an example of the table which the imaging device by 1st embodiment memorize
  • FIG. 1 is a diagram illustrating a minimum configuration of the imaging apparatus according to the first embodiment.
  • reference numeral 1 represents an imaging device.
  • the imaging apparatus 1 includes at least a display control unit 30 and an image recording unit 50.
  • the display control unit 30 has a function of controlling display information displayed on a display unit included in the own device or a display unit (screen) of a display device connected to the own device.
  • the main ones are as follows.
  • the screen is divided into at least two display areas based on an operation of starting the imaging unit by the user, the imaging unit captures or displays an image captured in the first area, and a map is displayed in the second area. Display information. Furthermore, an area for displaying only the background color may be provided as the third area. Secondly, pasting identification information that can be recognized as being associated is displayed at each position in the second area indicating the position information associated with the image captured by the imaging unit.
  • the image recording unit 50 has a function of adding and recording position information on an image captured by the user based on a user operation. Specifically, when the user takes an image and then specifies an arbitrary position of the map information displayed in the second area, the image recording unit 50 adds the position information of the position to the image and records it. Further, when the user designates an arbitrary position in the third area following the imaging operation, recording is performed without adding position information to the captured image.
  • FIG. 2 is a diagram illustrating a specific configuration of the imaging apparatus according to the first embodiment.
  • the imaging apparatus 1 includes a display unit 10, an imaging unit 20, a display control unit 30, an operation detection unit 40, an image recording unit 50, and a storage unit 60.
  • the display unit 10 is a display screen of the imaging device 1.
  • the display unit 10 is a combination of a display and a touch panel, for example, and has both a display function and an input function.
  • the imaging unit 20 has a camera function for capturing a still image or a moving image.
  • a camera module provided with an image sensor such as a CMOS or CCD may be used.
  • the imaging unit 20 captures a still image or a moving image according to a user's imaging instruction.
  • the operation detection unit 40 acquires a user operation instruction according to a touch operation on the display unit 10 by a user, a hover operation, or a key operation.
  • the hover operation referred to here is an operation method in which an operation is performed by moving a finger or the like with the finger slightly away from the screen.
  • the storage unit 60 is a database that stores images captured by the user, map information to be displayed in the second area, and the like.
  • the display control unit 30, the operation detection unit 40, and the image recording unit 50 are functions provided when a CPU (Central Processing Unit) provided in the imaging apparatus 1 executes a program.
  • CPU Central Processing Unit
  • FIG. 3A and 3B are diagrams illustrating an example of an appearance of the imaging apparatus according to the first embodiment.
  • a typical example of the imaging apparatus 1 according to the first embodiment is a mobile phone (smart phone) having a computer function.
  • the imaging device 1 includes a display unit 10 on the first main surface of the housing.
  • the imaging device 1 includes a lens 21 of the imaging unit on the second main surface.
  • the display control unit 30 simultaneously displays the first area 101, the second area 102, and the third area 103 on the display unit 10.
  • the first area 101 is an area in which an image projected by the imaging unit 20 is displayed.
  • the user confirms the image displayed at this position and images the imaging target.
  • the first area 101 is large enough to allow the user to check the state of the image to be captured.
  • the first area 101 is an upper half area when the display unit 10 is equally divided in the horizontal direction. .
  • the second area 102 is an area for displaying map information.
  • the map information is stored in advance in the storage unit 60 of the imaging apparatus 1, and the display control unit 30 may read and display it, or the display control unit 30 may be externally connected via a communication unit (not shown). You may acquire and display from a server etc.
  • the map information displayed in this area is a map of a predetermined scale including the current position of the user.
  • the current position of the user is indicated by, for example, a blinking green circle so that the user can be identified.
  • the information indicating the current position is acquired by the GPS function provided in the imaging apparatus 1.
  • the position of the map information displayed when the imaging unit 20 is activated may be arbitrarily determined by the user using a setting program.
  • the map information can be scrolled by a user's flick operation (operation to quickly move or flip a finger on the screen), and map information of other regions can be displayed.
  • the scale of the map can be changed by a user pinch-in operation (an operation for narrowing the interval between two fingers on the screen) or a pinch-out operation (an operation for increasing the interval between two fingers on the screen).
  • the second area 102 is large enough to allow the user to check the map information.
  • the second area 102 is a lower half area when the display unit 10 is equally divided in the horizontal direction.
  • the third area 103 is an area provided in the second area 102 that does not display position information.
  • the third area 103 is a minimum so that the user can perform a touch operation near the boundary between the first area 101 and the second area 102.
  • This is an area having the size of a fingertip of a limited user.
  • an icon image may be displayed in the third region 103.
  • FIG. 4A and 4B are diagrams illustrating an example of an imaging operation of the imaging apparatus according to the present embodiment. An operation for associating an image captured by a user operation with position information will be described with reference to these drawings.
  • the second region 102 is made wider than the first region 101 for convenience of explanation.
  • FIG. 4A is an image that is displayed on the display unit 10 when the imaging unit 20 of the imaging device 1 is activated to take a picture of a flower and the lens 21 is pointed at the flower to be imaged. Flowers are displayed in the first area 101, and map information around the current position of the user is displayed in the second area 102.
  • Reference numeral 105 indicates the current position of the user. The current position 105 may be displayed, for example, as a green blinking circle.
  • the imaging instruction operation is assumed to be that the user taps (contacts) or approaches an arbitrary area 104 of the first area 101 with a finger or the like.
  • the operation detection unit 40 detects the imaging instruction operation, and the imaging unit 20 starts imaging.
  • the imaging unit 20 captures an image, so that the shutter chance intended by the user is not missed. Note that the imaging of the imaging unit 20 is performed using a known technique.
  • FIG. 4B shows an image displayed on the display unit 10 at that time.
  • the display control unit Reference numeral 30 denotes a result of performing control for reducing the luminance of a predetermined region (here, the first region 101) of the display unit 10.
  • the display control unit 30 may decrease the luminance of the predetermined region of the display unit 10 after a predetermined time necessary for confirming the captured image has elapsed.
  • the image capturing unit 20 when the image capturing unit 20 captures an image of the flower, the image capturing unit 20 temporarily stores the image in the memory.
  • the display control unit 30 moves the pointer along a trajectory that is detected by the user moving the finger or the like, and displays a small thumbnail image 108 corresponding to the captured image.
  • An arrow 106 is an example of a trajectory in which the user moves a finger or the like when the captured image is associated with the current position of the user. The user moves from the area 104 along the arrow 106 while keeping his / her finger or the like in contact with each other and moves the finger or the like away from the display unit 10 in an arbitrary area 107 within the current position 105.
  • the operation detection unit 40 detects an operation of releasing a finger or the like, and the image recording unit 50 captures the previously captured image and the temporarily stored image and the position information of the area 107 (information on the current position of the user in the illustrated example). Correlate and record in the storage unit 60
  • an operation of moving a finger or the like from the first area 101 to another area and moving it away from the display unit 10 while touching or approaching the display unit 10 after the user's imaging instruction operation is referred to as a pasting operation.
  • the pasting operation is an operation for instructing recording of a captured image.
  • the user may move a finger or the like along the trajectory of the arrow 109 and move the finger or the like away from the display unit 10 in an arbitrary area 110 in the third area 103.
  • the image recording unit 50 records the image captured and temporarily stored in the storage unit 60 without associating the image with the position information.
  • the display control unit 30 displays the thumbnail image 108 along the trajectory in which the user moves the finger or the like. Note that when the user performs an imaging instruction operation and removes his finger from the display unit 10 in the first area 101 (moves it away), the temporarily stored image is discarded without being stored.
  • the display control unit 30 displays the first to third areas on the display unit 10, and the operation detection unit 40 moves to the first area 101 by the user.
  • the imaging unit 20 starts imaging.
  • the position of the pasting position of the map information is detected by the image recording unit 50 when the end of the pasting operation is detected. Is added to the captured image and the image is stored.
  • the image recording unit 50 stores the image without associating it with the position information.
  • the imaging unit 20 starts moving image shooting.
  • the imaging unit 20 ends moving image shooting.
  • the subsequent operation is the same as that for a still image.
  • the tap operation may be performed not only with a finger but also with a stylus pen or the like.
  • FIG. 5 is a diagram illustrating an example of a screen image in the imaging apparatus according to the present embodiment. How the image captured by the user and the position information are displayed will be described with reference to FIG.
  • FIG. 5 shows an image displayed on the display unit 10 when the imaging unit 20 is activated by a predetermined operation. An image to be imaged is displayed in the first area 101. Map information is displayed in the second area 102, and no map information is displayed in the third area 103.
  • a difference from FIG. 4A is that a plurality of pin marks 111 are displayed in the second area 102 and the third area 103 in FIG. 5 (in FIG. 5, reference numeral 111 indicates one pin for ease of viewing. Add only to the mark).
  • the pin mark 111 is pasting identification information displayed at a position where the user has finished pasting operation.
  • the pin mark 111 in the second area 102 indicates that there is an image stored in association with the position information where the pin mark 111 is displayed.
  • the pin mark 111 is displayed in red, for example.
  • the pin mark 111 displayed at the current position 105 indicating the current position may be displayed in green, for example, in order to distinguish it from others.
  • the pin mark 111 in the third region 103 indicates that an image having no position information exists.
  • the pin mark 111 in the third area 103 is displayed in, for example, yellow to distinguish it from the second area 102.
  • the display control unit 30 When the user taps a position where the pin mark 111 is displayed, the display control unit 30 displays an image corresponding to the vicinity of the pin mark 111 as a thumbnail image 108. In this way, when an image captured by the user already exists, when the user activates the imaging unit 20, the display control unit 30 pastes the image at a position on the map information corresponding to the position associated with the image captured in the past.
  • the pasting identification information (pin mark 111) is displayed in a different manner depending on the operated area.
  • An embodiment in which the pin mark 111 is not displayed in the third region 103 is also conceivable. For example, if the icon image displayed in the third area 103 is tapped twice in succession, a list of recorded images may be displayed in a pop-up without adding position information.
  • FIG. 6A and 6B are diagrams illustrating examples of tables stored in the imaging apparatus 1 according to the first embodiment.
  • FIG. 6A is a table in which coordinate information on the display unit 10 is associated with position information on map information.
  • the values in the “X-axis” and “Y-axis” fields of the table of FIG. 6A are coordinate information of the X-axis and Y-axis (see FIG. 6C) on the display unit 10, respectively.
  • position information In the “position information” column, a value indicating the position information of the point on the map information indicated by the coordinates by latitude / longitude information is stored.
  • the display control unit 30 creates such a table and stores it in the storage unit 60.
  • the operation detection unit 40 When the operation detection unit 40 detects the user's pasting operation, the operation detection unit 40 outputs the two-dimensional coordinate information of the pasting position in the XY directions to the image recording unit 50. And the image recording part 50 acquires the positional information on the map information which performed paste operation from the said two-dimensional coordinate information and this table.
  • the first line of FIG. 6A indicates that the latitude of the map displayed at the coordinates X1 and Y1 on the display unit 10 is 138 degrees 47 minutes 49 seconds east and 35 degrees 21 minutes 45 seconds north. ing.
  • the operation detection unit 40 displays the coordinate information X1 and Y1 as an image.
  • the image is output to the recording unit 50, and the image recording unit 50 reads "138 degrees 47 minutes 49 seconds east longitude, 35 degrees 21 minutes 45 seconds north latitude" from the table in FIG. 6A as position information associated with the captured image.
  • the image recording unit 50 associates the identifier of the captured image with the read position information and records it in the table shown in FIG. 6B of the storage unit 60.
  • FIG. 6B is a table that holds a captured image and position information associated with the image.
  • the value in the “identifier” column in FIG. 6B is the identifier of the captured image.
  • the value in the “position information” column is a value indicating the position associated with the image having the identifier in the “identifier” column by latitude / longitude information.
  • the image recording unit 50 distinguishes whether the image captured in this table is an identifier, position information, and whether the pasting operation has been performed in the second region or the third region. Record the classification.
  • the image recording unit 50 records coordinate information in the position information and 3 in the area section (see the third line in FIG.
  • the display control unit 30 reads position information and area division from this table when displaying the second area 102 and the third area 103, and the position where the position information is displayed on the map information of the second area 102. Are displayed in different manners depending on the position (green if the current position, red otherwise), the pin mark 111 is displayed. On the other hand, when the area section read by the display control unit 30 is 3, the display control unit 30 displays the yellow pin mark 111 at the coordinate position recorded in the position information of the record.
  • FIG. 7 is a diagram illustrating a processing flow of the imaging apparatus 1 according to the present embodiment.
  • the operation described with reference to FIGS. 4A and 4B will be described in detail using the processing flow of FIG.
  • the operation detection unit 40 detects a user's imaging instruction operation (step S ⁇ b> 1), and outputs the instruction information to the imaging unit 20.
  • the imaging unit 20 performs imaging and temporarily stores the captured image in the memory.
  • the operation detection unit 40 continues to detect the contact or approach state of the display unit 10 with the user's finger or the like, and when detecting that the user has released the finger or the like from the display unit 10,
  • the coordinate information (pasted coordinate information) is output to the image recording unit 50.
  • the image recording unit 50 determines whether or not the user has performed a pasting operation based on the pasted coordinate information (step S2). That is, the image recording unit 50 compares whether the pasted coordinate information is a position included in the first region 101 with the coordinate information indicating the range of the first region 101 recorded in the storage unit 60 in advance. judge.
  • the image recording unit 50 associates the coordinate information in the display unit 10 generated by the display control unit 30 with the position information on the map information. From (see FIG. 6A), position information (latitude / longitude information) on the map information where the user has performed the pasting operation is obtained using the pasted coordinate information.
  • the image recording unit 50 associates the identifier of the captured image with the position information, and records it in a table (see FIG. 6B) that is stored in the storage unit 60 and stores the captured image and the position information associated with the image.
  • step S4 or S5 ends, the image recording unit 50 stores the image information (binary data) of the captured image in the storage unit 60 in association with the identifier of the image (step S6).
  • the image recording unit 50 outputs the pasted coordinate information to the display control unit 30.
  • the display control unit 30 displays the paste identification information (pin mark 111) at the coordinate position in a different manner depending on the paste coordinate information (step S7). This processing flow is completed.
  • the user can add arbitrary position information to an image captured by a simple and intuitive operation immediately after imaging. Also, the user can easily record the captured image without adding position information. In addition, since the user associates with a desired position on the map information after taking an image, the user can take an image without missing a photo opportunity. Note that the user can display map information at an arbitrary position by scrolling the second area 102 before performing the imaging instruction operation. By doing so, the captured image can be associated with desired position information that is not the current position. Further, as a modification of the present embodiment, when a user performs an imaging instruction operation, map information including the current position is forcibly displayed even if map information not including the current position is displayed in the second region 102. It may be. The reason for this operation is that it is considered that the user often associates the captured image with the positional information of the captured location. Also, these operations can be switched according to settings, and can be used properly according to the user's preference.
  • the display control unit 30 darkens the brightness of the first area 101 after the user's imaging instruction operation.
  • the display control unit 30 narrows the first area 101 after the user's imaging instruction operation.
  • the map information may be displayed by enlarging the second area 102 instead.
  • the display control unit 30 displays the first area 101 with a size of about the third area and enlarges the map information. May be displayed.
  • the display control unit 30 gradually narrows the first area 101 with the movement of the user's finger or the like, and eventually does not display the first area 101 but covers the entire area of the display unit 10 except for the third area. Map information may be displayed.
  • the finger or the like is continuously moved to the second region 102 or the third region 103 while being in contact with or approaching the display unit 10, and the finger or the like is moved from the display unit 10.
  • the releasing operation is the user's pasting operation.
  • the following operation may be used.
  • the user performs an imaging instruction operation and once releases the finger from the first area 101.
  • the user performs a tap operation on the second area 102 or the third area 103 within a predetermined time (for example, within several seconds). In this way, the position on the map information tapped by the user is associated with the captured image.
  • the image may be discarded.
  • the imaging device 1 is PC which connected with the camera, for example, Comprising: The 1st area
  • FIG. 8 is a display example of the second area in the imaging apparatus according to the present embodiment.
  • the first area 101 and the third area 103 are the same as in the first embodiment. For example, it is assumed that Mt. Fuji is shown in the first area 101. In the second area 102a, for example, map information of the current position is displayed. Further, it is assumed that a wide area map around Mt.
  • Fuji is displayed in the second area 102b by the user's scrolling operation.
  • the user performs an imaging instruction operation on the first area 101.
  • the image recording unit 50 records the captured Mt. Fuji image in the storage unit 60 in association with the position information of the current position.
  • the image recording unit 50 records the captured image of Mt. Fuji in the storage unit 60 in association with the position information of the area 107 near Mt. Fuji.
  • the map information is moved from the current position so that another desired position is displayed and then imaged. There is no need to perform complicated operations such as performing an instruction and pasting operation, returning map information to the current position, and performing an imaging instruction and pasting operation again.
  • the user taps the current position 105 and the area 107 within a predetermined time after the user taps the area 104 and performs an imaging instruction operation, two images of the current position 105 and the area 107 are captured in the image captured by the image recording unit 50.
  • the position information may be added and recorded.
  • the imaging apparatus 1 described above has a computer inside.
  • Each process of the imaging apparatus 1 described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program.
  • the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • the captured image can be easily associated with the position information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示する表示制御部と、前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する画像記録部とを備える撮像装置。

Description

撮像装置、撮像方法及びプログラム

 本発明は、撮像装置、撮像方法及びプログラムに関する。

 近年では携帯電話がカメラ機能やGPS機能を備えており、カメラ機能を用いて撮像を行うと、撮像した画像にGPS機能によって特定された撮像場所の位置情報が自動で付加される機能が提供されている。

 また、撮像した画像に地図情報を付加して保存することができる電子カメラの技術が開示されている(特許文献1)。

特開2001-101225号公報

 しかし、撮像場所の位置情報が自動で付加される装置においては、ユーザが望まない場合においても位置情報が付加されてしまい、後にその位置情報を削除するのは手間がかかる。
 また、特許文献1の方法では、ユーザが撮像した画像に位置情報を付可する場合、ユーザは撮像した画像と地図情報とをそれぞれ表示させる操作が必要であり、さらに地図情報から所望の位置情報を選択して表示している画像に対応づけるという手順が必要となる。つまり特許文献1の方法では、撮像する操作と位置情報を画像に対応付ける操作が別々に分かれていて煩雑である。

 そこでこの発明は、上述の課題を解決することのできる撮像装置、撮像方法及びプログラムを提供することを目的としている。

 本発明は、撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示する表示制御部と、前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する画像記録部と、を備えることを特徴とする撮像装置を提供する。

 また本発明は、撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示し、前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録することを特徴とする撮像方法も提供する。

 また本発明は、撮像装置のコンピュータを撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示する手段、前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する手段、として機能させるためのプログラムも提供する。

 本発明によれば、撮像した画像と位置情報との対応付けを容易に行うことができるという効果が得られる。

本発明の第一の実施形態による撮像装置の最小構成を示す図である。 同第一の実施形態による撮像装置の具体的な構成を示す図である。 同第一の実施形態による撮像装置の外観の一例を示す図である。 同様に、同撮像装置の外観の一例を示す図である。 同第一の実施形態による撮像操作の一例を示す図である。 同様に、同撮像操作の一例を示す図である。 同第一の実施形態による撮像装置における画面イメージの一例を示す図である。 同第一の実施形態による撮像装置の記憶するテーブルの一例を示す図である。 同様に、同撮像装置の記憶するテーブルの一例を示す図である。 同撮像装置の表示部における座標情報を説明する図である。 同第一の実施形態による撮像装置の処理フローを示す図である。 本発明の第二の実施形態による撮像装置における第2領域の表示例を示す図である。

<第一の実施形態>

 以下、本発明の一実施形態による撮像装置を図1~図7を参照して説明する。

 図1は第一の実施形態による撮像装置の最小構成を示す図である。

 この図において、符号1は撮像装置を表している。図1に示す通り、撮像装置1は少なくとも表示制御部30、画像記録部50を備えている。

 表示制御部30は、自装置が備える表示部又は自装置に接続された表示装置の表示部(画面)に表示する表示情報を制御する機能を有している。本実施形態において表示制御部30が行う表示制御のうち主なものは以下である。
 1つ目は、ユーザによる撮像部を起動する操作に基づいて画面を少なくとも2つの表示領域に分割し、第1領域に撮像部が撮像する又は撮像した画像を表示し、第2領域には地図情報を表示する。さらに第3領域として背景色だけを表示する領域を設けてもよい。
 2つ目は、撮像部が撮像した画像を関連付けた位置情報を示す第2領域内の各位置に、関連付けたことがわかる貼り付け識別情報を表示する。

 画像記録部50は、ユーザの操作に基づいて、ユーザが撮像した画像に位置情報を付加して記録する機能を有している。具体的には、ユーザが撮像を行い、続けて第2領域に表示された地図情報の任意の位置を指定すると、画像記録部50は、当該位置の位置情報を画像に付加し記録する。また、ユーザが撮像操作に続いて第3領域の任意の位置を指定した場合、撮像した画像に位置情報を付加せず記録する。

 図2は第一の実施形態による撮像装置の具体的な構成を示す図である。なお、図1と同じ機能部には同じ符号を付して説明する。

 図2に示す通り、撮像装置1は、表示部10、撮像部20、表示制御部30、操作検出部40、画像記録部50、記憶部60を備えている。

 表示部10は、撮像装置1の表示画面である。また、表示部10は、例えばディスプレイとタッチパネルが一体に組み合わされたもので、表示機能と入力機能を兼ね備えている。

 撮像部20は、静止画又は動画を撮影するカメラ機能である。例えばCMOSやCCD等のイメージセンサーを備えたカメラモジュールでよい。撮像部20は、ユーザの撮像指示によって静止画又は動画の撮像を行う。

 操作検出部40は、ユーザによる表示部10へのタッチ操作や、ホバー操作、もしくはキー操作に応じてユーザの操作指示を取得する。なお、ここで言うホバー操作とは、指等を画面から軽く離した状態で動かして操作を行う操作方法である。

 記憶部60は、ユーザの撮像した画像や第2領域に表示する地図情報などを記憶するデータベースである。

 表示制御部30、操作検出部40、画像記録部50は、撮像装置1に備わるCPU(Central Processing Unit)がプログラムを実行することにより備わる機能である。

 図3A及び3Bは、本第一の実施形態による撮像装置の外観の一例を示す図である。

 第一の実施形態による撮像装置1の代表的な例は、コンピュータの機能を併せ持った携帯電話(スマートフォン)である。
 図3Aで示すように、撮像装置1は筐体の第1主面に表示部10を備えている。また、図3Bで示すように、撮像装置1は第2主面に撮像部のレンズ21を備えている。

 ユーザが所定の操作によってカメラ機能を有効にすると、撮像部20が起動する。すると表示制御部30は、表示部10に第1領域101、第2領域102、そして第3領域103を同時に表示する。
 第1領域101は、撮像部20の映す画像が表示される領域である。ユーザはこの位置に表示される画像を確認して、撮像対象を撮像する。この第1領域101は、ユーザが撮像対象の写り具合を確認できる程度に十分な広さを有しており、例えば表示部10を水平方向に等分に分割したときの上半分の領域である。

 第2領域102は、地図情報を表示する領域である。地図情報は予め撮像装置1の記憶部60に格納されており、表示制御部30がそれを読み出して表示してもよいし、表示制御部30が通信部(図示せず)を介して外部のサーバ等から取得して表示してもよい。
 初期設定では、この領域に表示される地図情報に示されるのは、ユーザの現在位置を含む所定の縮尺の地図である。そして、ユーザの現在位置が例えば点滅する緑色の円で示され識別可能になっている。
 ここで、現在位置を示す情報は、撮像装置1が備えるGPS機能によって取得するものとする。また、撮像部20が起動したときに表示される地図情報の位置は、設定用のプログラムを用いてユーザが任意に決めることができるようにしてもよい。
 また、地図情報はユーザのフリック操作(画面上で指を素早く動かしたり弾いたりする操作)によりスクロールが可能で、他の地域の地図情報を表示することも可能である。あるいは、ユーザのピンチイン操作(画面上で2本の指の間隔を狭める操作)、ピンチアウト操作(画面上で2本の指の間隔を広げる操作)により地図の縮尺を変更することも可能である。第2領域102は、ユーザが地図情報を確認できる程度に十分な広さを有しており、例えば表示部10を水平方向に等分に分割したときの下半分の領域である。

 第3領域103は、第2領域102内部に設けられた位置情報を表示しない領域であって、例えば、第1領域101と第2領域102との境界近傍にユーザがタッチ操作可能なように最低限ユーザの指先程度の広さを有した領域である。第3領域103に表示されるのは、例えばアイコン画像であってもよい。

 図4A及び4Bは、本実施形態による撮像装置の撮像操作の一例を示す図である。これらの図を用いて、ユーザの操作により撮像した画像と位置情報を関連付ける操作について説明する。なお、図示の例では、説明の便宜上、第1領域101よりも第2領域102を広くしている。

 図4Aは、花の写真を撮像する為に撮像装置1の撮像部20を起動し、レンズ21を撮像対象の花に向けているときの表示部10に映る画像である。第1領域101には花が表示され、第2領域102にはユーザの現在位置付近の地図情報が表示されている。符号105はユーザの現在位置を示している。現在位置105は、例えば緑色の点滅する円で表示されていてもよい。
 ユーザは、第1領域101に表示された花の画像を見て撮像するのに適切であると認識すると、撮像指示操作を行う。本実施形態において撮像指示操作とは、第1領域101の任意の領域104にユーザが指等でタップ(接触)すること又は接近させることであるとする。ユーザが領域104にタップすると、操作検出部40がその撮像指示操作を検出し、撮像部20が撮像を開始する。
 操作検出部40がユーザの撮像指示操作を検出すると直ぐに撮像部20が撮像を行うのでユーザが意図するシャッターチャンスを逃さない。なお、撮像部20の撮像は、公知の技術を用いて行うものとする。

 ユーザは撮像操作指示を行うと、撮像指示を行った指等を接触(又は接近)させたまま、その指等を第2領域102又は、第3領域103に移動させる。そのときの表示部10に表示される画像を示したのが図4Bである。

 図4Bの第1領域101には、撮像対象の花の画像が写っておらず、表示部10のその領域部分は暗くなっている。これは撮像部20の撮像動作が完了し、操作検出部40がユーザが第1領域101から指等を接触させたまま第2領域又は第3領域に移動させたことを検出すると、表示制御部30が表示部10の所定の領域(ここでは第1領域101)の輝度を低下する制御を行った結果である。
 表示制御部30が輝度を低下させるのは、撮像した画像の確認が終わり画像を表示する必要がないためである。ここで、表示制御部30が表示部10の所定の領域の輝度を低下させるのは、撮像した画像の確認に必要な所定の時間が経過した後であってもよい。
 また、撮像部20は、当該花の画像を撮像すると、その画像を一時的にメモリに保持する。
 表示制御部30は、ユーザが指等を移動させるのを検出した軌道に沿ってポインタを移動し、それに付随して撮像した画像に対応する小さなサムネイル画像108を表示する。
 符号106の矢印は、撮像した画像をユーザの現在位置に関連付けるときにユーザが指等を移動させる軌道の一例である。ユーザは、領域104から矢印106に沿って指等を接触又は接近させたまま移動し、現在位置105内の任意の領域107でその指等を表示部10から離す。すると操作検出部40が指等を離す操作を検出し、画像記録部50は、先に撮像し一時的に保存した画像と領域107の位置情報(図示の例ではユーザの現在位置の情報)を関連付けて記憶部60に記録する。
 本実施形態においては、ユーザの撮像指示操作後に指等を表示部10に接触又は接近させたまま第1領域101から他の領域へ移動させ表示部10から離す操作を貼り付け操作という。貼り付け操作は撮像した画像の記録を指示する操作である。

 一方、ユーザは、矢印109の軌道で指等を移動させ第3領域103内の任意の領域110でその指等を表示部10から離しても良い。すると、画像記録部50は、先に撮像し一時的に保存した画像を位置情報に関連付けることなく記憶部60に記録する。このときもユーザが指等を移動させている軌道に沿って、表示制御部30がサムネイル画像108を表示する。

 なお、ユーザが撮像指示操作を行いそのまま第1領域101で表示部10から指を離した(遠ざけた)ときは、一時的に保存した画像を記憶せず破棄する。

 このように、本実施形態では、ユーザの操作により撮像部20が起動すると、表示制御部30が表示部10に第1~3領域を表示し、操作検出部40がユーザによる第1領域101への撮像指示操作を検知すると、撮像部20が撮像を開始する。
 そして、ユーザによる画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、貼り付け操作の終了検知時に、画像記録部50が当該地図情報の貼り付け位置の位置情報を撮像した画像に付加し、画像を記憶する。
 また、撮像指示操作に続いて前記第3領域に対して貼り付け操作が行われたときには画像記録部50は画像を位置情報と関連付けないで記憶する。

 なお、上述した動作は静止画像の撮像を例にしたが、動画を撮影するときには例えば以下のような動作となる。
 まず、ユーザが静止画像の撮像指示操作の場合とは異なるn本指(例:2本指)で第1領域101をタップすると撮像部20は動画撮影を開始する。そして動画撮影中にユーザが任意の本数の指(例:1本指)でタップすると撮像部20は動画撮影を終了する。その後の動作は静止画像のときと同じである。

 なお、タップ操作を行うのは指だけではなくスタイラスペンなどでもよい。

 図5は本実施形態による撮像装置撮像装置における画面イメージの一例を示す図である。図5を用いてユーザが撮像した画像と位置情報がどのように表示されるかについて説明する。

 図5は、所定の操作によって撮像部20を起動したときの表示部10に表示される画像を示している。第1領域101には撮像対象の画像が表示されている。第2領域102には地図情報が表示され、第3領域103には地図情報が表示されていない。
 図4Aとの違いは、図5においては第2領域102と第3領域103に複数のピンマーク111が表示されていることである(図5では、見やすさのため、符号111は1つのピンマークにのみ付加)。ピンマーク111は、ユーザが貼り付け操作を終了した位置に表示される貼り付け識別情報である。

 第2領域102のピンマーク111は、そのピンマーク111が表示された位置情報に関連付けられて記憶されている画像が存在することを示している。このピンマーク111は、例えば赤色で表示される。ただし、現在位置を示す現在位置105に表示されたピンマーク111は、他と区別するために例えば緑色で表示されていてもよい。

 一方、第3領域103のピンマーク111は、位置情報を持たない画像が存在することを示している。第3領域103のピンマーク111は、第2領域102と区別するために例えば黄色で表示される。

 ユーザがピンマーク111が表示されている位置をタップすると、表示制御部30はそのピンマーク111付近に対応する画像をサムネイル画像108として表示する。

 このようにユーザが撮像した画像が既に存在する場合、ユーザが撮像部20を起動すると表示制御部30は、過去に撮像した画像に関連付いた位置に対応する地図情報上の位置に、貼り付け操作を行った領域に応じて異なる態様で貼り付け識別情報(ピンマーク111)を表示する。

 なお、第3領域103にはピンマーク111を表示させない実施例も考えられる。例えば第3領域103に表示されているアイコン画像を2回連続してタップすると、位置情報を付加せずに記録した画像の一覧がポップアップで表示されるようにしてもよい。

 図6A及び6Bは、第一の実施形態による撮像装置1の記憶するテーブルの一例を示す図である。

 図6Aは、表示部10における座標情報と地図情報上の位置情報とを対応付けたテーブルである。図6Aのテーブルの「X軸」、「Y軸」欄の値、はそれぞれ表示部10におけるX軸、Y軸(図6C参照)の座標情報である。また、「位置情報」欄にはその座標で示された地図情報上の点の位置情報を緯度・経度情報で示した値が格納されている。

 表示制御部30は、地図情報を表示すると、このようなテーブルを作成し、記憶部60に保存する。そして、操作検出部40がユーザの貼り付け操作を検出すると、操作検出部40は貼り付け位置のXY方向の2次元座標情報を画像記録部50へ出力する。そして画像記録部50は、当該2次元座標情報とこのテーブルとから、貼り付け操作を行った地図情報上の位置情報を取得する。

 例えば、図6Aの1行目は、表示部10上の座標X1、Y1の位置に表示されている地図の緯度は東経138度47分49秒、北緯35度21分45秒であることを示している。ユーザが撮像指示操作後、第2領域の座標X1、Y1で示される位置まで指等を移動し、ここで表示部10から指等を離すと、操作検出部40が座標情報X1、Y1を画像記録部50へ出力し、画像記録部50は図6Aのテーブルから、撮像した画像に関連付ける位置情報として「東経138度47分49秒、北緯35度21分45秒」を読み取る。

 そして画像記録部50は、撮像した画像の識別子と読み取った位置情報とを対応付けて、記憶部60の図6Bで示すテーブルに記録する。

 図6Bは、撮像した画像とその画像に関連付けた位置情報を保持するテーブルである。図6Bの「識別子」欄の値は、撮像した画像の識別子である。また、「位置情報」欄の値は、「識別子」欄の識別子を有する画像に関連付けられた位置を緯度・経度情報で示した値である。
 上述のとおりユーザが貼り付け操作を行うと、画像記録部50は、このテーブルに撮像した画像の識別子、位置情報、貼り付け操作を行ったのが第2領域か第3領域かを区別する領域区分を記録する。ユーザが貼り付け操作を行ったのが第3領域103であった場合、画像記録部50は位置情報には座標情報を、領域区分には3を記録する(図6Bの3行目参照)。

 また、表示制御部30は、第2領域102及び第3領域103を表示するときにこのテーブルから位置情報、領域区分を読み込み、当該位置情報が第2領域102の地図情報上に表示される位置に含まれる場合には、当該位置に応じて異なる態様で(現在位置ならば緑、それ以外は赤)ピンマーク111を表示する。
 一方、表示制御部30が読み込んだ領域区分が3である場合、表示制御部30はそのレコードの位置情報に記録された座標位置に黄色のピンマーク111を表示する。

 図7は本実施形態による撮像装置1の処理フローを示す図である。

 図7の処理フローを用いて、図4A及び4Bを参照して説明した動作について、詳しく説明する。

 前提として、ユーザは所定の操作によって撮像装置1の撮像部20を起動しており、表示部10には第1領域101、第2領域102、第3領域103が表示されているものとする。そしてユーザは動画ではなく静止画像を撮影するものとする。

 まず、操作検出部40がユーザの撮像指示操作を検出(ステップS1)し、その指示情報を撮像部20へ出力する。撮像指示情報を取得すると、撮像部20は撮像を行い、撮像した画像を一時的にメモリに格納する。
 続いて操作検出部40は、ユーザの指等による表示部10への接触又は接近状態を検出し続け、ユーザが指等を表示部10から離したことを検出すると、離した位置を示す2次元座標情報(貼り付け座標情報)を画像記録部50へ出力する。
 次に画像記録部50は、貼り付け座標情報に基づいてユーザが貼り付け操作を行ったかどうかを判定する(ステップS2)。つまり、画像記録部50は、貼り付け座標情報が第1領域101に含まれる位置であるか否かを、記憶部60に予め記録された第1領域101の範囲を示した座標情報と比較し判定する。そして貼り付け座標情報が第1領域101に含まれるとき、画像記録部50はユーザが貼り付け処理を行わなかった(ステップS2=NO)と判定し、一時的にメモリに格納した撮像画像を破棄する。この場合、本処理フローは終了する。

 貼り付け座標情報が第1領域101以外の領域を示すとき、画像記録部50はユーザが貼り付け処理を行った(ステップS2=YES)と判定し、続いて貼り付け座標情報が第2領域102かどうかを第2領域102の範囲を示した座標情報に基づいて判定する(ステップS3)。
 貼り付け座標情報が第2領域102のとき(ステップS3=YES)、画像記録部50は、表示制御部30が生成した表示部10における座標情報と地図情報上の位置情報とを対応付けたテーブル(図6A参照)から、貼り付け座標情報を用いて、ユーザが貼り付け操作を行った地図情報上の位置情報(緯度・経度情報)を取得する。そして画像記録部50は、撮像した画像の識別子と位置情報とを対応付けて、記憶部60の保持する、撮像した画像とその画像に関連付けた位置情報を記憶するテーブル(図6B参照)へ記録する(ステップS4)。
 また、貼り付け座標情報が第3領域103内の座標であるとき(ステップS3=NO)、画像記録部50は、撮像した画像の識別子と貼り付け座標情報とを対応付けて、同様に、撮像した画像とその画像に関連付けた位置情報を保持するテーブル(図6B参照)へ記録する(ステップS5)。

 ステップS4又はS5が終了すると、画像記録部50は、撮像した画像の画像情報(バイナリデータ)を、像の識別子と対応付けて記憶部60へ格納する(ステップS6)。
 次に画像記録部50は、貼り付け座標情報を表示制御部30へ出力する。表示制御部30は、貼り付け座標情報に応じて異なる態様で、当該座標位置に貼り付け識別情報(ピンマーク111)を表示する(ステップS7)。
 以上で本処理フローを終了する。

 本実施形態によれば、ユーザは撮像直後の簡単で直観的な操作で撮像した画像に任意の位置情報を付加することができる。また、ユーザは撮像した画像に位置情報を付加せずに記録しておくことも容易に行える。また、ユーザは撮像を行った後に地図情報上の所望の位置に関連付けを行うので、シャッターチャンスを逃さず撮像することができる。

 なお、ユーザは、撮像指示操作を行う前に、第2領域102に対するスクロール操作によって任意の位置の地図情報を表示させておくことも可能である。そのようにすることで、撮像した画像を現在位置ではない所望の位置情報に関連付けることができる。
 また、本実施形態の変形として、ユーザの撮像指示操作が行われたら、第2領域102に現在位置を含まない地図情報が表示されていても強制的に現在位置を含む地図情報を表示するようにしてもよい。このような動作とするのは、ユーザは撮像した画像を撮像した場所の位置情報に関連付けることが多いと考えられるためである。
 また、これらの動作を設定によって切り替えることができ、ユーザの好みに応じて使い分けることができるようにしてもよい。

 また、図4Bにて、ユーザの撮像指示操作後に表示制御部30が第1領域101の輝度を暗くする例を記載したが、ユーザの撮像指示操作後に表示制御部30が第1領域101を狭めて表示し、代わりに第2領域102を拡大して地図情報を表示してもよい。例えば、操作検出部40がユーザの撮像指示操作後の指等の移動を検出すると、表示制御部30が第1領域101を第3領域程度の大きさに狭めて表示し、地図情報を拡大して表示してもよい。あるいは表示制御部30は、ユーザの指等の移動に伴い第1領域101を徐々に狭めていき、最終的には第1領域101を表示せず、表示部10の第3領域を除く全面に地図情報を表示してもよい。

 また、本実施形態においてユーザの撮像指示操作に続いて継続的に指等を表示部10に接触又は接近させたまま第2領域102又は第3領域103に移動させて表示部10から指等を離すことをユーザの貼り付け操作としたが、例えば以下のような操作であってもよい。
 まず、ユーザが撮像指示操作を行って第1領域101から一度指等を離す。そして所定時間内(例えば数秒以内)にユーザが第2領域102又は第3領域103にタップ操作を行う。このようにして、ユーザがタップした地図情報上の位置と撮像した画像とを関連付ける。なお、この操作においては撮像指示操作後に第1領域101をタップしたらその画像を破棄してもよい。

 また、本実施形態においてタッチパネルを備えたスマートフォンを例に動作を説明したが、撮像装置1が例えばカメラと連結したPCであって、ユーザがPCのディスプレイに表示された第1領域101、第2領域102、第3領域103に対してマウス操作やタッチパッド操作によって撮像指示操作や貼り付け操作を行う実施形態も考えられる。

<第二の実施の形態>

 以下、本発明の第二の実施形態による撮像装置を図8を参照して説明する。

 第二の実施形態において、撮像装置1の構成は第一の実施形態と同じであるが、表示制御部30が第2領域102に複数種類の地図情報を表示する点が異なる。

 図8は、本実施形態による撮像装置における第2領域の表示例である。
 第1領域101及び第3領域103は第一の実施形態と同様である。第1領域101には、例えば富士山が写っているものとする。そして第2領域102aには、例えば現在位置の地図情報が表示されている。また、第2領域102bには、ユーザのスクロール操作によって富士山周辺の広域地図が表示されているものとする。

 ユーザは、第1領域101に対して撮像指示操作を行う。続いてユーザが第2領域102aの現在位置105へ貼り付け操作を行うと、画像記録部50は、撮像した富士山の画像を現在位置の位置情報と関連付けて記憶部60に記録する。また、ユーザが第2領域102bの領域107へ貼り付け操作を行うと、画像記録部50は、撮像した富士山の画像を富士山付近の領域107の位置情報と関連付けて記憶部60に記録する。

 本実施形態によれば、1つの撮像対象の画像を複数の位置情報に関連付けて記録したいときにも、例えば地図情報を現在位置から所望の別の位置が表示されるように移動させてから撮像指示及び貼り付け操作を行い、更に地図情報を現在位置に戻して再度撮像指示及び貼り付け操作を行うといった煩雑な操作を行う必要がない。
 また、ユーザが領域104をタップして撮像指示操作を行った後の所定時間内に現在位置105及び領域107をタップすると、画像記録部50が撮像した画像に現在位置105及び領域107の2つの位置情報を付可して記録するようにしてもよい。

 なお、上述の撮像装置1は内部にコンピュータを有している。そして、上述した撮像装置1の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
 ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。

 また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。

 さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。

 その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。また、この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。

 この出願は、2013年9月25日に出願された日本出願特願2013-197753号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明によれば、撮像した画像と位置情報との対応付けを容易に行うことができるという効果が得られる。

1・・・撮像装置
10・・・表示部
20・・・撮像部
21・・・レンズ
30・・・表示制御部
40・・・操作検出部
50・・・画像記録部
60・・・記憶部
101・・・第1領域
102・・・第2領域
103・・・第3領域
104・・・領域
105・・・現在位置
107・・・領域
108・・・サムネイル画像
110・・・領域
111・・・ピンマーク

Claims (10)


  1.  撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示する表示制御部と、

     前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する画像記録部と、

     を備えることを特徴とする撮像装置。

  2.  前記表示制御部は、位置情報を表示しない第3領域をさらに表示し、

     前記画像記録部は、前記撮像指示操作に続いて前記第3領域に対して貼り付け操作が行われたときに、前記画像を位置情報と関連付けないで記憶するよう制御する

     ことを特徴とする請求項1に記載の撮像装置。

  3.  前記撮像指示操作の開始検知時に撮像を開始し、前記貼り付け操作の終了検知時に前記画像を記憶する

     ことを特徴とする請求項1又は請求項2に記載の撮像装置。

  4.  前記表示制御部は、前記貼り付け操作を行った位置に、前記貼り付け操作を行った領域に応じて異なる態様で貼り付け識別情報を表示する

     ことを特徴とする請求項1から請求項3の何れか一項に記載の撮像装置。

  5.  前記表示制御部は、前記撮像指示操作の後、前記貼り付け操作の終了までの間に、前記第2領域に現在位置を含む地図情報を表示する

     ことを特徴とする請求項1から請求項4の何れか一項に記載の撮像装置。

  6.  前記表示制御部は、前記撮像指示操作の後に前記第1領域の輝度を低下させる ことを特徴とする請求項1から請求項5の何れか一項に記載の撮像装置。

  7.  前記表示制御部は、前記撮像指示操作の後に前記第1領域を狭めて表示する

     ことを特徴とする請求項1から請求項6の何れか一項に記載の撮像装置。

  8.  前記表示制御部は、前記貼り付け操作において、表示されたポインタの近傍に前記画像のサムネイルを表示する

     ことを特徴とする請求項1から請求項7の何れか一項に記載の撮像装置。

  9.  撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示し、

     前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する

     ことを特徴とする撮像方法。

  10.  撮像装置のコンピュータを

     撮像部を起動する操作に基づいて、前記撮像部が撮像する画像を表示する第1領域と地図情報を表示する第2領域とを表示部に表示する手段、

     前記第1領域に対する画像の撮像指示操作に続けた当該画像の前記地図情報への貼り付け操作に基づいて、当該地図情報における貼り付け位置の位置情報を前記画像に付加して当該画像を記録する手段、

     として機能させるためのプログラム。
PCT/JP2014/071019 2013-09-25 2014-08-08 撮像装置、撮像方法及びプログラム WO2015045645A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14847450.5A EP3051795A4 (en) 2013-09-25 2014-08-08 Image capturing device, image capturing method, and program
CN201480052259.9A CN105765960B (zh) 2013-09-25 2014-08-08 拍摄装置、拍摄方法以及程序
US15/023,457 US9848160B2 (en) 2013-09-25 2014-08-08 Imaging apparatus, imaging method and program
JP2015539009A JP6409777B2 (ja) 2013-09-25 2014-08-08 撮像装置、撮像方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-197753 2013-09-25
JP2013197753 2013-09-25

Publications (1)

Publication Number Publication Date
WO2015045645A1 true WO2015045645A1 (ja) 2015-04-02

Family

ID=52742801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/071019 WO2015045645A1 (ja) 2013-09-25 2014-08-08 撮像装置、撮像方法及びプログラム

Country Status (5)

Country Link
US (1) US9848160B2 (ja)
EP (1) EP3051795A4 (ja)
JP (1) JP6409777B2 (ja)
CN (1) CN105765960B (ja)
WO (1) WO2015045645A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021091026A (ja) * 2019-12-09 2021-06-17 ファナック株式会社 アイコンプログラミング機能を備えたロボット教示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207400A (ja) * 1997-01-24 1998-08-07 Canon Inc 液晶表示装置及びその光源制御方法
JP2001101225A (ja) 1999-10-01 2001-04-13 Fuji Photo Film Co Ltd 電子カメラ及び編集装置
JP2007235448A (ja) * 2006-02-28 2007-09-13 Olympus Imaging Corp カメラ、カメラの制御方法、プログラム、記録媒体
JP2009075656A (ja) * 2007-09-18 2009-04-09 Toyota Motor Corp 入力表示装置
JP2009225350A (ja) * 2008-03-18 2009-10-01 Nec Corp 携帯端末装置および携帯端末装置を用いた位置管理システム
JP2012147167A (ja) * 2011-01-11 2012-08-02 Sharp Corp 撮影装置、当該撮影装置を含む情報処理端末、撮影装置を制御するための方法、および当該方法を実現するためのプログラム
JP2013084104A (ja) * 2011-10-07 2013-05-09 Panasonic Corp 位置情報登録装置、位置情報登録方法および電子機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630721B2 (ja) * 1994-07-13 2005-03-23 キヤノン株式会社 マルチメディアデータ処理方法、マルチメディアデータ処理装置、属性情報登録装置および属性情報登録方法
US8712192B2 (en) * 2006-04-20 2014-04-29 Microsoft Corporation Geo-coding images
JP2008042887A (ja) * 2006-07-14 2008-02-21 Ricoh Co Ltd 撮像装置、撮像システム、画像データの記録方法およびプログラム
EP2088777B1 (en) * 2006-10-04 2013-03-06 Nikon Corporation Electronic apparatus
JP4831079B2 (ja) * 2008-01-17 2011-12-07 ソニー株式会社 プログラム、画像データ処理方法、画像データ処理装置
US7847729B2 (en) * 2008-01-28 2010-12-07 Research In Motion Limited GPS pre-acquisition for geotagging digital photos
JP4931845B2 (ja) * 2008-03-18 2012-05-16 富士フイルム株式会社 撮像装置及び撮影画像表示制御方法
KR101432593B1 (ko) * 2008-08-20 2014-08-21 엘지전자 주식회사 이동단말기 및 그 지오태깅 방법
US8185134B2 (en) * 2008-10-21 2012-05-22 Qualcomm Incorporated Multimode GPS-enabled camera
JP5299054B2 (ja) * 2009-04-21 2013-09-25 ソニー株式会社 電子機器、表示制御方法およびプログラム
JP5549515B2 (ja) * 2010-10-05 2014-07-16 カシオ計算機株式会社 撮像装置及び方法、並びにプログラム
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
JP2013110569A (ja) * 2011-11-21 2013-06-06 Sony Corp 画像処理装置、位置情報付加方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207400A (ja) * 1997-01-24 1998-08-07 Canon Inc 液晶表示装置及びその光源制御方法
JP2001101225A (ja) 1999-10-01 2001-04-13 Fuji Photo Film Co Ltd 電子カメラ及び編集装置
JP2007235448A (ja) * 2006-02-28 2007-09-13 Olympus Imaging Corp カメラ、カメラの制御方法、プログラム、記録媒体
JP2009075656A (ja) * 2007-09-18 2009-04-09 Toyota Motor Corp 入力表示装置
JP2009225350A (ja) * 2008-03-18 2009-10-01 Nec Corp 携帯端末装置および携帯端末装置を用いた位置管理システム
JP2012147167A (ja) * 2011-01-11 2012-08-02 Sharp Corp 撮影装置、当該撮影装置を含む情報処理端末、撮影装置を制御するための方法、および当該方法を実現するためのプログラム
JP2013084104A (ja) * 2011-10-07 2013-05-09 Panasonic Corp 位置情報登録装置、位置情報登録方法および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3051795A4

Also Published As

Publication number Publication date
EP3051795A1 (en) 2016-08-03
US9848160B2 (en) 2017-12-19
JP6409777B2 (ja) 2018-10-24
EP3051795A4 (en) 2017-05-10
CN105765960B (zh) 2018-10-12
CN105765960A (zh) 2016-07-13
US20160212371A1 (en) 2016-07-21
JPWO2015045645A1 (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
US9591209B2 (en) Method for photographing control and electronic device thereof
US9329776B2 (en) Display control device, method and computer program product
US11550420B2 (en) Quick review of captured image data
EP2770724B1 (en) Apparatus and method for positioning image area using image sensor location
US10055081B2 (en) Enabling visual recognition of an enlarged image
US20140096052A1 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
JP6403368B2 (ja) 携帯端末、画像検索プログラムおよび画像検索方法
US20170251141A1 (en) Image capturing control apparatus, image capturing control method, and computer program
US11068062B2 (en) Display device and method for cancelling a user selected feature on a graphical user interface according to a change in display device rotation
EP4195647A1 (en) Image processing method, mobile terminal, and storage medium
KR20100088248A (ko) 사용자 인터페이스 제어 방법 및 그를 이용한 이동 단말기
JP6128919B2 (ja) 表示制御装置及びその制御方法
US11099728B2 (en) Electronic apparatus, control method, and non-transitory computer readable medium for displaying a display target
JP6409777B2 (ja) 撮像装置、撮像方法及びプログラム
KR101083158B1 (ko) 터치스크린이 구비된 이동 단말기의 컨텐츠 전환 방법
US20200257396A1 (en) Electronic device and control method therefor
JP6548068B2 (ja) 電子機器、表示制御方法及びプログラム
JP2014142773A (ja) 電子機器、表示制御方法及びプログラム
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP6269738B2 (ja) 情報処理装置、情報処理方法および記録媒体
KR20140088669A (ko) 카메라를 구비하는 장치의 이미지촬영장치 및 방법
JP2015001680A (ja) 撮像装置、撮像方法及びプログラム
JP2017152841A (ja) 撮像装置、操作制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14847450

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015539009

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014847450

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014847450

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15023457

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE